Nvidia y Meta anunciaron que la gigante de las redes sociales había acordado comprar chips de Nvidia por valor de miles de millones de dólares para proporcionar potencia de cálculo a sus enormes proyectos de infraestructura, con las CPU de Nvidia como parte del acuerdo.
El acuerdo plurianual es una ampliación de la estrecha colaboración que mantienen ambas empresas. Anteriormente, Meta había calculado que, para finales de 2024, habría adquirido 350,000 chips H100 de Nvidia y que, para finales de 2025, la empresa tendría acceso a 1.3 millones de GPU en total (aunque no estaba claro si todas serían de Nvidia).
Como parte del último anuncio, Nvidia afirmó que Meta "construirá centros de datos a hiperescala optimizados tanto para el entrenamiento como para la inferencia en apoyo de la hoja de ruta de la infraestructura de IA a largo plazo de la compañía". Esto incluye un "despliegue a gran escala" de las CPU de Nvidia y "millones de GPU Nvidia Blackwell y Rubin".
Cabe destacar que Meta es el primer gigante tecnológico que anuncia la compra a gran escala de la CPU Grace de Nvidia como chip independiente, algo que Nvidia dijo que sería una opción cuando reveló las especificaciones completas de su nuevo superchip Vera Rubin en enero. Nvidia también ha insistido en que ofrece tecnología que conecta varios chips, como parte de su "enfoque integral" de la potencia de cálculo, en palabras de un analista.
Ben Bajarin, CEO y analista principal de la empresa de investigación de mercados tecnológicos Creative Strategies, asegura que el movimiento indica que Nvidia reconoce que una gama cada vez mayor de software de IA necesita ahora ejecutarse en CPU, de forma muy parecida a como lo hacen las aplicaciones convencionales en la nube. "La razón por la que la industria está tan interesada en las CPU de los centros de datos es la IA agéntica, que plantea nuevas exigencias a las arquitecturas de CPU de propósito general", resalta.
Un informe reciente del boletín de chips Semianalysis subraya este punto. Los analistas indicaban que el uso de CPU se está acelerando para apoyar el entrenamiento y la inferencia de IA, y citaban como ejemplo uno de los centros de datos de Microsoft para OpenAI, donde "ahora se necesitan decenas de miles de CPU para procesar y gestionar los petabytes de datos generados por las GPU, un caso de uso que de otro modo no habría sido necesario sin IA".
Bajarin señala, no obstante, que las CPU siguen siendo apenas uno de los componentes de los sistemas de hardware de IA más avanzados. El número de GPU que Meta compra a Nvidia sigue siendo superior al de CPU.
una entrevista concedida a WIRED, el fundador y CEO de Nvidia. Jensen Huang, estimó que el negocio de Nvidia era probablemente "un 40% de inferencia y un 60% de entrenamiento".En diciembre, Nvidia anunció que se iba a gastar 20,000 millones de dólares en licenciar tecnología de la startup de chips Groq y en incorporar al redil de Nvidia a algunos de los principales talentos de Groq, incluido su CEO, Jonathan Ross. Según un comunicado de Groq, el acuerdo refleja un "enfoque compartido para ampliar el acceso a la inferencia de alto rendimiento y bajo costo". La operación representa la mayor inversión de Nvidia hasta la fecha.
La competencia se recrudece
El acuerdo de Nvidia con Meta se produce en un momento en el que los principales laboratorios de IA y empresas de software multimillonarias buscan diversificar sus fuentes de potencia de cálculo. OpenAI, Anthropic, Meta, xAI y muchos otros han confiado en el hardware de Nvidia para realizar el trabajo pesado a medida que entrenaban y desplegaban modelos generativos de IA en los últimos años.
Ahora, en muchos casos, construyen o personalizan sus propios chips, presionando a Nvidia para que ofrezca más servicios.
Microsoft utiliza una mezcla de GPU de Nvidia y chips diseñados a medida para sus servicios de IA en la nube. Google también utiliza chips Nvidia para sus servicios en la nube, pero confía principalmente en sus propias unidades de procesamiento tensorial (TPU) para entrenar y desplegar sus modelos avanzados de IA. Google también ha considerado vender sus TPU a Meta.
Anthropic utiliza una combinación de GPU de Nvidia, TPU de Google y chips de Amazon (uno de sus accionistas minoritarios más importantes) para sus modelos de IA de Claude. El cofundador y consejero delegado de Anthropic, Dario Amodei, es también uno de los escasos ejecutivos que ha criticado públicamente los esfuerzos de presión de Huang para persuadir al gobierno estadounidense de que permita a Nvidia vender chips avanzados a China.
OpenAI, que el año pasado firmó un enorme acuerdo de infraestructura de IA con Nvidia que podría alcanzar los 100,000 millones de dólares, ha dicho abiertamente que está trabajando con Broadcom para crear su propio hardware de chips de IA y sistemas de red.
utilizar tecnología de Cerebras para "añadir 750 MW de computación de IA de latencia ultrabaja" a las plataformas de OpenAI. El acuerdo estaba valorado en 10,000 millones de dólares, no tanto como sus acuerdos con Nvidia, pero tampoco insignificante."Los laboratorios de IA buscan diversificarse porque las necesidades están cambiando, sí, pero la mayoría sigue sin poder acceder a suficientes GPU", concluye Bajarin. "Van a buscar donde puedan conseguir los chips".
Artículo publicado originalmente enWIRED. Adaptado por Mauricio Serfatty Godoy.