Emilio Andere, cofundador y consejero delegado de Wafer, asegura que la empresa realiza aprendizaje por refuerzo en modelos de código abierto para enseñarles a escribir código de núcleo, o software que interactúa directamente con el hardware en un sistema operativo. Andere afirma que Wafer también añade "arneses agénticos" a modelos de codificación existentes como Claude, de Anthropic, y GPT, de OpenAI, para aumentar su capacidad de escribir código que se ejecute directamente en los chips.
Muchas empresas tecnológicas importantes tienen ahora sus propios chips
Apple y otras compañías llevan años utilizando silicio personalizado para mejorar el rendimiento y la eficiencia del software que se ejecuta en laptops, tablets y teléfonos inteligentes. En el otro extremo de la escala, empresas como Google y Amazon acuñan su propio silicio para mejorar el rendimiento de sus plataformas de computación en la nube. Meta anunció recientemente que desplegaría 1 gigavatio de capacidad de computación con un nuevo chip desarrollado con Broadcom. Desplegar silicio personalizado también implica escribir mucho código para que se ejecute con fluidez y eficacia en el nuevo procesador.
Wafer está trabajando con empresas como AMD y Amazon para ayudar a optimizar el software de modo que funcione eficientemente en su hardware. Hasta la fecha, la empresa ha obtenido 4 millones de dólares de financiación inicial de Jeff Dean, de Google, Wojciech Zaremba, de OpenAI, y otros.
Andere cree que el enfoque de su empresa basado en la IA tiene potencial para desafiar el dominio de Nvidia. En la actualidad, varios chips de gama alta ofrecen un rendimiento bruto en coma flotante (una referencia clave del sector para medir la capacidad de un chip para realizar cálculos sencillos) similar al del mejor silicio de Nvidia.
"El mejor hardware de AMD, el mejor hardware Trainium [de Amazon], las mejores TPU [de Google], te dan los mismos flops teóricos que las GPU de Nvidia", me explicó Andere hace poco. "Queremos maximizar la inteligencia por vatio".
Los ingenieros de rendimiento con la habilidad necesaria para optimizar el código para que se ejecute de forma fiable y eficiente en estos chips son caros y están muy demandados, señala Andere, mientras que el ecosistema de software de Nvidia hace que sea más fácil escribir y mantener el código para sus chips. Esto dificulta que incluso las mayores empresas tecnológicas trabajen por su cuenta.
Cuando Anthropic se asoció con Amazon para construir sus modelos de IA en Trainium, por ejemplo, tuvo que reescribir el código de su modelo desde cero para que funcionara de la forma más eficiente posible en el hardware, afirma Andere.
WIRED. Adaptado por Mauricio Serfatty Godoy.