Viernes, 16 de enero de 2026 Vie 16/01/2026
RSS Contacto
MERCADOS
Cargando datos de mercados...
Economía

Guerra de talento: OpenAI está reabsorbiendo a los fundadores de Thinking Machines

Guerra de talento: OpenAI está reabsorbiendo a los fundadores de Thinking Machines
Artículo Completo 1,070 palabras
OpenAI planea incorporar a más investigadores de Thinking Machines Lab tras contratar a dos cofundadores, según una fuente familiarizada con la situación. Además, los últimos esfuerzos para automatizar trabajos con IA.
Maxwell Zeff Zoë SchifferStartup y Cultura Tecnológica16 de enero de 2026Fidji Simo, anunció que la empresa había vuelto a contratar a Barret Zoph y Luke Metz, cofundadores de la startup de IA de Mira Murati, Thinking Machines Lab. Zoph y Metz habían dejado OpenAI a finales de 2024.

Había dos versiones que se estaban formando en torno a las causas de las salidas, y ahora hay nueva información.

Una fuente con conocimiento directo señala que la dirección de Thinking Machines creía que Zoph participó en un incidente de mala conducta grave mientras estaba en la empresa el año pasado. Ese incidente rompió la confianza de Murati, según la fuente, y perturbó la relación de trabajo entre ambos. La fuente también alegó que Murati despidió a Zoph el miércoles, antes de saber que se iba a OpenAI, debido a lo que la empresa anunció que eran problemas que surgieron después de la supuesta mala conducta. Alrededor del momento en que la compañía se enteró de que Zoph regresaba a OpenAI, Thinking Machines planteó preocupaciones internamente sobre si había compartido información confidencial con los competidores. (Zoph no ha respondido a varias peticiones de comentarios de WIRED).

Mientras tanto, en un memorando del miércoles a los empleados, Simo indicó que las contrataciones se habían estado preparando durante semanas y que Zoph expresó a Murati que estaba considerando dejar Thinking Machines el lunes, antes de la fecha en que fue despedido. Simo también comentó a los empleados que OpenAI no comparte las preocupaciones de Thinking Machines sobre la ética de Zoph.

Junto a Zoph y Metz, otro antiguo investigador de OpenAI que trabajaba en Thinking Machines, Sam Schoenholz, se reincorpora al fabricante de ChatGPT, según el anuncio de Simo. Se espera que al menos otros dos empleados de Thinking Machines se unan a OpenAI en las próximas semanas, según una fuente familiarizada con el asunto. El periodista especializado en tecnología Alex Heath fue el primero en informar de las nuevas contrataciones.

Otra fuente familiarizada con el asunto rechazó la percepción de que los recientes cambios de personal estuvieran totalmente relacionados con Zoph: "Esto ha sido parte de una larga discusión en Thinking Machines. Hubo discusiones y desalineación sobre lo que la empresa quería construir: se trataba del producto, la tecnología y el futuro."

Thinking Machines Lab y OpenAI declinaron hacer comentarios.

Tras estos sucesos, varios investigadores de los principales laboratorios de inteligencia artificial nos han comentado que están agotados por el drama constante de su sector. Este incidente concreto recuerda a la breve destitución de Sam Altman por parte de OpenAI en 2023, conocida dentro de OpenAI como "el blip". Murati desempeñó un papel clave en aquel acontecimiento como directora de tecnología de la empresa por aquel entonces, según informa The Wall Street Journal.

En los años transcurridos desde la destitución de Altman, el drama en la industria de la IA ha continuado, con la salida de cofundadores de varios de los principales laboratorios de IA, como Igor Babuschkin, de xAI, Daniel Gross, de Safe Superintelligence, y Yann LeCun, de Meta (después de todo, fue cofundador del laboratorio de IA de Facebook, FAIR).

Algunos podrían argumentar que el drama está justificado para una industria naciente cuyos gastos están contribuyendo al crecimiento del PIB de Estados Unidos. Además, si se cree en la idea de que uno de estos investigadores podría lograr algunos avances en el camino hacia la inteligencia artificial, probablemente valga la pena seguirles la pista.

suban ejemplos de su trabajo real en empleos anteriores para evaluar a los agentes de OpenAI. Las empresas piden a los empleados que borren de estos documentos cualquier dato confidencial e información de identificación personal. Aunque es posible que se cuelen algunos nombres o secretos corporativos, no es eso lo que busca OpenAI (aunque la empresa podría meterse en serios problemas si eso ocurriera, advierten los expertos).

Los laboratorios de IA están más interesados en obtener ejemplos realistas del trabajo creado por un consultor de McKinsey, un banquero de inversión de Goldman Sachs o un médico de Harvard. Por eso, proveedores de datos como Mercor buscan específicamente profesionales que hayan trabajado en estas empresas en sus ofertas de empleo.

Handshake, Mercor, Surge y Turing son algunos de los principales proveedores de datos en los que confían los laboratorios de IA para obtener estos datos. En el último año, las empresas de datos han empezado a pagar más de 100 dólares la hora por contratar a los mejores talentos para los laboratorios de IA.

Una forma de utilizar estos datos es crear "entornos", que son básicamente videojuegos aburridos que enseñan a los agentes de IA a utilizar aplicaciones de software empresarial. La idea es que los agentes de IA puedan hacer pruebas en los entornos y aprender a utilizar el software del mundo real que utilizarían los profesionales para hacer su trabajo.

"En el último año, los laboratorios han reconocido cada vez más que necesitan entrenar y poner a punto modelos para un montón de áreas de trabajo del conocimiento, como el jurídico, la sanidad, la consultoría y la banca", afirma Aaron Levie, director general de la empresa Box, que ofrece agentes empresariales basados en modelos de OpenAI, Anthropic y Google. "Estas empresas han estado contratando a contratistas para generar conjuntos de datos y rúbricas, que ofrecen formas en que pueden entrenar y evaluar el modelo para que pueda mejorar en habilidades particulares".

Queda por ver si esto es suficiente para entrenar a los agentes de IA a ejecutar tareas de oficina con precisión y coherencia. Los laboratorios de IA han mejorado significativamente sus agentes en el último año, como demuestran productos virales como Claude Code, que la gente utiliza cada vez más para tareas ajenas a la codificación. Si eso es un indicio de lo que está por venir para otras industrias, vale la pena observar estos agentes empresariales.

Artículo originalmente publicado enWIRED. Adaptado por Mauricio Serfatty Godoy.

Entérate de los avances tecnológicos que definen el presente y el futuro. Todo desde tu WhatsApp.

¡Suscríbete a nuestro canal de WhatsApp!

Arrow
Fuente original: Leer en Wired - Negocios
Compartir