Lunes, 02 de marzo de 2026 Lun 02/03/2026
RSS Contacto
MERCADOS
Cargando datos de mercados...
Tecnología

Sam Altman lleva toda una vida diciendo una cosa y haciendo justo la contraria. Y esta vez no ha tardado ni 48 horas

Sam Altman lleva toda una vida diciendo una cosa y haciendo justo la contraria. Y esta vez no ha tardado ni 48 horas
Artículo Completo 1,122 palabras
Un temazo de Mecano —lo sé, muy Kiss FM esto— decía aquello de que 'la cara vista es un anuncio de Signal'. Y por si alguno de nuestros dolorosamente jóvenes lectores no lo sabe, Signal es una marca de pasta de dientes. Y si hay alguien cuya cara vista sea exactamente así, ese es Sam Altman, CEO de OpenAI, que con una sonrisa perfecta y convincente intenta convencer al mundo de que su empresa es igual de perfecta y convincente.  Para mucha gente justo hoy no lo es. Qué ha pasado. Estos días hemos visto cómo EEUU y su Departamento de Defensa (o de Guerra, como les gusta llamarlo ahora) han decidido que si alguna empresa de IA quiere trabajar con ellos, van a tener que dejarles que usen la IA como mejor les parezca. ¿Que hay que espiar masivamente a la gente? Se la espía, total, ya lo hemos hecho. ¿Que hay que decirle a la IA que desarrolle armas autónomas letales? Pues también.  En Xataka OpenAI va por delante de Anthropic en todos los aspectos de la IA excepto en el más importante: sobrevivir Anthropic se planta. Pero hete aquí que precisamente la empresa que estaba trabajando con el Pentágono ha dicho que naranjas de la China. Anthropic, que llevaba colaborando con el Gobierno desde hace meses —Claude se usó para el arresto de Nicolás Maduro—, ha dejado claro que hay líneas rojas que no traspasará.  Si Anthropic no quiere, que lo haga OpenAI. En el Pentágono han amenazado con convertir a Anthropic en una empresa paria, pero de momento no han movido ficha de forma oficial. Lo que sí ha ocurrido es que el Gobierno de EEUU ha decidido cambiar de socia tecnológica. OpenAI ha sustituido a Anthropic y parece haber llegado a un acuerdo para trabajar con las agencias de defensa y seguridad de los Estados Unidos. Sam Altman aprovecha la oportunidad. Así lo ha indicado Sam Altman, que en un anuncio en Twitter (sigo resistiéndome a llamarla "X") explicaba que su empresa había acordado desplegar sus modelos en la red clasificada del Departamento de Guerra estadounidense. Lo curioso es que en ese acuerdo se establecen las mismas líneas rojas que tenía Anthropic: nada de espionaje a ciudadanos estadounidenses y nada de armas autónomas. En el anuncio oficial incluso destacan que su acuerdo "tiene más salvaguardas que cualquier acuerdo previo para despliegues de IA clasificada, incluyendo el de Anthropic". Hay por ejemplo un requisito más: que sus modelos no se usen para sistemas de "crédito social" con los que se califica a los ciudadanos basándose en la información que se recolecta de ellos. Pero. Aunque tanto Sam Altman como el blog de la empresa parecen poner límites al uso de su IA por parte del Departamento de Guerra, los términos de ese acuerdo contradicen las afirmaciones de Altman. En el anuncio se menciona un párrafo concreto del acuerdo en el que se señala explícitamente lo siguiente:  El Departamento de Guerra podrá utilizar el sistema de IA para todos los fines legales, de conformidad con la legislación aplicable, los requisitos operativos y los protocolos de seguridad y supervisión bien establecidos. El sistema de IA no se utilizará para dirigir de forma independiente armas autónomas en ningún caso en que la ley, la normativa o la política del Departamento exijan el control humano, ni se utilizará para asumir otras decisiones de alto riesgo que requieran la aprobación de un responsable humano con las mismas competencias".  El espionaje masivo de ciudadanos estadounidenses es legal en ciertos escenarios como parte de la Patriot Act que se aprobó tras los atentados del 11-S, y eso haría que la IA pudiera procesar datos y comunicaciones recolectadas por sistemas de vigilancia masiva. Jeremy Lewin, funcionario del Departamento de Estado, ha indicado que este acuerdo "fluye desde el pilar de 'todo uso legítimo'", y apunta a que lo que plantea Altman en cuanto a las líneas rojas no es tan tajante como parece. Protestas internas. El viernes pasado a las 17:01 se cumplía el plazo para que Anthropic aceptara los términos del Pentágono, pero no lo hizo. Durante esa mañana varios empleados de OpenAI y Google mostraron su apoyo al posicionamiento ético y moral de la empresa rival, y casi 800 de ellos (681 de Google, 96 de OpenAI) firmaron una carta abierta titulada "No seremos divididos".  Altman dice una cosa, hace otra. En una entrevista con CNBC, Sam Altman dijo en CNBC que a pesar de todas las diferencias que tiene con Anthropic, "confío en ellos como empresa, y creo que realmente se preocupan por la seguridad". El jueves el CEO de OpenAI mandó un comunicado interno mostrando su deseo de que "las cosas desescalasen entre Anthropic y el Departamento de Defensa". El mensaje quedó en agua de borrajas menos de dos días más tarde, cuando anunció el acuerdo con el mismo Departamento. Altman dice una cosa, hace otra. En una entrevista con CNBC, Sam Altman dijo en CNBC que a pesar de todas las diferencias que tiene con Anthropic, "confío en ellos como empresa, y creo que realmente se preocupan por la seguridad". El jueves el CEO de OpenAI mandó un comunicado interno mostrando su deseo de que "las cosas desescalasen entre Anthropic y el Departamento de Defensa". El mensaje quedó en agua de borrajas menos de dos días más tarde, cuando anunció el acuerdo con el mismo Departamento. El mundo contra OpenAI. Muchos han acabado criticando la forma de actuar de OpenAI en redes sociales. En Reddit aparecían varios mensajes que animaba a los usuarios a "Cancelar ChatGPT" con miles de votos positivos y también miles de comentarios en los que el tono era de indignación con la forma en la que OpenAI y Sam Altman ha aprovechado esta circunstancia. Hemos visto movimientos de crítica en el pasado —Facebook, Netflix—, pero suele ocurrir que tras estos primeros momentos las empresas acaban recuperándose de las críticas e incluso salen reforzadas por una sencilla razón: los seres humanos tenemos muy mala memoria. En Xataka | OpenAI tiene un problema: Anthropic está triunfando justo donde más dinero hay en juego - La noticia Sam Altman lleva toda una vida diciendo una cosa y haciendo justo la contraria. Y esta vez no ha tardado ni 48 horas fue publicada originalmente en Xataka por Javier Pastor .
Sam Altman lleva toda una vida diciendo una cosa y haciendo justo la contraria. Y esta vez no ha tardado ni 48 horas

Una vez más, Sam Altman dice una cosa para luego hacer exactamente lo contrario

1 comentarioFacebookTwitterFlipboardE-mail 2026-03-02T16:42:38Z

Javier Pastor

Editor Senior - Tech

Javier Pastor

Editor Senior - Tech Linkedintwitter9887 publicaciones de Javier Pastor

Un temazo de Mecano —lo sé, muy Kiss FM esto— decía aquello de que 'la cara vista es un anuncio de Signal'. Y por si alguno de nuestros dolorosamente jóvenes lectores no lo sabe, Signal es una marca de pasta de dientes. Y si hay alguien cuya cara vista sea exactamente así, ese es Sam Altman, CEO de OpenAI, que con una sonrisa perfecta y convincente intenta convencer al mundo de que su empresa es igual de perfecta y convincente. 

Para mucha gente justo hoy no lo es.

Qué ha pasado. Estos días hemos visto cómo EEUU y su Departamento de Defensa (o de Guerra, como les gusta llamarlo ahora) han decidido que si alguna empresa de IA quiere trabajar con ellos, van a tener que dejarles que usen la IA como mejor les parezca. ¿Que hay que espiar masivamente a la gente? Se la espía, total, ya lo hemos hecho. ¿Que hay que decirle a la IA que desarrolle armas autónomas letales? Pues también. 

En XatakaOpenAI va por delante de Anthropic en todos los aspectos de la IA excepto en el más importante: sobrevivir

Anthropic se planta. Pero hete aquí que precisamente la empresa que estaba trabajando con el Pentágono ha dicho que naranjas de la China. Anthropic, que llevaba colaborando con el Gobierno desde hace meses —Claude se usó para el arresto de Nicolás Maduro—, ha dejado claro que hay líneas rojas que no traspasará. 

Si Anthropic no quiere, que lo haga OpenAI. En el Pentágono han amenazado con convertir a Anthropic en una empresa paria, pero de momento no han movido ficha de forma oficial. Lo que sí ha ocurrido es que el Gobierno de EEUU ha decidido cambiar de socia tecnológica. OpenAI ha sustituido a Anthropic y parece haber llegado a un acuerdo para trabajar con las agencias de defensa y seguridad de los Estados Unidos.

Sam Altman aprovecha la oportunidad. Así lo ha indicado Sam Altman, que en un anuncio en Twitter (sigo resistiéndome a llamarla "X") explicaba que su empresa había acordado desplegar sus modelos en la red clasificada del Departamento de Guerra estadounidense. Lo curioso es que en ese acuerdo se establecen las mismas líneas rojas que tenía Anthropic: nada de espionaje a ciudadanos estadounidenses y nada de armas autónomas. En el anuncio oficial incluso destacan que su acuerdo "tiene más salvaguardas que cualquier acuerdo previo para despliegues de IA clasificada, incluyendo el de Anthropic". Hay por ejemplo un requisito más: que sus modelos no se usen para sistemas de "crédito social" con los que se califica a los ciudadanos basándose en la información que se recolecta de ellos.

Pero. Aunque tanto Sam Altman como el blog de la empresa parecen poner límites al uso de su IA por parte del Departamento de Guerra, los términos de ese acuerdo contradicen las afirmaciones de Altman. En el anuncio se menciona un párrafo concreto del acuerdo en el que se señala explícitamente lo siguiente: 

El Departamento de Guerra podrá utilizar el sistema de IA para todos los fines legales, de conformidad con la legislación aplicable, los requisitos operativos y los protocolos de seguridad y supervisión bien establecidos. El sistema de IA no se utilizará para dirigir de forma independiente armas autónomas en ningún caso en que la ley, la normativa o la política del Departamento exijan el control humano, ni se utilizará para asumir otras decisiones de alto riesgo que requieran la aprobación de un responsable humano con las mismas competencias". 

El espionaje masivo de ciudadanos estadounidenses es legal en ciertos escenarios como parte de la Patriot Act que se aprobó tras los atentados del 11-S, y eso haría que la IA pudiera procesar datos y comunicaciones recolectadas por sistemas de vigilancia masiva. Jeremy Lewin, funcionario del Departamento de Estado, ha indicado que este acuerdo "fluye desde el pilar de 'todo uso legítimo'", y apunta a que lo que plantea Altman en cuanto a las líneas rojas no es tan tajante como parece.

Protestas internas. El viernes pasado a las 17:01 se cumplía el plazo para que Anthropic aceptara los términos del Pentágono, pero no lo hizo. Durante esa mañana varios empleados de OpenAI y Google mostraron su apoyo al posicionamiento ético y moral de la empresa rival, y casi 800 de ellos (681 de Google, 96 de OpenAI) firmaron una carta abierta titulada "No seremos divididos". 

Altman dice una cosa, hace otra. En una entrevista con CNBC, Sam Altman dijo en CNBC que a pesar de todas las diferencias que tiene con Anthropic, "confío en ellos como empresa, y creo que realmente se preocupan por la seguridad". El jueves el CEO de OpenAI mandó un comunicado interno mostrando su deseo de que "las cosas desescalasen entre Anthropic y el Departamento de Defensa". El mensaje quedó en agua de borrajas menos de dos días más tarde, cuando anunció el acuerdo con el mismo Departamento.

Altman dice una cosa, hace otra. En una entrevista con CNBC, Sam Altman dijo en CNBC que a pesar de todas las diferencias que tiene con Anthropic, "confío en ellos como empresa, y creo que realmente se preocupan por la seguridad". El jueves el CEO de OpenAI mandó un comunicado interno mostrando su deseo de que "las cosas desescalasen entre Anthropic y el Departamento de Defensa". El mensaje quedó en agua de borrajas menos de dos días más tarde, cuando anunció el acuerdo con el mismo Departamento.

El mundo contra OpenAI. Muchos han acabado criticando la forma de actuar de OpenAI en redes sociales. En Reddit aparecían varios mensajes que animaba a los usuarios a "Cancelar ChatGPT" con miles de votos positivos y también miles de comentarios en los que el tono era de indignación con la forma en la que OpenAI y Sam Altman ha aprovechado esta circunstancia. Hemos visto movimientos de crítica en el pasado —Facebook, Netflix—, pero suele ocurrir que tras estos primeros momentos las empresas acaban recuperándose de las críticas e incluso salen reforzadas por una sencilla razón: los seres humanos tenemos muy mala memoria.

En Xataka | OpenAI tiene un problema: Anthropic está triunfando justo donde más dinero hay en juego

Fuente original: Leer en Xataka
Compartir