Lunes, 09 de marzo de 2026 Lun 09/03/2026
RSS Contacto
MERCADOS
Cargando datos de mercados...
Tecnología

OpenAI dice que su acuerdo con el Pentágono es totalmente seguro. Su forma de convencernos: “Confía en nosotros”

OpenAI dice que su acuerdo con el Pentágono es totalmente seguro. Su forma de convencernos: “Confía en nosotros”
Artículo Completo 884 palabras
Tú no te preocupes por nada, de verdad. Fíate de nosotros. Quien lo dice es OpenAI, empresa liderada por un Sam Altman que se ha ganado a pulso la reputación de de decir una cosa por un lado y hacer otro por el otro. Hay libros enteros escritos sobre esa premisa, y es inevitable no recordarlo ahora que esta gigantesca startup ha firmado un acuerdo inquietante. Culebrón. OpenAI llegó a un acuerdo con el Departamento de Defensa para integrar sus modelos de IA en agencias gubernamentales sustituyendo a Anthropic. Lo hicieron indicando que impondrían requisitos al uso de esos modelos y tendrían líneas rojas similares a las defendieron en Anthropic: nada de espionaje masivo, nada de desarrollo de armas autónomas. Esa decisión le ha costado a Anthropic el contrato con el DoD, pero además ha sido etiquetada como un "riesgo para la cadena de sumnistro". En Xataka EEUU ha decidido pegarse un tiro en el pie y destruir a una de las mejores empresas IA del país Confía en nosotros. Aquí hay dos problemas. El primero, que OpenAI nunca ha enseñado el contrato que deje claro que hay líneas rojas al uso de GPT por parte del ejército. Y el segundo y más grave, que según OpenAI no lo necesitamos porque solo necesitamos confiar en ellos. El propio Altman intentó hacer disipar dudas explicando que habían añadido enmiendas al acuerdo para asegurar que no se traspasaban esas líneas rojas. El muro de la opacidad. A pesar de las promesas de transparencia, OpenAI se niega a publicar el contrato. La jefa de seguridad nacional de la firma, Katrina Muligan, llegó a afirmar en X que no se siente "obligada" a compartir el lenguaje legal del acuerdo. Eso ha hecho que aparezcan suspicacias sobre lo que se ha firmado realmente entre bambalinas. Agujeros por doquier. Brad Carson, que trabajó como secretario del Ejército de EEUU con Obama, indicaba en The Intercept cómo el lenguaje legal que Sam Altman en sus mensajes en X es sospechoso. El CEO de OpenAI mencionaa por ejemplo que "el sistema de IA no se usará intencionadamente para la vigilancia doméstica de ciudadanos estadounidenses". Ese "intencionadamente" es según expertos ocmo Carson una especie de cheque en blanco para permitir que mientras que se espía a extranjeros se capturen datos de ciudadanos estadounidenses "por accidente" pero de forma sistemática. Como explica Carson, Están tratando de confundirte con términos legales complicados que la gente común cree que significan algo completamente diferente. Pero los abogados saben lo que significa. Y los abogados saben que esto no es ninguna protección.El factor humano. La integración de la IA de OpenAI en los sistemas del DoD queda ahora bajo la supervisión directa del Secretario de Defensa, Pet Hegseth, y el presidente Trump. Esto supone un dilema ético: la seguridad del sistema depende de la voluntad política de figuras que tradicionalmente no han tenido ningún problema en eliminar restricciones a sistemas de vigilancia masiva. Quo vadis, OpenAI. El giro de 180º es claro para OpenAI. Mientras que en sus inicios la startup se definió con el mensaje de crear sistemas de IA "para el beneficio de la humanidad" y prohibían el uso militar de su tecnología, este acuerdo demuestra que dichas premisas ya no parecen existir. Otra mala señal. Esa forma de actuar de OpenAI ha hecho que se la critique abiertamente en redes, pero que también haya problemas internos. Lo demuestra el hecho de que su directora de robótica, Caitlin Kalinowski, ha decidido dimitir de su cargo por las preocupaciones sobre las negociaciones militares de la empresa. Y una pregunta obvia. La disputa entre el Departamento de Defensa y el Pentágono se centraba precisamente en que ellos no querían que Anthropic estableciese líneas rojas. OpenAI dice haber establecido básicamente las mismas, así que, ¿cómo es posible que el DoD permita a OpenAI establecerlas cuando no se lo ha permitido a Anthropic? No parece tener ningún sentido. Menudo lío. Estamos viviendo un auténtico culebrón con tres protagonistas. El Departamento de Defensa (DoD) —rebautizado ahora a Departamento de Guerra— de EEUU, la empresa Anthropic y su rival, OpenAI. El DoD, que usaba la IA de Anthropic para operaciones militares, exigió poder usarla sin cortapisas, pero Dario Amodei, CEO de la startup, se negó en redondo. Ese fue el momento aprovechado por Sam Altman para convertirse en el nuevo aliado del DoD, algo que ha sido visto por muchos como oportunista y moralmente reprobable.  Imagen | Xataka con Freepik En Xataka | La guerra entre Anthropic y el Pentágono apunta a algo terrorífico: un nuevo “Momento Oppenheimer” - La noticia OpenAI dice que su acuerdo con el Pentágono es totalmente seguro. Su forma de convencernos: “Confía en nosotros” fue publicada originalmente en Xataka por Javier Pastor .
OpenAI dice que su acuerdo con el Pentágono es totalmente seguro. Su forma de convencernos: “Confía en nosotros”
  • La empresa dice que las líneas rojas son teóricamente idénticas a las de Anthropic

  • Si eso es cierto, ¿por qué el Departamento de Defensa sí se las permite a ellos y no a Anthropic?

Sin comentariosFacebookTwitterFlipboardE-mail 2026-03-09T14:15:18Z

Javier Pastor

Editor Senior - Tech

Javier Pastor

Editor Senior - Tech Linkedintwitter9900 publicaciones de Javier Pastor

Tú no te preocupes por nada, de verdad. Fíate de nosotros. Quien lo dice es OpenAI, empresa liderada por un Sam Altman que se ha ganado a pulso la reputación de de decir una cosa por un lado y hacer otro por el otro. Hay libros enteros escritos sobre esa premisa, y es inevitable no recordarlo ahora que esta gigantesca startup ha firmado un acuerdo inquietante.

Culebrón. OpenAI llegó a un acuerdo con el Departamento de Defensa para integrar sus modelos de IA en agencias gubernamentales sustituyendo a Anthropic. Lo hicieron indicando que impondrían requisitos al uso de esos modelos y tendrían líneas rojas similares a las defendieron en Anthropic: nada de espionaje masivo, nada de desarrollo de armas autónomas. Esa decisión le ha costado a Anthropic el contrato con el DoD, pero además ha sido etiquetada como un "riesgo para la cadena de sumnistro".

En XatakaEEUU ha decidido pegarse un tiro en el pie y destruir a una de las mejores empresas IA del país

Confía en nosotros. Aquí hay dos problemas. El primero, que OpenAI nunca ha enseñado el contrato que deje claro que hay líneas rojas al uso de GPT por parte del ejército. Y el segundo y más grave, que según OpenAI no lo necesitamos porque solo necesitamos confiar en ellos. El propio Altman intentó hacer disipar dudas explicando que habían añadido enmiendas al acuerdo para asegurar que no se traspasaban esas líneas rojas.

El muro de la opacidad. A pesar de las promesas de transparencia, OpenAI se niega a publicar el contrato. La jefa de seguridad nacional de la firma, Katrina Muligan, llegó a afirmar en X que no se siente "obligada" a compartir el lenguaje legal del acuerdo. Eso ha hecho que aparezcan suspicacias sobre lo que se ha firmado realmente entre bambalinas.

Agujeros por doquier. Brad Carson, que trabajó como secretario del Ejército de EEUU con Obama, indicaba en The Intercept cómo el lenguaje legal que Sam Altman en sus mensajes en X es sospechoso. El CEO de OpenAI mencionaa por ejemplo que "el sistema de IA no se usará intencionadamente para la vigilancia doméstica de ciudadanos estadounidenses". Ese "intencionadamente" es según expertos ocmo Carson una especie de cheque en blanco para permitir que mientras que se espía a extranjeros se capturen datos de ciudadanos estadounidenses "por accidente" pero de forma sistemática. Como explica Carson,

Están tratando de confundirte con términos legales complicados que la gente común cree que significan algo completamente diferente. Pero los abogados saben lo que significa. Y los abogados saben que esto no es ninguna protección.

El factor humano. La integración de la IA de OpenAI en los sistemas del DoD queda ahora bajo la supervisión directa del Secretario de Defensa, Pet Hegseth, y el presidente Trump. Esto supone un dilema ético: la seguridad del sistema depende de la voluntad política de figuras que tradicionalmente no han tenido ningún problema en eliminar restricciones a sistemas de vigilancia masiva.

Quo vadis, OpenAI. El giro de 180º es claro para OpenAI. Mientras que en sus inicios la startup se definió con el mensaje de crear sistemas de IA "para el beneficio de la humanidad" y prohibían el uso militar de su tecnología, este acuerdo demuestra que dichas premisas ya no parecen existir.

Otra mala señal. Esa forma de actuar de OpenAI ha hecho que se la critique abiertamente en redes, pero que también haya problemas internos. Lo demuestra el hecho de que su directora de robótica, Caitlin Kalinowski, ha decidido dimitir de su cargo por las preocupaciones sobre las negociaciones militares de la empresa.

Y una pregunta obvia. La disputa entre el Departamento de Defensa y el Pentágono se centraba precisamente en que ellos no querían que Anthropic estableciese líneas rojas. OpenAI dice haber establecido básicamente las mismas, así que, ¿cómo es posible que el DoD permita a OpenAI establecerlas cuando no se lo ha permitido a Anthropic? No parece tener ningún sentido.

Menudo lío. Estamos viviendo un auténtico culebrón con tres protagonistas. El Departamento de Defensa (DoD) —rebautizado ahora a Departamento de Guerra— de EEUU, la empresa Anthropic y su rival, OpenAI. El DoD, que usaba la IA de Anthropic para operaciones militares, exigió poder usarla sin cortapisas, pero Dario Amodei, CEO de la startup, se negó en redondo. Ese fue el momento aprovechado por Sam Altman para convertirse en el nuevo aliado del DoD, algo que ha sido visto por muchos como oportunista y moralmente reprobable

Imagen | Xataka con Freepik

En Xataka | La guerra entre Anthropic y el Pentágono apunta a algo terrorífico: un nuevo “Momento Oppenheimer”

Fuente original: Leer en Xataka
Compartir