Manipulación y engaño en contexto reales
Uno de los principales aportes del estudio es demostrar que estos comportamientos indeseables no se limitan a simulaciones, sino que pueden presentarse en situaciones reales. Investigaciones previas ya habían alertado sobre la capacidad de la IA para manipular, engañar y sortear mecanismos de seguridad con el fin de cumplir objetivos propios.
Un trabajo publicado por OpenAI a finales del año pasado, por ejemplo, evidenció que los modelos más avanzados pueden recurrir al engaño deliberado para garantizar el cumplimiento de sus metas. Dicho análisis se centró en evaluar el nivel de “maquinación” de los algoritmos, es decir, su habilidad para aparentar alinearse con los parámetros de entrenamiento mientras persiguen, en secreto, otros fines.
En la misma línea, durante pruebas previas a su lanzamiento, Anthropic detectó que su modelo Claude Opus 4 era capaz de rebelarse e incluso chantajear a sus operadores ante la posibilidad de ser reemplazado por otro sistema.
Si bien estos estudios cuentan con el respaldo de los propios desarrolladores, como OpenAI y Anthropic, sus evaluaciones se llevaron a cabo en entornos de laboratorio controlados.
Los resultados del análisis del AISI subrayan la urgencia de adoptar mecanismos de seguridad más sólidos desde el diseño de los modelos de IA, especialmente en un contexto en el que las grandes empresas tecnológicas promueven esta tecnología como un avance clave con potencial para transformar la economía global.