Domingo, 29 de marzo de 2026 Dom 29/03/2026
RSS Contacto
MERCADOS
Cargando datos de mercados...
Economía

La tendencia de los chatbots de IA de engañar a los usuarios va en aumento, según estudio

La tendencia de los chatbots de IA de engañar a los usuarios va en aumento, según estudio
Artículo Completo 339 palabras
Una nueva investigación identificó al menos 700 casos reales de manipulación y de acciones no autorizadas por parte de sistemas de IA, lo que representa un incremento de cinco veces entre octubre y marzo.
Fernanda GonzálezSeguridad29 de marzo de 2026sistemas de IA, lo que representa un incremento de cinco veces entre octubre y marzo.

declaraciones retomadas por The Guardian que estos hallazgos incrementan la preocupación a medida que los chatbots y agentes se integran en actividades empresariales, civiles y gubernamentales. “Los modelos se implementarán cada vez más en contextos de altísimo riesgo, como el ámbito militar y la infraestructura nacional crítica. Es precisamente en esos escenarios donde las conductas manipuladoras podrían causar daños significativos, incluso catastróficos”, advirtió.

Manipulación y engaño en contexto reales

Uno de los principales aportes del estudio es demostrar que estos comportamientos indeseables no se limitan a simulaciones, sino que pueden presentarse en situaciones reales. Investigaciones previas ya habían alertado sobre la capacidad de la IA para manipular, engañar y sortear mecanismos de seguridad con el fin de cumplir objetivos propios.

Un trabajo publicado por OpenAI a finales del año pasado, por ejemplo, evidenció que los modelos más avanzados pueden recurrir al engaño deliberado para garantizar el cumplimiento de sus metas. Dicho análisis se centró en evaluar el nivel de “maquinación” de los algoritmos, es decir, su habilidad para aparentar alinearse con los parámetros de entrenamiento mientras persiguen, en secreto, otros fines.

En la misma línea, durante pruebas previas a su lanzamiento, Anthropic detectó que su modelo Claude Opus 4 era capaz de rebelarse e incluso chantajear a sus operadores ante la posibilidad de ser reemplazado por otro sistema.

Si bien estos estudios cuentan con el respaldo de los propios desarrolladores, como OpenAI y Anthropic, sus evaluaciones se llevaron a cabo en entornos de laboratorio controlados.

Los resultados del análisis del AISI subrayan la urgencia de adoptar mecanismos de seguridad más sólidos desde el diseño de los modelos de IA, especialmente en un contexto en el que las grandes empresas tecnológicas promueven esta tecnología como un avance clave con potencial para transformar la economía global.

Fuente original: Leer en Wired - Negocios
Compartir