Saturday, 06 de December de 2025
Economía

La IA, una pesadilla para la ciberseguridad

La IA, una pesadilla para la ciberseguridad
Artículo Completo 1,198 palabras
La irrupción de agentes inteligentes capaces de operar casi sin supervisión humana anticipa una escenario en el que se multiplican tanto los ciberataques como los grupos capaces de llevarlos a cabo. Leer
CompañíasLa IA, una pesadilla para la ciberseguridad 5 DIC. 2025 - 00:19DREAMSTIMEEXPANSION

La irrupción de agentes inteligentes capaces de operar casi sin supervisión humana anticipa una escenario en el que se multiplican tanto los ciberataques como los grupos capaces de llevarlos a cabo.

Un ataque informático ejecutado casi por completo por la inteligencia artificial y sin prácticamente intervención humana no es una posibilidad remota. Anthropic ha revelado recientemente una operación de ciberespionaje a gran escala de un actor con supuestos vínculos con China en la que la inteligencia artificial llevó a cabo la mayor parte del trabajo. La compañía estadounidense asegura que los atacantes lograron manipular su herramienta Claude Code para automatizar un ciberataque contra una treintena de organizaciones internacionales, entre ellas tecnológicas, bancos, agencias gubernamentales y empresas químicas.

El incidente ilustra un riesgo del que los expertos llevan alertando desde hace tiempo, un escenario de pesadilla donde se multipliquen tanto los ataques como el número de actores maliciosos que pueden llevarlos a cabo gracias al uso de agentes inteligentes. Por eso, Josep Albors, director de investigación y concienciación de la empresa de ciberseguriad Eset, explica que los ciberataques automatizados potenciados por inteligencia artificial "pueden escalar mucho más rápidamente que aquellos que están operados por humanos y pueden llegar a sobrepasar las defensas tradicionales".

Además, permiten a ciberdelincuentes "con pocas habilidades técnicas" lanzar ofensivas relativamente complejas y avanzadas a un bajo coste, atacar a objetivos de todo tipo y aumentar el número de ataques. Todo ello "aumenta la presión sobre unos equipos de ciberseguridad que ya están saturados", opina.

Raphael Marichez, director de Seguridad para el sur de Emea de Palo Alto Networks, coincide en que la inteligencia artificial multiplica la eficacia del adversario y reduce drásticamente las barreras de entrada. "Actores con pocos recursos pueden desplegar ataques que antes solo estaban al alcance de grandes grupos, habitualmente vinculados a estados nación", dice.

Perpretar un engaño

En el caso descrito por Anthropic, el grupo atacante engañó a la inteligencia artificial para que creyera que trabajaba como empleado de una firma de ciberseguridad, y le pidió que ejecutara pequeñas tareas aisladas sin revelar su propósito de ciberespionaje.

La inteligencia artificial llevó a cabo de manera autónoma entre el 80% y el 90% del trabajo. Por ejemplo, escribió código malicioso, robó credenciales, explotó vulnerabilidades y extrajo datos a enorme velocidad. En el punto álgido de su ataque, realizó miles de peticiones, a menudo varias por segundo, "una velocidad de ataque que, para los hackers humanos, habría sido simplemente imposible de igualar", dice Anthropic .

DREAMSTIMEEXPANSION

Sin embargo, los atacantes tropezaron con uno de los problemas aún no resueltos de la inteligencia artificial, las alucinaciones. Claude exageró hallazgos, inventó datos, aseguró que había logrado credenciales que en realidad eran inservibles y presentó información de dominio público como si fueran secretos industriales. Anthropic reconoce que la necesidad de comprobación humana sigue siendo "un freno clave para que los ciberataques puedan ser completamente autónomos".

No todos comparten la alerta que ha lanzado Anthropic. Yann LeCun, científico jefe de IA en Meta, cree que el informe responde a la agenda de la compañía rival. "Hay quien intenta manipular para lograr un control regulatorio. Están asustando a todo el mundo con estudios dudosos para que los modelos de código abierto acaben prácticamente prohibidos", ha escrito n X.

¿Es realista pensar que veremos una explosión de este tipo de ataques con agentes de inteligencia artificial? Marichez así lo cree, y subraya que los ciberdelincuentes saben que estas tecnologías les permiten amplificar la escala de sus ofensiva a un ritmo "que supera cualquier capacidad de reacción manual". En su opinión, estamos entrando en la "era del robot contra el robot: agentes malignos operando a ritmo industrial frente a defensas que también deben automatizarse para mantener el equilibrio", explica.

Más allá del caso descrito por Anthropic, los expertos coinciden en dibujar un escenario donde hay un uso creciente de la inteligencia artificial por parte de los ciberatacantes. Recientemente, Factory.ai ha desvelado que un grupo de ciberdelincuentes utilizó agentes de inteligencia artificial para llevar a cabo tareas como crear cuentas falsas, escribir código, copiar el comportamiento de usuarios reales y mantener la operación día y noche. En esta batalla de "robots contra robots" la empresa utilizó su propia inteligencia artificial para frenar el ataque.

Albors asegura que también se usa en campañas de phishing para propagar infostealers, diseñados para robar credenciales que puedan ser utilizadas con posterioridad en ataques dirigidos contra empresas.

En este sentido, Sancho Lerena, CEO de la tecnológica española PandoraFMS, explica que la inteligencia artificial permite crear campañas de phishing mucho más convincentes, capaces de engañar incluso a usuarios experimentados. También facilita el desarrollo de malware con técnicas avanzadas de evasión y ataques más sofisticados. A esto se suman los deepfakes de imagen y audio, que ya se utilizan para suplantar a empleados o directivos en operaciones de ingeniería social.

Además, han surgido pruebas de concepto de ransomware creado con inteligencia artificial, otra muestra de cómo el uso malicioso de modelos de lenguaje de acceso público puede dar más alcance y eficacia a este tipo de amenazas.

El caos de los agentes

Marichez apunta otro riesgo derivado, precisamente, de la esperada proliferación de agentes inteligentes autónomos. En su opinión, si no se aborda su gestión, se abre una "gran brecha que amenaza la seguridad de las empresas y la privacidad de sus datos". Si se les asignan privilegios excesivos, sin los controles adecuados, la superficie de ataque se dispara. "Un agente autónomo mal configurado actúa, en la práctica, como un usuario privilegiado sin supervisión", dice. Por eso, recomienda tratar cada agente como si fuera un empleado más, con una identidad digital autenticada, verificada, monitorizada y limitada bajo la premisa de cero confianza. Los agentes solo deberían tener los permisos mínimos y durante el tiempo estrictamente necesario, y en los puntos críticos siempre debe intervenir una persona, dice.

Ante este panorama, Albors explica que la seguridad depende "tanto de la experiencia humana como de la capacidad de automatizar la detección y eliminación de amenazas". Por tanto, recomienda a las empresas centrarse en el despliegue soluciones que sean capaces de detectar, responder y recuperarse de un ciberataque de forma rápida y eficaz.

La IA que siempre te da la razón: el peligro de los chatbots 'pelotas'Apple reemplaza a su jefe de inteligencia artificialGoogle calienta la batalla de la IA con el nuevo Gemini 3 Comentar ÚLTIMA HORA
Fuente original: Leer en Expansión
Compartir