Google detectó un intento de clonación contra Gemini. Foto de Unsplash.
Disruptores Américas La IA sufre un ataque a gran escala: Gemini en riesgo tras un intento de clonaciónLa inteligencia artificial comienza a enfrentarse a una nueva etapa marcada por sus primeros ataques coordinados a gran escala.
Más información:Centros de datos y energía, el nuevo frente político del gobierno estadounidense
Pablo Ortega Los Ángeles Publicada 22 febrero 2026 02:45hLas claves nuevo Generado con IA
Gemini, el chatbot de inteligencia artificial desarrollado por Google, fue recientemente objeto de un ataque sofisticado en el que los hackers enviaron más de 100.000 mensajes con el objetivo de forzar al sistema a revelar su proceso interno de razonamiento y, eventualmente, facilitar su clonación parcial o total.
La propia compañía dio a conocer el incidente la semana pasada mediante un informe de seguridad centrado en amenazas emergentes, en el que detalla cómo actores estatales y redes criminales están integrando herramientas de inteligencia artificial en distintas fases de sus operaciones ofensivas y defensivas.
Según el documento, actores respaldados por los gobiernos de Corea del Norte, Irán, China y Rusia, junto con grupos de cibercrimen organizado, han experimentado con modelos de IA para ampliar el alcance, la velocidad y la eficacia de sus campañas digitales.
En el caso de Corea del Norte, la inteligencia artificial fue utilizada para perfilar empresas vinculadas a los sectores de defensa y ciberseguridad, así como para crear identidades falsas que simulaban ser reclutadores con el fin de obtener información sensible.
China, por su parte, desplegó múltiples grupos de trabajo que recurrieron a la automatización basada en IA para el análisis sistemático de vulnerabilidades en infraestructuras digitales de otros países. Irán empleó estas herramientas tanto para diseñar campañas de phishing altamente personalizadas con el objetivo de distribuir malware, mientras que Rusia utilizó la tecnología para generar contenido propagandístico y de desinformación dirigido a plataformas digitales y medios impresos tradicionales.
Silicon Valley y el desafío a la incertidumbre: la IA sigue imparableComo respuesta inmediata, Google bloqueó las cuentas de Gemini asociadas a estas actividades.
Entre los hallazgos más relevantes del informe figura la aparición de “honestcue”, un malware capaz de llamar a la API de Gemini en tiempo real para generar código malicioso dinámico, lo que dificulta su detección y análisis por parte de los sistemas de seguridad tradicionales.
El documento también advierte sobre el crecimiento de los llamados ataques de extracción de modelos, conocidos como ataques de “destilación”, mediante los cuales empresas y grupos de investigación intentan replicar capacidades de Gemini a través de consultas masivas y reiteradas a su API.
En este tipo de ataques, los agentes maliciosos formulan de manera repetitiva las mismas preguntas o variaciones mínimas de estas para inferir cómo procesa la información el chatbot y reconstruir, por aproximación, su lógica interna.
Con los datos obtenidos, los hackers buscan desarrollar modelos propios que imiten el comportamiento de Gemini. Según el informe de Google, detrás de estas prácticas se encuentran tanto compañías privadas como investigadores independientes.
La empresa aseguró que ha desactivado las cuentas y proyectos vinculados a estas actividades y que los hallazgos obtenidos han servido para reforzar medidas de seguridad internas y mejorar la robustez del propio modelo de Gemini.
Todo indica que este tipo de ataques continuará en expansión y que los hackers ampliarán su foco hacia otras plataformas de inteligencia artificial.
No se trata de un caso aislado. OpenAI, responsable de ChatGPT, acusó recientemente a su competidor chino DeepSeek de llevar a cabo intentos similares para copiar su modelo de razonamiento avanzado.