Miércoles, 25 de febrero de 2026 Mié 25/02/2026
RSS Contacto
MERCADOS
Cargando datos de mercados...
Internacional

Grok en X creó tres millones de imágenes sexualizadas en 11 días, 23.000 de menores

Grok en X creó tres millones de imágenes sexualizadas en 11 días, 23.000 de menores
Artículo Completo 1,370 palabras
La Ley de Servicios Digitales podría imponer multas millonarias a la plataforma tras la creación de contenido de abuso infantil esta funcionalidad de la IA, señala un infrome de la UOC

Ampliar

Grok, la IA de X. AFP Grok en X creó tres millones de imágenes sexualizadas en 11 días, 23.000 de menores

La Ley de Servicios Digitales podría imponer multas millonarias a la plataforma tras la creación de contenido de abuso infantil esta funcionalidad de la IA, señala un infrome de la UOC

M. G.

Miércoles, 25 de febrero 2026, 11:41 | Actualizado 12:11h.

imágenes sexualizadas, una media de 190 por minuto. Entre ellas, ... se incluyen más de 23.000 imágenes de menores, creadas a un ritmo de una cada 41 segundos. Esta producción masiva se produjo tras la puesta en marcha de una nueva funcionalidad de la IA de X, Grok, que permitía desnudar a personas con un solo clic, con la orden «ponla en bikini» o «quítale la ropa».

explotación sexual infantil. No es tanto la tecnología en sí, sino el uso que se hace de ella y, sobre todo, la accesibilidad que existe por parte de estas personas a determinadas aplicaciones», alerta Pablo Romero, profesor de los Estudios de Derecho y Ciencia Política de la Universitat Oberta de Catalunya (UOC) e investigador del grupo VICRIM. X tardó 8 días en poner los primeros límites y 11 días en bloquear funciones críticas, tiempo suficiente para que millones de imágenes se viralizaran.

Desnudos a un clic

Crear, editar y difundir este material no es impune. En el caso de los menores, la respuesta penal es clara. «Desde 2015, los delitos de pornografía infantil castigan el uso de imágenes tanto reales como virtuales», explica Oriol Martínez, también profesor de la UOC y experto en derecho penal de la UOC. El artículo 189.1 II d) del Código Penal permite castigar la creación y la tenencia de material generado por IA porque, a pesar de ser sintético, es perfectamente subsumible en el tipo penal. «Es un delito público que se persigue sin necesidad de consentimiento del afectado y con penas severas», aclara Martínez.

En esta línea, UNICEF alertaba de que la IA generativa ha alcanzado un nivel en que las imágenes sintéticas ya no se pueden distinguir de las reales a simple vista. Esto crea un problema legal y forense: es casi imposible probar ante un tribunal si un niño representado existe realmente o no, lo que puede llevar a la impunidad de los agresores si no hay una legislación que, como comenta Martínez, equipare legalmente el material sintético con el real.

La situación cambia cuando la víctima es adulta. Martínez señala que «no hay ningún delito que tipifique expresamente esta conducta», lo que obliga a usar figuras legales «cogidas con pinzas». El delito contra la intimidad es difícil de aplicar si la IA se basa en fotos públicas de redes sociales y, técnicamente, el desnudo generado «no es 'realmente' la imagen de la persona».

El experto apunta al delito contra el honor (injurias), aunque las penas son bajas y es un delito privado. Ante esta carencia, el experto plantea como vía más contundente el delito de trato degradante, que castiga a quien «crea en las víctimas sentimientos de terror, de angustia y de inferioridad».

26% incremento

La Internet Foundation detectó este porcentaje de subida de vídeos de abusos generados por IA en 2025 con respecto al año anterior.

65% categoría A

De todo lo generado con inteligencia artificial, este porcetanje se correspondió con material extremo, incluidas violaciones y torturas sexuales.

Según Martínez, esta sería una figura «bastante óptima para subsumir el contenido de desaprobación material, dado que estas imágenes tienden a cosificar a las víctimas y conllevan penas de prisión de hasta dos años». Aun así, el profesor de derecho penal considera que hay que hacer evolucionar las interpretaciones legales: «La incertidumbre jurídica actual hace necesario crear un tipo específico que intente atender a las características de este tipo de criminalidad para evitar que la difusión y la reasignación de estos contenidos queden desprotegidas por interpretaciones legales restrictivas».

La industria del abuso

Grok no es una excepción. La creación de material de abuso sexual infantil, ya sean vídeos o imágenes, a través de la IA es una realidad. En 2025, la Internet Watch Foundation detectó un aumento del 26,362 % en vídeos de abuso generados por IA respecto al año anterior. Además, identifica la gravedad de las imágenes: el 65 % del material fue clasificado como categoría A (la más extrema según la ley del Reino Unido), que incluye violaciones y torturas sexuales, en comparación con el material «real» (no IA), que tiene una proporción menor de categoría A (43 %).

La ingente cantidad de material creado con IA puede hacer pensar que la imaginería artificial de imágenes de contenido sexual infantil puede servir para el consumo de depredadores sexuales. «Ahora mismo, la ciencia todavía no tiene una respuesta definitiva sobre si el valor de las imágenes sintéticas se asimila al de una imagen real», comenta.

Con víctimas adultas, no hay ningún delito que tipifique expresamente esta conducta, lo que obliga a usar figuras legales «cogidas con pinzas»

Históricamente, la investigación se ha centrado casi exclusivamente en las víctimas y en cómo tratar el impacto, dejando de lado el estudio de los perpetradores y sus motivaciones vitales. «A pesar de la falta de datos directos sobre la IA, el debate académico se enmarca en el caso de las muñecas anatómicas que simulan a niños y niñas», comenta.

En este debate existen dos posturas contrapuestas, según el experto: estos recursos o bien pueden ser un factor protector (algunos estudios sugieren que pueden servir en el ámbito de la intervención y el tratamiento para evitar el contacto real) o bien pueden actuar como detonante (trigger), en cuyo caso el acceso a este material puede servir como un catalizador que haga pasar al individuo de la ideación a la perpetración real.

Imagen falsa, daño real

Aunque la imagen sea fake, la víctima sufre el daño moral como si la foto fuera real. «Lo que nos indica la evidencia es que el impacto puede ser muy parecido en cuanto a los sentimientos o las consecuencias que puede tener en las víctimas, con la generación de sentimientos de angustia, de ansiedad o de vergüenza», comenta Romero.

Aunque todavía es un fenómeno reciente, el impacto en las víctimas es comparable con el que se puede sufrir cuando hay filtraciones de imágenes de contenido sexual verídico. «El criterio tanto del legislador como de los tribunales es la equiparación del daño moral en los delitos de creación de deepfakes de contenido sexual y su difusión con el de los delitos de filtración de material de fotografías de contenido sexual verídico», explica Romero.

Además, la víctima a menudo sufre la victimización terciaria: el juicio social que la culpa por haber colgado la foto original. «La forma de evitar la reacción social adversa (victimización terciaria) que supone haber sufrido un hecho como la difusión de material de contenido sexual, tanto si es generado por inteligencia artificial o es verídico, es incidir en una educación sexual protocolizada, manualizada y que se implemente desde momentos muy tempranos del ciclo educativo de los niños y las niñas», alerta Romero.

Límite de sesiones alcanzadas

El acceso al contenido Premium está abierto por cortesía del establecimiento donde te encuentras, pero ahora mismo hay demasiados usuarios conectados a las vez.

Por favor, inténtalo pasados unos minutos.

Sesión cerrada

Al iniciar sesión desde un dispositivo distinto, por seguridad, se cerró la última sesión en este.

Para continuar disfrutando de su suscripción digital, inicie sesión en este dispositivo.

Iniciar sesión Más información

¿Tienes una suscripción? Inicia sesión

Fuente original: Leer en Diario Sur - Ultima hora
Compartir