Fotomontaje con una de las fotografías modificadas de Grok. Manuel Fernández | Grok Omicrono | X
Software La IA de Elon Musk está desnudando mujeres a un ritmo demencial: Grok procesa 6.700 imágenes en X cada horaLos sistemas de inteligencia artificial del magnate habrían estado generando fotografías problemáticas por miles en diciembre.
Más información: El nuevo disparate de Grok, la IA de Elon Musk: asegura que Donald Trump ganó las elecciones del 2020
Manuel Fernández Publicada 7 enero 2026 18:23hEl chatbot integrado de la red social de Elon Musk, Grok, lleva años causando estragos en España. Desde diciembre, sin ir más lejos, ha estado desnudando a mujeres sin su consentimiento.
Esta funcionalidad para generar imágenes de mujeres semidesnudas parece haberse salido de control. Según recoge Bloomberg, se habrían generado miles de imágenes similares por hora.
El portal cita los hallazgos de Genevieve Oh, una investigadora centrada en Internet y en deepfakes que ha dado una cifra escalofriante: 6.700 imágenes generadas en una sola hora.
Miles de desnudos generados por IA
Los mensajes cuestionables relacionados con Grok llevan presentes desde hace años, pero fue en diciembre cuando se estableció la moda de desnudar a mujeres en X.
Los usuarios comenzaron una tendencia escalofriante a la par de polémica en diciembre del 2025: pedir a Grok desnudar a mujeres que comparten sus fotos en la plataforma.
— Grok (@grok) January 7, 2026
Y no nos referimos únicamente a desnudar de forma total. La gran mayoría de solicitudes han girado en torno a la generación de fotos de estas mismas mujeres en bikinis y prendas similares.
A esta situación ya turbia de por sí tuvimos que añadirle que la IA no distinguía de edad y por ende, había sido pillada publicando imágenes de niñas y adolescentes prácticamente desnudas o en bikini.
[Elon Musk consigue meter su inteligencia artificial en el Pentágono: Grok ayudará en operaciones militares]Pocas horas después del auge de esta tendencia, la cuenta oficial de Grok generó una respuesta pidiendo disculpas, hablando de "un lapso en las salvaguardas", aunque sin el perdón expreso de Musk.
Por supuesto, aseguró que la generación de contenido basado en las imágenes de menores de edad estaba prohibido y que era ilegal, prometiendo una solución rápida.
These women weren’t careful in your mind? What should they have done to prevent men from requesting they be undressed? Not existed on social media lest men ask Grok undress them? I truly do not understand how women think it’s what they wear that entices sexual harassment. Jesus. pic.twitter.com/78QdiJwkdm
— Phumzile Van Damme (@zilevandamme) January 2, 2026
Si bien es cierto que el ritmo de publicaciones ha descendido, el perfil de Grok aún aglutina una ingente cantidad de imágenes de IA de personas desconocidas casi desnudas o en bikini.
Las cifras que arroja la investigadora respecto a esta tendencia son espectaculares, en el peor sentido posible. Porque no hablamos de cientos de imágenes por hora, sino de miles.
[Las falsas promesas de Musk con Grokipedia: la alternativa 'anti woke' a la Wikipedia "es confusa y poco transparente"]Genevieve, que habría realizado un análisis de apenas 24 horas de las imágenes publicadas por Grok en X, explicó que el ritmo de publicaciones era brutal.
Concretamente, 6.700 imágenes por hora que habían sido catalogadas como sugerentes o referentes a desnudos, superando a otros sitios conocidos por generar deepfakes parecidos.
I don’t care if this is a ‘trend’ or something, STOP USING GROK TO UNDRESS PEOPLE
— SooperE123 (@SooperE123) December 31, 2025
The whole Grok media tab is just ‘undress her’ or ‘turn her around’ and it’s gross, desperate, and in some places A CRIME pic.twitter.com/zEs5gREhP6
La investigadora relata que los cinco sitios web más usados ajenos a Grok para estas prácticas registraron una media de 79 imágenes por hora de desnudos en un período de 24 horas.
Tras el auge anteriormente mencionado, tanto Musk como la cuenta de Seguridad de X publicaron sendos avisos advirtiendo que este contenido era ilegal.
[Elon Musk encuentra en Nayib Bukele un aliado: acuerda llevar la polémica IA Grok a las escuelas de El Salvador]En lugar de condenar las imágenes, Musk amenazó a los usuarios. "Cualquiera que use Grok para crear contenido ilegal sufrirá las mismas consecuencias que si subiera contenido ilegal".
Por otro lado, la cuenta de seguridad explicó que tomarían acciones legales contra dicho contenido, incluyendo los contenidos relacionados con abusos infantiles.
— Grok (@grok) January 7, 2026
Eliminarán el contenido y suspenderán las cuentas de forma permanente. Además, anunciaron que trabajarían en conjunto con gobiernos locales "según sea necesario".
Ante estas amenazas, los usuarios han virado hacia la generación de imágenes en bikini, sexualizadas por supuesto. Y en el perfil de Grok no faltan ejemplos.
[Adiós a los desnudos con IA: Meta demanda a la aplicación más popular por publicitarse en sus plataformas]Las soluciones para las víctimas son prácticamente nulas, ya que la creación de contenidos con bikinis no viola explícitamente las normas de comunidad de X.
Por ello, los usuarios y usuarias que se han visto sexualizados por Grok no pueden hacer nada. De hecho, algunas denuncian inacción por parte de X y sus plataformas de moderación.
[El lado oscuro de Lensa, la app que hace retratos de IA con tu cara: desnudos, racismo y otros sesgos]Bloomberg cita ejemplos de usuarias que habían visto cómo sus fotografías habían sido usadas sin su consentimiento para crear desnudos mediante Grok, y cómo habían denunciado las publicaciones originales.
Algunas acusan a X de no tomar acciones e incluso de calificar estos contenidos como legales en la red social. Muchas de estas imágenes siguen publicadas a día de hoy,