Miércoles, 07 de enero de 2026 Mié 07/01/2026
RSS Contacto
MERCADOS
Cargando datos de mercados...
Cultura

Cómo evitar que Grok te muestre en bikini sin tu consentimiento

Cómo evitar que Grok te muestre en bikini sin tu consentimiento
Artículo Completo 996 palabras
La creación y difusión de deepfakes sin consentimiento, tal como sucede con Grok, es un delito en diversas partes del mundo, pero gran parte de la responsabilidad para prevenir la infracción recae en los propios usuarios.
Fernanda GonzálezSeguridad6 de enero de 2026uso indebido de Grok ha sido ampliamente documentado por la prensa internacional. Diversos reportes dan cuenta de usuarios que solicitan al asistente de IA modificar imágenes públicas, principalmente de celebridades, influencers y mujeres que no necesariamente son figuras públicas, con el fin de mostrar a las personas retratadas en bikini o con atuendos sugerentes. También se han detectado peticiones explícitas como “ponla en bikini”, “quítale la ropa” o “hazla más sexy”, utilizadas incluso para alterar fotografías de menores de edad, lo que ha encendido alertas a nivel global.

incluso fomentar la tendencia, emitió posteriormente una advertencia pública al señalar que “cualquiera que use Grok para crear contenido ilegal sufrirá las mismas consecuencias que si subiera contenido ilegal directamente a la plataforma”. La declaración buscó marcar distancia frente a las acusaciones y reforzar la postura oficial de la compañía.

Dicha posición fue respaldada por un portavoz de X, quien, citado por el diario británico The Guardian, aseguró: “Tomamos medidas contra el contenido ilegal en X, incluido el material de abuso sexual infantil (CSAM), eliminándolo de la plataforma, suspendiendo de forma permanente las cuentas involucradas y colaborando con los gobiernos locales y las fuerzas del orden cuando es necesario”.

De acuerdo con diversos medios internacionales, la red social reconoció que la situación se originó por “fallos en las salvaguardas” implementadas en la configuración de Grok. Ante la presión pública y gubernamental, la empresa prometió corregir el problema de manera inmediata a través de la restricción de ciertas funciones relacionadas con el procesamiento y la generación de imágenes.

Este lunes, la Office of Communications (Ofcom), autoridad reguladora independiente y de competencia para las industrias de la comunicación en el Reino Unido, informó que se puso en contacto con X y xAI para solicitar información detallada sobre las medidas adoptadas en el caso. El organismo señaló que dará seguimiento a la respuesta de las empresas para evaluar si es necesario abrir una investigación formal con el fin de garantizar la protección de los usuarios dentro de su jurisdicción.

En paralelo, la organización francesa sin fines de lucro AI Forensics publicó un análisis detallado sobre el fenómeno. Tras examinar cerca de 50,000 menciones de @Grok en X y aproximadamente 20,000 imágenes generadas por el asistente entre el 25 de diciembre y el 1 de enero, el grupo encontró que alrededor de una cuarta parte de los resultados correspondían a solicitudes que incluían términos como “ella”, “poner”, “quitar”, “bikini” y “ropa”.

Ley Olimpia, establece sanciones que van de tres a seis años de prisión para quienes incurran en esta conducta. Un año después, la legislación fue aprobada a nivel nacional por el Senado y la Cámara de Diputados.

En una línea similar, a principios del año pasado más de cuatrocientas personas expertas en inteligencia artificial, tecnología, seguridad en línea, ética digital y política global firmaron una carta abierta para exigir a los gobiernos del mundo la adopción de medidas urgentes y vinculantes contra los deepfakes. El documento, titulado Disrupting the Deepfake Supply Chain, advierte que los contenidos audiovisuales hiperrealistas creados con IA “representan una amenaza creciente para la sociedad” y sostiene que los Estados deben imponer obligaciones claras a lo largo de toda la cadena de suministro tecnológico para frenar su proliferación.

La misiva fue firmada por 447 especialistas provenientes de países como México, Brasil, Venezuela, Estados Unidos, Canadá, Reino Unido, Australia, Japón, Italia y China. En ella se subraya que los marcos regulatorios en torno al uso de la inteligencia artificial deben abordar al menos tres aspectos fundamentales: penalizar de manera absoluta la pornografía infantil producida con IA, incluso cuando represente a menores ficticios; establecer sanciones penales para quienes creen o faciliten de forma deliberada la difusión de contenidos dañinos o falsos; y exigir a los desarrolladores y distribuidores de software que impidan activamente que sus productos generen deepfakes. Las grandes empresas tecnológicas, como OpenAI, Google o Microsoft, —señala el texto— deben ser consideradas responsables si sus mecanismos preventivos pueden eludirse con facilidad.

Recibe en tu correo lo más relevante sobre innovación e inteligencia artificial con el newsletter de WIRED en español.

¡Únete a nuestra newsletter!

Arrow

¿Cómo evitar que Grok te muestre en bikini sin tu consentimiento?

La regulación del desarrollo y uso de la inteligencia artificial se ha consolidado como uno de los temas de mayor relevancia en la agenda pública internacional durante los últimos meses. No obstante, muchas de las iniciativas existentes parecen avanzar de manera fragmentada y sin una coordinación efectiva. Especialistas en el sector anticipan que, bajo estas condiciones, el impacto real de los esfuerzos regulatorios podría verse seriamente limitado.

Aunque países como Estados Unidos, México, Francia y los miembros de la Unión Europea ya penalizan la creación de deepfakes mediante IA, diversos expertos coinciden en que los mecanismos legales actuales resultan insuficientes para enfrentar la magnitud del problema. En la práctica, argumentan, gran parte de la responsabilidad de proteger la privacidad y prevenir el uso indebido de contenidos personales sigue recayendo en los propios usuarios.

En el caso específico de Grok, la plataforma ofrece algunos mecanismos que permiten restringir el uso de los contenidos personales por parte de la inteligencia artificial. Para activar estas opciones, los usuarios deben ingresar a su perfil, seleccionar “Más opciones” en la barra lateral izquierda, acceder al apartado de “Privacidad y Seguridad” y posteriormente elegir “Grok y colaboradores externos”. Desde ahí es posible deshabilitar la función que permite a la IA utilizar datos públicos, así como interacciones, entradas y resultados generados con Grok y xAI, con fines de entrenamiento y perfeccionamiento del sistema.

Fuente original: Leer en Wired - Cultura
Compartir