Dicha posición fue respaldada por un portavoz de X, quien, citado por el diario británico The Guardian, aseguró: “Tomamos medidas contra el contenido ilegal en X, incluido el material de abuso sexual infantil (CSAM), eliminándolo de la plataforma, suspendiendo de forma permanente las cuentas involucradas y colaborando con los gobiernos locales y las fuerzas del orden cuando es necesario”.
De acuerdo con diversos medios internacionales, la red social reconoció que la situación se originó por “fallos en las salvaguardas” implementadas en la configuración de Grok. Ante la presión pública y gubernamental, la empresa prometió corregir el problema de manera inmediata a través de la restricción de ciertas funciones relacionadas con el procesamiento y la generación de imágenes.
Este lunes, la Office of Communications (Ofcom), autoridad reguladora independiente y de competencia para las industrias de la comunicación en el Reino Unido, informó que se puso en contacto con X y xAI para solicitar información detallada sobre las medidas adoptadas en el caso. El organismo señaló que dará seguimiento a la respuesta de las empresas para evaluar si es necesario abrir una investigación formal con el fin de garantizar la protección de los usuarios dentro de su jurisdicción.
En paralelo, la organización francesa sin fines de lucro AI Forensics publicó un análisis detallado sobre el fenómeno. Tras examinar cerca de 50,000 menciones de @Grok en X y aproximadamente 20,000 imágenes generadas por el asistente entre el 25 de diciembre y el 1 de enero, el grupo encontró que alrededor de una cuarta parte de los resultados correspondían a solicitudes que incluían términos como “ella”, “poner”, “quitar”, “bikini” y “ropa”.
Ley Olimpia, establece sanciones que van de tres a seis años de prisión para quienes incurran en esta conducta. Un año después, la legislación fue aprobada a nivel nacional por el Senado y la Cámara de Diputados.En una línea similar, a principios del año pasado más de cuatrocientas personas expertas en inteligencia artificial, tecnología, seguridad en línea, ética digital y política global firmaron una carta abierta para exigir a los gobiernos del mundo la adopción de medidas urgentes y vinculantes contra los deepfakes. El documento, titulado Disrupting the Deepfake Supply Chain, advierte que los contenidos audiovisuales hiperrealistas creados con IA “representan una amenaza creciente para la sociedad” y sostiene que los Estados deben imponer obligaciones claras a lo largo de toda la cadena de suministro tecnológico para frenar su proliferación.
La misiva fue firmada por 447 especialistas provenientes de países como México, Brasil, Venezuela, Estados Unidos, Canadá, Reino Unido, Australia, Japón, Italia y China. En ella se subraya que los marcos regulatorios en torno al uso de la inteligencia artificial deben abordar al menos tres aspectos fundamentales: penalizar de manera absoluta la pornografía infantil producida con IA, incluso cuando represente a menores ficticios; establecer sanciones penales para quienes creen o faciliten de forma deliberada la difusión de contenidos dañinos o falsos; y exigir a los desarrolladores y distribuidores de software que impidan activamente que sus productos generen deepfakes. Las grandes empresas tecnológicas, como OpenAI, Google o Microsoft, —señala el texto— deben ser consideradas responsables si sus mecanismos preventivos pueden eludirse con facilidad.
Recibe en tu correo lo más relevante sobre innovación e inteligencia artificial con el newsletter de WIRED en español.Arrow¿Cómo evitar que Grok te muestre en bikini sin tu consentimiento?
La regulación del desarrollo y uso de la inteligencia artificial se ha consolidado como uno de los temas de mayor relevancia en la agenda pública internacional durante los últimos meses. No obstante, muchas de las iniciativas existentes parecen avanzar de manera fragmentada y sin una coordinación efectiva. Especialistas en el sector anticipan que, bajo estas condiciones, el impacto real de los esfuerzos regulatorios podría verse seriamente limitado.
Aunque países como Estados Unidos, México, Francia y los miembros de la Unión Europea ya penalizan la creación de deepfakes mediante IA, diversos expertos coinciden en que los mecanismos legales actuales resultan insuficientes para enfrentar la magnitud del problema. En la práctica, argumentan, gran parte de la responsabilidad de proteger la privacidad y prevenir el uso indebido de contenidos personales sigue recayendo en los propios usuarios.
En el caso específico de Grok, la plataforma ofrece algunos mecanismos que permiten restringir el uso de los contenidos personales por parte de la inteligencia artificial. Para activar estas opciones, los usuarios deben ingresar a su perfil, seleccionar “Más opciones” en la barra lateral izquierda, acceder al apartado de “Privacidad y Seguridad” y posteriormente elegir “Grok y colaboradores externos”. Desde ahí es posible deshabilitar la función que permite a la IA utilizar datos públicos, así como interacciones, entradas y resultados generados con Grok y xAI, con fines de entrenamiento y perfeccionamiento del sistema.