Martes, 23 de diciembre de 2025 Mar 23/12/2025
RSS Contacto
MERCADOS
Cargando datos de mercados...
Economía

ChatGPT multiplicó por 80 sus reportes de explotación infantil en 2025

ChatGPT multiplicó por 80 sus reportes de explotación infantil en 2025
Artículo Completo 683 palabras
OpenAI presentó 80 veces más denuncias al Centro Nacional para Menores Desaparecidos y Explotados durante los primeros seis meses de 2025 que en el mismo período del año anterior.
Startup y Cultura Tecnológica23 de diciembre de 2025explotación infantil. Cuando envían una denuncia, el NCMEC la revisa y la remite al organismo policial competente para su investigación.

Las estadísticas del NCMEC pueden tener matices

A veces, el aumento de denuncias puede reflejar cambios en la moderación automática de una plataforma o en los criterios que esta usa para decidir si una denuncia es necesaria, y no necesariamente un incremento de la actividad nefasta. Además, un mismo contenido puede ser objeto de varias denuncias, y una denuncia puede abarcar varios contenidos. Algunas plataformas, como OpenAI, publican tanto el número de denuncias como el total de contenidos sobre los que versan para ofrecer una imagen más completa.

El portavoz de OpenAI, Gaby Raila, declaró que la compañía realizó inversiones hacia finales de 2024 "para aumentar su capacidad de revisión y acción de informes y mantener el ritmo de crecimiento actual y futuro de los usuarios". También indicó que este aumento coincide con "la introducción de más superficies de productos que permitían subir imágenes y la creciente popularidad de nuestros productos", lo que contribuyó al alza de los informes. En agosto, Nick Turley, vicepresidente y responsable de ChatGPT, anunció que la aplicación tenía cuatro veces más usuarios activos semanales que el año anterior.

Durante la primera mitad de 2025, el número de informes de CyberTipline enviados por OpenAI fue prácticamente igual al de contenidos denunciados: 75,027 frente a 74,559. En el mismo periodo de 2024, se enviaron 947 informes sobre 3,252 contenidos. Tanto el número de informes como la cantidad de contenido denunciado aumentaron de manera notable entre ambos periodos.

En este contexto, "contenido" puede significar varias cosas. OpenAI informa al NCMEC de todos los casos de CSAM, incluidas cargas y solicitudes. Además de ChatGPT, que permite a los usuarios subir archivos, incluidas imágenes, y generar texto e imágenes como respuesta, OpenAI ofrece acceso a sus modelos a través de la API. El recuento más reciente del NCMEC no incluiría informes relacionados con la aplicación de generación de video Sora, cuyo lanzamiento en septiembre fue posterior al periodo cubierto por la actualización.

El aumento de las denuncias sigue un patrón similar al observado por el NCMEC con el auge de la IA generativa. Un análisis del centro sobre todos los datos de CyberTipline reveló que los informes relacionados con IA generativa crecieron un 1,325 % entre 2023 y 2024. Aunque el NCMEC aún no ha publicado los datos de 2025, otros laboratorios de IA como Google sí informan sobre los informes que han realizado, sin detallar qué porcentaje está relacionado con IA.

los daños de los chatbots de IA, y la Comisión Federal de Comercio inició un estudio de mercado sobre los bots de compañía, incluyendo preguntas sobre cómo las empresas mitigan impactos negativos, especialmente para los niños.

En los últimos meses, OpenAI ha lanzado nuevas herramientas centradas en la seguridad. En septiembre, la compañía introdujo funciones para ChatGPT, incluido control parental, como parte de su trabajo "para dar a las familias herramientas que apoyen el uso de la IA por parte de sus hijos adolescentes". Los padres y sus hijos adolescentes pueden vincular sus cuentas, y los padres pueden ajustar la configuración de sus hijos, desactivando el modo de voz y la memoria, eliminando la capacidad de ChatGPT para generar imágenes y optando por excluirlos de la formación de modelos. OpenAI señaló que también podría notificar a los padres si las conversaciones de sus hijos muestran signos de autolesión, e incluso a las fuerzas del orden si detecta una amenaza inminente y no logra contactar a los padres.

inteligencia artificial general (IAG)". En noviembre, OpenAI publicó su Plan de Seguridad para Adolescentes, destacando mejoras constantes en la detección de material de abuso y explotación sexual infantil y reportando el contenido confirmado a las autoridades, incluido el NCMEC.

Artículo originalmente publicado enWIRED.Adaptado por Alondra Flores.

Fuente original: Leer en Wired - Negocios
Compartir