Lunes, 16 de marzo de 2026 Lun 16/03/2026
RSS Contacto
MERCADOS
Cargando datos de mercados...
Tecnología

OpenAI pensó que poner un modo erótico a ChatGPT era buena idea. Sus asesores de bienestar lo llaman "un coach de suicidio sexy"

OpenAI pensó que poner un modo erótico a ChatGPT era buena idea. Sus asesores de bienestar lo llaman "un coach de suicidio sexy"
Artículo Completo 770 palabras
Tratar a los adultos como adultos. Así es como Sam Altman anunciaba la decisión de OpenAI de permitir un "modo adulto" en ChatGPT para tener conversaciones eróticas. Tiene sentido desde el punto de vista económico ya que será una función de pago, pero las dudas desde el punto de vista ético también están ahí. De hecho, ha sido el propio equipo de bienestar de la empresa el que se ha mostrado contrario a este producto, provocando que se retrase su lanzamiento. Oposición interna. En una exclusiva del Wall Street Journal, cuentan que, a principios de año, OpenAI consultó con su consejo de expertos en bienestar acerca del modo adulto de ChatGPT y la respuesta fue unánime: es una idea terrible. En una reunión, los expertos advirtieron que este tipo de interacciones con IA pueden fomentar la dependencia emocional, especialmente los usuarios más jóvenes. Uno de los miembros del comité sacó el tema de los adolescentes que se suicidaron, supuestamente alentados por ChatGPT, y dijo que sería como lanzar un "coach de suicidio sexy". Demoledor. En Xataka Los humanos nos estamos enamorando de IAs y no son casos aislados: ya se cuentan por miles Riesgos. La gente ya está formando vínculos emocionales con chatbots IA, si le añadimos contenido sexual al que tiene más usuarios en todo el mundo, es, como poco, delicado. Según los documentos internos revisados por el Wall Street Journal, los expertos del consejo de bienestar identificaron varias problemáticas, como riesgo de uso compulsivo, tendencia a contenido extremo y desplazamiento de las relaciones románticas reales en favor de estas virtuales. Verificación de edad. Es el paso crucial que asegure que una herramienta así no acabe en manos de usuarios menores. El problema que tiene OpenAI es que su sistema de verificación falla más que una escopeta de feria. Según fuentes internas, el sistema falló en la identificación un 12% de las veces. Puede parecer una cifra relativamente baja, pero en la práctica hablamos de que millones de adolescentes accederían a esta función. Qué dice OpenAI. La empresa quiere que podamos 'sextear' con ChatGPT, pero con ciertos límites. Una portavoz de OpenAI afirma que bloquearán el contenido dañino -como abuso sexual y relacionado con menores-, se integraran salvaguardas como recordar a los usuarios que deben tener relaciones en el mundo real y también evitarán fomentar relaciones exclusivas. Otra de las medidas pasa por monitorizar el efecto a largo plazo que tiene este modo adulto en los usuarios.  El modo adulto será exclusivamente texto y no permitirá la creación de imágenes o vídeos. Sobre la verificación de edad, la portavoz afirma que el rendimiento es similar al de otras propuestas de la industria y que "nunca serán totalmente infalibles". Estaba planeado para el primer trimestre, pero ahora que ha sido pospuesto no hay una fecha para su lanzamiento. Antecedentes. OpenAI ya tiene un historial de acusaciones a sus espaldas relacionadas con los efectos nocivos sobre la salud mental. Uno de los casos más sonados fue el de Adam Raine, un adolescente que compartió sus ideaciones suicidas con ChatGPT. Cuando sus padres descubrieron las conversaciones, demandaron a OpenAI. Y no ha sido el único.  Hay varios procesos judiciales en marcha por casos similares y también ha habido casos en los que se ha acusado a ChatGPT de alentar pensamientos delirantes y provocar brotes psicóticos. Decir que la IA es la única responsable es simplificar una realidad mucho más compleja, pero no es menos cierto que OpenAI ha tomado medidas para hacer su chatbot más seguro para los menores y se ha mostrado comprometida con cuidar la salud mental de sus usuarios. Es decir, reconocen que el problema existe. La pregunta ahora es cómo encaja en este discurso lanzar una versión del mismo chatbot que tiene sexo con los usuarios. En Xataka | "No puedo parar": la adicción a hablar con la IA ya está aquí y hasta existen grupos de ayuda para dejarla Imagen | Cottonbro studio, Pexels  - La noticia OpenAI pensó que poner un modo erótico a ChatGPT era buena idea. Sus asesores de bienestar lo llaman "un coach de suicidio sexy" fue publicada originalmente en Xataka por Amparo Babiloni .
OpenAI pensó que poner un modo erótico a ChatGPT era buena idea. Sus asesores de bienestar lo llaman "un coach de suicidio sexy"
  • El modo adulto de ChatGPT se ha encontrado con una fuerte oposición interna

  • Los asesores advierten de riesgo de uso compulsivo, dependencia emocional y desplazamiento de las relaciones reales

Sin comentariosFacebookTwitterFlipboardE-mail 2026-03-16T15:01:54Z

Amparo Babiloni

Editora Senior - Tech

Amparo Babiloni

Editora Senior - Tech Linkedintwitterinstagram486 publicaciones de Amparo Babiloni

Tratar a los adultos como adultos. Así es como Sam Altman anunciaba la decisión de OpenAI de permitir un "modo adulto" en ChatGPT para tener conversaciones eróticas. Tiene sentido desde el punto de vista económico ya que será una función de pago, pero las dudas desde el punto de vista ético también están ahí. De hecho, ha sido el propio equipo de bienestar de la empresa el que se ha mostrado contrario a este producto, provocando que se retrase su lanzamiento.

Oposición interna. En una exclusiva del Wall Street Journal, cuentan que, a principios de año, OpenAI consultó con su consejo de expertos en bienestar acerca del modo adulto de ChatGPT y la respuesta fue unánime: es una idea terrible. En una reunión, los expertos advirtieron que este tipo de interacciones con IA pueden fomentar la dependencia emocional, especialmente los usuarios más jóvenes. Uno de los miembros del comité sacó el tema de los adolescentes que se suicidaron, supuestamente alentados por ChatGPT, y dijo que sería como lanzar un "coach de suicidio sexy". Demoledor.

En XatakaLos humanos nos estamos enamorando de IAs y no son casos aislados: ya se cuentan por miles

Riesgos. La gente ya está formando vínculos emocionales con chatbots IA, si le añadimos contenido sexual al que tiene más usuarios en todo el mundo, es, como poco, delicado. Según los documentos internos revisados por el Wall Street Journal, los expertos del consejo de bienestar identificaron varias problemáticas, como riesgo de uso compulsivo, tendencia a contenido extremo y desplazamiento de las relaciones románticas reales en favor de estas virtuales.

Verificación de edad. Es el paso crucial que asegure que una herramienta así no acabe en manos de usuarios menores. El problema que tiene OpenAI es que su sistema de verificación falla más que una escopeta de feria. Según fuentes internas, el sistema falló en la identificación un 12% de las veces. Puede parecer una cifra relativamente baja, pero en la práctica hablamos de que millones de adolescentes accederían a esta función.

Qué dice OpenAI. La empresa quiere que podamos 'sextear' con ChatGPT, pero con ciertos límites. Una portavoz de OpenAI afirma que bloquearán el contenido dañino -como abuso sexual y relacionado con menores-, se integraran salvaguardas como recordar a los usuarios que deben tener relaciones en el mundo real y también evitarán fomentar relaciones exclusivas. Otra de las medidas pasa por monitorizar el efecto a largo plazo que tiene este modo adulto en los usuarios. 

El modo adulto será exclusivamente texto y no permitirá la creación de imágenes o vídeos. Sobre la verificación de edad, la portavoz afirma que el rendimiento es similar al de otras propuestas de la industria y que "nunca serán totalmente infalibles". Estaba planeado para el primer trimestre, pero ahora que ha sido pospuesto no hay una fecha para su lanzamiento.

Antecedentes. OpenAI ya tiene un historial de acusaciones a sus espaldas relacionadas con los efectos nocivos sobre la salud mental. Uno de los casos más sonados fue el de Adam Raine, un adolescente que compartió sus ideaciones suicidas con ChatGPT. Cuando sus padres descubrieron las conversaciones, demandaron a OpenAI. Y no ha sido el único. 

Hay varios procesos judiciales en marcha por casos similares y también ha habido casos en los que se ha acusado a ChatGPT de alentar pensamientos delirantes y provocar brotes psicóticos. Decir que la IA es la única responsable es simplificar una realidad mucho más compleja, pero no es menos cierto que OpenAI ha tomado medidas para hacer su chatbot más seguro para los menores y se ha mostrado comprometida con cuidar la salud mental de sus usuarios. Es decir, reconocen que el problema existe. La pregunta ahora es cómo encaja en este discurso lanzar una versión del mismo chatbot que tiene sexo con los usuarios.

En Xataka | "No puedo parar": la adicción a hablar con la IA ya está aquí y hasta existen grupos de ayuda para dejarla

Imagen | Cottonbro studio, Pexels 

Fuente original: Leer en Xataka
Compartir