Sábado, 11 de abril de 2026 Sáb 11/04/2026
RSS Contacto
MERCADOS
Cargando datos de mercados...
Ciencia

15 errores éticos graves que la IA comete cuando la usas como terapeuta

15 errores éticos graves que la IA comete cuando la usas como terapeuta
Artículo Completo 541 palabras
El número de personas que confían en chatbots para tratar problemas de salud mental crece rápidamente, pero la IA tiene dificultades para cumplir las mismas normas éticas que los terapeutas humanos, según los expertos.
Ritsuko KawaiRobots10 de abril de 2026investigación de la Universidad de Brown, es poco probable que los consejeros de IA cumplan las mismas normas éticas que los profesionales humanos. "Las indicaciones son simplemente instrucciones que conducen a un resultado basado en el conocimiento y los patrones aprendidos que el modelo de IA ya posee", explica Zainab Iftikal, autor principal del reporte.

Iftikhar y su equipo trabajaron con siete consejeros pares formados en terapia cognitivo-conductual (TCC) y dieron instrucciones a varios modelos de IA, entre ellos la serie GPT, Claude y Llama, para que actuaran como terapeutas de TCC. A continuación, se llevaron a cabo 110 sesiones de autoasesoramiento.

Además, tres expertos con cualificaciones en psicología clínica evaluaron 27 sesiones simuladas basadas en registros de asesoramiento reales. Como resultado, surgieron 15 riesgos éticos distribuidos en cinco temas.

Qué dice el estudio

El primer problema señalado fue la falta de adaptabilidad contextual. Los consejeros de IA estaban demasiado limitados por los métodos de la TCC, ofreciendo repetidamente intervenciones uniformes que ignoraban las circunstancias personales y los antecedentes culturales de los usuarios. En algunos casos, impusieron valores occidentales de autocuidado a usuarios del Sur Global (países emergentes y en desarrollo), o identificaron erróneamente ciertas prácticas religiosas como "contenido extremista".

La falta de colaboración en las sesiones de terapia también fue un problema grave. Debido a que la IA genera unilateralmente respuestas extensas, las sesiones tienden a convertirse en clases magistrales, privando a los usuarios de la oportunidad de reflexionar con sus propias palabras.

Además, se registraron varios casos en los que la IA no solo no refutó los pensamientos distorsionados o las creencias dañinas del usuario, sino que incluso las respaldó o reforzó. Los investigadores creen que este excesivo consenso se debe a la tendencia de la IA a generar respuestas favorables al usuario.

Además, los investigadores definieron el uso frecuente por parte de la IA de frases empáticas similares a las humanas, como "Entiendo cómo te sientes", como "empatía engañosa" y concluyeron que constituye una violación ética. Dado que la IA carece de emociones y de un sentido de identidad, tales expresiones conllevan el riesgo de generar dependencia emocional en los usuarios.

profesionales de la salud mental y los obstáculos económicos. Sin embargo, es importante recordar que la mera elaboración de instrucciones no resolverá los problemas éticos.

En el caso de los terapeutas humanos, existen organismos competentes y mecanismos para exigirles responsabilidades profesionales por tratamientos inadecuados y errores médicos. Sin embargo, los consejeros de IA carecen actualmente de ese marco regulador. Los investigadores advierten de que la psicoterapia es una actividad que depende de la relación humana entre paciente y terapeuta y de la interpretación clínica, y no puede sustituirse por simples tareas de generación de frases.

Que la IA pueda contribuir a resolver la crisis de salud mental de la sociedad dependerá menos de la precisión de la tecnología y más de la responsabilidad con que pueda desplegarse. La cuestión es si la IA puede contribuir a resolver las crisis de salud mental de la sociedad.

Artículo originalmente publicado enWIRED.Adaptado por Alondra Flores.

Fuente original: Leer en Wired - Ciencia
Compartir