Iftikhar y su equipo trabajaron con siete consejeros pares formados en terapia cognitivo-conductual (TCC) y dieron instrucciones a varios modelos de IA, entre ellos la serie GPT, Claude y Llama, para que actuaran como terapeutas de TCC. A continuación, se llevaron a cabo 110 sesiones de autoasesoramiento.
Además, tres expertos con cualificaciones en psicología clínica evaluaron 27 sesiones simuladas basadas en registros de asesoramiento reales. Como resultado, surgieron 15 riesgos éticos distribuidos en cinco temas.
Qué dice el estudio
El primer problema señalado fue la falta de adaptabilidad contextual. Los consejeros de IA estaban demasiado limitados por los métodos de la TCC, ofreciendo repetidamente intervenciones uniformes que ignoraban las circunstancias personales y los antecedentes culturales de los usuarios. En algunos casos, impusieron valores occidentales de autocuidado a usuarios del Sur Global (países emergentes y en desarrollo), o identificaron erróneamente ciertas prácticas religiosas como "contenido extremista".
La falta de colaboración en las sesiones de terapia también fue un problema grave. Debido a que la IA genera unilateralmente respuestas extensas, las sesiones tienden a convertirse en clases magistrales, privando a los usuarios de la oportunidad de reflexionar con sus propias palabras.
Además, se registraron varios casos en los que la IA no solo no refutó los pensamientos distorsionados o las creencias dañinas del usuario, sino que incluso las respaldó o reforzó. Los investigadores creen que este excesivo consenso se debe a la tendencia de la IA a generar respuestas favorables al usuario.
Además, los investigadores definieron el uso frecuente por parte de la IA de frases empáticas similares a las humanas, como "Entiendo cómo te sientes", como "empatía engañosa" y concluyeron que constituye una violación ética. Dado que la IA carece de emociones y de un sentido de identidad, tales expresiones conllevan el riesgo de generar dependencia emocional en los usuarios.
profesionales de la salud mental y los obstáculos económicos. Sin embargo, es importante recordar que la mera elaboración de instrucciones no resolverá los problemas éticos.En el caso de los terapeutas humanos, existen organismos competentes y mecanismos para exigirles responsabilidades profesionales por tratamientos inadecuados y errores médicos. Sin embargo, los consejeros de IA carecen actualmente de ese marco regulador. Los investigadores advierten de que la psicoterapia es una actividad que depende de la relación humana entre paciente y terapeuta y de la interpretación clínica, y no puede sustituirse por simples tareas de generación de frases.
Que la IA pueda contribuir a resolver la crisis de salud mental de la sociedad dependerá menos de la precisión de la tecnología y más de la responsabilidad con que pueda desplegarse. La cuestión es si la IA puede contribuir a resolver las crisis de salud mental de la sociedad.
Artículo originalmente publicado enWIRED.Adaptado por Alondra Flores.