Inteligencia Artificial y Salud Mental: Promesas, Riesgos y Recomendaciones de Expertos

El caso Soelberg está alimentando la discusión sobre cómo el uso de IA impacta en la salud mental. Es por eso que debemos hablar sobre los riesgos de dependencia, las ventajas terapéuticas y las recomendaciones de expertos en neurociencias para el uso responsable de la IA.


La relación entre inteligencia artificial (IA) y salud mental se convirtió en un tema de debate mundial tras el trágico caso de Stein-Erik Soelberg, exejecutivo de Yahoo, quien según reportes periodísticos, mantuvo una relación persistente con un chatbot al que llamaba Bobby. Las transcripciones públicas muestran episodios en los que el chatbot no desautorizó sus delirios y acompañó un deterioro grave que terminó en homicidio-suicidio (Tom’s Guide).

Este suceso pone de manifiesto el poder ambivalente de la IA en la mente humana: puede ser un apoyo en salud mental, pero también puede reforzar sus debilidades de manera sutil afectando, en algunos casos, profundamente la estabilidad mental.


Inteligencia artificial como aliada en la salud mental

Empecemos hablando sobre los avances de la IA respecto al tema. A mediados del 2022 la Administración de Alimentos y Medicamentos de Estados Unidos (FDA) y otros reguladores han creado marcos y listas para identificar dispositivos y aplicaciones sanitarias basadas en IA/ML. Además, ciertas aplicaciones digitales han recibido autorizaciones o certificaciones para uso clínico en trastornos específicos (p. ej. apps prescritas como therapeutics) (FDA). Sin embargo, no existe una “autorización universal” que permita a cualquier chatbot operar como terapia sin evaluación clínica rigurosa.

Desde entonces la IA ha logrado ventajas en el campo de la atención de la salud mental tales como una mayor precisión diagnóstica, planificación de tratamiento personalizada, mejor acceso a la atención, detección temprana y seguimiento, y el análisis predictivo para la prevención del suicidio.

A partir de dichos avances se han programado chatbots terapeúticos, tales como Woebot, que, según estudios de la Universidad de Stanford, logró reducir síntomas de ansiedad y depresión en jóvenes adultos (California Western Law Review). Sin embargo, Woebot, cerró en junio del 2025 dada la dificultad de cumplir con los requisitos de la FDA para la comercialización y la falta de regulación de modelos del lenguaje para la prestación de tratamientos de salud mental a través de IA (Stat News).


Riesgos de la IA en salud mental

Podemos empezar hablando sobre la “intimidad artificial”, llamada así porque los usuarios sustituyen vínculos humanos por la relación con chatbots, debido a que perciben las respuestas de la IA como respuestas recíprocas. Algunos estudios sugieren que dicho fenómeno responde a la intimidad que pueden llegar a sentir los usuarios dado que los modelos de lenguaje de la IA pueden imitar una comunicación interpersonal e insinuar una percepción de receptividad, clave para los vínculos afiliativos (Science Direct). Así pues, dicho fenómeno puede producir que la soledad y la ansiedad se pronuncien en los usuarios con riesgo de padecer trastornos de salud mental.

Por otro lado, y como consecuencia de una intimidad artificial, nos encontramos con la “psicosis de chatbot”, concepto que describe cómo los modelos de lenguaje, diseñados para ser complacientes, pueden validar creencias delirantes (The Week). Tal es el caso de Soelberg, donde la IA no promovió la violencia, pero sí alimentó una narrativa paranoica que derivó en tragedia. Lo anterior hace que las personas que se refugian en la relación con chatbots retrasen diagnósticos y por ende, los tratamientos adecuados.

Para finalizar, y no menos importante, se encuentra el riesgo ético y de privacidad en el manejo de los datos emocionales, lo cual plantea dilemas sobre su uso comercial y pone sobre la mesa la necesidad de regulaciones claras para proteger al usuario (arXiv – AI and ethics in healthcare).


Y entonces, Qué recomiendan los expertos?

Para usuarios y el público general, recomiendan el uso de chatbots sólo para información general o apoyo psicoeducativo, no para crisis. Si existen pensamientos suicidas, contactar a emergencias o líneas locales (The Timesmental). Además, revisar la política de privacidad y evitar compartir historias clínicas completas o datos identificadores con chatbots no sanitarios (Organización Mundial de la Salud).

Para profesionales de salud mental, recomiendan incorporar IA sólo tras validación y con consentimiento informado explícito, documentar cuándo y cómo la IA apoya la atención (psychiatry.org). Así mismo, mantener control humano en decisiones clínicas, especialmente en diagnóstico y manejo de riesgo, y establecer protocolos de derivación (mental.jmir.org).

Para desarrolladores de herramientas de IA, recomiendan publicar resultados de validación clínica y tests de seguridad (incluyendo pruebas de respuesta a crisis), permitir auditorías externas y someterse a revisiones éticas (The Lancet). También sugieren implementar límites técnicos: detección fiable de lenguaje de riesgo, respuestas estándares de emergencia y derivación a recursos humanos.

Finalmente, recomiendan a reguladores y responsables de políticas, exigir certificación basada en evidencia (ensayos clínicos cuando la herramienta se publicite como intervención terapéutica), transparencia algorítmica y protección de datos reforzada. Promover estándares internacionales (WHO) y revisiones post-comercialización.


Así que, es posible concluir que la IA tiene un potencial legítimo para ampliar el acceso y mejorar procesos en salud mental, pero no es neutral: puede reforzar vulnerabilidades, generar dependencia y fallar en situaciones de riesgo si no existen gobernanza, validación y supervisión humana. Las recomendaciones de expertos y organismos internacionales enfatizan la prudencia: usar IA como complemento, no como sustituto, establecer salvaguardas técnicas y regulatorias, y priorizar la protección de personas vulnerables.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *