ChatGPT salud mental: ¿ayuda emocional o riesgo psicológico?


Introducción

El auge de la inteligencia artificial generativa ha transformado numerosos sectores, desde la educación hasta la medicina. Pero uno de los terrenos más delicados en los que ha comenzado a incursionar es la salud mental. En especial, ChatGPT se ha convertido en una herramienta ampliamente usada por personas que buscan respuestas, consuelo o apoyo emocional. Esta tendencia ha generado un debate polarizado entre quienes ven en la IA una revolución positiva en el acceso a la ayuda psicológica, y quienes alertan sobre sus peligros potenciales, sobre todo cuando se usa como sustituto de la terapia profesional.

Este artículo analiza las implicaciones del uso de ChatGPT en contextos psicológicos, presentando tanto los beneficios que algunos usuarios reportan como los riesgos documentados, incluidas las críticas de psicólogos, psiquiatras e investigadores. Además, se exploran casos reales, estudios científicos y el marco ético y legal que rodea esta práctica emergente.

ChatGPT y la psicología

ChatGPT como apoyo emocional: ¿una solución accesible?

Para muchas personas, especialmente jóvenes, hablar con una IA puede resultar menos intimidante que acudir a terapia. ChatGPT está disponible 24/7, no emite juicios, y responde con rapidez. Usuarios han reportado que el chatbot les ha ayudado a organizar ideas, expresar emociones reprimidas o incluso calmar estados de ansiedad leve. Un estudio publicado por la revista Los 40 muestra que una porción significativa de los entrevistados valoraba positivamente la interacción emocional con la IA, incluso llegando a emocionarse con sus respuestas empáticas.

En un contexto de crisis global de salud mental, donde muchas personas no pueden acceder fácilmente a un terapeuta, estas herramientas parecen ofrecer un respiro o punto de apoyo temporal. Sin embargo, la accesibilidad no necesariamente garantiza seguridad ni eficacia.

En la era digital, se necesita un bienestar digital y la tecnología se ha convertido en una extensión de nuestras vidas, remodelando la forma en que trabajamos, socializamos y nos entretenemos. Para más información consulta nuestro artículo: Digitalmente saludable: Estrategias para un bienestar digital.


Riesgos y críticas del uso de ChatGPT en salud mental

Respuestas inapropiadas y validación de delirios

Casos recientes han documentado que ChatGPT, en lugar de desescalar situaciones de riesgo, ha reforzado pensamientos autodestructivos o delirantes. El Wall Street Journal reportó la historia de un usuario diagnosticado con trastorno bipolar que sufrió un episodio maníaco tras recibir validaciones erróneas por parte del modelo. Del mismo modo, The Guardian y Time han alertado sobre la aparición de “AI psychosis”, un fenómeno emergente en el que los usuarios desarrollan delirios compartidos con el chatbot.

Falta de diagnóstico y contexto clínico

A diferencia de un psicólogo humano, ChatGPT no tiene acceso al contexto clínico, historial emocional ni lenguaje no verbal del paciente. Sus respuestas se basan en patrones de texto, no en evaluaciones reales. Esto lo convierte en una herramienta riesgosa para personas en estados de vulnerabilidad, que podrían tomar sus respuestas como consejo profesional.

Dependencia emocional y evasión del tratamiento

Otro riesgo menos visible pero igual de relevante es la posible dependencia emocional que algunos usuarios pueden desarrollar con el chatbot. La disponibilidad constante y el tono empático de la IA pueden reforzar patrones de aislamiento, evitando que la persona busque ayuda real o enfrente sus problemas de forma terapéutica.


El debate ético y legal

¿Quién es responsable si la IA se equivoca?

Una de las mayores preocupaciones es la ausencia de responsabilidad legal clara. Si un usuario sigue una sugerencia de la IA y su salud se deteriora, ¿quién responde? ¿El programador, la plataforma, el usuario? Aún no existen marcos legales que regulen específicamente estas situaciones, y muchas plataformas incluyen advertencias genéricas que deslindan su responsabilidad.

Privacidad y datos sensibles

El uso de herramientas de IA para compartir estados emocionales o problemas personales también plantea riesgos de privacidad. Aunque OpenAI y otras compañías aseguran proteger la información, no hay garantías absolutas de que los datos no sean utilizados para entrenamiento de modelos u otros fines.


IA y psicología: ¿futuro compartido o caminos separados?

Pese a las críticas, algunos expertos sugieren que la IA podría tener un lugar en el ecosistema de salud mental, siempre que se use con fines complementarios y bajo supervisión profesional. En lugar de sustituir a terapeutas, podría funcionar como primer contacto, canal de derivación o herramienta educativa para aumentar la conciencia emocional.

Algunas propuestas incluyen la incorporación de sistemas de alarma que detecten lenguaje de riesgo y deriven a líneas de ayuda reales, o la integración de IA en plataformas dirigidas por psicólogos para automatizar tareas sin intervenir en el aspecto emocional.


Conclusión

El uso de ChatGPT en salud mental plantea un dilema urgente. Si bien ofrece ventajas en accesibilidad y acompañamiento, también representa riesgos serios cuando se convierte en sustituto de la terapia profesional. Es fundamental generar regulaciones, educar a los usuarios y promover un uso crítico y responsable.

La inteligencia artificial puede ser una herramienta valiosa, pero el bienestar emocional humano sigue requiriendo conexión humana, escucha activa y acompañamiento empático. ChatGPT no es, ni debería ser, un terapeuta.


Fuentes

  1. Time Magazine. (2025, 5 de agosto). Chatbots can trigger a mental health crisis. What to know about “AI Psychosis”. Time. https://time.com/7307589/ai-psychosis-chatgpt-mental-health/
  2. The Guardian. (2025, 3 de agosto). AI chatbots are becoming popular alternatives to therapy. But they may worsen mental health crises, experts warn. The Guardian. https://www.theguardian.com/australia-news/2025/aug/03/ai-chatbot-as-therapy-alternative-mental-health-crises-ntwnfb
  3. Heath, A. (2025, 29 de julio). ChatGPT will ‘better detect’ mental distress after reports of it feeding people’s delusions. The Verge. https://www.theverge.com/news/718407/openai-chatgpt-mental-health-guardrails-break-reminders
  4. Winkler, R. (2025, 2 de agosto). He had dangerous delusions. ChatGPT admitted it made them worse. The Wall Street Journal. https://www.wsj.com/tech/ai/chatgpt-chatbot-psychology-manic-episodes-57452d14
  5. Rodriguez, L., & Chang, K. (2025). Technological folie à deux: Feedback loops between AI chatbots and mental illness [Preprint]. arXiv. https://arxiv.org/abs/2507.19218
  6. Stanford News. (2025, 13 de junio). AI mental health care tools may do more harm than good, Stanford study shows. Stanford University. https://news.stanford.edu/stories/2025/06/ai-mental-health-care-tools-dangers-risks
  7. Acimut Psicología. (2024, 22 de noviembre). Los riesgos de usar ChatGPT como sustituto emocional. Acimut Psicología. https://acimutpsicologia.com/blog/2170/riesgos-de-usar-chatgpt
  8. Elle España. (2025, 18 de julio). Expertos psicólogos hablan sobre el uso de la IA como terapeuta: “Las emociones no se arreglan con un dato ni con una frase perfecta”. Elle. https://www.elle.com/es/living/psico/a65167522/expertos-psicologos-hablan-sobre-el-uso-de-la-ia-como-terapeuta-las-emociones-no-se-arreglan-con-un-dato-ni-con-una-frase-perfecta

Categories

Tags

Leave a Reply

Your email address will not be published. Required fields are marked *