Cada vez es más habitual oír cosas como:
«Le he contado mis problemas a ChatGPT y me ha contestado súper bien, casi como si fuera un terapeuta».
Quizá tú también te hayas preguntado si se puede usar ChatGPT como psicólogo o como una especie de terapia rápida: está disponible 24/7, no te juzga, responde al momento y, además, es gratis. Suena tentador, ¿no?
En este artículo quiero hablarte de esto con calma y sin alarmismos, pero también sin edulcorarlo. Vamos a ver qué puede aportar una herramienta de inteligencia artificial y, sobre todo, qué no puede hacer nunca en comparación con una psicóloga de carne y hueso.
¿Por qué cada vez más gente recurre a ChatGPT para hablar de cómo se siente?
Hay motivos muy comprensibles por los que una persona puede acabar usando ChatGPT como si fuera un psicólogo:
- Está disponible a cualquier hora, cualquier día.
- No tienes que dar tu nombre ni mostrar tu cara.
- Responde rápido y con un tono, en apariencia, empático.
- No interrumpe, no se enfada, no se cansa.
Para muchas personas que no tienen acceso fácil a un profesional de la salud mental, o que sienten vergüenza de pedir ayuda, esto puede parecer una alternativa cómoda.
El problema es que toda esa accesibilidad puede generar una sensación falsa de que la IA puede sustituir una relación terapéutica real. Y ahí es donde conviene parar.
ChatGPT no siente ni entiende como una persona
Aunque a veces parezca lo contrario, ChatGPT no tiene emociones ni conciencia. No sabe lo que es haber pasado una noche sin dormir dándole vueltas a algo, ni tener un nudo en la garganta al despedirte en el aeropuerto, ni sentir culpa por algo que hiciste hace años.
Lo que hace es generar texto en función de patrones de lenguaje: calcula la probabilidad de que una palabra siga a otra.
Por ejemplo, si le escribes «el gato se ha subido al…», es muy probable que responda «árbol», pero no porque lo esté viendo, sino porque es la combinación más frecuente en los textos con los que se ha entrenado.
En lo emocional pasa lo mismo: ha «visto» muchas frases del estilo «siento mucho que estés pasando por esto» y sabe encadenarlas de forma que suenen amables.
¿Significa esto que es «malo»? No. Significa que:
- Predice empatía, pero no siente empatía.
- No tiene tu historia completa ni el contexto de tu vida.
- No puede valorar el tono de tu voz, tu mirada o lo que callas.
Por eso, aunque la conversación pueda resultar calmante en un momento puntual, no equivale al acompañamiento clínico y humano que hace un psicólogo o una psicóloga.
En situaciones emocionales complejas, como las dinámicas de pareja, es recomendable buscar una consulta de pareja con un terapeuta cualificado. La adaptación cultural, la soledad o el duelo migratorio requieren también apoyo especializado, como el que ofrece una consulta para expatriados.
Riesgos de usar ChatGPT como si fuera tu terapeuta
Aquí es donde el tema se pone delicado. Usar una herramienta como ChatGPT para informarte o entender conceptos (por ejemplo, qué es la ansiedad) puede tener sentido.
Pero usarla como si fuera tu terapeuta principal sí puede ser peligroso.
Algunos riesgos importantes:
-
- Consejos descontextualizados: lo que para una persona puede ser útil, en otra puede ser dañino. La IA no te ve, no te conoce, no puede ajustar la intervención.
-
- No detecta bien situaciones de riesgo: ideas suicidas, violencia, abuso, psicosis… son temas que necesitan un abordaje profesional inmediato. Un chatbot puede no calibrar la gravedad y puede minimizar sin querer lo que te pasa.
-
- Retrasar la búsqueda de ayuda real: si te quedas con la sensación de que «ya hablas con alguien», puedes posponer durante meses o años el paso de ir a consulta.
-
- Falsa sensación de vínculo: puedes llegar a sentir que «alguien te entiende» cuando en realidad interactúas con un sistema que no puede responsabilizarse ni cuidar de ti. No siente.
En resumen: ChatGPT no es un psicólogo, ni puede serlo, y utilizarlo como sustituto directo de una terapia puede agravar el malestar o poner en riesgo tu salud mental.
IA y terapia: cada una en su lugar
Resumiendo mucho:
- ChatGPT no puede hacer terapia, no puede evaluar tu estado clínico ni acompañarte en profundidad en procesos dolorosos.
- Un psicólogo o una psicóloga sí puede ofrecerte un vínculo estable, un marco ético y profesional, y un espacio pensado especialmente para ti.
- ChatGPT puede ser útil para informarte y ordenar ideas.
La tecnología puede ser una aliada, pero no debería ocupar el lugar del vínculo humano.
Preguntas frecuentes sobre ChatGPT como terapia
¿Qué pasa con la privacidad con Chatgpt?
Otra diferencia clave con una consulta psicológica es la confidencialidad.
Cuando hablas con una psicóloga, tu información está protegida por el secreto profesional y por un marco legal muy claro.
¿Hay algo en lo que sí pueda ayudar una IA como ChatGPT?
Hasta ahora he sido bastante crítica, y es importante. Pero también es cierto que hay contextos en los que sí puede tener un papel complementario, nunca sustitutivo.
Por ejemplo, puede servir para:
- Buscar información general sobre qué es la ansiedad, la depresión o qué significa el duelo.
- Recordar ideas de autocuidado básico (rutinas de sueño, alimentación, descanso, organización del tiempo).
En ese sentido, la IA puede ser una herramienta más dentro de tu caja de recursos, siempre que tengas claro que no está haciendo terapia contigo.
¿Qué puedo hacer si me siento mal?
Si estás leyendo esto porque sientes malestar emocional y has pensado en preguntarle a una IA cómo salir del agujero, quiero decirte algo importante:
Está bien que busques información. Es comprensible que quieras una respuesta rápida. Pero no tienes por qué quedarte a solas con esto ni delegar tu cuidado en una herramienta que no puede responsabilizarse de tu bienestar.
Hay momentos en los que, más que más información, lo que necesitas es:
- Un espacio seguro donde poder hablar sin miedo al juicio.
- Alguien que pueda ver patrones en tu historia y ayudarte a entenderlos.
- Herramientas ajustadas a tu realidad concreta, no a un ejemplo genérico.
Eso es lo que hace la terapia psicológica.