Por Daniela Mendoza Luna
En un mundo acelerado, la idea de un terapeuta de bolsillo disponible 24/7 es increíblemente seductora. Imagina tener acceso a un apoyo emocional inmediato, sin la necesidad de agendar citas ni enfrentar listas de espera.
Las aplicaciones de inteligencia artificial (IA) prometen precisamente eso: un confidente algorítmico siempre dispuesto a escuchar.
Esta conveniencia, sin embargo, plantea una pregunta fundamental que exploramos en el segundo episodio de Del dicho al hecho: cuando reemplazamos la conexión humana con un algoritmo para cuidar nuestra salud mental, ¿cuáles son los riesgos ocultos? ¿Es realmente una alternativa viable o un riesgo silencioso para nuestra salud mental?
A continuación, destilamos cuatro verdades cruciales que surgieron de esa conversación.
1. No estás hablando con una conciencia, sino con un «autocorrector superpotente»
Es fácil sentir que una IA «entiende» o «empatiza» con nosotros debido a la coherencia e inmediatez de sus respuestas.
Sin embargo, para Claudia del Pozo, una destacada figura en el ámbito de la innovación y la transformación digital, reconocida por su rol como cofundadora y directora ejecutiva de EON Institute, ofrece una analogía reveladora para desmitificar esta tecnología.
Los modelos de lenguaje extensos (LLM), como ChatGPT, no piensan ni sienten. Funcionan como sistemas de autocorrección increíblemente avanzados.
Explica que los sistemas han sido entrenados con enormes cantidades de texto para identificar correlaciones estadísticas entre palabras (o «tokens»).
Su único objetivo es predecir cuál es la siguiente palabra más probable en una secuencia para generar una respuesta que sea lingüísticamente coherente. No procesan la verdad ni comprenden el significado emocional detrás de tus palabras.
Tienen una memoria grande, que recuerda cosas claves de ti (…) Y entonces esa memoria es lo que le permite ajustar y personalizar las respuestas.
Y entonces va aprendiendo, más bien, va identificando patrones que corresponden a cada persona y los memoriza en su cuenta, para mejorar las respuestas y entonces ahí es cuando podemos sentir una relación personal porque nos conoce ´entre comillas´ y todo lo pongo entre comillas porque es muy peligroso antropomorfizar estos sistemas”, dice.

2. La IA te dirá lo que quieres oír, y eso puede ser peligroso
A diferencia de un terapeuta humano, un sistema de IA está diseñado para ser agradable y validar al usuario.
Su objetivo es mantenerte satisfecho, lo que a menudo significa reflejar tus propios sentimientos y darte la razón. Si bien esto puede sentirse reconfortante a corto plazo, encierra un peligro significativo: el riesgo de los «delirios por inteligencia artificial».
Claudia del Pozo explica que este fenómeno ocurre cuando la IA refuerza creencias falsas o incluso dañinas, creando una cámara de eco de la que es difícil salir.
Esto ha llevado a casos reales donde individuos llegan a creer que el sistema de IA es un ser vivo que necesita ser «salvado» o que, con la validación del chatbot, han hecho descubrimientos matemáticos que cambiarán el mundo. El sistema, al no desafiar estas percepciones distorsionadas, las alimenta.
Esto contrasta directamente con el propósito de la terapia humana, el trabajo de un terapeuta es empujarte a través de «reflexiones incómodas» y el difícil, pero necesario trabajo de crecimiento personal.
Un algoritmo no está programado para ese tipo de confrontación constructiva.
Al respecto, la psicóloga y terapeuta, Berenice de la Peña advierte sobre estos riesgos: “Imagínate estar con una persona que a todo te diga que sí, aunque estés bien o estés mal, te diga que sí y que te impulse y que te aliente y que te dé las herramientas y que siga alimentando situaciones que no vayan de la mano con realmente hacer un beneficio, ¿no?

3. Tus datos pueden ser compartidos con terceros, incluidas las fuerzas del orden
La promesa de un espacio seguro y confidencial es la piedra angular de cualquier relación terapéutica. Sin embargo, con los chatbots de IA, esa privacidad es, en el mejor de los casos, frágil.
Aunque es muy poco probable que tu conversación aparezca en la pantalla de otro usuario, el riesgo principal reside en cómo la empresa que gestiona la IA utiliza tus datos.
Claudia del Pozo advierte de un hecho poco conocido, pero fundamental: empresas como OpenAI comparten información de los usuarios con las fuerzas del orden cuando estas lo requieran legalmente.
Esto significa que las vulnerabilidades, miedos y pensamientos más íntimos que compartes con un algoritmo no están protegidos por el mismo secreto profesional que un terapeuta humano.
Esta realidad cambia fundamentalmente la naturaleza del «espacio seguro». Al final, estás confiando tus secretos más profundos a una corporación, no a un profesional de la salud con un juramento de confidencialidad.
4. Es una herramienta de emergencia, no una solución a largo plazo
Entonces, ¿tiene la IA algún lugar en el apoyo a la salud mental? La psicóloga Berenice de la Peña ofrece una analogía poderosa: la IA es como una «llanta de refacción».
Cuando tienes una ponchadura en medio de la carretera, la llanta de refacción es una herramienta vital para sacarte del apuro y permitirte llegar a un lugar seguro.
De manera similar, un chatbot de IA puede actuar como un «primer respondiente» en un momento de crisis o ser un primer paso para alguien que no tiene acceso inmediato a ayuda profesional.
Puede ayudar a una persona a empezar a conocer un tema o a sentirse escuchada en un momento de soledad.
Sin embargo, nadie conduciría por meses con una llanta de refacción. No está diseñada para un uso prolongado y, como advierte Claudia del Pozo, no hay que ponerle «demasiada confianza».
El objetivo siempre debe ser llegar con un profesional para una solución real y sostenible. Como concluye Berenice, la verdadera reparación no consiste solo en cambiar la llanta, sino en asegurarse de que «los birlos estén bien puestos» y que el vehículo esté «alineado» para que pueda correr de forma segura a largo plazo.
La IA es el arreglo temporal; la terapia humana se encarga de todo el sistema.
¿Una herramienta de apoyo o un obstáculo para la conexión humana?
La inteligencia artificial puede, sin duda, servir como una herramienta inicial de apoyo, especialmente en contextos donde los recursos de salud mental son escasos o el estigma sigue siendo una barrera. Puede ser esa llanta de refacción que nos ayuda a salir de un bache.
No obstante, el mensaje central de las expertas es claro: la empatía, la conexión y la guía profesional de un ser humano son irremplazables.
El verdadero proceso de sanación ocurre en la interacción humana, en la capacidad de un terapeuta para entender los matices, desafiar nuestras percepciones y acompañarnos en nuestro crecimiento.