Por qué ChatGPT no debe ser considerado como una terapia

Suena empático y contesta rápido, pero no piensa ni siente. En salud mental, esa diferencia importa: puede acompañar, no reemplazar a un/a terapeuta.

Qué es y cómo funciona.
ChatGPT es un modelo de lenguaje (LLM = “modelo de lenguaje grande”): aprende patrones de texto y predice la próxima palabra. No evalúa tu historia clínica ni toma decisiones como un profesional; solo arma frases probables. Por cómo se entrena para “ser amable y útil”, tiende a complacer incluso cuando debería marcar un límite o decir “no sé”. Como muestran estudios recientes en Nature y npj Digital Medicine (2025), y trabajos técnicos en arXiv (2025), los LLM tienden a la sicofancia: priorizan agradar y confirmar antes que contradecir con criterio clínico.

Un paralelo sencillo.
Un libro de autoayuda puede darte ideas, ejercicios y algo de contención. Pero no te conoce, no evalúa tu historia ni puede contradecirte con criterio clínico cuando hace falta. Sirve como apoyo, no como terapia: para trabajar creencias, vínculos y riesgos, hace falta el encuadre y la presencia de un/a profesional.

La “falsa empatía”.
La psicoterapia real contiene y también confronta con cuidado. Un bot, por diseño, evita el conflicto y válida en automático, eso imita empatía, pero no la reemplaza. El emprendedor y divulgador Santiago Bilinkis lo dijo en una entrevista con Mario Pergolini: “la empatía mal entendida no ayuda si refuerza un delirio; si sabés que hay un trastorno, lo responsable es sacarlo del delirio, no alimentarlo”. Como vimos más arriba, la academia viene señalando lo mismo: en pruebas con escenarios sensibles, algunos chatbots no desescalan bien y evitan marcar los límites que un/a terapeuta sí establece.

https://youtu.be/TEi-Ps4uYrM?si=BukzeXFs4ahHpasm

Entonces, ¿para qué sí y para qué no?
Sí, como apoyo puntual:
psicoeducación general, ideas para autorregistro, recordar habilidades (respiración, activación) y derivar a recursos humanos ante señales de riesgo.
No, como terapia: diagnóstico, tratamiento, manejo de crisis o trabajo profundo de creencias y vínculos requieren presencia profesional, encuadre y responsabilidad clínica.

“Como psicólogo y también como paciente, creo que la inteligencia artificial puede ofrecer contención y orientación en momentos difíciles, pero nunca reemplaza la profundidad del vínculo humano. La terapia implica escucha, empatía y presencia real. Por eso, la IA debe verse como un apoyo puntual, un botiquín de primeros auxilios emocionales, y no como sustituto del acompañamiento profesional.” destacó Lucas Queirolo, psicólogo y especialista en TCC contemporáneas y neurociencias.

Te puede acompañar un rato una app o un libro; te puede ordenar ideas. Pero sanar (de verdad) pide vínculo, límites y presencia humana. La pregunta es ¿Buscás un espejo que te diga lo que querés oír, o un encuentro que te ayude a cambiar?

 

 

Facundo Martin Giménez

Miembro de la dirección de relaciones institucionales de la Bolsa de Comercio de Rosario. Gestión de Proyectos de Desarrollo | Relaciones Institucionales | Sostenibilidad | Cooperación Internacional | Compliance | Comunicación estratégica | Innovación | Arbitraje | Coaching Corporativo

Comentar

Clic aquí para comentar

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.