¿ChatGPT como psicólogo? El preocupante aumento del uso de la IA para terapia emocional
El psicoterapeuta y experto en pérdidas y vínculo del apego, Mario Guerra, explicó los riesgos de acudir a la inteligencia artificial como apoyo emocional.
Publicidad
Publicidad
Publicidad
Publicidad
Cada vez más personas recurren a la inteligencia artificial para resolver dudas personales o incluso emocionales. Sin embargo, ¿qué tan seguro es confiarle a una máquina nuestros pensamientos más íntimos?
En una reciente entrevista en En BLU Jeans, de Blu Radio, el psicoterapeuta mexicano Mario Guerra, experto en pérdidas y vínculo del apego, explicó por qué ChatGPT no puede reemplazar a un profesional de la salud mental y advirtió sobre los riesgos de depender emocionalmente de la inteligencia artificial.
“ChatGPT da la sensación de que nos entiende, pero no tiene conciencia, empatía real ni responsabilidad moral”, afirmó Guerra. Ella “responde con base en patrones estadísticos del lenguaje, no en una comprensión profunda del sufrimiento humano”.
El experto explicó que el atractivo de estas herramientas radica en su accesibilidad, disponibilidad 24/7 y tono empático, lo que puede llevar a muchas personas a sentir que están siendo escuchadas y comprendidas. Sin embargo, esa aparente cercanía puede derivar en una peligrosa dependencia emocional.
“Hay quienes ya no buscan ayuda profesional porque creen que el chat puede reemplazar al terapeuta. Pero la terapia no son solo palabras, es resonancia, acompañamiento y responsabilidad. La inteligencia artificial puede ayudarte a entenderte, pero solo un humano puede ayudarte a transformarte”, enfatizó.
Guerra también alertó sobre el falso anonimato que muchos usuarios creen tener al conversar con estos modelos. “No sabemos a dónde va la información que compartimos. Los datos alimentan a los modelos de lenguaje y podrían usarse de maneras que desconocemos”, señaló.
Además, explicó que la IA puede ser “engañada” fácilmente y no está preparada para detectar riesgos graves, como pensamientos suicidas o conductas autodestructivas. “No hay supervisión humana ni protección emocional. Puede parecer empática, pero no tiene la capacidad de intervenir ante una emergencia”, advirtió.
Publicidad
El especialista hizo un llamado a que la academia y los medios de comunicación abran espacios de educación digital para enseñar a usar estas herramientas de manera consciente y crítica.
“La inteligencia artificial no es mala, pero puede ser dañina según cómo la usemos. Debemos entender qué es, para qué sirve y hasta dónde puede llegar. No es una terapia, ni un amigo, ni una conciencia: es una herramienta”, concluyó.
Escuche la entrevista completa aquí:
Publicidad