Publicidad

Reciba notificaciones de Blu Radio para tener las principales noticias de Colombia y el mundo.
No activar
Activar

Publicidad

¿ChatGPT como psicólogo? El preocupante aumento del uso de la IA para terapia emocional

El psicoterapeuta y experto en pérdidas y vínculo del apego, Mario Guerra, explicó los riesgos de acudir a la inteligencia artificial como apoyo emocional.

ChatGPT_afp_imagenfx.jpg
ChatGPT es demandado
Foto: AFP / Imagen FX

Cada vez más personas recurren a la inteligencia artificial para resolver dudas personales o incluso emocionales. Sin embargo, ¿qué tan seguro es confiarle a una máquina nuestros pensamientos más íntimos?

En una reciente entrevista en En BLU Jeans, de Blu Radio, el psicoterapeuta mexicano Mario Guerra, experto en pérdidas y vínculo del apego, explicó por qué ChatGPT no puede reemplazar a un profesional de la salud mental y advirtió sobre los riesgos de depender emocionalmente de la inteligencia artificial.

ChatGPT da la sensación de que nos entiende, pero no tiene conciencia, empatía real ni responsabilidad moral”, afirmó Guerra. Ella “responde con base en patrones estadísticos del lenguaje, no en una comprensión profunda del sufrimiento humano”.

Chatgpt psicología.png
Termina en hospital psiquiátrico por seguir consejo de ChatGPT
Creado con IA Grok

El experto explicó que el atractivo de estas herramientas radica en su accesibilidad, disponibilidad 24/7 y tono empático, lo que puede llevar a muchas personas a sentir que están siendo escuchadas y comprendidas. Sin embargo, esa aparente cercanía puede derivar en una peligrosa dependencia emocional.

Hay quienes ya no buscan ayuda profesional porque creen que el chat puede reemplazar al terapeuta. Pero la terapia no son solo palabras, es resonancia, acompañamiento y responsabilidad. La inteligencia artificial puede ayudarte a entenderte, pero solo un humano puede ayudarte a transformarte”, enfatizó.

Persona en el psicólogo
Persona en el psicólogo
Foto: Pexels

Guerra también alertó sobre el falso anonimato que muchos usuarios creen tener al conversar con estos modelos. “No sabemos a dónde va la información que compartimos. Los datos alimentan a los modelos de lenguaje y podrían usarse de maneras que desconocemos”, señaló.

Además, explicó que la IA puede ser “engañada” fácilmente y no está preparada para detectar riesgos graves, como pensamientos suicidas o conductas autodestructivas. “No hay supervisión humana ni protección emocional. Puede parecer empática, pero no tiene la capacidad de intervenir ante una emergencia”, advirtió.

Inteligencia artificial vs. ser humano_Grok.jpg
Inteligencia artificial vs. ser humano
Foto: Grok, referencia

Publicidad

El especialista hizo un llamado a que la academia y los medios de comunicación abran espacios de educación digital para enseñar a usar estas herramientas de manera consciente y crítica.

La inteligencia artificial no es mala, pero puede ser dañina según cómo la usemos. Debemos entender qué es, para qué sirve y hasta dónde puede llegar. No es una terapia, ni un amigo, ni una conciencia: es una herramienta”, concluyó.

Escuche la entrevista completa aquí:

Publicidad

Publicidad

Publicidad

Publicidad