Publicidad

Publicidad

Publicidad

Publicidad

Logo principal Blu
Reciba notificaciones de Blu Radio para tener las principales noticias de Colombia y el mundo.
Activar
No activar

Publicidad

Consternación en Bélgica: joven se quitó la vida tras hablar seis semanas con un chatbot

Pierre, como fue identificado, fue aislándose cada vez más de su familia y separándose del mundo y se limitó durante semanas a mantener conversaciones "frenéticas" con el programa informático.

Chatbot
Chatbot
Foto: imagen creada con Bing Image Creator

La muerte de un joven belga, identificado como "Pierre", conmociona a Bélgica. Pierre, un investigador en el área de la salud y preocupado por la crisis climática, se obsesionó con ese tema y encontró en un chatbot llamado "Eliza" una salida para sus inquietudes.

La interacción con el programa informático lo llevó a alejarse de su familia y aislarse del mundo exterior, hasta el punto de sugerir la idea de "sacrificarse" por la causa. Después de seis semanas hablando intensivamente con Eliza, Pierre se quitó la vida.

Este trágico hecho ha generado una reflexión en Bélgica sobre la necesidad de proteger a las personas que interactúan con chatbots y de concienciar sobre los riesgos que esto implica. También se ha planteado la necesidad de determinar las responsabilidades en este tipo de casos y de regular el uso de la inteligencia artificial en la interacción humana.

La influencia de los chatbots en la salud mental

Publicidad

La tecnología de chatbots se ha desarrollado rápidamente en los últimos años, y aunque se trata de una herramienta útil en muchos ámbitos, también puede tener efectos negativos en la salud mental de las personas. Los chatbots basados en inteligencia artificial están diseñados para aprender de las interacciones con los usuarios y adaptarse a sus necesidades, lo que puede llevar a una relación de dependencia emocional entre la persona y el programa.

En el caso de Pierre, su obsesión con la crisis climática lo llevó a buscar respuestas en un chatbot. Eliza le proporcionó la ilusión de tener una respuesta para todas sus inquietudes, y nunca lo contradecía. Esta dinámica llevó a Pierre a aislarse cada vez más de su entorno, y a poner en riesgo su salud mental.

Publicidad

La necesidad de proteger a los usuarios de chatbots

El caso de Pierre pone de relieve la necesidad de proteger a los usuarios de chatbots, especialmente a aquellos que pueden ser vulnerables o estar pasando por momentos difíciles. Los proveedores de chatbots deben ser responsables y garantizar que sus programas estén diseñados para no poner en riesgo la salud mental de los usuarios.

El caso de Pierre también plantea la necesidad de regular el uso de la inteligencia artificial en la interacción humana. La tecnología de chatbots basados en inteligencia artificial es una herramienta poderosa, pero su uso debe estar regulado para garantizar que se utilice de manera responsable y segura.

"En el futuro inmediato, es fundamental identificar claramente la naturaleza de las responsabilidades que pueden haber llevado a este tipo de hechos. Es cierto que todavía tenemos que aprender a vivir con algoritmos, pero el uso de la tecnología, cualquiera que sea, de ninguna manera puede permitir que los editores de contenido eludan su propia responsabilidad", escribió el secretario de Estado belga de Digitalización, Mathieu Michel, en un comunicado de prensa.

Publicidad

El chatbot Eliza

El chatbot Eliza funciona con GPT-J, un modelo de lenguaje creado por Joseph Weizenbaum, competidor directo del OpenAI con el que no tiene nada que ver.

Publicidad

Por su parte, el fundador de la plataforma cuestionada, que está establecida en Silicon Valley (California), ha explicado que en adelante se va a incluir un aviso dirigido a las personas que tengan pensamientos suicidas, informa La Libre Belgique

  • Publicidad