Un hombre de 60 años fue internado de urgencia tras sufrir una severa intoxicación por bromuro de sodio, un compuesto químico no apto para el consumo humano. Durante tres meses, lo había estado ingiriendo como sustituto de la sal común, siguiendo una recomendación proporcionada por ChatGPT, según revela un informe médico publicado este martes.
El caso encendió las alarmas en el ámbito médico y tecnológico, pues refleja los riesgos de confiar ciegamente en respuestas generadas por inteligencia artificial. Según relataron los médicos, al momento de su ingreso al hospital, el paciente mostraba un cuadro agudo de paranoia y experimentaba alucinaciones auditivas y visuales. Debido a la gravedad de su estado mental, fue trasladado a una unidad psiquiátrica donde recibió tratamiento especializado.
En las primeras horas de recuperación, el hombre pudo compartir detalles de su experiencia previa. Confesó haber sufrido fatiga extrema, insomnio, falta de coordinación y una sensación constante de agotamiento físico y mental. Estas señales habían comenzado a manifestarse paulatinamente, pero no las relacionó con el consumo de bromuro hasta que su salud se deterioró considerablemente.
Los exámenes clínicos confirmaron las sospechas del equipo médico: su nivel de bromuro en sangre era alarmante. Alcanzaba los 1.700 miligramos por litro, cuando el rango de referencia en humanos saludables es de apenas 0,9 a 7,3 miligramos por litro. Este tipo de concentración puede resultar tóxica y potencialmente letal, lo que explica la severidad de los síntomas.
El origen del problema se remonta a la inquietud del paciente por eliminar el cloruro de sodio de su alimentación, tras leer un artículo sobre sus supuestos efectos negativos en la salud. Apoyándose en sus antiguos estudios universitarios y consultando a ChatGPT, el hombre concluyó erróneamente que el bromuro de sodio era una alternativa viable. Sin embargo, este compuesto es utilizado en productos industriales como pesticidas o limpiadores, y no está diseñado para el consumo humano.
Tras pasar tres semanas bajo atención médica intensiva, el paciente logró estabilizarse y fue dado de alta, aunque los médicos enfatizaron la necesidad de seguimiento psicológico y advertencia sobre los peligros del mal uso de información digital.
El caso también ha reavivado el debate sobre el creciente vínculo emocional entre humanos e inteligencia artificial. Encuestas recientes revelan que muchas personas recurren a chatbots no solo para resolver dudas, sino como una forma de compañía. Sin embargo, expertos advierten que estas relaciones pueden generar una peligrosa dependencia emocional y una visión distorsionada de la realidad, especialmente si no se verifica la validez de las respuestas recibidas.
Este incidente se convierte así en una advertencia sobre los límites de la IA: si bien puede ser útil en múltiples áreas, sus respuestas no sustituyen el criterio profesional, especialmente en temas de salud.