En tiempos donde la inteligencia artificial se presenta como una herramienta para resolver todo tipo de dudas, un hombre de 60 años terminó hospitalizado luego de seguir una peligrosa sugerencia: reemplazar la sal de mesa por bromuro de sodio, un compuesto químico que no está autorizado para el consumo humano.
Según el reporte médico, el paciente buscaba reducir su ingesta de cloruro de sodio para cuidar su salud cardiovascular. Con ese objetivo, decidió consultar a ChatGPT, un chatbot de inteligencia artificial, el cual le indicó que el bromuro de sodio podía ser una alternativa adecuada.
Convencido de que era una opción segura, comenzó a añadir el producto a sus comidas diarias. Durante aproximadamente tres meses lo consumió de manera regular, sin sospechar los riesgos que implicaba.
Al inicio, los efectos parecían leves, pero con el paso de las semanas su estado de salud empeoró, pues comenzó a experimentar fatiga constante, episodios de confusión, alteraciones del sueño, paranoia e incluso alucinaciones.
Médicos que lo atendieron informaron que el diagnóstico fue bromismo, una intoxicación provocada por niveles elevados de bromuro en el organismo. Uno de los síntomas más alarmantes que presentó fue la negativa a beber agua, convencido de que ésta era perjudicial para su salud.
Durante su estancia en la unidad psiquiátrica, el hombre relató que tomó la decisión basándose en la información que obtuvo de la inteligencia artificial, sin verificar la veracidad de la recomendación en fuentes médicas fiables.
A través de los medios de comunicación, se han relatado casos donde chatbots como ChatGPT, Gemini o Copilot, han logrado encontrar la respuesta a enfermedades que médicos especialistas no pudieron; sin embargo, la propia IA advierte que no se debe confiar 100 por ciento en sus sugerencias, pues existe un porcentaje de fallo, aunque sea mínimo. “ChatGPT puede comoeter errores. Comprueba la información importante”, se puede leer dentro del chatbot.
También te puede interesar: VIDEO: Joven graba a un médico usando ChatGPT para atenderlo
Especialistas advierten que este caso es un ejemplo del riesgo de asumir como correctas todas las respuestas que ofrecen estas plataformas, especialmente en temas de salud, donde un error puede tener consecuencias graves que podrían derivar en la muerte.
Organismos médicos reiteran que, aunque la inteligencia artificial puede ser útil para obtener información general, nunca debe sustituir el diagnóstico ni la prescripción de un profesional de la salud.
Con información de Récord México.