InicioMundoHombre es hospitalizado tras seguir recomendación de ChatGPT para sustituir la sal;...

Hombre es hospitalizado tras seguir recomendación de ChatGPT para sustituir la sal; usó bromuro de sodio

Publicado el

En tiempos donde la inteligencia artificial se presenta como una herramienta para resolver todo tipo de dudas, un hombre de 60 años terminó hospitalizado luego de seguir una peligrosa sugerencia: reemplazar la sal de mesa por bromuro de sodio, un compuesto químico que no está autorizado para el consumo humano.

Según el reporte médico, el paciente buscaba reducir su ingesta de cloruro de sodio para cuidar su salud cardiovascular. Con ese objetivo, decidió consultar a ChatGPT, un chatbot de inteligencia artificial, el cual le indicó que el bromuro de sodio podía ser una alternativa adecuada.

Convencido de que era una opción segura, comenzó a añadir el producto a sus comidas diarias. Durante aproximadamente tres meses lo consumió de manera regular, sin sospechar los riesgos que implicaba.

Al inicio, los efectos parecían leves, pero con el paso de las semanas su estado de salud empeoró, pues comenzó a experimentar fatiga constante, episodios de confusión, alteraciones del sueño, paranoia e incluso alucinaciones.

Médicos que lo atendieron informaron que el diagnóstico fue bromismo, una intoxicación provocada por niveles elevados de bromuro en el organismo. Uno de los síntomas más alarmantes que presentó fue la negativa a beber agua, convencido de que ésta era perjudicial para su salud.

Durante su estancia en la unidad psiquiátrica, el hombre relató que tomó la decisión basándose en la información que obtuvo de la inteligencia artificial, sin verificar la veracidad de la recomendación en fuentes médicas fiables.

A través de los medios de comunicación, se han relatado casos donde chatbots como ChatGPT, Gemini o Copilot, han logrado encontrar la respuesta a enfermedades que médicos especialistas no pudieron; sin embargo, la propia IA advierte que no se debe confiar 100 por ciento en sus sugerencias, pues existe un porcentaje de fallo, aunque sea mínimo. “ChatGPT puede comoeter errores. Comprueba la información importante”, se puede leer dentro del chatbot.

También te puede interesar: VIDEO: Joven graba a un médico usando ChatGPT para atenderlo

Especialistas advierten que este caso es un ejemplo del riesgo de asumir como correctas todas las respuestas que ofrecen estas plataformas, especialmente en temas de salud, donde un error puede tener consecuencias graves que podrían derivar en la muerte.

Organismos médicos reiteran que, aunque la inteligencia artificial puede ser útil para obtener información general, nunca debe sustituir el diagnóstico ni la prescripción de un profesional de la salud.

Con información de Récord México.

spot_img

Noticias recientes

Localizan con vida a familia desaparecida en Tijuana, Baja California

Informan que una familia reportada como desaparecida desde septiembre de 2024 fue localizada con...

Video: Cantante Yeri Mua denuncia la ponchadura de sus llantas al circular en el segundo piso del Periférico en CDMX

A través de sus redes sociales, la influencer y cantante veracruzana Yeri Mua reportó...

Derechohabiente agrede a enfermera durante jornada de vacunación contra el sarampión en Durango

Una enfermera fue agredida físicamente por una derechohabiente mientras realizaba su labor en un...

Ataque armado en un bar deja tres muertos y cinco heridos en Puebla

La madrugada de este sábado se registró un ataque armado en las inmediaciones del...

Noticias relacionadas

Derechohabiente agrede a enfermera durante jornada de vacunación contra el sarampión en Durango

Una enfermera fue agredida físicamente por una derechohabiente mientras realizaba su labor en un...

Acusan a Rusia de envenenar en prisión al líder opositor Alexei Navalny con toxina de una rana dardo

Según revelaron el Reino Unido, Suecia, Francia, Alemania y Países Bajos, durante la Conferencia...

Video: Incendio en edificio residencial deja cuatro muertos y 22 heridos en Budapest, Hungría

El incendio de un edificio utilizado como alojamiento temporal para trabajadores en Budakeszi, un...