InicioMundoHombre es hospitalizado tras seguir recomendación de ChatGPT para sustituir la sal;...

Hombre es hospitalizado tras seguir recomendación de ChatGPT para sustituir la sal; usó bromuro de sodio

Publicado el

En tiempos donde la inteligencia artificial se presenta como una herramienta para resolver todo tipo de dudas, un hombre de 60 años terminó hospitalizado luego de seguir una peligrosa sugerencia: reemplazar la sal de mesa por bromuro de sodio, un compuesto químico que no está autorizado para el consumo humano.

Según el reporte médico, el paciente buscaba reducir su ingesta de cloruro de sodio para cuidar su salud cardiovascular. Con ese objetivo, decidió consultar a ChatGPT, un chatbot de inteligencia artificial, el cual le indicó que el bromuro de sodio podía ser una alternativa adecuada.

Convencido de que era una opción segura, comenzó a añadir el producto a sus comidas diarias. Durante aproximadamente tres meses lo consumió de manera regular, sin sospechar los riesgos que implicaba.

Al inicio, los efectos parecían leves, pero con el paso de las semanas su estado de salud empeoró, pues comenzó a experimentar fatiga constante, episodios de confusión, alteraciones del sueño, paranoia e incluso alucinaciones.

Médicos que lo atendieron informaron que el diagnóstico fue bromismo, una intoxicación provocada por niveles elevados de bromuro en el organismo. Uno de los síntomas más alarmantes que presentó fue la negativa a beber agua, convencido de que ésta era perjudicial para su salud.

Durante su estancia en la unidad psiquiátrica, el hombre relató que tomó la decisión basándose en la información que obtuvo de la inteligencia artificial, sin verificar la veracidad de la recomendación en fuentes médicas fiables.

A través de los medios de comunicación, se han relatado casos donde chatbots como ChatGPT, Gemini o Copilot, han logrado encontrar la respuesta a enfermedades que médicos especialistas no pudieron; sin embargo, la propia IA advierte que no se debe confiar 100 por ciento en sus sugerencias, pues existe un porcentaje de fallo, aunque sea mínimo. “ChatGPT puede comoeter errores. Comprueba la información importante”, se puede leer dentro del chatbot.

También te puede interesar: VIDEO: Joven graba a un médico usando ChatGPT para atenderlo

Especialistas advierten que este caso es un ejemplo del riesgo de asumir como correctas todas las respuestas que ofrecen estas plataformas, especialmente en temas de salud, donde un error puede tener consecuencias graves que podrían derivar en la muerte.

Organismos médicos reiteran que, aunque la inteligencia artificial puede ser útil para obtener información general, nunca debe sustituir el diagnóstico ni la prescripción de un profesional de la salud.

Con información de Récord México.

spot_img

Noticias recientes

Matan a balazos al dueño de una barbería en Monterrey, Nuevo León

Un hombre de 33 años fue asesinado a balazos dentro de un negocio de...

Hallan muertos a bebés dentro de un refrigerador en Francia

Reportan que dos bebés recién nacidos fueron encontrados muertos dentro del refrigerador de una...

Lanzan iniciativa para proteger a los actores de doblaje de la IA en México

La presidenta de México, Claudia Sheinbaum, anunció una iniciativa legislativa que busca brindar protección...

Video: Motociclistas asaltan y golpean a una adulta mayor en Veracruz

Una adulta mayor fue víctima de un violento asalto en la colonia Pueblo Nuevo,...

Noticias relacionadas

Hallan muertos a bebés dentro de un refrigerador en Francia

Reportan que dos bebés recién nacidos fueron encontrados muertos dentro del refrigerador de una...

Derechohabiente agrede a enfermera durante jornada de vacunación contra el sarampión en Durango

Una enfermera fue agredida físicamente por una derechohabiente mientras realizaba su labor en un...

Acusan a Rusia de envenenar en prisión al líder opositor Alexei Navalny con toxina de una rana dardo

Según revelaron el Reino Unido, Suecia, Francia, Alemania y Países Bajos, durante la Conferencia...