Un hombre de 60 años en Estados Unidos ha sufrido una rara y grave intøxicación por bromuro, conocida como bromismo, tras seguir una dieta recomendada por el chatbot de inteligencia artificial ChatGPT. Buscando una alternativa a la sal común, el individuo consultó a la IA, que le sugirió reemplazar el cloruro de sodio por bromuro de sodio.

Este compuesto, que fue retirado del mercado de medicamentos de venta libre en Estados Unidos hace décadas debido a su tøxicidad, resultó en una hospitalización del hombre por síntomas neurøpsiquiátricos graves. Durante tres meses, el paciente experimentó una serie de problemas, incluyendo paranoia, alucinaciones y severas afecciones dermatológicas, antes de ser diagnosticado con la intøxicación.

Afortunadamente, se recuperó y fue dado de alta, pero su caso sirve como una clara advertencia sobre los peligros de utilizar herramientas de IA para obtener asesoramiento médico o nutricional. Expertos en medicina y salud pública han utilizado este incidente para reiterar la importancia de la supervisión médica. Aunque la inteligencia artificial puede ser una herramienta poderosa en la investigación y el diagnóstico, su uso sin criterio en la vida diaria puede llevar a resultados desastrosos.

Con información de: Medios Internacionales

¿Qué opinas de esto?