Lo que buscaba ser un cambio hacia una alimentación más saludable terminó convirtiéndose en una emergencia médica para un hombre de 60 años, luego de seguir una recomendación errónea de la inteligencia artificial ChatGPT.
De acuerdo con medios locales, el paciente, originario de Washington, EE.UU, decidió reducir su consumo de sal y consultó a la IA sobre posibles sustitutos. La respuesta fue el uso de bromuro de sodio, un compuesto químico que creyó seguro, pero que está en desuso desde hace décadas por su alta toxicidad.
Convencido por lo que consideró un consejo “científico”, comenzó a añadirlo a su dieta. Semanas después, presentó cansancio inusual, confusión mental y paranoia, llegando a creer que su vecino intentaba envenenarlo. Su cuadro se agravó con alucinaciones visuales y auditivas, por lo que fue trasladado a urgencias.
Médicos diagnosticaron bromismo, una intoxicación grave causada por la ingesta prolongada de sales de bromuro, y lo trataron con diuresis salina y reposición de nutrientes. Tras tres semanas de atención hospitalaria, logró recuperarse.
El caso, documentado en la revista Annals of Internal Medicine: Clinical Case, recuerda que el bromismo era frecuente a principios del siglo XX, cuando el bromuro se empleaba en fármacos para insomnio y ansiedad, hasta que la FDA prohibió su uso en 1989 por los riesgos neurológicos que implica.
Entre sus síntomas se incluyen erupciones cutáneas, problemas de coordinación, confusión, paranoia y alucinaciones, que sin tratamiento pueden dejar secuelas permanentes.
Especialistas advierten que la información emitida por plataformas de IA debe tomarse como referencia general, pero nunca sustituir el criterio médico. Recomiendan consultar a un profesional de la salud antes de realizar cambios en la dieta y evitar el consumo de sustancias químicas sin respaldo científico.