La peligrosa consulta: un británico padeció bromismo tras seguir consejos de ChatGPT
El auge de la inteligencia artificial (IA) ha transformado nuestra manera de buscar información. Desde recomendaciones de viaje hasta consejos de alimentación, estas herramientas están al alcance de un clic. Sin embargo, su uso sin criterio puede traer consecuencias insospechadas.
Un caso alarmante es el de un ciudadano británico de 60 años que sufrió bromismo, una enfermedad poco común, tras pedirle a ChatGPT formas de reducir su ingesta de sal. El hombre, preocupado por su salud, buscaba alternativas y confió en la respuesta que recibió: el bromuro de sodio. Este compuesto químico fue desechado en la cocina hace más de tres décadas por ser perjudicial.
Hoy en día, el bromuro se utiliza únicamente en el mantenimiento de piscinas. Pese a su toxicidad, el hombre siguió con confianza la recomendación de la IA y lo incorporó a su dieta durante tres meses. Este descuido le trajo graves problemas: comenzó a experimentar fatiga, insomnio, acné, sed excesiva y dificultades en la coordinación. A esto se sumaron alteraciones en su salud mental, incluyendo episodios de paranoia que lo llevaron a ser ingresado en un centro psiquiátrico.
La historia de este británico resalta un tema crucial: la necesidad de discernir la información que nos ofrecen las herramientas digitales. Si bien la inteligencia artificial puede ser una aliada valiosa, es fundamental verificarlas y complementarlas con consejos de profesionales.
En resumen, aunque la IA te dé la sensación de tener respuestas inmediatas para cada duda, es vital mantenerse alerta y no dejarse llevar ciegamente por sus sugerencias. Tu bienestar está en juego, así que recuerda, ¡antes de seguir un consejo, investiga y consulta a un experto!
DCN/Agencias