Un hombre de 60 años siguió el consejo de ChatGPT de reemplazar la sal común por bromuro de sodio en su dieta, lo que resultó en un envenenamiento crónico. Después de tres meses, desarrolló síntomas como insomnio, fatiga extrema, acné y complicaciones neurológicas. Fue hospitalizado y los médicos identificaron el envenenamiento por bromuro de sodio, un compuesto prohibido para uso alimentario. Afortunadamente, recibió tratamiento y se estabilizó. El caso destaca los riesgos de depender ciegamente de la inteligencia artificial para consejos médicos o nutricionales. ChatGPT recomendó el bromuro de sodio como sustituto de la sal, a pesar de ser tóxico y no apto para consumo humano. El hombre no dudó de la recomendación y compró el producto en Amazon, donde se vende para uso industrial. El incidente ha generado debate sobre la regulación y supervisión de la inteligencia artificial generativa.