Um caso recente nos Estados Unidos mostrou o perigo de levar a sério conselhos de inteligência artificial sobre saúde. 
Um homem de 60 anos, morador de Nova York, acabou internado após seguir uma recomendação do ChatGPT e desenvolver uma intoxicação por brometo – algo raríssimo nos dias de hoje.
De acordo com um relatório publicado no Annals of Internal Medicine e divulgado pela NBC News, o homem perguntou ao chatbot sobre alternativas ao sal de cozinha comum. A resposta foi o brometo de sódio, substância que já foi usada como sedativo no passado, mas que caiu em desuso justamente por ser tóxica. Convencido de que era uma opção mais saudável, ele comprou o produto online e o usou diariamente durante três meses.
O resultado foi devastador: paranoia, insônia, psicose e sintomas físicos graves. Em certo momento, ele chegou a acreditar que estava sendo envenenado pelo vizinho. Os médicos diagnosticaram bromismo – intoxicação crônica por brometo. Ao suspender o consumo e iniciar o tratamento, o quadro começou a melhorar.
Pesquisadores testaram o ChatGPT por conta própria e confirmaram que o sistema realmente sugere brometo como substituto do cloreto, sem qualquer alerta sobre riscos. O caso deixa claro que um chatbot não é médico e não tem responsabilidade profissional. Também levanta a discussão sobre a necessidade de limites e alertas de segurança em IA, especialmente quando o assunto é saúde.
Num momento em que ferramentas de inteligência artificial já fazem parte do dia a dia, a curiosidade não pode superar o bom senso. Principalmente em medicina, um único conselho errado pode custar caro – até a vida.
1 comentário
IA tipo: ‘quer emagrecer? experimenta veneno de rato’ 💀