Homem desenvolve bromismo após seguir conselho de IA para cortar o sal; entenda condição
Segundo revista científica, ele alegou estar sendo envenenado pelo vizinho e apresentou desconfiança extrema, insônia e acne facial

Wagner Lauria Jr.
Um caso inusitado e preocupante nos Estados Unidos reacendeu o debate sobre os riscos de buscar orientações que envolvam a própria saúde em ferramentas de Inteligência Artificial. Um homem de 60 anos desenvolveu bromismo, intoxicação por brometo, condição psiquiátrica rara e potencialmente grave (saiba mais abaixo), após seguir uma recomendação do ChatGPT para substituir o sal de cozinha na alimentação. O caso foi relatado pela revista científica Annals of Internal Medicine.
+ Morre Maria Berklian, influenciadora conhecida pelo bordão “tá barato”, aos 86 anos
O paciente procurou um hospital alegando estar sendo envenenado pelo vizinho. Apresentava desconfiança extrema, recusou água mesmo com sede e, no dia seguinte, tentou fugir da internação. Já sob tratamento para psicose, ele revelou outros sintomas típicos do bromismo, como insônia e acne facial.
"Gradualmente, ao longo de uma internação de três semanas, seus níveis de cloreto e lacuna aniônica normalizaram-se e os sintomas psicóticos melhoraram", escreveram os autores do relato de caso.
+ De controlar as pupilas até reduzir a dependência digital; veja dicas de bem-estar
O que é bromismo?
O bromismo é provocado pelo acúmulo de compostos à base de bromo no corpo, entre eles o brometo de sódio, sugerido pela IA. Comuns no início do século 20, esses compostos eram usados como sedativos e para tratar epilepsia, mas seu uso foi praticamente abandonado devido ao risco de intoxicação.
Os sintomas podem incluir confusão mental, alucinações, comportamento paranoico e lesões de pele. No passado, de acordo com os pesquisadores, até 8% das internações psiquiátricas estavam relacionadas a esse tipo de envenenamento.
Quando a IA erra
De acordo com relato publicado na revista, o paciente contou ter perguntado à IA como retirar o sal da dieta e recebeu como sugestão o brometo de sódio — sem nenhum alerta sobre riscos. Ao testar a mesma pergunta, os médicos obtiveram resposta semelhante da ferramenta.
"Este caso também destaca como o uso da Inteligência Artificial (IA) pode contribuir potencialmente para o desenvolvimento de resultados adversos à saúde que podem ser evitados", destacaram os autores.
Após três semanas de internação, os exames voltaram ao normal e os sintomas psiquiátricos desapareceram. O caso, segundo os especialistas, serve de alerta para que orientações sobre saúde sejam sempre verificadas com médicos e fontes confiáveis.
O SBT News entrou em contato com o ChatGPT e aguarda retorno. O espaço segue aberto a manifestações.