Dieta IA

Conselho de IA Para Dieta Sai Errado: Homem Termina Com Psicose

Tecnologia

Um estudo de caso recente é um verdadeiro alerta, mostrando como seguir cegamente os conselhos da IA pode ter um efeito contrário sério. Ele conta a história de um homem que acabou com intoxicação por brometo e psicose depois de confiar no ChatGPT para orientação dietética. Sério, parece algo saído de um filme distópico!

Médicos da Universidade de Washington relataram este incidente bizarro. Aparentemente, o cara estava tomando brometo há três meses, tudo por indicação do ChatGPT. Felizmente, com o tratamento certo, ele se recuperou totalmente. Mas, faz você pensar duas vezes, certo?

Antigamente, os compostos de brometo eram usados para tudo, desde insônia até ansiedade. Mas, surpresa, o brometo pode ser tóxico se você tomar muito. Na década de 80, ele estava praticamente fora da maioria dos medicamentos. Então, os casos de bromismo tornaram-se raros.

Mesmo assim, você ainda pode encontrar brometo em alguns medicamentos veterinários e suplementos dietéticos. Este caso em particular é selvagem porque parece ser o primeiro envenenamento por brometo causado diretamente por conselhos de IA.

O relatório diz que o homem apareceu no pronto-socorro, convencido de que seu vizinho o estava envenenando. Apesar de alguns resultados físicos normais, ele estava agitado, paranoico e até alucinando. Ficou tão ruim que ele teve um episódio psicótico e teve que ser colocado em retenção psiquiátrica.

Depois que os médicos o estabilizaram, eles descobriram que ele estava tomando brometo de sódio intencionalmente há meses. O raciocínio dele? Ele tinha lido que muito sal de mesa (cloreto de sódio) fazia mal para você. Em vez de apenas reduzir o sal, ele decidiu eliminar o cloreto por completo.

Foi quando ele recorreu ao ChatGPT, que aparentemente lhe disse que o brometo era um substituto seguro. Então, naturalmente, ele começou a comprar brometo de sódio online e tomar. Embora os médicos não tivessem acesso aos registros de bate-papo do homem, quando eles perguntaram ao ChatGPT 3.5 com o que o cloreto pode ser substituído, ele voltou com uma resposta que incluía o brometo.

Agora, é possível que o ChatGPT estivesse falando sobre o brometo em um contexto completamente diferente. O contexto é fundamental, certo? Mas, a IA não se preocupou em avisá-lo sobre os perigos de consumir brometo ou mesmo perguntar por que ele queria saber.

Felizmente, o homem se recuperou após ser tratado e retirado dos antipsicóticos. Ele recebeu alta após três semanas e estava bem em sua consulta de acompanhamento.

Os médicos apontaram que, embora as ferramentas de IA possam ser ótimas para preencher a lacuna entre especialistas e o público, elas também correm o risco de espalhar informações sem contexto. É seguro dizer que nenhum médico humano recomendaria trocar cloreto por brometo se você está preocupado com a ingestão de sal. Parece óbvio!

Acho que toda essa história é um bom lembrete de que ainda precisamos usar nossos cérebros. Ter alguém para conversar, alguém que possa dizer: "Ei, talvez essa não seja uma boa ideia", é mais importante do que nunca, não importa o quão inteligente a IA se torne.

Fonte: Gizmodo