ChatGPT Alucinações OpenAI

OpenAI Sob Críticas por Problemas de Informação Falsa no ChatGPT

Já se passaram mais de dois anos desde que o ChatGPT surgiu no cenário mundial e, apesar dos avanços da OpenAI, o problema das "alucinações" persiste – onde a IA apresenta informações falsas como fatos. O grupo de defesa austríaco Noyb apresentou uma segunda queixa contra a OpenAI, citando um caso em que o ChatGPT acusou falsamente um homem norueguês de ser um assassino.

De acordo com a denúncia, quando questionado sobre o homem, o ChatGPT afirmou que ele foi condenado a 21 anos por matar dois de seus filhos e tentar assassinar o terceiro. A IA chegou a incluir detalhes reais, como o número de filhos, seus gêneros e sua cidade natal, confundindo ainda mais a linha entre fato e ficção.

Alegação de Violação do GDPR

A Noyb argumenta que essa resposta viola o GDPR. Joakim Söderberg, advogado de proteção de dados da Noyb, afirmou: "O GDPR é claro. Os dados pessoais devem ser precisos. E se não forem, os usuários têm o direito de alterá-los para refletir a verdade. Um pequeno aviso sobre possíveis erros não é justificativa suficiente para espalhar informações falsas."

Outros casos de alucinações do ChatGPT incluem falsas acusações de fraude, desvio de dinheiro, abuso infantil e assédio sexual.

A reclamação inicial da Noyb, em abril de 2024, envolveu uma data de nascimento incorreta. A resposta da OpenAI foi que não podia alterar as informações existentes, apenas bloquear o seu uso em determinados prompts, com o ChatGPT dependendo de um aviso sobre possíveis imprecisões.

A questão permanece: um simples aviso é suficiente para desculpar a divulgação de informações falsas potencialmente prejudiciais por um chatbot de IA amplamente utilizado? Aguardamos a resposta da OpenAI a esta última reclamação.

Source: Engadget