
Sora IA: Gerador de Vídeo Expõe Problemas de Vício
Apesar dos avanços impressionantes na qualidade de vídeo, os geradores de vídeo de IA, como o Sora da OpenAI, estão mostrando vieses persistentes. Uma nova investigação revela que Sora perpetua estereótipos prejudiciais relacionados ao gênero, raça e deficiência.
Estereótipos em Vídeos Gerados por IA
A investigação descobriu que Sora muitas vezes retrata homens como pilotos, CEOs e professores, enquanto as mulheres são mostradas como comissárias de bordo, recepcionistas e babás. Os indivíduos com deficiência são consistentemente retratados em cadeiras de rodas, e o sistema tem dificuldades com relacionamentos interraciais. A falta de diversidade e o reforço dos papéis tradicionais levantam preocupações sobre o impacto potencial do conteúdo gerado por IA.
A OpenAI reconhece a questão do viés e afirma ter equipes dedicadas a reduzi-lo. Eles sugerem ajustar os dados de treinamento e os prompts do usuário para gerar vídeos menos tendenciosos. No entanto, a empresa não forneceu detalhes específicos sobre seus métodos.
A Raiz do Problema
O viés na IA generativa decorre das grandes quantidades de dados de treinamento, que muitas vezes refletem os preconceitos sociais existentes. As escolhas dos desenvolvedores durante a moderação de conteúdo podem reforçar ainda mais esses vieses. Pesquisas sugerem que os sistemas de IA podem até amplificar os preconceitos humanos.
Danos Potenciais e Mitigação
O uso generalizado de vídeo de IA em publicidade e marketing pode exacerbar a estereotipagem e o apagamento de grupos marginalizados. Os vídeos gerados por IA usados para treinar sistemas de segurança ou militares podem levar a resultados ainda mais perigosos. Abordar o viés da IA requer uma abordagem multidisciplinar envolvendo diversas perspectivas e testes no mundo real, não apenas soluções técnicas.
Source: Wired