
Gerador de Imagens IA Expõe Abuso Infantil: Falha de Segurança
Uma recente falha de segurança trouxe à tona o lado sombrio da geração de imagens por IA. Um número impressionante de imagens explícitas geradas por IA, incluindo material de abuso sexual infantil (CSAM) profundamente perturbador, foi descoberto publicamente acessível online. Esta descoberta alarmante levanta sérias questões sobre a responsabilidade das empresas de IA e o potencial de uso indevido desta poderosa tecnologia.
Os Dados Expostos e Seu Conteúdo
O pesquisador de segurança Jeremiah Fowler descobriu um banco de dados aberto pertencente à AI-Nomis, uma empresa sul-coreana que opera ferramentas de geração de imagens e chatbot. O banco de dados continha mais de 95.000 registros, incluindo imagens geradas por IA e os prompts usados para criá-las. Entre as imagens estavam representações de celebridades como Ariana Grande, as Kardashians e Beyoncé, descaracterizadas de forma inquietante para parecerem crianças.
Os 45 GB de dados expostos oferecem um vislumbre arrepiante de como a geração de imagens por IA pode ser usada como arma para produzir conteúdo sexual não consensual de adultos e crianças. Fowler descreveu a situação como "aterrorizante", destacando a facilidade com que esse conteúdo prejudicial pode ser gerado.
Falta de Segurança e Resposta
O banco de dados estava supostamente desprotegido, sem nem mesmo a proteção básica de senha ou criptografia. Fowler relatou prontamente as descobertas à AI-Nomis, mas não recebeu resposta. Após questionamentos da WIRED, tanto a AI-Nomis quanto sua subsidiária, GenNomis, pareceram fechar seus sites.
Preocupações Éticas e Lacunas Regulatórias
Clare McGlynn, professora de direito especializada em abuso online, enfatizou o mercado perturbador para IA que permite a criação de tais imagens abusivas. Este incidente sublinha a necessidade urgente de regulamentações mais fortes e considerações éticas em torno da geração de imagens por IA.
Embora as políticas de usuário da GenNomis afirmassem proibir a pornografia infantil e outras atividades ilegais, a descoberta de CSAM em seu banco de dados sugere uma falha significativa na moderação e supervisão. O slogan da empresa, prometendo geração de imagens "sem restrições", destaca ainda mais o potencial de abuso.
O Aumento do CSAM Gerado por IA
Especialistas alertam sobre um aumento dramático no CSAM gerado por IA. A Internet Watch Foundation (IWF) relata um aumento de quatro vezes nas páginas da web contendo esse material desde 2023, acompanhado por um salto preocupante na qualidade fotorrealista. Isso torna cada vez mais difícil distinguir o abuso gerado por IA da exploração na vida real.
A facilidade e a velocidade com que os criminosos agora podem gerar e distribuir CSAM gerado por IA exigem ação imediata de legisladores, plataformas de tecnologia e outras partes interessadas para combater esta ameaça crescente.
Fonte: Wired