Segurança AGI

Relatório de Segurança da AGI da DeepMind: Previsão de Riscos e Estratégias

A Google DeepMind publicou recentemente um extenso artigo detalhando sua abordagem para a segurança da Inteligência Artificial Geral (AGI), definida como IA capaz de realizar qualquer tarefa que um humano possa. Este tópico é controverso, com alguns descartando a AGI como um sonho distante, enquanto outros, como a Anthropic, alertam para sua chegada iminente e potencial para danos graves.

O documento de 145 páginas da DeepMind, co-autoria de Shane Legg, estima que a AGI pode se tornar realidade até 2030, potencialmente levando a "danos graves", incluindo "riscos existenciais" que poderiam "destruir permanentemente a humanidade". O artigo define uma "AGI Excepcional" como um sistema que corresponde às capacidades do top 1% de adultos qualificados em várias tarefas, incluindo a aprendizagem de novas competências.

A Posição da DeepMind sobre a Segurança da AGI

O artigo contrasta a abordagem de mitigação de risco da AGI da DeepMind com as da Anthropic e da OpenAI. A DeepMind sugere que a Anthropic pode não enfatizar suficientemente o "treino robusto, monitorização e segurança", enquanto a OpenAI é excessivamente otimista sobre "automatizar" a pesquisa de segurança da IA. A DeepMind também expressa ceticismo sobre a IA superinteligente, questionando sua chegada iminente sem "inovação arquitetônica significativa". No entanto, o artigo reconhece a plausibilidade da "melhoria recursiva da IA", onde a IA se aprimora, potencialmente levando a resultados perigosos.

A DeepMind propõe técnicas para impedir o acesso não autorizado à AGI, melhorar a compreensão das ações da IA e proteger os ambientes da IA. Embora reconheça o estágio inicial dessas técnicas, o artigo enfatiza a importância de abordar esses desafios de segurança de forma proativa. "A natureza transformadora da AGI tem o potencial para benefícios incríveis, bem como para danos graves", afirmam os autores, instando os desenvolvedores de IA a priorizarem a mitigação de danos.

Opiniões de Especialistas e Contra-Argumentos

Nem todos os especialistas concordam com a avaliação da DeepMind. Heidy Khlaaf do AI Now Institute considera o conceito de AGI muito ambíguo para avaliação científica. Matthew Guzdial da Universidade de Alberta duvida da viabilidade da melhoria recursiva da IA, enquanto Sandra Wachter de Oxford destaca o perigo da IA se reforçar com saídas imprecisas, particularmente com a proliferação de IA generativa.

Wachter argumenta que os chatbots, usados para pesquisa e descoberta da verdade, correm o risco de alimentar os usuários com "meias-verdades" apresentadas de forma convincente. Apesar de sua abrangência, é improvável que o artigo da DeepMind resolva os debates em curso em torno do realismo da AGI e das áreas mais prementes da segurança da IA.

Fonte: TechCrunch