
Relatório de Segurança da AGI da DeepMind: Previsão de Riscos e Estratégias
A Google DeepMind publicou recentemente um extenso artigo detalhando sua abordagem para a segurança da Inteligência Artificial Geral (AGI), definida como IA capaz de realizar qualquer tarefa que um humano possa. Este tópico é controverso, com alguns descartando a AGI como um sonho distante, enquanto outros, como a Anthropic, alertam para sua chegada iminente e potencial para danos graves.
O documento de 145 páginas da DeepMind, co-autoria de Shane Legg, estima que a AGI pode se tornar realidade até 2030, potencialmente levando a "danos graves", incluindo "riscos existenciais" que poderiam "destruir permanentemente a humanidade". O artigo define uma "AGI Excepcional" como um sistema que corresponde às capacidades do top 1% de adultos qualificados em várias tarefas, incluindo a aprendizagem de novas competências.
A Posição da DeepMind sobre a Segurança da AGI
O artigo contrasta a abordagem de mitigação de risco da AGI da DeepMind com as da Anthropic e da OpenAI. A DeepMind sugere que a Anthropic pode não enfatizar suficientemente o "treino robusto, monitorização e segurança", enquanto a OpenAI é excessivamente otimista sobre "automatizar" a pesquisa de segurança da IA. A DeepMind também expressa ceticismo sobre a IA superinteligente, questionando sua chegada iminente sem "inovação arquitetônica significativa". No entanto, o artigo reconhece a plausibilidade da "melhoria recursiva da IA", onde a IA se aprimora, potencialmente levando a resultados perigosos.
A DeepMind propõe técnicas para impedir o acesso não autorizado à AGI, melhorar a compreensão das ações da IA e proteger os ambientes da IA. Embora reconheça o estágio inicial dessas técnicas, o artigo enfatiza a importância de abordar esses desafios de segurança de forma proativa. "A natureza transformadora da AGI tem o potencial para benefícios incríveis, bem como para danos graves", afirmam os autores, instando os desenvolvedores de IA a priorizarem a mitigação de danos.
Opiniões de Especialistas e Contra-Argumentos
Nem todos os especialistas concordam com a avaliação da DeepMind. Heidy Khlaaf do AI Now Institute considera o conceito de AGI muito ambíguo para avaliação científica. Matthew Guzdial da Universidade de Alberta duvida da viabilidade da melhoria recursiva da IA, enquanto Sandra Wachter de Oxford destaca o perigo da IA se reforçar com saídas imprecisas, particularmente com a proliferação de IA generativa.
Wachter argumenta que os chatbots, usados para pesquisa e descoberta da verdade, correm o risco de alimentar os usuários com "meias-verdades" apresentadas de forma convincente. Apesar de sua abrangência, é improvável que o artigo da DeepMind resolva os debates em curso em torno do realismo da AGI e das áreas mais prementes da segurança da IA.
Fonte: TechCrunch