Musk, Wozniak, Bengio: líderes empresariais e cientistas pedem uma pausa na IA

O Future of Life Institute, sem fins lucrativos, concentra-se nas ameaças fundamentais à existência humana. Agora publicou uma carta aberta pedindo uma pausa na IA. A carta é assinada por várias figuras proeminentes nos negócios e na ciência.

Por pelo menos seis meses, todos os laboratórios de IA devem parar de desenvolver sistemas de IA mais poderosos do que GPT-4 diz a carta, referindo-se aos projetos em andamento como “gigantes experimentos de IA”.

A carta é assinada por líderes empresariais como Elon Musk, Steve Wozniak e Stablity-AI (Difusão estável), cofundador Emad Mostaque, bem como muitos pesquisadores notáveis ​​de IA, como o vencedor do Prêmio Turing Yoshua Bengio, o professor de IA de Berkeley Stuart Russell e crítico de modelo de linguagem Gary Marcus.

Três pesquisadores da Deepmind, empresa irmã de IA do Google, e um desenvolvedor do Google também assinaram a carta. Até agora, ninguém da OpenAI está entre eles. No total, a carta aberta conta atualmente com 1.125 signatários.

Carta aberta à OpenAI e à Microsoft

A carta é endereçada a “todos os laboratórios de IA” para parar de trabalhar em sistemas de IA mais poderosos do que GPT-4. Mas o tom visa principalmente a implantação agressiva de grandes modelos de linguagem pela Microsoft e OpenAI. Em questão de semanas, ambas as empresas trouxeram a tecnologia de IA para muitos milhões de pessoas e integrou grandes modelos de linguagem em vários aplicativos padrão como pesquisas.

O Instituto cita um falta de planejamento e gestão na atual disseminação da tecnologia de IA. A corrida da IA ​​está fora de controle, diz ele, e mesmo seus criadores não podem “entender, prever ou controlar de forma confiável” o impacto de “mentes digitais poderosas”.

A carta cita cenários negativos comuns, como propaganda de IA o automação de muitos trabalhoso deslocamento da inteligência humana e a eventual perda de controle sobre nossa própria civilização como possíveis riscos.

“Poderosos sistemas de IA devem ser desenvolvidos apenas quando estivermos confiantes de que seus efeitos serão positivos e seus riscos serão administráveis”, diz a carta.

Mais regras para IA

Laboratórios de IA e especialistas independentes devem usar a pausa de pelo menos seis meses para desenvolver diretrizes de segurança comuns que serão ignoradas por especialistas externos. Essas diretrizes devem garantir que os sistemas “estejam seguros além de qualquer dúvida razoável”.

Ao mesmo tempo, o instituto pede coordenação com os legisladores, o que significaria pelo menos que os sistemas de IA podem ser monitorados, controlados e rastreados por um departamento dedicado, por exemplo, por meio de um sistema de marca d’água.

O instituto não está pedindo uma parada geral no desenvolvimento da IA, mas “apenas um retrocesso na corrida perigosa para modelos de caixa preta cada vez maiores e imprevisíveis com capacidades emergentes”.

“A sociedade fez uma pausa em outras tecnologias com efeitos potencialmente catastróficos na sociedade. Podemos fazer isso aqui”, escreve o instituto.