Pesquisadores da Microsoft veem uma centelha de IA geral em uma versão inicial do GPT-4.
“Acreditamos que GPT-4, a inteligência da Microsoft sinaliza uma verdadeira mudança de paradigma no campo da ciência da computação e além”, diz o documento divulgado pela Microsoft.
O GPT-4 mostra uma centelha de inteligência artificial geral (AGI), dizem eles, mas é apenas o primeiro passo no caminho para sistemas inteligentes cada vez mais gerais. A equipe é guiada por uma definição de AGI que considera tal Sistema de IA para estar no nível humano.
A equipe usou uma versão inicial do GPT-4 para sua pesquisa, mas disse que já era significativamente melhor do que modelos como ChatGPT ou PaLM do Google.
Equipe da Microsoft vê ‘faísca’ de IA geral
“Demonstramos que, além de seu domínio da linguagem, o GPT-4 pode resolver tarefas novas e difíceis que abrangem matemática, codificação, visão, medicina, direito, psicologia e muito mais, sem precisar de nenhuma orientação especial”, diz o artigo.
“Além disso, em todas essas tarefas, o desempenho do GPT-4 é surpreendentemente próximo ao desempenho de nível humano.”
Mas, apesar dessas capacidades humanas e, em alguns casos, sobre-humanas, o modelo ainda apresenta problemas como alucinações ou com tarefas matemáticas, disseram. Além disso, os “padrões de inteligência decididamente não são semelhantes aos humanos”. Dada a imprecisão conceitual de termos como AGI ou inteligência, a equipe esclarece:
“Nossa afirmação de que o GPT-4 representa um progresso em direção à AGI não significa que seja perfeito no que faz, ou que se aproxime de ser capaz de fazer qualquer coisa que um ser humano possa fazer (que é uma das definições usuais de AGI). , ou que tenha motivação e objetivos internos (outro aspecto fundamental em algumas definições de AGI).”
O que resta da “faísca”
Portanto, a questão permanece: o que a equipe está realmente reivindicando aqui? A mensagem principal parece ser: o GPT-4 mostra mais inteligência geral do que os modelos mais antigos. Se isso pode ser entendido como uma “faísca” para AGI depende de duas questões:
- Quantos dos novos recursos do GPT-4 são baseados nos dados de treinamento adicionais, cuja composição exata é até agora um segredo do OpenAI?
- E o dimensionamento da abordagem levará a mais progressos?
A primeira questão é relevante porque um modelo sempre tem desempenho significativamente melhor em benchmarks se os testes que ele contém fizerem parte dos dados de treinamento.
O segundo, Gary Marcus enquadrado assim em 2012: “Parafraseando uma velha parábola, Hinton construiu uma escada melhor; mas uma escada melhor não necessariamente leva você à lua.”
Se os transformadores treinados auto-supervisionados estão construindo escadas ou foguetes, resta saber. A pesquisa com pequenas redes e exemplos de brinquedos mostra que os transformadores aprendem “circuitos” gerais e úteis para prever, digamos, movimentos de Otelo – uma indicação de que eles aprendem mais do que estatísticas superficiais a partir dos dados.
Ainda não está claro se o mesmo é verdadeiro para modelos de linguagem grandes. “No geral, elucidar a natureza e os mecanismos dos sistemas de IA, como o GPT-4, é um desafio formidável que de repente se tornou importante e urgente”, concluem os pesquisadores sobre o estudo do GPT-4.
De qualquer forma, o trabalho é uma boa publicidade para o GPT-4.