O Gato do Deepmind resolve muitas tarefas, mas nenhuma delas muito bem. O novo sistema de IA, no entanto, lidera o caminho para a inteligência artificial geral?
Seguindo os passos do OpenAI DALL-E 2 , PaLM do Google , LaMDA 2 e Deepmind Chinchila e Flamingo a empresa de IA com sede em Londres está exibindo outro grande modelo de IA que supera os sistemas existentes.
No entanto, o Gato da Deepmind é diferente: o modelo não pode escrever melhor, descrever imagens melhor, jogar Atari melhor, controlar braços robóticos melhor ou orientar-se em espaços 3D melhor do que outros sistemas de IA. Mas o Gato sabe fazer de tudo um pouco.
Vídeo: Deepmind
Gato do Deepmind pega o que ganha
Deepmind treinou o multi-talento baseado no Transformer com imagens, texto, propriocepção, momentos conjuntos, pressionamentos de tecla e outras observações e ações discretas e contínuas. Na fase de treinamento, todos os dados são processados em uma sequência de tokens pela rede Transformer, semelhante a um grande modelo de linguagem.
A equipe então testou Gato em 604 tarefas diferentes. Em mais de 450 deles, o modelo de IA alcançou cerca de 50% do desempenho de um especialista no benchmark. Mas isso está muito atrás dos modelos de IA especializados que podem atingir níveis de especialistas.
Gato e as leis da escala
Com apenas 1,18 bilhão de parâmetros, o Gato é minúsculo em comparação com o GPT-3 de 175 bilhões de parâmetros, o enorme modelo PaLM de 540 bilhões de parâmetros ou o Chinchilla “pequeno” de 70 bilhões de parâmetros.
Segundo a equipe, isso se deve predominantemente ao tempo de resposta do braço do robô Sawyer usado – um modelo maior seria muito lento para realizar as tarefas robóticas no hardware atual e com a arquitetura atual.
No entanto, essas limitações podem ser facilmente resolvidas com novo hardware e arquitetura, disse a equipe. Um modelo Gato maior poderia treinar com mais dados e provavelmente executar melhor as várias tarefas.
Em última análise, isso pode levar a uma modelo de IA generalista que substitui modelos especializados – algo que a história da pesquisa de IA também mostra, diz a equipe. Ele cita o pesquisador de IA Richard Sutton, que observou como uma “lição amarga” de sua pesquisa: “Historicamente, modelos genéricos que são melhores em alavancar a computação também tendem a ultrapassar abordagens específicas de domínio mais especializadas eventualmente”.
O Deepmind também mostrou que o desempenho do Gato aumenta com o número de parâmetros: além do modelo grande, a equipe treinou dois modelos menores com 79 milhões e 364 milhões de parâmetros. O desempenho médio aumenta linearmente com os parâmetros – pelo menos para os benchmarks testados.
Esse fenômeno já é conhecido a partir de modelos de linguagem em grande escala e foi explorado em profundidade no artigo de pesquisa do início dos anos 2020 ” Leis de escala para modelos de linguagem neural .”
A essas leis de escala, a Deepmind adicionou recentemente a importância de conjuntos de dados maiores para escalar o desempenho com o papel Chinchilla. Mais dados de treinamento levam a um melhor desempenho.
Fim do jogo ou Alt Intelligence?
O dimensionamento de um sistema como o Gato um dia permitirá a inteligência artificial geral? A confiança no princípio de escalonamento não é compartilhada por todos: em uma nova postar no Substack sobre Gato, o cientista cognitivo e pesquisador de IA Gary Marcus fala de uma abordagem fracassada de “Scaling-Uber-Alles”. Todos os grandes modelos atuais de IA, como GPT-3, PaLM, Flamingo ou mesmo Gato, combinariam momentos de brilhantismo com absoluta incompreensão.
Embora os humanos também sejam propensos ao erro, disse ele, “qualquer um que seja sincero reconhecerá que esses tipos de erros revelam que algo está, por enquanto, profundamente errado. Se qualquer um dos meus filhos cometesse erros como esses rotineiramente, eu, sem exagero, largaria tudo o que estou fazendo e os levaria ao neurologista imediatamente.”
Marcus se refere a essa linha de pesquisa como Inteligência Alternativa : “Alt Intelligence não é sobre a construção de máquinas que resolvem problemas de maneiras que têm a ver com a inteligência humana. Trata-se de usar grandes quantidades de dados – muitas vezes derivados do comportamento humano – como um substituto para a inteligência.”
Segundo Marcus, esse método não é novo, mas a acompanhar a arrogância de alcançar inteligência artificial geral simplesmente escalando é.
Com seu Substack-Post Marcus também está respondendo a um Postagem no Twitter de Nando de Freitas , diretor de pesquisa da Deepmind: “É tudo uma questão de escala agora! O Jogo Acabou”, disse Freitas no contexto do Gato. “Trata-se de tornar esses modelos maiores, mais seguros, eficientes em computação, mais rápidos na amostragem, memória mais inteligente, mais modalidades, DADOS INOVADORES, on/offline, ….”
De Freitas vê o Deepmind a caminho da IA geral se os problemas de dimensionamento que ele descreve forem resolvidos. A lição de Sutton não é amarga, mas sim doce, de acordo com o pesquisador da Deepmind. De Freitas está expressando aqui o que muitos na indústria estão pensando, escreve Marcus.
Mas tons mais cautelosos também estão vindo de Deepmind: “Talvez escalar seja suficiente. Talvez”, escreve o principal cientista Murray Shanahan . Mas ele vê poucas evidências em Gato de que a escala sozinha levará à generalização em nível humano. “Felizmente estamos trabalhando em várias direções”, escreve Shanahan.