Meta PEER: Grandes modelos de linguagem são bons como assistentes de redação?

O PEER da Meta foi projetado para simplificar a colaboração com grandes modelos de linguagem, abrindo-os para colaborações de texto com humanos.

Grandes modelos de linguagem como GPT-3 da OpenAI mostram capacidades generativas impressionantes. Eles podem escrever prosa, poesia, código HTML ou planilhas do Excel. E seus resultados às vezes são indistinguíveis do conteúdo gerado por humanos. Esses modelos de IA geram sua saída da esquerda para a direita – eles complementam o texto de entrada fornecido por humanos de acordo com as probabilidades aprendidas.

O texto de entrada aciona os modelos. Exemplos de tradução levam a outras traduções. O programa completa poeticamente um prompt de soneto. Ou apresenta tematicamente uma história sobre a tensão entre o anarco-sindicalismo e as monarquias clássicas.

Grandes modelos de linguagem são difíceis de controlar

Longe desse simples solavanco, a capacidade de controlar a saída dos modelos é severamente limitada. Além disso, revisar o texto gerado é difícil porque geralmente gera conteúdo estranho e não consegue explicar o porquê.

Empresas como OpenAI, Google e meta estão, portanto, procurando abordagens para tornar os modelos mais confiáveis. O Google, por exemplo, está contando com treinamento de fato versus absurdo de IA e OpenAI está experimentando acesso a mecanismos de busca .

Apesar de tais tentativas, os modelos de linguagem atuais são solistas. A colaboração de texto com autores humanos não é possível. Os pesquisadores de IA da Meta querem mudar isso e agora estão apresentando PAR . A sigla significa “Plan, Edit, Explain, Repeat” e é o nome de um novo modelo de linguagem colaborativa treinado com processos de edição da Wikipédia, por exemplo.

O PEER destina-se a cobrir todo o processo de escrita, podendo, por exemplo, editar textos e explicar alterações feitas.

Meta mostra como poderia ser a colaboração entre humanos e PEER

O PEER funciona em várias etapas que, segundo Meta, espelham o processo de escrita humana. Para um determinado texto, um humano ou o modelo AI pode criar um plano, por exemplo, por meio de entrada de texto. Esse plano pode incluir a correção de informações incorretas contidas no texto, adição de citações de fontes ou alterações de formatação.

O modelo pode então explicar essas mudanças, como com uma referência a uma fonte. Para este propósito, cada texto de entrada é fornecido com informações de fundo possivelmente relevantes antes de ser processado pelo PEER.

Autores humanos repetem esse processo quantas vezes forem necessárias. Essa abordagem iterativa divide a complexa tarefa de escrever um texto consistente e factual em várias subtarefas mais simples. Entre qualquer uma dessas subtarefas, os humanos também podem intervir ou assumir o controle.

PEER aprende com Wikipedia e é apenas o começo para Meta

Para o treinamento, o Meta utiliza o extenso conjunto de dados da Wikipédia de edições de texto e comentários associados, muitas vezes obtendo explicações para essas alterações. Para tornar o PEER útil fora dos textos do tipo Wikipedia, as variantes do PEER também aprendem a reconstruir o texto original não editado a partir de um texto editado finalizado e documentos relevantes para ele.

O PEER de três bilhões de parâmetros funciona melhor como assistente de escrita do que outros modelos de linguagem significativamente maiores, como GPT-3 ou Meta’s OPT . Ainda assim, tudo isso apenas arranha a superfície das capacidades do PEER como um modelo de linguagem colaborativa, disse Meta. No futuro, a equipe planeja coletar sessões completas de inúmeras interações IA-humanas para melhorar o PEER.

Para fazer isso, a equipe também deve resolver as limitações atuais do modelo, como fornecer acesso a um mecanismo de recuperação do mundo real que pode encontrar documentos relevantes por conta própria, desenvolver métodos para avaliar textos de coautoria de humanos e modelos de linguagem e tornando o PEER mais eficiente para que ele possa processar documentos inteiros.