Sumário
O Alpaca de Stanford foi apenas o começo: nas últimas semanas, vários modelos de IA foram revelados usando dados de treinamento gerados pelo ChatGPT.
Em meados de março, pesquisadores de Stanford revelaram o Alpaca modelo de linguagem, uma variante do Meta LLaMA 7B que foi ajustado com dados gerados por IA. A equipe treinou o modelo LLaMA com 52.000 declarações de exemplo geradas pelo OpenAI GPT-3.5 (texto-davinci-003).
A Alpaca alcançou resultados parcialmente comparáveis nos benchmarks da equipe e foi tão barata em $ 600 que o pesquisador de alinhamento Eliezer Yudkowsky, por exemplo, vê isso como um verdadeiro desafio para empresas como a OpenAI.
A fórmula da Alpaca é de código aberto, mas não pode ser usada comercialmente
No entanto, o modelo LLaMA usado para Alpaca não é liberado para uso comercial, e o OpenAI GPT-3.5 os termos de uso proíbem o uso do modelo para desenvolver modelos de IA que concorram com o OpenAI. Stanford, portanto, ainda não divulgou o modelo, apenas os dados de treinamento e o código para gerar os dados e ajustar o modelo.
Pouco depois do Alpaca, vários modelos de código aberto foram lançados, construídos diretamente ou fortemente inspirados por este trabalho. Alpaca-LoRA usa o método de adaptação de baixo escalão com eficiência de recursos (LoRA), também amplamente utilizado em Stable Diffusion com o LLaMA da Meta para obter resultados comparáveis aos da Alpaca.
Inicialização Nomic AI lançada GPT4All uma variante LLaMA treinada com 430.000 saídas GPT-3.5-turbo selecionadas de um conjunto de dados de um milhão de saídas no total.
ChatDoctor, por outro lado, é um modelo LLaMA especializado em chats médicos. Os autores do artigo científico treinaram o LLaMA primeiro com os 52.000 exemplos de treinamento do Alpaca e depois com 5.000 conversas reais entre profissionais médicos e pacientes.
A startup Databricks contou com o GPT-J-6B da Eleuther AI em vez do LLaMA para seu chatbot Dolly, que também usou o conjunto de dados de treinamento Alpaca. “Descobrimos que mesmo modelos de código aberto de anos com arquiteturas muito anteriores exibem comportamentos impressionantes quando ajustados em um pequeno corpus de dados de treinamento de instrução”, disse Databricks sobre o treinamento com os dados gerados pelo GPT.
Clones ChatGPT e ouro de dados
Stanford forneceu uma receita para melhores modelos de código aberto com o Alpaca, geralmente baseados nos poderosos modelos LLaMA com conjuntos de dados especiais gerados por ChatGPT. Agora que o modelos maiores de LLaMA vazaram podemos esperar modelos muito melhores – mas sem licença comercial por enquanto.
A saída do ChatGPT é adequada como dados de treinamento de primeira classe também é mostrado por um relatório que Os funcionários do Google queriam usar os diálogos ChatGPT como dados de treinamento para Bard. O processo foi interrompido quando um funcionário chamou a atenção da gerência.
No entanto, dados gerados por humanos de alta qualidade permanecem relevantes para modelos de alto desempenho – pelo menos para empresas como a OpenAI que desejam melhorar seus próprios modelos. Isso é evidenciado pelo fato de que a OpenAI supostamente emprega muitos especialistas humanos para verificar ou criar dados especializados, como para tarefas de código. No entanto, para a comunidade de código aberto que procura criar uma alternativa gratuita e eficiente para ChatGPT os resultados da IA podem ser suficientes por enquanto.