Sumário
O CEO da OpenAI, Sam Altman, tem palavras claras sobre o hype do GPT-4. Ele aconselha o sistema educacional a não depender de detectores de texto de IA.
Altman chama o boato em torno do GPT-4 de “coisa ridícula”. Rumores de tamanhos gigantescos de modelos estão circulando no Twitter e afins, e Altman “não tem ideia de onde tudo isso está vindo”.
O co-fundador e cientista-chefe da OpenAI, Ilya Sutskever, fica mais gráfico, postando no Twitter uma paródia da imagem que circula há meses, mostrando um modelo GPT-4 supostamente gigantesco ao lado de um pequeno modelo GPT-3. Supõe-se que sugira um enorme salto no desempenho. No entanto, os parâmetros são tirados do ar ou “total besteira”, como Altman chama.
O GPT-4 será lançado em breve.
E vai fazer o ChatGPT parecer um brinquedo…→ GPT-3 tem 175 bilhões de parâmetros
→ GPT-4 tem 100 trilhões de parâmetrosAcho que veremos algo absolutamente alucinante desta vez!
E a melhor parte? pic.twitter.com/FAB5gFjveb
— Simon Høiberg (@SimonHoiberg) 11 de janeiro de 2023
Além disso, essas postagens de hype referem-se apenas ao número de parâmetros do modelo de IA para descrever seu desempenho. Altman já sugeriu em setembro de 2021 que o GPT-4 pode diferir do GPT-3 pela eficiência e qualidade dos dados, e não pelo mero número de parâmetros.
Modelos como Chinchila ou Base Luminosa Esparsa mostram que os sistemas de linguagem com menos parâmetros, mas uma arquitetura mais eficiente e treinados em mais dados podem ter um bom desempenho.
“As pessoas estão implorando para ficarem desapontadas – e ficarão”, diz Altman sobre a possível expectativa de que o GPT-4 da OpenAI já tenha os recursos de uma IA geral.
Altman acredita na diversidade de valores em modelos de linguagem
A OpenAI e muitas outras empresas estão muito preocupadas com a segurança de grandes modelos de linguagem , incluindo a veracidade das informações e seus valores. Por exemplo, eles não devem gerar discurso de ódio.
Altman acredita que no futuro haverá uma variedade desses modelos com diferentes valores – desde completamente seguros até mais “excêntricos” e “criativos”. O próximo passo, de acordo com Altman, seria os usuários fornecerem ao sistema de IA as especificações de como ele deve se comportar e quais valores deve assumir.
Altman não quis comentar mais sobre Declarações do Google de que os chatbots ainda não são seguros o suficiente para ser amplamente implantado. No entanto, ele disse que espera que os jornalistas chamem o Google sobre esta declaração se a empresa lançar um produto de qualquer maneira. A empresa de pesquisa está planejando pesquisa de chatbot com foco em segurança e até 20 produtos de IA em 2023 .
O sistema educacional não deve depender de detectores de texto AI
Modelos de linguagem como ChatGPT ou GPT-3 fornecem alunos com lição de casa fácil de usar e automação de redação . As ferramentas permitem que eles escrevam mais rápido. Eles podem até gerar textos de forma totalmente automática.
A tecnologia é, portanto, controversa na educação – ela deveria ser encorajada a ser usada e os alunos empoderados, ou seria melhor banir os sistemas de IA?
“Eu entendo porque os educadores se sentem como se sentem sobre isso. (…) Vamos tentar fazer algumas coisas a curto prazo e pode haver maneiras de ajudar os professores ou qualquer pessoa a ter um pouco mais de probabilidade de detectar a saída de um sistema semelhante ao GTP”, diz Altman.
No entanto, acrescentou Altman, a sociedade não deve confiar nessas soluções a longo prazo, pois uma “pessoa determinada” encontraria maneiras de contornar esses detectores. Segundo Altman, eles são importantes para a fase de transição, mas é impossível desenvolver detectores perfeitos.
A OpenAI está trabalhando tecnologia de marca d’água por seus modelos de linguagem. Mas esses sistemas podem se tornar irrelevantes alguns meses após o lançamento, disse Altman.
“Vivemos em um novo mundo onde temos que nos adaptar ao texto gerado. Tudo bem”, diz Altman, fazendo uma comparação com o advento das calculadoras. Os modelos de linguagem são “mais extremos”, diz ele, mas também oferecem “vantagens extremas”.