O CEO da OpenAI diminui as expectativas para os detectores de texto GPT-4 e AI

O CEO da OpenAI, Sam Altman, tem palavras claras sobre o hype do GPT-4. Ele aconselha o sistema educacional a não depender de detectores de texto de IA.

Altman chama o boato em torno do GPT-4 de “coisa ridícula”. Rumores de tamanhos gigantescos de modelos estão circulando no Twitter e afins, e Altman “não tem ideia de onde tudo isso está vindo”.

O co-fundador e cientista-chefe da OpenAI, Ilya Sutskever, fica mais gráfico, postando no Twitter uma paródia da imagem que circula há meses, mostrando um modelo GPT-4 supostamente gigantesco ao lado de um pequeno modelo GPT-3. Supõe-se que sugira um enorme salto no desempenho. No entanto, os parâmetros são tirados do ar ou “total besteira”, como Altman chama.

Além disso, essas postagens de hype referem-se apenas ao número de parâmetros do modelo de IA para descrever seu desempenho. Altman já sugeriu em setembro de 2021 que o GPT-4 pode diferir do GPT-3 pela eficiência e qualidade dos dados, e não pelo mero número de parâmetros.

Modelos como Chinchila ou Base Luminosa Esparsa mostram que os sistemas de linguagem com menos parâmetros, mas uma arquitetura mais eficiente e treinados em mais dados podem ter um bom desempenho.

“As pessoas estão implorando para ficarem desapontadas – e ficarão”, diz Altman sobre a possível expectativa de que o GPT-4 da OpenAI já tenha os recursos de uma IA geral.

Altman acredita na diversidade de valores em modelos de linguagem

A OpenAI e muitas outras empresas estão muito preocupadas com a segurança de grandes modelos de linguagem , incluindo a veracidade das informações e seus valores. Por exemplo, eles não devem gerar discurso de ódio.

Altman acredita que no futuro haverá uma variedade desses modelos com diferentes valores – desde completamente seguros até mais “excêntricos” e “criativos”. O próximo passo, de acordo com Altman, seria os usuários fornecerem ao sistema de IA as especificações de como ele deve se comportar e quais valores deve assumir.

Altman não quis comentar mais sobre Declarações do Google de que os chatbots ainda não são seguros o suficiente para ser amplamente implantado. No entanto, ele disse que espera que os jornalistas chamem o Google sobre esta declaração se a empresa lançar um produto de qualquer maneira. A empresa de pesquisa está planejando pesquisa de chatbot com foco em segurança e até 20 produtos de IA em 2023 .

O sistema educacional não deve depender de detectores de texto AI

Modelos de linguagem como ChatGPT ou GPT-3 fornecem alunos com lição de casa fácil de usar e automação de redação . As ferramentas permitem que eles escrevam mais rápido. Eles podem até gerar textos de forma totalmente automática.

A tecnologia é, portanto, controversa na educação – ela deveria ser encorajada a ser usada e os alunos empoderados, ou seria melhor banir os sistemas de IA?

“Eu entendo porque os educadores se sentem como se sentem sobre isso. (…) Vamos tentar fazer algumas coisas a curto prazo e pode haver maneiras de ajudar os professores ou qualquer pessoa a ter um pouco mais de probabilidade de detectar a saída de um sistema semelhante ao GTP”, diz Altman.

No entanto, acrescentou Altman, a sociedade não deve confiar nessas soluções a longo prazo, pois uma “pessoa determinada” encontraria maneiras de contornar esses detectores. Segundo Altman, eles são importantes para a fase de transição, mas é impossível desenvolver detectores perfeitos.

A OpenAI está trabalhando tecnologia de marca d’água por seus modelos de linguagem. Mas esses sistemas podem se tornar irrelevantes alguns meses após o lançamento, disse Altman.

“Vivemos em um novo mundo onde temos que nos adaptar ao texto gerado. Tudo bem”, diz Altman, fazendo uma comparação com o advento das calculadoras. Os modelos de linguagem são “mais extremos”, diz ele, mas também oferecem “vantagens extremas”.