O GPT-4 da OpenAI é um ChatGPT mais seguro e útil que entende imagens

De acordo com a OpenAI, o GPT-4 é “mais criativo e colaborativo” do que qualquer sistema de IA anterior, possui uma base de conhecimento mais ampla e é melhor na resolução de problemas. Como um sistema multimodal, ele aceita imagens como entrada, além de texto.

De acordo com a OpenAI, o GPT-4 é um “avanço” em tarefas que exigem resolução estruturada de problemas. Por exemplo, o GPT-4 pode fornecer instruções passo a passo em resposta a uma pergunta sobre como limpar um aquário. Em um exame de barra simulado, espera-se que o GPT-4 fique entre os dez primeiros por cento dos exames, onde GPT-3.5 pontuado entre os dez por cento inferiores.

O GPT-4 pode lidar com mais de 25.000 palavras, tornando-o adequado para gerar documentos e análises maiores. O banco de dados do GPT-4 termina em setembro de 2021 e o modelo não aprende com sua própria experiência. O GPT 3.5 foi um primeiro teste para o novo sistema, de acordo com a OpenAI.

O novo sistema de IA é baseado diretamente nas lições aprendidas nos programas de teste adversários e no feedback sobre ChatGPT , disse OpenAI. Diz-se que supera significativamente os sistemas existentes em termos de factualidade e dirigibilidade, embora esteja “longe de ser perfeito”.

O GPT-4 também supera seu antecessor em até 16% em benchmarks comuns de aprendizado de máquina e supera o GPT 3,5 em 15% em tarefas multilíngues.

A OpenAI diz que também desenvolveu novos métodos para prever o desempenho do GPT-4 em alguns domínios, usando modelos treinados com apenas um milésimo do esforço computacional do GPT-4.

Nesta previsão dos recursos de IA, a OpenAI vê um importante aspecto de segurança que não está sendo tratado adequadamente devido ao impacto potencial da IA. “Estamos ampliando nossos esforços para desenvolver métodos que forneçam à sociedade uma melhor orientação sobre o que esperar de sistemas futuros e esperamos que isso se torne um objetivo comum no campo”, escreve OpenAI.

A OpenAI também começou a usar o GPT-4 para ajudar os humanos a avaliar as saídas da IA. Esta, diz, é a segunda fase de sua estratégia de alinhamento previamente anunciada .

GPT-4 pode processar entrada visual

O novo recurso mais óbvio do GPT-4 é sua capacidade de processar imagens como entrada. Por exemplo, pode explicar um meme ou a singularidade de um motivo usando apenas entrada de imagem, pode detalhar infográficos passo a passo e pode resumir gráficos científicos ou explicar aspectos individuais deles.

1678822378 353 O GPT 4 da OpenAI e um ChatGPT mais seguro e

Em benchmarks comuns, o GPT-4 já supera os modelos de imagem de texto existentes. A OpenAI diz que ainda está descobrindo “tarefas novas e empolgantes” que o GPT-4 pode resolver visualmente.

Para controlar o modelo, o OpenAI conta com mensagens do sistema para clientes API. Estes podem ser usados ​​para determinar, até certo ponto, o caráter das respostas do modelo, ou seja, se o GPT-4 responde mais no estilo de um ator de Hollywood ou de maneira socrática.

Limitações semelhantes aos modelos GPT anteriores

Apesar dos avanços significativos no raciocínio e na multimodalidade, o GPT-4 apresenta limitações semelhantes às de seu antecessor. Por exemplo, ainda não é totalmente confiável e está sujeito a alucinações. No entanto, nas avaliações de factualidade contraditórias internas da OpenAI, o GPT-4 tem um desempenho em média 40% superior ao GPT 3.5 e atinge pontuações médias de precisão entre 70 e 80%.

1678822378 126 O GPT 4 da OpenAI e um ChatGPT mais seguro e

O GPT-4 também continua a criar vieses ou reforçar os existentes – “ainda há muito trabalho a ser feito”, admite a OpenAI. Nesse contexto, a empresa aponta planos recentemente anunciados para modelos de linguagem de IA personalizáveis ​​que podem refletir os valores de diferentes usuários e, assim, representar um maior grau de diversidade de opinião.

O OpenAI melhorou significativamente a segurança com relação às consultas que o modelo não deve responder porque violam as políticas de conteúdo do OpenAI. Comparado ao GPT 3.5, o GPT-4 responde a 82% menos consultas críticas. Também é 29% mais propenso a fornecer respostas que cumpram as políticas da OpenAI para consultas confidenciais, como aquelas relacionadas a tópicos médicos.

Passamos 6 meses tornando o GPT-4 mais seguro e alinhado. O GPT-4 tem 82% menos probabilidade de responder a solicitações de conteúdo proibido e 40% mais chances de produzir respostas factuais do que o GPT-3.5 em nossas avaliações internas.

OpenAI

GPT-4 é lançado via ChatGPT Plus, API via lista de espera

A OpenAI está inicialmente disponibilizando o GPT-4 para clientes pagantes de ChatGPT Plus . O serviço custa 20 por mês e está disponível internacionalmente. Os desenvolvedores terão acesso por meio de uma API, como nos modelos anteriores. OpenAI oferece um Lista de espera GPT-4 aqui .

O comprimento do contexto do GPT-4 é limitado a cerca de 8.000 tokens ou cerca de 25.000 palavras. Há também uma versão que pode lidar com até 32.000 tokens, ou cerca de 50 páginas, mas o OpenAI atualmente limita o acesso.

Os preços são $ 0,03 por 1k token de prompt e $ 0,06 por 1k token de conclusão (8k) ou $ 0,06 por 1k token de prompt e $ 0,12 por 1k token de conclusão (32k), significativamente mais altos do que os preços do ChatGPT e GPT 3.5. O modelo mais barato, gpt-3.5-turbo, custa apenas cerca de 0,002 por 1.000 tokens.

O relatório OpenAI atual não fornece mais detalhes sobre arquitetura (incluindo tamanho do modelo), hardware, computação de treinamento, construção de conjunto de dados e similares. A OpenAI justifica isso com o mercado competitivo.

O fato de a OpenAI não divulgar o número de parâmetros também pode ser interpretado como uma indicação de que a empresa não dá mais importância decisiva ao número de parâmetros em seu PR, pois isso sozinho não tem importância para a qualidade do modelo, mas muitos as pessoas acham que sim.

Na preparação para as apresentações do GPT-4, alguns números absurdos de parâmetros foram mencionados nas mídias sociais para visualizar o desempenho do GPT-4 e para alimentar o hype. Em todos os modelos anteriores, o OpenAI comunicou o tamanho do modelo como um recurso diferenciador.

De acordo com a OpenAI, os primeiros clientes do GPT-4 incluem o aplicativo de aprendizado de idiomas Duolingo, o aplicativo de visão computacional Be My Eyes e o Morgan Stanley Wealth Management, que usa o GPT-4 para organizar sua base de conhecimento interna. O governo islandês está usando o GPT-4 para preservar seu próprio idioma. “Fizemos o treinamento inicial do GPT-4 por um bom tempo, mas nos levou muito tempo e muito trabalho para nos sentirmos prontos para lançá-lo”, disse o CEO da OpenAI, Sam Altman.

Logo após a revelação do GPT-4 da OpenAI, A Microsoft também revela que o Bing Chat está usando GPT-4 do começo. Portanto, qualquer um que tenha interagido com “Sydney” nas últimas semanas provavelmente já tem alguma compreensão dos recursos do GPT-4.