Sumário
O ChatGPT inspira muitas pessoas, mas também causa irritação, por exemplo, com declarações politicamente controversas. A OpenAI explica como sua IA de conversação pode abranger uma gama mais ampla de perspectivas e ser mais responsiva a usuários individuais.
Para reduzir o viés e a desinformação, o ChatGPT é ajustado com feedback humano. Para futuros modelos ChatGPT ou AI em geral, o OpenAI também deseja melhorar o comportamento padrão. A empresa não cita medidas concretas para isso, além de mais investimentos em pesquisa e desenvolvimento.
Se e até que ponto é possível livrar grandes modelos de linguagem de vieses ou distorções, ou impedi-los de aprendê-los em primeiro lugar, é uma questão de debate na comunidade de pesquisa. A OpenAI admite que ainda há “espaço para melhorias” quando se trata de distorções e vieses.
Em muitos casos, pensamos que as preocupações levantadas foram válidas e revelaram limitações reais de nossos sistemas que queremos abordar. Também vimos alguns equívocos sobre como nossos sistemas e políticas funcionam juntos para moldar os resultados que você obtém do ChatGPT.
OpenAI
OpenAI oferecerá modelos ChatGPT com comportamento personalizado
Uma forma de combater o viés não é eliminá-lo, mas tornar um modelo mais aberto a diferentes perspectivas. Para esse fim, a OpenAI está planejando uma atualização para o ChatGPT que permitirá aos usuários personalizar o comportamento do modelo de IA de acordo com suas necessidades dentro dos “limites definidos pela sociedade”.
“Isso significa permitir saídas do sistema com as quais outras pessoas (inclusive nós) podem discordar fortemente”, escreve OpenAI.
A empresa deixa em aberto quando a atualização será lançada e como será implementada tecnicamente. O desafio, diz, é definir os limites da sociedade e, portanto, da personalização.
“Se tentarmos fazer todas essas determinações por conta própria, ou se tentarmos desenvolver um único sistema monolítico de IA, estaremos falhando no compromisso que assumimos em nossa Carta de ‘evitar a concentração indevida de poder’”, OpenAI escreve.
A OpenAI espera resolver esse dilema envolvendo mais o público no processo de alinhamento do ChatGPT. Para esse fim, a empresa diz que está lançando um projeto piloto para coletar feedback externo sobre o comportamento do sistema e casos de uso, como o uso de IA na educação. Além disso, a OpenAI está considerando parcerias com organizações externas para revisar suas políticas de comportamento e segurança de IA.
Como o ChatGPT da OpenAI é treinado
O ChatGPT é treinado em duas etapas: primeiro, o modelo é pré-treinado com muitos dados de texto. Durante esse treinamento, o modelo aprende a prever prováveis sequências de palavras. Na frase “Não vá para a direita, vá…”, a palavra “esquerda” (ou “reto” ou “voltar”, que faz parte do problema dos grandes modelos de linguagem) segue com certa probabilidade.
Nesta primeira etapa do treinamento, de acordo com a OpenAI, o ChatGPT aprende gramática, muitos fatos sobre o mundo e algumas habilidades de raciocínio – e os vieses nos dados que levam aos problemas mencionados acima.
A segunda etapa é ajustar o modelo pré-treinado. Para isso, o OpenAI usa exemplos de texto selecionados que foram avaliados por revisores humanos e combinados em um conjunto de dados menor. Na prática, o ChatGPT generaliza com base nesse feedback humano.
Bias é um bug – não um recurso
O OpenAI fornece aos revisores humanos uma estrutura para avaliação, por exemplo, o ChatGPT não deve responder a solicitações sobre conteúdo ilegal ou comentar sobre tópicos controversos.
De acordo com a OpenAI, este é um processo contínuo que é discutido semanalmente. OpenAI publica um exemplo de briefing para revisores sobre como lidar com determinados pedidos.
“Nossas diretrizes são explícitas de que os revisores não devem favorecer nenhum grupo político. Vieses que, no entanto, podem surgir do processo descrito acima são bugs, não recursos”, escreve OpenAI.
Mas os erros continuarão a acontecer, diz a empresa. A OpenAI quer aprender com eles e melhorar seus modelos e sistemas.
“Agradecemos a vigilância da comunidade de usuários do ChatGPT e do público em geral em nos responsabilizar”, escreve OpenAI.
Pesquisas anteriores indicaram que ChatGPT era ou é politicamente de esquerda , pelo menos às vezes. Como o OpenAI continua a fornecer informações ao sistema e pode gerar diferentes respostas para as mesmas perguntas, o viés político mensurável é fluido.