Por que uma abordagem responsável para grandes modelos de linguagem é essencial

  • Os sistemas causam danos inaceitáveis ​​a (todos ou alguns grupos de) pessoas?
  • Os danos são permanentes, irreversíveis, muito profundos ou leves? Ideacional ou material?
  • Os modelos de linguagem são problemáticos quase independentemente de seu uso particular?
  • Ou as consequências perigosas devem ser consideradas apenas em certos contextos de uso, como quando um diagnóstico médico é feito automaticamente?

A avaliação ética dos novos modelos de linguagem, especialmente do ChatGPT, depende de como se avalia o desenvolvimento técnico dos modelos de linguagem, bem como a profundidade de intervenção das diferentes aplicações.

Além disso, há sempre a questão do potencial da tecnologia para resolver os problemas sociais e a avaliação de seu impacto na autocompreensão humana: a tecnologia pode ou deve ser uma solução para os problemas sociais, ou é uma exacerbação deles e, em caso afirmativo , até que ponto?

Modelos de linguagem não discriminatórios?

Essas questões éticas fundamentais devem ser consideradas para o design responsável de modelos de linguagem. No caso do ChatGPT e soluções correlatas, como nos sistemas de IA em geral, deve-se levar em conta a expectativa de robustez técnica de um sistema e, sobretudo, os chamados vieses devem ser considerados criticamente: atitudes tendenciosas podem ser adotadas e até reforçado nos dados subjacentes durante a programação, treinamento ou uso de um modelo de linguagem. Esses vieses devem ser minimizados o máximo possível.

Mas não se engane: preconceitos não podem ser eliminados porque também são expressões de atitudes. E estes não devem ser completamente apagados.

No entanto, eles devem ser examinados criticamente para ver se e como eles são compatíveis com normas éticas e legais muito básicas, como a dignidade humana e os direitos humanos, mas também – pelo menos como desejado em grande parte de muitas culturas – com a diversidade, e não não legitimar ou promover estigmatização e discriminação.

Um dos maiores desafios pela frente é como tornar isso possível, tanto técnica quanto organizacionalmente. Os modelos de linguagem também servirão de espelho para a sociedade e – como já acontece com as mídias sociais – podem distorcer, mas também expor e reforçar fraturas e divisões sociais.

Se vamos falar em disrupção, uma dessas potencialidades está no aumento do uso de modelos de linguagem que podem ser alimentados com dados de forma muito mais intensa do que os modelos atuais para combinar conhecimento sólido.

Mesmo que sejam autodidatas, usando apenas uma rede neural, o efeito pode ser tão substancial que os textos gerados simularão a atividade humana real. Assim, é provável que passem nas formas usuais do Teste de Turing. Haverá bibliotecas de respostas sobre as implicações disso para humanos, máquinas e sua interação.

O fim da escrita criativa?

Um efeito que deve ser cuidadosamente monitorado é a degradação da técnica cultural básica da escrita individual. Por que isso deveria ser uma preocupação antropológica e ética?

Recentemente, argumentou-se que a formação do sujeito individual e o surgimento da literatura epistolar romântica têm uma relação constitutiva e recíproca. Isso não significa que a inevitável abolição do ensaio de pesquisa ou trabalho final, projetado para documentar o conhecimento básico de graduação e facilmente produzido com o ChatGPT, deva anunciar simultaneamente o fim do assunto moderno.

O que está claro, no entanto, é que a escrita criativa independente deve ser praticada e internalizada de forma diferente – e isso é de considerável relevância ética se a formação de uma personalidade autoconfiante é crucial para nossa sociedade complexa.

Além disso, como sociedade, devemos aprender a lidar com a esperada enxurrada de textos gerados pelos modelos de linguagem. Isso não é apenas uma questão de gerenciamento de tempo pessoal.

Em vez disso, ameaça criar uma nova forma de desigualdade social – ou seja, quando os mais ricos podem ser inspirados por textos ainda escritos por humanos, enquanto os menos educados e financeiramente mais fracos têm de se contentar com as migalhas literárias do ChatGPT.

Tecnologicamente disruptivo ou socialmente divisivo?

Uma ruptura tecnológica do ChatGPT não significa automaticamente uma divisão social iminente. Mas só pode ser evitado se repensarmos rapidamente o familiar – especialmente na educação – e nos adaptarmos às novas possibilidades.

Não somos apenas responsáveis ​​pelo que fazemos, mas também pelo que não fazemos: grandes modelos de linguagem não devem ser demonizados ou banidos.

Em vez disso, precisamos vê-los evoluir com a mente aberta e, como indivíduos e como sociedade, moldá-los, promovê-los e desafiá-los com ousadia – e, se possível, envolver todos para evitar desigualdades injustificadas. É assim que o ChatGPT pode ser responsabilizado.