O ChatGPT está tornando a distopia do bot social uma realidade?

O conteúdo gerado pelo ChatGPT está chegando ao Twitter. Estamos prestes a ver a onda de bots manipuladores e ameaçadores da democracia que foram previstos por anos?

2016 foi o ano do referendo do Brexit e da eleição de Donald Trump como presidente dos Estados Unidos. Esses eventos desencadearam um debate acalorado sobre o impacto dos bots de mídia social no processo democrático. Havia pessoas usando essa tecnologia para manipular as massas?

Não há dúvida de que as mídias sociais desempenharam e continuam a desempenhar um papel central nesses e em outros eventos. Mas alguns pesquisadores suspeitavam que o estado e outros atores estavam usando bots para automatizar a formação de opinião – e que era eficaz.

Dependendo do relatório, os bots chegaram a dezenas de milhares, centenas de milhares ou até milhões, estendendo seu alcance no Twitter e outras plataformas. O debate continua a aumentar, mais recentemente quando Elon Musk falou de um enorme problema de bot na plataforma antes de sua aquisição do Twitter.

O papel dos bots sociais em processos democráticos não é comprovado cientificamente

Embora o termo “bot” seja usado principalmente nos EUA, em países de língua alemã, o termo “social bots” é mais comumente usado – seja devido a um desejo de terminologia precisa ou “alemão Angst”.

Pesquisadores como o jornalista de dados de Berlim Michael Kreil ou o Prof. Dr.-Ing. Florian Gallwitz, do TH Nuremberg, pesquisa bots de mídia social desde 2016.

A conclusão de Kreil sobre o caso Trump: “Os bots sociais influenciaram a eleição. Parece plausível? Sim. É comprovado cientificamente? Nem um pouco.” O pesquisador fala de um “exército que nunca existiu”.

Os dois pesquisadores também criticam as ferramentas projetadas para detectar bots: elas são imprecisas, dizem eles, e frequentemente classificam as pessoas como bots. Isso, por sua vez, às vezes leva a uma mudança na terminologia: os bots não são mais apenas sistemas automatizados, possivelmente baseados em IA. Basta que um humano com poucos seguidores faça parte de uma campanha direcionada, ou seja, apresente um comportamento “bot-like”, para ser classificado como bot.

“As inúmeras reportagens da mídia nos últimos anos sobre bots sociais políticos semelhantes a humanos, que dizem ter a capacidade de gerar textos automaticamente, são puros contos de fadas. Eles são baseados em pesquisas metodologicamente falhas que violam os padrões científicos mais básicos”, diz Gallwitz. De acordo com o pesquisador, “usuários humanos comuns do Twitter foram repetidamente rotulados falsamente como ‘robôs sociais’ em massa”.

Os bots sociais, então, eram distopia e não realidade, bem como uma tentativa de explicar eventos supostamente inexplicáveis ​​como o Brexit.

O ChatGPT está transformando a distopia em realidade?

Seis anos depois, com OpenAI’s ChatGPT uma tecnologia entrou no domínio público que exige que façamos novas perguntas sobre o que os bots sociais podem fazer.

Isso porque a qualidade do chatbot supera em muito a de outros sistemas disponíveis. Os textos gerados pelo ChatGPT dificilmente são reconhecíveis como produtos artificiais. Na verdade, já existem exemplos de postagens do Twitter geradas pelo ChatGPT.

Então, estamos em uma mudança?

“Com o ChatGPT, e de forma limitada com seu modelo básico GPT-3 agora está disponível pela primeira vez uma tecnologia com a qual seria possível gerar automaticamente tweets livremente formulados sobre tópicos atuais ou mesmo respostas amplamente significativas a tweets de outras contas”, diz Gallwitz sobre o chatbot da OpenAI.

Com uma combinação adequada das interfaces de programação do OpenAI e do Twitter, pode-se realizar um bot que junta automaticamente conversas ou tuíta notícias atuais com um breve resumo, diz o professor de informática de mídia.

O ChatGPT é muito chato para o Twitter?

No entanto, Gallwitz está cético de que um bot ChatGPT possa atrair a atenção no Twitter.

“O alcance no Twitter é impulsionado principalmente pela inteligência e originalidade e, muitas vezes, pela provocação, emoção e novidade. O ChatGPT, por outro lado, foi treinado para produzir sequências previsíveis de palavras que raramente contêm surpresas ou mesmo novos pensamentos, e muitas vezes são prolixas e prolixo”, diz Gallwitz. “Isso é o oposto do que promete sucesso em uma mídia como o Twitter.”

Além disso, diz ele, existem ferramentas que podem reconhecer o texto do ChatGPT de maneira bastante confiável. “A esse respeito, não espero que o ChatGPT ou ferramentas semelhantes formem a base de tentativas de manipulação política no Twitter em um futuro próximo.”

Se Gallwitz conseguir o que quer, a distopia permanecerá apenas isso: uma ameaça cuja realização ainda está em questão.

Na verdade, sistemas de IA como o GPT-3 podem desempenhar um papel muito diferente na guerra de informação: em um estudo, GPT-3 reproduziu respostas que correspondiam aos padrões de resposta humana ao longo de eixos demográficos refinados. Os pesquisadores veem os modelos de linguagem em larga escala como ferramentas novas e poderosas para a ciência social e política.

Mas eles também alertam sobre o potencial uso indevido. Com alguns avanços metodológicos, os modelos poderiam ser usados ​​para testar subpopulações específicas quanto à sua suscetibilidade à desinformação, manipulação ou fraude.