As pessoas não reconhecem os deepfakes – e confiam mais neles

Um estudo ressalta o que os observadores da tecnologia deepfake provavelmente pensaram: fotos geradas por IA são quase indistinguíveis de fotos reais. Mas há mais do que isso.

Quando Ian Goodfellow e seus colegas mostraram pela primeira vez fotografias humanas falsas criadas com a tecnologia GAN AI em 2014, elas ainda eram imagens borradas em preto e branco ( História dos deepfakes ).

Mesmo assim, essas fotos sugeriram o potencial da tecnologia de IA generativa, que – pelo menos no caso de fotos de retratos – pode ter sido amplamente cumprida desde o ano passado. Os sistemas generativos agora são tão otimizados que dificilmente produzem erros de imagem típicos de IA, com base nos quais as fotos falsas eram fáceis de reconhecer no passado. Um novo estudo apóia essa observação.

Humano vs. Deepfake: pouco melhor que o acaso

O professor Hany Farid, da Universidade da Califórnia, em Berkeley, e a Dra. Sophie Nightingale, da Universidade de Lancaster, agora examinaram se os humanos ainda são capazes de distinguir entre fotos reais de pessoas e falsificações geradas por IA.

Para fazer isso, eles usaram o StyleGAN2 da Nvidia, uma tecnologia deepfake atual, mas nem mesmo a mais atualizada: EstiloGAN3 é ainda mais poderoso, pois elimina mais falhas de IA.

Os pesquisadores selecionaram 400 rostos gerados por inteligência artificial . Eles prestaram atenção à diversidade em termos de origem, gênero e idade. Eles também preferiram escolher imagens com um fundo amplamente uniforme para reduzir ainda mais as influências estranhas. Para cada face gerada por IA, eles selecionaram uma contraparte correspondente da vida real do banco de dados com o qual o StyleGAN2 foi treinado.

Com esta seleção de fotos de um total de 800 imagens, eles lançaram um total de três experimentos. No primeiro experimento, 315 participantes categorizaram 128 fotos reais ou geradas como reais ou falsas. Sua precisão foi de cerca de 48%, o que corresponde ao acaso.

Em um segundo experimento, os participantes foram previamente informados sobre quais recursos eles poderiam usar para identificar imagens falsificadas por IA. 219 participantes examinaram novamente 128 imagens, mas, apesar do treinamento anterior, alcançaram apenas 59% de precisão na detecção de deepfake. Isso é pouco melhor do que coincidência.

Faces deepfake são mais confiáveis

Os pesquisadores tinham outra pergunta, que testaram em um terceiro experimento : as pessoas tirariam conclusões implícitas sobre características individuais, como a confiabilidade das pessoas com base em rostos em milissegundos, disseram eles. Os pesquisadores queriam saber se as pessoas também tiram essas inferências de rostos humanos gerados por IA.

No terceiro experimento, os participantes foram solicitados a avaliar a confiabilidade de um total de 128 rostos reais e sintéticos. Os participantes classificaram as fotos de retrato deepfake 7,7% mais confiáveis ​​do que rostos reais.

Os pesquisadores não assumem que essa atribuição mais positiva tenha algo a ver com a seleção das próprias fotos. Embora pessoas ou mulheres sorridentes, por exemplo, sejam geralmente classificadas como mais confiáveis, as várias expressões faciais e rostos foram distribuídos uniformemente nas fotos reais e sintéticas.

O verdadeiro motivo do maior confiança em rostos deepfake poderia ser sua média, de acordo com os pesquisadores. A IA cria os rostos falsos reunindo fragmentos individuais dos rostos de muitas pessoas aprendidas durante o treinamento de IA em um novo rosto sintético.

1675178140 317 As pessoas nao reconhecem os deepfakes – e confiam mais

Os pesquisadores pedem à comunidade gráfica e de imagem que crie diretrizes para a criação e disseminação de deepfakes que possam orientar a academia, os editores e as empresas de mídia.

Leia mais sobre mídia sintética:

  • Deepfakes agora são ainda mais versáteis
  • Nvidia Instant-NGP: os gráficos AI estão em alta
  • Nvidia e Stanford mostram 3D GAN para melhores imagens falsas