Sumário
Um estudo deepfake investiga a confiabilidade com que as pessoas reconhecem as falsificações. Veja como você pode se testar.
Inteligência artificial automatiza e simplifica a criação de textos falsos, áudios falsos e vídeos manipulados. As ferramentas e métodos necessários estão prontamente disponíveis e melhorando constantemente. Os especialistas, portanto, há muito alertam contra o possível uso indevido dessas tecnologias para influência política.
Se e como essa influência pode funcionar depende muito da capacidade das pessoas de detectar falsificações de IA. Um novo estudo agora examina a facilidade com que diferentes modalidades, como vídeo, áudio e texto, podem enganar as pessoas.
Benchmark falso com deepfakes políticos
Para o estudo, os pesquisadores do MIT AI recrutaram quase 500 participantes para avaliar a autenticidade de trechos de vídeo, áudio e texto de Donald Trump e Joe Biden em um site.
Além disso, mais de 5.000 pessoas visitaram o site correspondente e também participaram do teste deepfake. Todos os participantes sabiam que metade da mídia exibida era manipulada.
O conteúdo veio do Presidential Deepfake Dataset e incluiu 32 vídeos de discursos dos dois políticos – meio reais, meio falsos. Os pesquisadores do MIT também fizeram modificações adicionais nos vídeos, reduzindo a resolução e substituindo faixas de áudio ou texto.
Os cerca de 5.700 participantes deram um total de 6.792 avaliações sobre a autenticidade da mídia. Segundo os pesquisadores, eles confiaram mais em como algo foi dito, ou seja, nas pistas audiovisuais, do que no conteúdo real do discurso.
No entanto, nos casos em que o conteúdo contradizia claramente as percepções do público sobre as crenças dos políticos, os participantes confiaram menos em pistas visuais, descobriram os pesquisadores.
Falsificações menos complexas são falsificações melhores
Duas tendências surgiram no estudo: primeiro, quanto mais modalidades (áudio, vídeo, texto) uma falsificação tiver, mais fácil será para as pessoas reconhecê-la como falsa. E segundo, a tecnologia para falsificações de áudio ainda não corresponde à dos deepfakes visuais.
Por exemplo, os participantes foram piores em reconhecer texto falso do que vídeo falso com transcrição ou vídeo falso com faixa de áudio. Faixas de áudio falsas também foram reconhecidas como falsas com mais frequência do que vídeos falsos.
Um pequeno vídeo de introdução prepara os participantes do estudo para as possibilidades da tecnologia deepfake. | Vídeo: MIT
Os humanos podem detectar inconsistências visuais criadas por manipulações Deepfake de sincronização labial, diz o jornal. No entanto, a precisão desses vídeos sem uma faixa de áudio é de apenas 64%. A precisão aumenta para 66 por cento quando as legendas são adicionadas. A precisão para vídeos com texto e áudio, por outro lado, é de 82%.
De acordo com os pesquisadores, as avaliações geralmente incluem pistas perceptivas de vídeo e áudio, bem como considerações de conteúdo, moldadas pelas expectativas que os participantes têm do orador. No entanto, ao avaliar o conteúdo sozinho – ou seja, texto puro – a precisão está apenas ligeiramente acima do acaso, com média de 57 por cento.
Detecção de deepfake: mais alfabetização midiática é uma solução?
Um deepfake com áudio é, portanto, detectado por uma grande proporção de participantes – mas eles procuram especificamente falsificações no experimento e sabem que metade de todo o conteúdo é falso.
A qualidade dos áudios e vídeos falsos usados no experimento também não atinge a qualidade dos melhores deepfakes atuais. Os números podem, portanto, parecer significativamente diferentes em um contexto diferente – por exemplo, em uma plataforma de mídia social e com vídeos de maior qualidade.
Os pesquisadores, portanto, sugerem programas de alfabetização de mídia para incentivar o pensamento reflexivo e sistemas de moderação de conteúdo que fornecem explicações para alertar as pessoas sobre conteúdo questionável e pistas como artefatos de imagem, erros semânticos ou recursos biométricos.
Você pode experimentar o teste Deepfake em Site Detect Fakes do MIT .
Um estudo recente sobre credibilidade de retratos deepfake mostra que as pessoas dificilmente conseguem diferenciar fotos falsificadas por IA de fotos originais – mesmo que saibam que estão procurando por falsificações. Além disso, eles atribuem maior confiabilidade aos rostos gerados por IA.
Leia mais sobre Inteligência Artificial:
- Deepfakes agora são ainda mais versáteis
- Nvidia Instant-NGP: os gráficos AI estão em alta
- Nvidia e Stanford mostram 3D GAN para melhores imagens falsas