Pesquisador da Microsoft descreve dois novos métodos deepfake e seus riscos

Eric Joel Horvitz é cientista da computação e diretor do Microsoft Research Lab em Redmond. Em um novo trabalho de pesquisa, ele descreve dois novos métodos deepfake e seus riscos de longo alcance.

No trabalho de pesquisa, “On the Horizon: Deepfakes interativos e composicionais”, Horvitz descreve dois novos deepfake métodos que ele acredita serem tecnicamente possíveis no futuro e “que podemos esperar entrar em prática com implicações caras para a sociedade”.

Deepfakes interativos e composicionais

“Deepfakes interativos” é o que Horvitz chama de clones deepfake multimodais de pessoas reais que são indistinguíveis da pessoa real durante videochamadas, por exemplo. Os sistemas deepfake atuais são limitados principalmente à troca de rostos – e mesmo isso oferece apenas possibilidades limitadas de interação. A ilusão se desfaz, por exemplo, com viradas de cabeça ou mímicas expressivas.

Para deepfakes interativos, Horvitz prevê o uso de uma variedade de técnicas de IA para recriações sintéticas de poses, expressões faciais, gestos, fala e controle remoto por uma pessoa real no estilo de um marionetista (“marionetes neurais”).

o “deepfake composicional,” Horvitz diz, é a compilação de uma série de deepfakes que juntos inventam uma história maior, como um ataque terrorista ou um escândalo que nunca aconteceu.

Esses deepfakes podem ser entrelaçados com eventos reais para estabelecer sistematicamente “histórias sintéticas” ou falsificações da história, entre subgrupos da população, por exemplo. Horvitz chama esses sistemas de “sistemas de explicação adversarial” que atacam de forma retroativa e preditiva uma compreensão comum dos eventos mundiais.

1675214522 956 Pesquisador da Microsoft descreve dois novos metodos deepfake e seus

Lutando interdisciplinarmente – da melhor maneira possível

“Na ausência de atenuações, os deepfakes interativos e composicionais ameaçam nos aproximar de um mundo pós-epistêmico, onde o fato não pode ser distinguido da ficção”, escreve Horvitz.

Como possíveis contramedidas, o pesquisador descreve considerações e sistemas comuns, como educar o público sobre os riscos do deepfake, regulamentar a tecnologia, detectar automaticamente deepfakes, red-teaming e prova criptográfica, como por meio de marcas d’água digitais.

Horvitz também defende o pensamento interdisciplinar sobre como os avanços da IA ​​podem ser usados ​​tanto para o bem público quanto para propósitos maliciosos para antecipar os próximos desenvolvimentos com a maior precisão possível.

“À medida que avançamos na fronteira das possibilidades tecnológicas, devemos continuar a prever possíveis abusos das tecnologias que criamos e trabalhar para desenvolver modelos de ameaças, controles e salvaguardas – e nos envolver em vários setores em preocupações crescentes, usos aceitáveis, melhores práticas, mitigações e regulamentações”.