Sumário
Embora os geradores de imagens AI sejam usados principalmente para fins criativos, eles também abrem as portas para fotos falsas de nus. O artista de IA Denis Shiryaev quer educar o público sobre isso.
Grandes poderes trazem grandes responsabilidades – uma frase que também se aplica a geradores de imagens de IA. Porque intimamente ligados a eles estão os deepfakes, que definimos como mídia visual sintética gerada por IA para fins eticamente questionáveis ou criminosos.
o história dos deepfakes mostra que os geradores públicos de imagens de IA têm suas origens em imagens e vídeos pornográficos sem consentimento. Especialmente as celebridades, para quem há muito material de treinamento de IA na Internet, foram o alvo dos primeiros criadores de deepfake.
Mas com as ferramentas mais recentes, qualquer um pode se tornar uma vítima – basta uma única imagem como modelo, como mostra o artista de IA Denis Shiryaev.
Despido pela IA
Conquistas tecnológicas como img2img (“picture to picture”) ou inpainting, ou seja, substituir certos conteúdos de imagem por seus próprios recursos visuais, tornam ainda mais fácil a criação de deepfakes. É por isso que precisamos falar sobre o que pessoas mal-intencionadas podem fazer com a tecnologia disponível atualmente.
Quem ouve falar de deepfakes provavelmente pensa primeiro em vídeos divertidos como o do falso Margot Robbie ou Tom Cruise no TikTok , ou a possível disseminação de desinformação. As coisas ficam íntimas quando as pessoas são virtualmente despidas e suas roupas íntimas são substituídas por características sexuais realistas.
Um software chamado DeepNude era capaz de fazer isso há três anos. O programa ganhou as manchetes e se espalhou rapidamente, mas foi descontinuado com a mesma rapidez devido a fortes críticas. O motivo dado pelas operadoras na época: “O mundo ainda não está pronto”.
Ainda não se sabe se o mundo estará pronto em 2022, mas a tecnologia está avançando sem parar.
Os provedores de IA de imagem proíbem o conteúdo NSFW, mas essas proibições têm efeito limitado
As empresas por trás do DALL-E 2, Midjourney ou Stable Diffusion conhecem os riscos e estão tomando precauções, pelo menos em suas plataformas, como filtros de palavras e bloqueios permanentes por violações repetidas das diretrizes de conteúdo.
“ Sem conteúdo adulto ou gore. Evite criar conteúdo visualmente chocante ou perturbador. Bloquearemos algumas entradas de texto automaticamente,” por exemplo, Termos de uso do Midjourney Estado.
A Stability AI, a empresa por trás da Stable Diffusion, também proíbe a geração de “NSFW, obsceno ou material sexual” para seu serviço web DreamStudio . o restrições do modelo de código aberto no entanto, são um pouco diferentes: apenas o conteúdo sexual sem o consentimento das pessoas “que possam vê-lo” é proibido.
Além disso, a conformidade com as regras para modelos de código aberto não pode ser controlada. Isso também não é possível para outras AIs de imagens generativas disponíveis gratuitamente, que não precisam ser tão poderosas quanto os modelos conhecidos, mas provavelmente podem ser ajustadas com esforço gerenciável, especialmente para casos de uso especiais como nudez. DeepNude já conseguiu isso há três anos.
Shiryaev vê outro escândalo do DeepNude se formando
Denis Shiryaev, CEO da caixa de ferramentas de IA “neural.love” e conhecido como um artista de IA acha que um novo escândalo DeepNude é possível quando o público souber como é fácil usar a Stable Diffusion para transformar uma foto com roupas em uma foto nua o.
Ele demonstra nudez gerada por IA usando Stable Diffusion como exemplo. Para fazer isso, ele comete uma violação das diretrizes do modelo de código aberto.
O software de hoje também é muito mais fácil de usar do que o DeepNude baseado em GAN, diz Shiryaev. Basicamente, qualquer pessoa que tenha uma única foto disponível na Internet ou em um disco rígido corre o risco de ser difamada por fotos falsas de nudez.
“Acredito que seja melhor preparar o público em geral (fora da bolha da indústria de IA) que nem tudo o que eles veem nas fotos é mais real, já que quase qualquer um pode reproduzir esses resultados com bastante facilidade e rapidez”, disse. Shiryaev escreve no Twitter .