Pesquisador de IA conhecido desiste: potencial de abuso muito grande

O renomado pesquisador de IA Joe Redmon desenvolveu uma IA de análise de imagem amplamente utilizada. Agora ele está parando de trabalhar porque teme abuso por parte dos militares e de uma máquina de vigilância.

Pelo menos desde a bomba atômica, ficou claro com que rapidez uma tecnologia poderosa e potencialmente útil se torna uma ameaça. É uma história semelhante com inteligência artificial : análise de imagem AIs podem reconhecer gatos – ou monitorar pessoas. A mesma tecnologia de IA que desbloqueia milhões de smartphones todos os dias é usada pela China para vigilância em massa de sua própria população.

Com seus sucessos nos últimos anos, a pesquisa de IA tornou-se cada vez mais alvo de críticas públicas e críticas de dentro da indústria. o Equivalente de IA da bomba atômica ainda não foi inventado, mas é o possibilidades de manipulação de imagens ou vigilância em massa que alarmaram críticos em todo o mundo.

Na importante conferência de IA NeurIPS, por exemplo, todos os trabalhos enviados devem incluir no futuro um capítulo sobre o possíveis consequências de uma pesquisa.

Pesquisador de IA teme uso indevido de sua pesquisa

Quando a conferência NeurIPS anunciou esta nova regra, fez com que o pesquisador americano de IA Joe Redmon apurar as orelhas. A Redmon é a fabricante da IA ​​de análise de imagens “You only look once” (YOLO) amplamente utilizada.

YOLO é uma IA de análise de imagem de código aberto que reconhece objetos em tempo real. É preciso e não requer um supercomputador para fazê-lo: a versão atual YOLOv3 pode analisar 30 imagens por segundo em um Nvidia Titan X.

Redmon lançou a primeira versão do YOLO em 2016 e a versão 3 foi lançada na primavera de 2018.

Já em uma publicação científica de 2018, Redmon fez notas inusitadamente críticas: “O que vamos fazer com esses detectores agora que os temos? Muitas das pessoas que fazem essa pesquisa estão no Google e no Facebook. Acho que pelo menos sabemos que a tecnologia está em boas mãos e definitivamente não está sendo usada para coletar seus dados pessoais e vendê-los … espere, você está dizendo que é exatamente para isso que está sendo usada? Oh.”

Outro financiador são os militares, e isso “nunca fez coisas ruins”, Redmon observa cinicamente enquanto continua. Os pesquisadores, diz ele, têm uma responsabilidade para considerar e mitigar danos potenciais de seu trabalho. “Devemos muito ao mundo”, escreve Redmon.

Redmon desiste de pesquisa de IA por questões éticas

Cerca de um ano depois, Redmon agora está tirando conclusões drásticas da tendência contínua de usar IAs de análise de imagem para vigilância e interromper sua pesquisa sobre tecnologia de IA. Não haverá uma quarta versão do YOLO – pelo menos não de Redmon diretamente.

Ele adorava trabalhar em sua IA de análise de imagens, mas aplicações militares e invasões de privacidade ele não pode mais ignorar, escreve Redmon no Twitter.

Entre os especialistas, ele é recebido com compreensão – mas também com críticas. Outros pesquisadores de IA o veem como o candidato perfeito para pesquisas futuras, porque a indústria de IA precisa um cientista com uma bússola ética. Por outro lado, a aposentadoria de Redmon certamente não impedirá a pesquisa de IA.