Sumário
Um grupo de formuladores de políticas da UE propõe três categorias de risco para aplicações de IA.
A IA existe há muito tempo na vida cotidiana. Passa quase despercebido pelos utilizadores, escondido no software que utilizam no smartphone, no motor de busca ou no aspirador doméstico autónomo.
Mas, como lidamos com as decisões e o conteúdo da IA? Ou com os dados que (devem) ser coletados e processados ao usar software de IA? Os formuladores de políticas nos EUA e na Europa ainda não estão fornecendo regras abrangentes e uniformes para isso.
A autorregulação não é suficiente
Na ausência de uma legislação potente, muitas empresas de tecnologia proeminentes com aplicativos emblemáticos estão se autorregulando. O Google, por exemplo, não publica atualmente sistemas de IA poderosos, como Parti (geração de imagem) ou LaMDA (diálogos) porque existe o risco de os sistemas produzirem conteúdos moralmente questionáveis ou mesmo violarem leis.
A OpenAI, por exemplo, também não liberou DALL-E 2 até que teve salvaguardas suficientes em vigor , em sua perspectiva, contra a geração de conteúdo crítico. No entanto, essas salvaguardas às vezes são controversas. Eles limitam as capacidades técnicas dos sistemas e, portanto, restringem a liberdade criativa. O DALL-E 2, por exemplo, só foi permissão para gerar rostos por algumas semanas .
O exemplo de Clearview mostra que os formuladores de políticas não devem confiar nessa auto-regulação. O sistema baseado em IA da empresa teoricamente permite vigilância em massa com base em dados faciais extraídos da Internet e é usado internacionalmente, em alguns casos ilegalmente. Apesar de muitos ventos contrários e da ameaça de milhões em multas por parte das autoridades de proteção de dados da UE, Clearview quer continuar a afirmar seus próprios interesses econômicos .
A consciência do risco é, na melhor das hipóteses, fingida. Além disso, as capacidades da IA às vezes são mal avaliadas, como para reconhecimento de emoções . Ou superestimado, como a confiabilidade e a precisão de sistemas relativamente comprovados, como reconhecimento facial, quando implantados em escala.
Política da UE: três categorias de risco para inteligência artificial
A Lei da Inteligência Artificial por um grupo de políticos da UE visa dividir os aplicativos de IA em três categorias de risco no futuro. Com base nessas categorias, um aplicativo pode ser banido diretamente ou requisitos de informação e transparência, bem como leis ainda a serem desenvolvidas, entrarão em vigor.
como um risco inaceitável o grupo de política da UE vê vigilância por IA para sistemas de pontuação social, como os usados na China, ou aplicativos que geralmente violam os valores da UE. Tais sistemas serão banidos.
Alto risco aplicativos incluem ferramentas de visão computacional projetadas para detectar se um candidato é adequado para um trabalho. Deve haver leis separadas para tais sistemas. A lista de possíveis aplicativos de alto risco ainda está em andamento.
Aplicações com mínimo ou nenhum risco são permanecer “em grande parte desregulado”. Todos esses são aplicativos que não se enquadram nas categorias de risco alto ou inaceitável. O grupo da UE espera que “a maioria dos aplicativos de IA” não caia na categoria de alto risco.
A lei de IA da UE pode entrar em vigor até o final de 2024.