Como a IA responsável está revolucionando a indústria de tecnologia

Por que precisamos de uma IA responsável, os danos da adoção descontrolada da IA ​​e como as práticas responsáveis ​​de IA beneficiam empresas e clientes.

A IA está sendo adotada rapidamente em todos os setores, com a receita global do mercado de IA crescendo 19,6% a cada ano e atingindo $ 500 bilhões em 2023. Esse aumento nos casos de uso e a normalização da IA ​​na vida cotidiana e na indústria foram acompanhados de perto por regulamentos e iniciativas para proteger os consumidores dos danos potenciais que a adoção e o uso descontrolado de sistemas de IA podem causar.

O mais óbvio desses danos são os danos financeiros e de reputação causados ​​por uma falha do sistema em um processo comercial crítico, como quando Algoritmo de negociação do Knight Capital Group com defeito, custando à empresa $ 440 milhões em um dia de negociação. Erros como esses podem ser altamente prejudiciais para as organizações. Como resultado, essas falhas geralmente são eliminadas por meio de testes rigorosos durante o desenvolvimento que se tornaram fundamentais à medida que os sistemas automatizados amadureceram.

No entanto, há um lado menos óbvio e indiscutivelmente mais insidioso do dano potencial, o do viés. Ele ainda tem potencial para danos financeiros e de reputação, embora mais frequentemente por meio de multas de reguladores e da opinião pública quando o viés do sistema é revelado. A natureza sutil do viés dos sistemas automatizados ocorre porque geralmente não se manifesta como uma falha catastrófica de um sistema de negócios crítico, como um algoritmo de negociação desonesto.

Em vez disso, geralmente são os usuários desses sistemas que são afetados por um período prolongado. Vários escândalos de alto perfil ocorreram nos últimos anos, onde as vidas das pessoas foram afetadas negativamente por sistemas automatizados funcionando ostensivamente como pretendido, variando de Sistemas de filtragem de CV que favorecem os homens aos sistemas de reincidência que classificam a probabilidade de reincidência dos condenados penalizando quem é negro.

Tais eventos mostram a necessidade de regulamentar os sistemas de IA por órgãos legislativos, mas também levantam a questão da responsabilidade individual das empresas em evitar danos potenciais aos usuários de seus sistemas e servir a seus interesses em evitar danos financeiros e de reputação. Isso levou a uma tendência crescente dentro da indústria de tecnologia de IA responsável.

O que é IA responsável?

A IA responsável trata da proteção contra possíveis danos causados ​​por sistemas de IA, garantindo que sejam usados ​​de forma ética, segura e segura. Mais especificamente, normalmente abrange cinco melhores práticas: Governança de dados, comunicação com as partes interessadas, envolvimento e colaboração no nível do conselho, conformidade com a regulamentação relevante e adoção de medidas para a verificação externa por meio de auditorias terceirizadas.

Todas essas práticas têm em comum o fato de exigirem transparência e explicabilidade nos sistemas de IA para permitir que ocorram e, como resultado, garantir que os sistemas possam ser responsabilizados por suas decisões.

IA responsável sinalizando uma mudança cultural na indústria de tecnologia

O movimento em direção à IA responsável também está sinalizando uma mudança cultural mais ampla em tecnologia e outras indústrias, com a confiança do consumidor nas empresas em baixa histórica, com 30% consideram empresas confiáveis. Isso também se reflete na confiança na IA, com uma pesquisa medindo apenas 28% dos entrevistados dispostos a confiar em sistemas de IA.

Como resultado, o objetivo fundamental de muitas organizações é construir a confiança de seus clientes e partes interessadas. Ao se comprometer voluntariamente com práticas responsáveis ​​de IA, as empresas podem demonstrar um padrão ético e construir confiança com seus clientes e partes interessadas.

A regulamentação está refletindo os objetivos responsáveis ​​da IA

2022 foi um grande ano para a IA em geral, com a automação chegando à vanguarda da consciência pública, especialmente em torno de ferramentas generativas de IA, como ChatGPT da OpenAIcapturando a imaginação das pessoas com seu potencial, mas quase simultaneamente levando a disputas sobre o uso ético dessas ferramentas.

Menos proeminente para a maioria foi a enxurrada de regulamentos de IA que também foram propostos com a abordagem geral do Lei de IA da UE adotada em dezembro, a publicação dos Estados Unidos (EUA) Declaração de Direitos da IA em outubro, o documento de política de regulamentação de IA do Reino Unido em julho e a aplicação das disposições de gerenciamento de recomendações algorítmicas da China em março estabeleceram um forte precedente do que está por vir.

Este ano, 2023, serão lançadas as bases para que a Lei de IA da UE entre em vigor nos próximos dois anos, levando ao estabelecimento de estruturas de gerenciamento de risco. Os Estados Unidos se concentrarão em como os órgãos reguladores e a jurisprudência lideram o grupo na segmentação de empresas que proliferam a discriminação algorítmica ou usam dados defeituosos e padrões obscuros intencionalmente.

A linha contínua entre toda a legislação proposta é o foco na transparência e explicação, muitas vezes na forma de garantia de terceiros. Em essência, práticas responsáveis ​​de IA.

A escolha das empresas

A tendência no cenário regulatório de IA em direção à IA responsável se tornando um requisito legal deixa as organizações com a opção de adotar práticas de IA responsáveis ​​na forma como gerenciam seus sistemas de IA preventivamente ou esperar até serem forçadas a fazê-lo por regulamentos entrantes.

Além dos benefícios mencionados anteriormente para confiar e promover uma reputação ética, os benefícios comerciais podem ser associados à IA responsável. Em primeiro lugar, permitindo a catalogação de todos os sistemas automatizados usados ​​em uma empresa.

Em segundo lugar, fornecendo defesa contra ações judiciais contra empresas por acusações de negligência ou intenção maliciosa da aplicação adversa de um sistema automatizado. Como encontrado por Applepare eles AppleCartão, que supostamente deu muito limite de crédito mais alto para um homem em comparação com sua esposa, apesar de ela ter uma pontuação de crédito mais alta. No entanto, o Goldman Sachs, o provedor do cartão, foi capaz de justificar por que o modelo chegou à decisão que tomou devido a uma abordagem responsável de seus sistemas de IA, que lhes permitiu tomar a decisão de forma transparente e isentar a empresa de atividade ilegal.