Microsoft demite equipe de ética de IA e pressiona para lançar tecnologia OpenAI

A Microsoft está dissolvendo sua equipe de ética e responsabilidade social de IA depois de cortar 10.000 empregos. No entanto, a empresa diz que continuará investindo em IA responsável.

O boletim Platformer de Casey Newton relatou exclusivamente que a Microsoft está desfazendo sua equipe de ética e responsabilidade social em sua divisão de IA. As demissões fazem parte de um programa de corte de empregos que vai até o final de março. No total, a Microsoft está demitindo cerca de 10.000 funcionários em todas as divisões.

Microsoft diz que continuará investindo em IA responsável

A Microsoft continua a manter um Gabinete de IA responsável e diz que continuará investindo em IA responsável, apesar das demissões. A empresa disse que o número de pessoas responsáveis ​​por questões éticas e sociais em equipes de produtos relevantes e no Escritório de IA Responsável aumentou nos últimos seis anos. Esses indivíduos, junto com todos os funcionários da Microsoft, são responsáveis ​​por implementar os próprios princípios de IA da empresa, de acordo com um comunicado oficial.

Um ex-integrante da equipe de ética critica essa avaliação: “Nosso trabalho era mostrar a eles e criar regras onde não havia”. O Office for Responsible AI não preencheria esse vazio.

A equipe de ética da IA ​​tinha até 30 pessoas em 2020. Em outubro passado, foi reduzida para sete pessoas como parte de uma reorganização. Os membros da equipe foram realocados para outros cargos dentro da empresa.

Em uma reunião após a reorganização, o vice-presidente corporativo de IA da Microsoft, John Montgomery, teria dito aos membros da equipe que O CTO da Microsoft, Kevin Scott, e o CEO Satya Nadella estavam colocando “uma pressão muito, muito alta” para lançar os modelos de IA da OpenAI para os consumidores “em uma velocidade muito alta”.

Um membro da equipe pediu a Montgomery que reconsiderasse a decisão para que a Microsoft pudesse cumprir melhor sua alta responsabilidade social. Mas ele recusou, citando a pressão da suíte executiva.

O objetivo da reorganização também era transferir as responsabilidades para as equipes de produto, e não dissolver a equipe. No entanto, a equipe restante de sete membros tinha poucos recursos internos para levar adiante seus planos. Em 6 de março, Montogomery informou os demais membros da Equipe de Ética por meio de uma chamada do Zoom.

ChatGPT na pesquisa do Bing destaca a abordagem da Microsoft para IA responsável

A Microsoft está usando o hype em torno ChatGPT para ganhar participação de mercado no negócio de buscas e pressionar as margens do Google. Isso, por sua vez, pode dar vantagens à Microsoft em outras áreas de negócios, como o negócio de nuvem.

Em semanas, o A Microsoft integrou uma variante do ChatGPT na pesquisa do Bing . Foi criticado em parte porque “Sydney”, o codinome do bot do Bing gerou informações e citações falsas, deu respostas confusas no início e envolveu os usuários em conversas estranhas.

A Microsoft teve que fazer melhorias e limitar o número de conversas para pelo menos conter as explosões emocionais do bot. Ainda assim, o sistema continua a produzir informações incorretas. A Microsoft sabia desses problemas muito antes do lançamento oficial da pesquisa do chatbot mas decidiu lançá-lo de qualquer maneira.

O Integração da API do ChatGPT oferecidos pela OpenAI também podem ser criticados, como quando o Bot do Snapchat ChatGPT recomenda que uma garota menor de idade faça um passeio com um homem de 31 anos. Uma empresa reclamou sobre consultas de clientes irritados porque O ChatGPT recomendou um produto que não carregava .

A tensão na implantação de grandes modelos de linguagem de IA é que, por um lado, os sistemas têm problemas que só podem ser resolvidos por meio de prática iterativa, dimensionamento e feedback humano .

Por outro lado, uma corrida implacável por participação no mercado pode se desenvolver, com empresas aceitando danos individuais ou sociais sob o disfarce desse processo de feedback.

As ações atuais da Microsoft e o vazamento do grande modelo de linguagem LLaMA da Meta levantam questões sobre a implantação segura e responsável de sistemas comerciais de IA por empresas de tecnologia.