Sumário
Acertar o despertador, perguntar sobre o tempo – a Alexa entende comandos simples sem problemas. Mas além disso, as coisas ficam complicadas. Por que é que?
Em comparação com modelos de linguagem grande (LLMs) como GPT-3, assistentes de voz como Alexa e Google Assistant são bastante discretos. Conversas reais não acontecem, os sistemas apenas entendem comandos triviais imediatamente e os transformam em ação.
o pesquisas mais recentes já permitem chatbots com mais eloquência , então por que não assistentes de voz avançados? O pesquisador de IA Gary Marcus, autor do boletim The Road to AI We Can Trust, explora a questão na edição deste mês.
Marcus descarta razões bastante óbvias desde o início. Talvez não tenha ninguém em Amazon tem seguido as últimas descobertas científicas? Provavelmente não – afinal, os LLMs são usados há muito tempo para o poderoso mecanismo de recomendação de produtos.
A falta de vontade de investir em custos de licenciamento também é improvável, pois a empresa poderia facilmente fornecer a própria infraestrutura com seus Amazon Web Serviços. Além disso, Amazon tem experiência suficiente em escalar tais sistemas.
Alexa alimentada por um grande modelo de voz pode levar a Amazon perdendo controle
Marcus formula cinco motivos que contribuem para que Alexa não consiga (ou melhor: permita) manter conversas, mesmo que isso seja tecnicamente possível. Em última análise, eles se resumem a um ponto central: os LLMs ainda não são confiáveis o suficiente para uso comercial amplo e automatizado.
- LLMs não são confiáveis, de acordo com Marcus,
- eles são indisciplinados,
- Amazon não quer se tornar vulnerável,
- os clientes não devem ter expectativas irrealizáveis,
- e LLMs são feitos para palavras, não ações.
Amazon prefere vender a seus clientes um produto que execute de forma confiável uma gama limitada de tarefas. Os modelos de linguagem, por outro lado, são imprevisíveis e difíceis de controlar, escreve Marcus.
Além disso, embora o GPT-3 possa gerar uma sequência de palavras conectadas, ele ainda não pode vinculá-las de forma confiável a ações. Startups como adepto e SayCan do Google estão trabalhando nisso.
Amazon demite funcionários para IA e conversa
No momento, não parece que a Alexa dará grandes saltos no futuro próximo. Alguns dias atrás, Amazon anunciou que estava demitindo milhares de funcionários em meio à crise das grandes ações de tecnologia.
Funcionários em sistemas de IA, processamento de linguagem natural (NLP) e habilidades de conversação foram particularmente afetados. Isso pode ser uma indicação de que Amazon está reduzindo seus esforços com o Alexa, ou pelo menos não os pressionando no momento. De acordo com um relatório da mídia, o desenvolvimento de hardware do Alexa por si só trouxe Amazon uma perda de dez bilhões de dólares americanos este ano. Nenhuma outra área em Amazon causa perdas tão altas.
Talvez o Google, que tem pesquisado extensivamente a PNL nos últimos anos e está apostando no Google Assistant como sua próxima interface, se saia melhor. No início de 2023, o Google Assistant deve ser capaz de superar pausas naturais na fala e outros obstáculos na compreensão dos comandos de voz humana.
Além disso, o Google está lançando o LaMDA, sua IA de conversação avançada, em um ambiente de teste. LaMDA pode ser a base para um assistente de última geração e uma nova forma de pesquisa na Internet – desde que o Google consiga lidar com o que Marcus chama de LLMs indisciplinados.
O fato de o Google estar lançando o LaMDA passo a passo e testá-lo intensivamente internamente há meses está diretamente relacionado às críticas apontadas por Marcus: Trata-se de segurança e confiabilidade.
Nesse contexto, por exemplo, preconceitos, racismo ou aspectos difíceis de prever, como a pretensão de saber que o ex-funcionário do Google Blake Lemoine se apaixonou , desempenhar um papel. Empresa irmã do Google A Deepmind revelou recentemente uma IA de diálogo otimizada para segurança .