A nova IA do Google se replica? Projeto interessante pode mudar o desenvolvimento de software

a Inteligência artificial tem sido de grande importância para o Google por muitos anos e agora pode ser encontrado em quase todos os produtos da empresa – às vezes mais e às vezes menos visíveis. Mas não se quer limitar à avaliação de fluxos de dados, mas também dar à IA habilidades práticas e generativas. É bem possível que um salto muito grande seja iminente, estabelecendo as bases para IAs reais.

A inteligência artificial é uma boa palavra da moda que todos podem pensar e usada por muitas empresas para algoritmos inteligentes ou de aprendizado. Freqüentemente, são apenas algoritmos um pouco mais complicados, mas no Google você sempre obtém o status de que provavelmente pode empurrar mais na direção da IA ​​como um algoritmo (mesmo que ambos sejam teoricamente iguais). Porque muitas vezes foi enfatizado que algumas decisões de IA não podem mais ser compreendidas.

Uma categoria importante é a inteligência artificial generativa, que pode criar seu próprio conteúdo. você pesquisa imagens geradas dinamicamente e agora também vídeos , mas esse não é o grande passo. Talvez isso aconteça nos próximos anos, porque o Google está executando o projeto internamente há algum tempo forquilha. O Pitchfork visa ensinar os AIs a escrever códigos, atualizar aplicativos existentes ou revisar o código.

Otimizadores de código, montadores de código ou rotinas de blocos de construção inteligentes já existem há muito tempo, mas o Pitchfork do Google pode ir um passo além. Porque não se trata de juntar coisas existentes, mas de criar coisas novas – mesmo que seja apenas na forma de atualizações. Isso é um outro nível. E o Pitchfork pretende ser apenas uma pequena parte de um grande projeto de IA generativa.

sonny ki robô

Os objetivos ainda são formulados de forma bastante modesta, mas a longo prazo essa IA pode ter a oportunidade de desenvolver seu próprio software ou se desenvolver ainda mais como resultado. E é aí que fica realmente interessante, principalmente quando combinado com declarações anteriores. Se os pesquisadores de IA já não conseguem entender algumas decisões hoje, talvez isso também se aplique ao software desenvolvido pela IA. Pensando um pouco mais, isso significa um software significativamente mais forte.

E esse software mais forte, por sua vez, pode escrever um software ainda mais forte graças aos insights. Acho que você pode ver onde isso está indo. Isso não precisa terminar no universo da ficção científica, mas os desenvolvedores do Google estão seguindo um caminho em que as pessoas acabam perdendo o controle do software. Não necessariamente controle, mas compreensão. Isso abriga o perigo de que os desenvolvedores humanos nem mesmo entendam como surgem os problemas ou como eles podem resolvê-los. E assim os problemas podem ser transmitidos de geração em geração e, finalmente, levar a um software inferior.

Esses são projetos empolgantes que podem mudar o mundo da programação e do software. Você pode adicionar o máximo de IA a ele, mas no final são sempre algoritmos simples que foram combinados em redes complicadas. Ainda assim, torna-se difícil quando um dia ultrapassa a compreensão das pessoas e perdemos a noção de como algo funciona.