O que é hardware de IA? Abordagens, vantagens e exemplos

Algoritmos de inteligência artificial estão se tornando mais difundidos em vários setores e aplicações, mas seu desempenho é muitas vezes limitado pelo poder de processamento das CPUs tradicionais.

Para melhorar os recursos dos algoritmos de IA, algumas empresas estão desenvolvendo novas ofertas de hardware, como unidades de processamento gráfico (GPUs) e aceleradores de IA, como os TPUs do Google. Esses novos processadores podem dar aos algoritmos de IA um aumento significativo de velocidade e permitir melhores resultados.

Alternativas otimizadas por IA para a CPU padrão

A unidade central de processamento (CPU) de um computador é responsável por receber e executar instruções. É o coração do computador e sua freqüência determina a velocidade na qual ele pode processar os cálculos.

Para tarefas que exigem computação frequente ou intensa, como algoritmos de IA, pode ser usado hardware especializado para melhorar a eficiência. Esse hardware normalmente não usa algoritmos ou entradas diferentes, mas é projetado especificamente para lidar com grandes quantidades de dados e fornecer maior poder de computação.

Os algoritmos de IA geralmente dependem de processadores que podem realizar cálculos em paralelo, permitindo a criação de novos modelos de IA mais rapidamente. Este é particularmente o caso das unidades de processamento gráfico (GPUs), que foram originalmente projetadas para cálculos gráficos, mas provaram ser eficazes para muitas tarefas de IA devido às semelhanças nas operações computacionais entre o processamento de imagens e as redes neurais. Para otimizar seu desempenho para IA, esses processadores também podem ser adaptados para lidar com grandes quantidades de dados com eficiência.

Hardware AI para diferentes requisitos

Os requisitos de hardware para treinamento e uso de algoritmos de IA podem variar significativamente. O treinamento, que envolve o reconhecimento de padrões em grandes quantidades de dados, geralmente requer mais poder de processamento e pode se beneficiar da paralelização. Uma vez que o modelo tenha sido treinado, os requisitos de computação podem diminuir.

Para atender a essas necessidades variadas, alguns fabricantes de CPU estão desenvolvendo chips de inferência de IA especificamente para executar modelos treinados, embora modelos totalmente treinados também possam se beneficiar de arquiteturas paralelas.

Tradicionalmente, os PCs têm memória e CPUs separadas em seu layout. No entanto, os fabricantes de GPU integraram memória de alta velocidade diretamente na placa para melhorar o desempenho dos algoritmos de IA. Isso permite que modelos de IA com uso intensivo de computação sejam carregados e executados diretamente na memória da GPU, economizando tempo que seria gasto na transferência de dados e permitindo cálculos aritméticos mais rápidos.

Além das CPUs e GPUs tradicionais, também existem chips de IA compactos projetado para uso em dispositivos como smartphones e sistemas de automação. Esses chips podem realizar tarefas como reconhecimento de fala de forma mais eficiente e com menor consumo de energia. Alguns pesquisadores também estão explorando o uso de circuitos elétricos analógicos para computação de IA, que oferecem o potencial de computação mais rápida, precisa e eficiente em um espaço menor.

Exemplos de hardware de IA

Processadores gráficos ou GPUs, continuam sendo o hardware AI mais comum usado para processamento, especialmente tarefas de aprendizado de máquina. Devido à vantagem acima mencionada de extensa paralelização, As GPUs geralmente fornecem cálculos várias centenas de vezes mais rápido que as CPUs.

À medida que a demanda por aprendizado de máquina continua a crescer, as empresas de tecnologia estão desenvolvendo arquiteturas de hardware especializadas que priorize a aceleração dos algoritmos de aprendizado de IA em relação aos recursos gráficos tradicionais.

A Nvidia, líder de mercado neste campo, oferece produtos como os sistemas A100 e H100 que são usados ​​em supercomputadores em todo o mundo. Outras empresas, como o Google, também estão criando seu próprio hardware especificamente para aplicativos de IA, com as Tensor Processing Units (TPUs) do Google agora em sua quarta geração.

Além desses chips generalizados de IA, também existem chips especializados projetados para partes específicas do processo de ML, como lidar com grandes quantidades de dados ou serem usados ​​em dispositivos com espaço ou duração de bateria limitados, como smartphones.

Além disso, as CPUs tradicionais estão sendo adaptadas para lidar melhor com tarefas de ML, realizando cálculos em uma velocidade mais rápida, mesmo que isso signifique uma diminuição na precisão. Por fim, muitos provedores de serviços em nuvem também estão permitindo que operações de computação intensiva sejam executadas em paralelo em várias máquinas e processadores.

Principais fabricantes de hardware de IA

A maioria das GPUs para aprendizado de máquina é produzida por Nvidia e AMD. A Nvidia, por exemplo, permite operações de computação mais precisas ao treinar modelos de ML usando os chamados “núcleos tensores”.

As placas H100 também suportam a mistura de diferentes precisões com o Transformer Engine. A AMD oferece sua própria abordagem para adaptar GPUs aos requisitos de aprendizado de máquina com as arquiteturas CDNA-2 e CDNA-3, que serão lançadas em 2023.

Google continua liderando o caminho em pura aceleração de ML com seus TPUs, disponíveis para aluguel por meio da plataforma Google Cloud e acompanhados por um conjunto de ferramentas e bibliotecas.

O Google conta com TPUs para todos os seus serviços baseados em aprendizado de máquina, incluindo os encontrados em seu Linha de smartphones Pixel . Esses chips lidam com tarefas como reconhecimento de fala, tradução ao vivo e processamento de imagem localmente.

Enquanto isso, outros grandes provedores de nuvem como AmazonOracle, IBM e Microsoft optaram por GPUs ou outro hardware AI. Amazon até desenvolveu seus próprios chips Graviton, que priorizam a velocidade sobre a precisão. Aplicativos front-end como Google Colab, Machine Learning Studio da Microsoft, Watson Studio da IBM e AmazonO SageMaker permite que os usuários utilizem hardware especializado sem necessariamente estar ciente disso.

As startups também estão entrando no jogo de chips de IA, com empresas como a californiana Matriz D produzindo chips para computação em memória (IMC) que aproximam os cálculos aritméticos dos dados armazenados na memória.

Ein Ausschnitt des riesigen Cerebras Chips, ein bronzefarbenes, strukturiertes Muster mit Punkten, die untereinander verbunden sind

Comece Desencilhar está usando um método chamado “computação na memória” para obter alto poder de computação de dois petaops em apenas um cartão inteligente. Essa abordagem envolve a realização de cálculos diretamente nas células RAM.

Outras empresas, como Graphcore Cerebras e Celestial também estão explorando a computação em memória, designs alternativos de chips e sistemas lógicos baseados em luz para cálculos de IA mais rápidos.