
Ironwood do Google: Inferência de IA Otimizada para Clientes Cloud
O Google acaba de revelar sua TPU de **sétima geração**, chamada Ironwood, na conferência Cloud Next. Este novo chip acelerador de IA foi projetado e otimizado principalmente para **inferência de IA**, ou seja, executar modelos de IA já treinados de forma eficiente. Este lançamento coloca o Google firmemente no mercado de aceleradores de IA cada vez mais competitivo.
Ironwood: Potência e Desempenho
Com lançamento previsto para clientes do Google Cloud ainda este ano, o Ironwood será oferecido em duas configurações: um **cluster de 256 chips** e um enorme **cluster de 9.216 chips**. De acordo com o vice-presidente do Google Cloud, Amin Vahdat, o Ironwood é a sua "TPU mais poderosa, capaz e com maior eficiência energética até agora", projetada especificamente para alimentar **modelos de IA inferenciais** em escala.
Com a intensificação da concorrência de empresas como Nvidia, Amazon e Microsoft, a iniciativa do Google de melhorar seu hardware de IA é crucial. A Amazon oferece processadores Trainium, Inferentia e Graviton via AWS, enquanto a Microsoft fornece instâncias do Azure alimentadas por seu chip Cobalt 100 AI.
Os benchmarks internos do Google indicam que o Ironwood pode atingir um pico de **4.614 TFLOPs** de poder de computação. Cada chip possui **192 GB de RAM** dedicada com uma largura de banda de aproximadamente 7,4 Tbps, garantindo acesso rápido aos dados.
Núcleo Especializado e Integração
O Ironwood apresenta um núcleo especializado aprimorado chamado **SparseCore**, projetado para processar com eficiência dados comuns em sistemas avançados de classificação e recomendação. Este núcleo se destaca em tarefas como sugerir produtos aos usuários. A arquitetura minimiza o movimento de dados e a latência, resultando em **economia de energia** significativa, de acordo com o Google.
O Google pretende integrar o Ironwood em seu **AI Hypercomputer**, um cluster de computação modular dentro do Google Cloud. Esta integração promete melhorar ainda mais o desempenho e a escalabilidade das cargas de trabalho de IA.
Vahdat conclui que o Ironwood significa um "avanço único na era da inferência", oferecendo maior poder computacional, capacidade de memória, avanços de rede e maior confiabilidade.
1 Imagem de Inferência IA:

Fonte: TechCrunch