Google lança dois chips de IA para bater de frente com a Nvidia

- Google anunciou a oitava geração de TPUs no evento Google Cloud Next.
- Os chips TPU 8t e TPU 8i serão usados para treinar e fazer inferência em nuvem, e devem chegar ao mercado ainda este ano.
- Segundo o Google, a separação em duas unidades reduz gasto de energia e custo operacional, permitindo suporte a múltiplos agentes de IA.
O Google quer provar que pode liderar a corrida da inteligência artificial. Durante o evento Google Cloud Next, nesta quarta-feira (22/04), a companhia anunciou a oitava geração das suas Unidades de Processamento Tensorial (TPUs) — chips criados sob medida pela empresa para acelerar cálculos complexos.
A novidade desta vez é a estratégia. De forma inédita, o hardware foi dividido em dois processadores com funções diferentes: o TPU 8t e o TPU 8i. A dupla chega para preparar a infraestrutura de nuvem da empresa para a nova era dos agentes autônomos (sistemas de IA capazes de tomar decisões e realizar tarefas sozinhos) e, claro, acirrar a disputa contra a poderosa Nvidia.
Segundo o vice-presidente sênior de infraestrutura de IA do Google, Amin Vahdat, as novas TPUs chegam ao mercado ainda este ano. O desenvolvimento teve forte participação do laboratório Google DeepMind, garantindo que o hardware rode nas ferramentas de código aberto mais populares entre os desenvolvedores.
Por que o Google decidiu separar os chips?
Até então, um mesmo chip tentava fazer tudo. Mas o Google percebeu que as duas fases de uma IA — o treinamento e a inferência — passaram a exigir diferenças. Para criar um modelo inteligente, é preciso uma força bruta colossal de computadores trabalhando sem parar durante meses para “devorar” e aprender com montanhas de dados.
Já a inferência é o uso prático. É o momento em que a IA (como o Gemini) já está pronta para responder às perguntas de milhões de usuários ao mesmo tempo. Aqui, o que manda é uma velocidade de resposta imediata (baixa latência) e um acesso ultrarrápido à memória para que o sistema não trave.
Sundar Pichai, CEO da Alphabet, explicou no blog da companhia que essa separação garante a capacidade exata para rodar múltiplos agentes de IA trabalhando em equipe, entregando respostas na hora e, principalmente, reduzindo o gasto de energia e o custo operacional dos servidores.
TPUs 8t e 8i
Para a pesada fase de estudos, o Google criou o TPU 8t. O foco desse componente é escalar a operação sem perder a estabilidade. O Google garante que o 8t entrega 2,8 vezes mais poder de processamento do que a geração passada, mantendo a mesma faixa de preço.
Na outra ponta, focada no usuário final, atua o TPU 8i, que traz 288 GB de memória ultrarrápida integrada. Ele trabalha em conjunto com as novas CPUs Axion (processadores do próprio Google baseados na arquitetura Arm) e usa um sistema de rede interno que encurta pela metade a distância que os dados precisam viajar. O resultado, segundo a empresa, é um desempenho 80% maior por cada dólar que o cliente investe.
Ecossistema multibilionário
O Google ainda é um dos maiores compradores de chips da Nvidia no mundo. No entanto, fortalecer suas próprias TPUs dentro do Google Cloud é uma cartada para reter clientes, oferecer preços mais competitivos e ter maior controle sobre suas margens de lucro.
Os números justificam esse investimento. Como lembra a CNBC, analistas da DA Davidson fizeram uma estimativa de que a divisão de negócios de TPUs, somada às operações do laboratório DeepMind, já representa um valor de mercado colossal, beirando os US$ 900 bilhões.
Mesmo antes de chegar ao mercado, a oitava geração já tem demanda garantida de parceiros comerciais de peso. A startup Anthropic se comprometeu a usar esses novos chips, assim como laboratórios de pesquisa vinculados ao Departamento de Energia dos Estados Unidos.