O Gambito Suncatcher: Por Dentro do Plano da Google para Conquistar o Futuro da IA

Com um novo chip ultrapotente, a Google desafia a NVIDIA, alimenta uma corrida ao armamento empresarial e confronta o custo energético insustentável da própria inteligência. A solução? É, literalmente, de outro mundo.

Pictured: Third-generation Cooling Distribution Units, providing liquid cooling to an Ironwood superpod. Source: Google
Susan Hill
Susan Hill
Redator da secção de tecnologia. Ciência, programação e, como todos nesta revista, apaixonado por cinema, entretenimento e arte.

A linguagem que usamos para a tecnologia é frequentemente enganadora, concebida para domesticar, para domar. Dizem-nos que a Google tem um novo “chip”. É uma palavra reconfortante, familiar. Um chip é um pequeno quadrado inanimado de silício, algo que se pode segurar na mão.

Este supercomputador é construído de forma modular. Um único anfitrião (host) físico contém quatro chips Ironwood, e um rack destes anfitriões forma um “cubo” de 64 chips. Para escalar ainda mais, estes cubos são ligados por uma rede dinâmica de Comutação Ótica de Circuitos (OCS), que permite ao sistema ligar até 144 cubos no “superpod” de 9.216 chips. Esta arquitetura à escala de pod não serve apenas a dimensão; fornece 42,5 ExaFLOPS de potência de cálculo FP8 e acesso a 1,77 Petabytes de memória partilhada de alta largura de banda.

Para compreender o que a Google construiu, é preciso primeiro abandonar a ideia de um produto discreto e individual. A verdadeira unidade de computação já não é o processador; é o próprio data center. O Ironwood, a Unidade de Processamento Tensorial (TPU) de sétima geração da Google, existe como um “superpod” — um supercomputador único e coeso que interliga 9.216 destes novos chips. Esta arquitetura colossal não é arrefecida por simples ventoinhas, mas por uma “solução avançada de arrefecimento líquido” à escala industrial, um sistema circulatório essencial para dissipar o imenso calor residual gerado pelo seu consumo de 10 megawatts.

Para contextualizar, 10 megawatts é o consumo de energia aproximado de uma cidade pequena ou de uma grande fábrica. Esta é a pura escala de “força bruta” da inteligência artificial moderna. A IA não é uma “nuvem” etérea e abstrata. É uma indústria física, pesada, que consome matérias-primas (neste caso, energia à escala planetária) para produzir um novo bem invisível: a inteligência sintética. O pod Ironwood, com a sua configuração de 9.216 chips, é o novo motor desta indústria, um leviatã arrefecido a líquido, concebido com um único propósito: pensar a uma escala que, até agora, era inimaginável.

Isto apresenta imediatamente o conflito central da tecnologia definidora do século XXI. Este nível de consumo de energia, aplicado a toda uma indústria, é intrinsecamente insustentável. Este pod de 10 megawatts é uma maravilha tecnológica, mas é também um profundo passivo ambiental. O resto da história da IA é uma tentativa de lidar com este facto singular e fundamental.

A Era da Inferência

Durante a última década, o principal desafio da IA foi o “treino”. Este é o processo dispendioso e moroso de ensinar um modelo, alimentando-o com a totalidade da Internet para “aprender” linguagem, lógica e raciocínio. Mas essa era está a terminar. A nova fronteira é a “era da inferência” — o pensamento constante, de grande volume e em tempo real que o modelo executa depois de ter sido treinado.

Cada vez que uma IA responde a uma pergunta, gera uma imagem ou “recupera e gera dados proativamente”, está a realizar uma inferência. O Ironwood é, por admissão da própria Google, o seu “primeiro acelerador concebido especificamente para a inferência”. Isto sinaliza uma mudança crítica no mercado. A batalha já não é apenas para construir os maiores modelos, mas para executar eficientemente o “serviço de modelos e a inferência de IA de alto volume e baixa latência” que irão alimentar a próxima vaga de “agentes de IA”, como o Gemini da própria Google.

É aqui que a verdadeira estratégia da Google é revelada. O Ironwood não é um produto para ser vendido; é um componente fundamental do “AI Hypercomputer” da Google. Isto não é apenas hardware, mas um sistema verticalmente integrado onde o hardware (as TPUs Ironwood e as novas CPUs Axion baseadas em Arm) é “co-desenhado” (co-designed) com um stack de software proprietário.

Este stack co-desenhado é o fosso estratégico da Google. Embora ofereça suporte “pronto a usar” para frameworks de código aberto como o PyTorch para atrair programadores, o stack está verdadeiramente otimizado para o ecossistema JAX da própria Google.

  • O compilador XLA (Accelerated Linear Algebra) atua como o tradutor crucial, convertendo código de alto nível em instruções hiper-eficientes que correm diretamente no silício da TPU. Isto fornece uma otimização ampla e “pronta a usar”, traduzindo código de frameworks como JAX e PyTorch.
  • O novo “Cluster Director” para o Google Kubernetes Engine (GKE) é o orquestrador, um software capaz de gerir o superpod de 9.216 chips como uma única unidade resiliente. Este software oferece “consciência de topologia” para um agendamento inteligente, simplificando a gestão de clusters em escala massiva e permitindo operações resilientes e de autorreparação.
  • E o suporte nativo para vLLM maximiza o throughput (débito) da inferência, um componente crítico para servir modelos na “era da inferência”. Este suporte é crucial, pois o vLLM utiliza técnicas de gestão de memória altamente eficientes para maximizar o rendimento e permite às equipas de desenvolvimento alternar cargas de trabalho entre GPUs e TPUs com modificações mínimas.

Na última década, o domínio da NVIDIA foi construído não apenas nas suas GPUs, mas na sua plataforma de software proprietária CUDA — um “fosso” no qual os programadores estão presos. O AI Hypercomputer da Google é uma tentativa direta de construir um “jardim murado” rival. Ao oferecer um rácio desempenho-preço superior apenas para aqueles que se comprometem com o seu stack, a Google está a posicionar-se para se tornar o serviço utility fundamental da economia da IA. Não está a vender os carros (como a NVIDIA); o seu objetivo é vender a eletricidade que os alimenta.

O Fiel da Balança e a Guerra Multi-Cloud

A validação suprema desta estratégia surgiu no final de 2025. A Anthropic, um laboratório de IA líder e principal rival da OpenAI, anunciou uma expansão histórica da sua parceria com a Google, comprometendo-se a usar a sua infraestrutura de TPU, incluindo o novo Ironwood, a uma escala impressionante: “até um milhão de TPUs”.

Isto não é um investimento casual. É um acordo de “dezenas de milhares de milhões de dólares” que trará “bem mais de um gigawatt de capacidade” online para a Anthropic até 2026. Este único acordo serve como a justificação final para a aposta de uma década e multibilionária da Google no silício personalizado. A justificação declarada da Anthropic para este compromisso maciço foi “preço-desempenho e eficiência”, um sinal claro de que o stack verticalmente integrado e co-desenhado da Google pode oferecer uma alternativa económica convincente ao domínio da NVIDIA.

Mas esta história tem uma reviravolta crítica, que revela as verdadeiras dinâmicas de poder da indústria de IA. A Anthropic não é exclusiva da Google. No seu próprio anúncio, a Anthropic teve o cuidado de notar que a Amazon Web Services (AWS) continua a ser o seu “principal parceiro de treino e fornecedor de cloud”. Esta parceria com a AWS é construída em torno do “Projeto Rainier”, um cluster massivo que utiliza centenas de milhares dos aceleradores Trainium2 da própria Amazon. A empresa está a seguir uma “abordagem diversificada”, jogando estrategicamente as TPUs da Google contra os chips Trainium da Amazon e as GPUs da NVIDIA.

Isto não é indecisão; é um brilhante ato de sobrevivência. Dados que vieram a público mostram que os custos de computação da Anthropic apenas na AWS consumiam até 88,9% das suas receitas. A própria existência dos laboratórios de IA depende da redução deste custo astronómico. Ao forçar esta guerra de licitações, os analistas estimam que a Anthropic está provavelmente a garantir a sua computação — a parte mais cara do seu negócio — com um desconto massivo de 30-50%. Ao estabelecer parcerias públicas com ambas, Google e Amazon, a Anthropic tornou-se o “fiel da balança”. Está a forçar os gigantes da cloud a uma guerra de lances, usando o seu estatuto de laboratório de IA “prémio” para que os hyperscalers subsidiem eficazmente as suas enormes contas de computação.

Esta dinâmica mudou fundamentalmente o mercado. O vencedor final não será aquele com o chip mais rápido, mas aquele com o melhor rácio entre computação, energia e custo. O “desempenho por watt” já não é um simples slogan ambiental; é o principal campo de batalha estratégico e económico de toda a indústria.

Os Novos Titãs do Silício: Uma Oligarquia Inquieta

O lançamento do Ironwood é um tiro direto à NVIDIA, mas o campo de batalha está lotado. A corrida ao armamento da IA está a ser travada por uma nova oligarquia de titãs do silício, um pequeno punhado de corporações com o capital e a perícia técnica para construir as “pás” para esta nova corrida ao ouro.

  • O Rei no Trono (NVIDIA): As GPUs da geração Blackwell da NVIDIA, a B100 e a B200, e a sua antecessora, a H100, continuam a ser o padrão da indústria. O seu domínio é protegido pelo profundo fosso de software da CUDA, no qual a maioria dos investigadores e programadores de IA é formada.
  • Os Pretendentes (Os Gigantes da Cloud e a AMD):
    • Amazon (AWS): A operação de silício personalizado mais madura entre os fornecedores de cloud, a AWS emprega uma estratégia de dois chips: “Trainium” para treino rentável e “Inferentia” para inferência de alta velocidade e baixo custo. Esta estratégia é unida pelo AWS Neuron SDK, a camada de software concebida para otimizar cargas de trabalho PyTorch e TensorFlow para o seu silício personalizado.
    • Microsoft (Azure): Para servir as necessidades massivas da sua parceira-chave, a OpenAI, a Microsoft desenvolveu o seu próprio acelerador de IA “Maia 100”, co-desenhando-o para as cargas de trabalho do ChatGPT e GPT-4. Sendo um dos maiores processadores construídos no nó de 5nm da TSMC, o Maia 100 é um chip de 500W-700W que, tal como os seus rivais, é co-desenhado com o seu próprio stack de software para portar modelos de frameworks como o PyTorch.
    • AMD: A rival tradicional da NVIDIA, a AMD, compete diretamente em desempenho com o seu acelerador Instinct MI300X, que iguala os chips de nova geração em métricas-chave como a capacidade de memória (192 GB).

Esta corrida ao armamento empresarial é impulsionada por três fatores simples:

  1. Custo: Desenhar o seu próprio chip é a única forma de escapar às margens de lucro de “meados de 70%” da NVIDIA e aos seus preços premium.
  2. Fornecimento: Proporciona independência estratégica face à escassez crónica de GPUs da NVIDIA que tem sido um estrangulamento para toda a indústria.
  3. Otimização: Permite o tipo de vantagem de “desempenho por watt” que a Google persegue — um chip perfeitamente “co-desenhado” para o seu software específico e cargas de trabalho na nuvem.

Os gigantes da cloud não precisam de matar a NVIDIA. Precisam simplesmente de criar uma alternativa interna viável que seja suficientemente boa. Isto banaliza o mercado, dá aos clientes uma escolha e força a NVIDIA a baixar os seus preços, poupando aos hyperscalers milhares de milhões nas suas próprias despesas de capital.

A escala desta consolidação é difícil de compreender. Os grandes gigantes tecnológicos, incluindo Google, Meta, Amazon e Microsoft, deverão gastar até 375 mil milhões de dólares num único ano na construção destes data centers e no hardware de IA para os preencher. A barreira à entrada neste novo mercado é astronómica. A revolução da IA não será decidida por um algoritmo inteligente numa garagem; será decidida pelas cinco corporações que podem dar-se ao luxo de construir estes cérebros de 10 megawatts.

O Confronto dos Aceleradores de IA em 2025

Google Ironwood (TPU v7): Tipo: ASIC. HBM Máx. (Memória): 192 GB HBM3e. Largura de Banda Mem. Máx.: 7,4 TB/s. Arq. de Escala Chave: Superpod de 9.216 chips (9,6 Tb/s ICI). Uso Principal: Inferência e Treino.

NVIDIA Blackwell B200: Tipo: GPU. HBM Máx. (Memória): 192 GB HBM3e. Largura de Banda Mem. Máx.: 8 TB/s. Arq. de Escala Chave: NVLink 5 (1,8 TB/s). Uso Principal: Treino e Inferência de Propósito Geral.

AMD Instinct MI300X: Tipo: GPU. HBM Máx. (Memória): 192 GB HBM3. Largura de Banda Mem. Máx.: 5,3 TB/s. Arq. de Escala Chave: Anel de 8 GPUs. Uso Principal: Treino e Inferência de Propósito Geral.

AWS Trainium / Inferentia 2: Tipo: ASIC. HBM Máx. (Memória): (Trn) N/A / (Inf2) 32 GB HBM. Largura de Banda Mem. Máx.: (Inf2) N/A. Arq. de Escala Chave: AWS Neuron SDK / Cluster. Uso Principal: Dividido: Treino (Trn) / Inferência (Inf).

Microsoft Maia 100: Tipo: ASIC. HBM Máx. (Memória): 64 GB HBM2E. Largura de Banda Mem. Máx.: N/A. Arq. de Escala Chave: Malha baseada em Ethernet. Uso Principal: Treino e Inferência Internos (OpenAI).

A Sombra da Guerra dos Chips

A batalha empresarial entre a Google, a NVIDIA e a Amazon está a ser travada à sombra de um conflito muito maior e com mais consequências: a “Guerra dos Chips” geopolítica entre os Estados Unidos e a China.

Todo o mundo moderno, desde os nossos smartphones até aos nossos sistemas militares mais avançados, está construído sobre uma cadeia de abastecimento de uma fragilidade impressionante. O “Escudo de Silício” de Taiwan, sede da TSMC, produz “cerca de 90% dos semicondutores mais avançados do mundo”. Esta concentração de fabrico no Estreito de Taiwan, um “ponto crítico geopolítico”, é a maior vulnerabilidade da economia global.

Nos últimos anos, os EUA usaram esta dependência como arma, implementando “controlos de exportação abrangentes” para “privar a China de… chips avançados”, numa tentativa de abrandar a sua ascensão tecnológica e militar. Em resposta, a China está a “investir milhares de milhões nas suas ambições de construção de chips”, acelerando a sua “estratégia de fusão militar-civil” numa busca desesperada por “autossuficiência em semicondutores”.

Esta busca é personificada por empresas campeãs estatais como a Huawei. O seu trabalho no desenvolvimento de chips de IA nativos, como o Ascend 910C, representa um desafio direto ao domínio da NVIDIA dentro da China. Esta integração vertical, combinada com a “estratégia de fusão militar-civil” da China, torna cada vez mais difícil para as nações aliadas do Ocidente identificar com que partes da cadeia de abastecimento chinesa é seguro interagir.

Esta instabilidade global cria um risco existencial para as gigantes tecnológicas. Um conflito militar em Taiwan poderia parar a indústria da IA da noite para o dia. A escassez crónica de GPUs da NVIDIA é um inconveniente menor em comparação com um cataclismo na cadeia de abastecimento.

Visto por esta lente, o Ironwood da Google é mais do que um produto competitivo; é um ato de “soberania empresarial”. Ao desenharem o seu próprio silício personalizado, empresas como a Google, Amazon e Microsoft “mitigam os riscos da cadeia de abastecimento” e “reduzem a dependência de fornecedores terceiros”. Elas detêm a propriedade intelectual. Já não dependem de uma única empresa (NVIDIA) ou de uma única região vulnerável (Taiwan). Podem diversificar os seus parceiros de fabrico, assegurando que o seu modelo de negócio sobrevive a um choque geopolítico.

A corrida ao armamento empresarial e a geopolítica são agora as duas faces da mesma moeda. Os investimentos maciços da Google e da Amazon estão, na prática, a implementar a política industrial dos EUA. Estão a criar a espinha dorsal industrial de uma esfera tecnológica aliada ao Ocidente (a aliança “Chip 4”) e a estabelecer uma “distância tecnológica” que as soluções nativas da China, como o Ascend 910C da Huawei, correm para fechar.

O Peso Insuportável da Computação

Isto traz-nos de volta ao pod de 10 megawatts. A corrida ao armamento da IA, alimentada pela ambição empresarial e geopolítica, está agora a confrontar os seus próprios limites físicos. O preço ambiental da escalabilidade por “força bruta” é astronómico.

O acordo da Anthropic para as TPUs da Google é de “mais de um gigawatt” de potência. Isso é o equivalente a 100 pods Ironwood a funcionar em simultâneo, ou a produção total de uma central nuclear em plena capacidade, dedicada a uma única empresa. E essa empresa é apenas uma de muitas.

A pegada de carbono de um único “pensamento” está a tornar-se alarmantemente clara.

  • Treinar um único modelo de IA de grande dimensão pode emitir mais de 626.000 libras (cerca de 284.000 kg) de CO2, “aproximadamente o equivalente às emissões de vida de cinco carros americanos”.
  • Um único pedido a uma IA como o ChatGPT usa “cerca de 100 vezes mais energia do que uma pesquisa típica no Google”.
  • A pegada energética total da indústria de IA generativa está a “crescer exponencialmente” e já é “equivalente à de um país de baixo rendimento”.

Não é só energia. Os data centers estão também a “devorar” um recurso mais finito: a água. Requerem “vastas quantidades de água para arrefecimento”, exercendo uma enorme pressão sobre os recursos locais, muitas vezes em regiões que já sofrem de escassez de água. Estimativas da indústria sugerem que um data center médio já utiliza 1,7 litros de água por cada quilowatt-hora de energia consumida.

A indústria, incluindo a Google, tenta desviar esta crise vangloriando-se de ganhos de “eficiência”. A Google afirma que o Ironwood é “quase 30 vezes mais eficiente em termos de energia do que a nossa primeira Cloud TPU de 2018”. Isto, no entanto, é uma cortina de fumo. É um exemplo claro do Paradoxo de Jevons: os ganhos de eficiência tecnológica, quando aplicados a um recurso desejável, não diminuem o consumo. Aumentam-no, tornando esse recurso mais barato e acessível.

A eficiência do Ironwood não resolve o problema ambiental; acelera-o. Torna económica e tecnicamente viável construir modelos ainda maiores e lidar com ainda mais pedidos, empurrando o consumo total de energia cada vez mais para cima. A corrida da indústria para “priorizar a velocidade sobre a segurança e a ética” — uma pressa que levou a falhas documentadas como os resultados enviesados do próprio Gemini da Google — está a criar uma crise ética à escala planetária, com o dano ambiental como uma externalidade massiva e não contabilizada.

Esta crise ética decorre do potencial dos sistemas de IA para incorporar e amplificar preconceitos humanos, ameaçar os direitos humanos e manipular a opinião pública através da desinformação. O Gabinete de Responsabilidade do Governo dos EUA (GAO) notou que, mesmo com monitorização, estes sistemas, quando lançados apressadamente no mercado, permanecem suscetíveis a ataques que geram resultados factualmente incorretos ou enviesados. Esta dinâmica de “corrida ao armamento”, onde os objetivos empresariais de implementação rápida se sobrepõem aos protocolos de segurança, cria uma tensão fundamental entre inovação e responsabilidade.

Coda: O Suncatcher no Céu

Os engenheiros da Google não estão cegos a este paradoxo. Eles veem os gráficos de consumo de energia. Compreendem que a escalabilidade por “força bruta” da IA tem um teto terrestre. A solução que propõem é a metáfora perfeita e surreal para toda a indústria.

É um “projeto ‘moonshot’ de investigação a longo prazo” chamado “Projeto Suncatcher”.

O plano é lançar data centers de IA para o espaço. Estas “constelações compactas de satélites alimentados a energia solar”, equipadas com as TPUs da Google e ligadas por “ligações óticas em espaço livre”, seriam colocadas numa “órbita terrestre baixa heliossíncrona crepuscular (dawn-dusk)”. Aí, receberiam “luz solar quase contínua”, resolvendo o problema da energia, enquanto o vácuo do espaço ofereceria uma solução para o arrefecimento sem água.

Isto não é fantasia. A Google já testou as suas TPUs da geração Trillium num acelerador de partículas para simular a radiação da órbita terrestre baixa, e os chips “sobreviveram sem danos”. Está planeado um lançamento de protótipo em parceria com a Planet Labs para o início de 2027.

O Projeto Suncatcher é uma admissão tácita de fracasso terrestre. É uma confissão de que o caminho escolhido pela indústria — o caminho alimentado por cérebros de 10 megawatts como o Ironwood — é insustentável no planeta Terra. O objetivo do projeto, nas palavras da própria Google, é “minimizar o impacto nos recursos terrestres” porque o “fardo ambiental” do seu próprio roteiro está a tornar-se demasiado pesado para suportar.

Esta é a expressão máxima do sublime tecnológico. A corrida ao armamento da IA, na sua busca por uma inteligência divina, está a criar um futuro onde o custo computacional da nossa própria curiosidade é tão grande que temos, literalmente, de escapar do nosso próprio planeta para o sustentar. O chip Ironwood é o motor. O Hypercomputer é a fábrica. A Guerra dos Chips é a sombra. E o Projeto Suncatcher é a saída de emergência: um salto desesperado, brilhante e aterradoramente lógico para o vazio.

Esta lógica, no entanto, não está isenta dos seus próprios e profundos desafios técnicos e económicos. Os céticos apressam-se a salientar que o espaço não é uma solução mágica para o arrefecimento; é o “melhor isolador térmico que existe”. Um data center espacial não arrefeceria passivamente; exigiria radiadores massivos e complexos de tamanho comparável aos seus painéis solares. Estes sistemas teriam também de lidar com o custo extremo da manutenção e o bombardeamento constante de radiação que destrói processadores — obstáculos que fazem desta “saída de emergência” um gambito de proporções verdadeiramente astronómicas.

Partilhar este artigo
Sem comentários

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *