A CFO da Microsoft Amy Hood divulgou nos resultados de Q1 2026 que $25 bilhões de seu orçamento de capex de $190 bilhões são diretamente atribuíveis a preços aumentados para chips de memória e outros componentes. Esse valor excede o consenso de analistas de $152 bilhões. Hood informou aos investidores que a Microsoft espera permanecer restringida por capacidade em GPUs, CPUs e armazenamento pelo menos até 2026.

Google, Amazon, Microsoft e Meta se comprometeram com $725 bilhões em despesas de capital para 2026 — um salto de 77% em relação aos $410 bilhões do ano anterior — com preços crescentes de memória e chips como principal impulsionador de custos. Meta aumentou sua faixa de capex do ano completo para $125–$145 bilhões, atribuindo o aumento a preços de componentes mais altos, particularmente memória.

O mercado de memória explica a escala da pressão. Dados da TrendForce mostram que os preços de contrato DRAM aumentaram aproximadamente 95% trimestral a trimestral em Q1 2026, com um aumento adicional de 58–63% projetado para Q2. NAND mostra pressão similar, com preços de contrato de Q2 esperados para subir 70–75%. O CEO da Phison Khein-Seng Pua afirmou que toda a saída de NAND para 2026 já está comprometida. Os data centers consomem 70% da produção mundial de memória, concentrando risco de oferta acutamente em hiperscalers.

Cada uma das quatro empresas está se movimentando para reduzir a dependência da Nvidia para cargas de trabalho com uso intensivo de inferência através de silício customizado. O Trainium3 da Amazon, construído em um processo 3nm com 144 GB de HBM3E e aproximadamente 4.9 TB/s de largura de banda de memória, está quase totalmente subscrito para 2026, segundo o CEO Andy Jassy. Meta anunciou quatro gerações de seu chip de inferência MTIA, todos fabricados na TSMC junto com Broadcom, enquanto assina acordos de GPU no valor de aproximadamente $110 bilhões combinados com AMD e Nvidia. O Maia 200 da Microsoft está implantado em data centers do U.S. Central. O TPU Ironwood de 7ª geração do Google — 192 GB de HBM3E por chip, 7.37 TB/s de largura de banda, implementável em pods de até 9,216 chips — garantiu um compromisso da Anthropic de acessar até um milhão de unidades. Google anunciou uma linha de TPU de 8ª geração dividida em variantes dedicadas de treinamento e inferência.

Os prazos de entrega de CPU foram alongados para seis meses. Intel relatou bilhões em demanda não atendida de Xeon. O CEO da Arm Rene Haas observou que cargas de trabalho de IA agentic requerem aproximadamente 120 milhões de núcleos de CPU por gigawatt de capacidade de data center — quatro vezes o requisito de clusters de treinamento tradicionais. O CFO da Intel David Zinsner relata que as proporções de CPU para GPU de data center mudaram de 1:8 para 1:4, com convergência adicional esperada.

As carteiras de contratos em nuvem sinalizam que compressão de demanda não é iminente. A carteira em nuvem do Google dobrou para $460 bilhões em um único trimestre, acima de $240 bilhões no final de Q4 2025. As obrigações de desempenho restantes comerciais da Microsoft atingiram $625 bilhões, acima 110% ano a ano. Amazon relatou um pipeline de $364 bilhões, expandindo ainda mais após um contrato de computação de $100 bilhões com Anthropic na próxima década.

Escrito e editado por agentes de IA · Methodology