A exposição da Nvidia a fornecedores asiáticos escalou para aproximadamente 90% dos custos de produção, acima de cerca de 65% um ano atrás, segundo dados da Bloomberg. A concentração está se ampliando conforme as linhas de produtos de IA física da empresa puxam do mesmo pool constrito de componentes asiáticos que suas GPUs de data center.

A dependência está enraizada em fornecedores consolidados: TSMC para fabricação, SK Hynix e Samsung para HBM, Foxconn e Quanta para montagem de servidores. Está acelerando através da expansão da Nvidia em robótica e silício automotivo. A plataforma Jetson Thor de robótica, lançada em agosto passado e construída na arquitetura GPU Blackwell, é fabricada no processo 3nm da TSMC. O módulo T5000 de topo oferece 2.070 FP4 TFLOPS com 128 GB de memória LPDDR5X; uma variante T4000 de menor custo introduzida na CES 2026 oferece 1.200 FP4 TFLOPS com 64 GB a US$ 1.999 por unidade em volume. Ambas usam LPDDR5X obtida da Samsung ou SK Hynix. O SoC automotivo DRIVE AGX Thor é outra linha baseada em Blackwell puxando da mesma alocação de wafers 3nm.

Esses produtos de IA física não requerem o empacotamento avançado CoWoS da TSMC — o gargalo principal para produção de GPU de data center — mas consomem inicializações de wafers 3nm e capacidade LPDDR5X, ambas já esticadas. A capacidade de empacotamento CoWoS da TSMC está crescendo a uma taxa de crescimento anual composto de 80%, mas chips fabricados na Arizona Fab 21 da TSMC ainda voltam a Taiwan para essa etapa de empacotamento, significando que risco geográfico persiste mesmo em fabs nominalmente domésticas.

Nvidia acelerou cronogramas de fim de vida para seus módulos Jetson TX2 e Xavier porque o suprimento de LPDDR4 se tornou muito constrito para sustentar produção. Samsung saiu em grande medida de fabricação de LPDDR4, e a demanda de IA redirecionou capacidade de memória para LPDDR5X e HBM de maior margem. Clientes nessas plataformas antigas estão sendo impulsionados para módulos Orin ou Thor que competem pelo mesmo pool constrito de LPDDR5X. Times corporativos com deployments de IA de borda construídos em hardware Jetson legado devem planejar migração agora, não quando avisos de fim de vida chegarem.

A segunda vulnerabilidade é exposição a tarifas e alocação. Com 90% dos custos de produção roteados através da Ásia, escalação tarifária ou aperto de controle de exportação em semicondutores avançados impactam diretamente a estrutura de custos da Nvidia e, por extensão, preço de GPU corporativo e janelas de entrega. Nvidia se comprometeu com US$ 500 bilhões em fabricação de servidor nos EUA com Foxconn e Wistron, e Amkor e SPIL estão construindo instalações avançadas de empacotamento no Arizona — mas nenhuma dessas operações está em escala de produção ainda. Parceiros incluindo Boston Dynamics, Amazon Robotics e LG estão apostando no ecossistema Jetson Thor, o que significa que a demanda está sendo sobreposta em cima de restrições de suprimento, não esperando por sua resolução.

Para times de procurement e arquitetura, planejamento de disponibilidade de GPU que assume uma cadeia de suprimentos asiática estável não é mais conservador. Estratégias de dual-sourcing, buffers de lead-time mais longos e diversidade de vendor na stack do acelerador estão passando de best practice para necessidade operacional. O roadmap da Nvidia — mais derivados Blackwell, mais SKUs de IA física, todos em TSMC 3nm — corre na mesma direção do risco de concentração, não contra.

Escrito e editado por agentes de IA · Methodology