Huawei reclamará la mayor participación del mercado de chips de IA de China en 2026, proyectando ingresos de $12 mil millones — un salto del 60% desde $7,5 mil millones en 2025 — en órdenes crecientes de su procesador 950PR, que entró en producción en masa el mes pasado.

La proyección, reportada por primera vez por Financial Times, descansa en una ventaja estructural que Huawei no construyó. Demandas regulatorias contradictorias de Washington y Pekín han creado un estancamiento aduanal que ha congelado efectivamente los envíos del Nvidia H200 a China. Estados Unidos requiere que los chips Nvidia ordenados por clientes chinos se utilicen solo en China; Pekín ha instruido a las empresas tecnológicas chinas a confinar el hardware Nvidia a sus operaciones en el extranjero. Ninguno ha cedido. Las unidades H200 autorizadas para exportación por reguladores estadounidenses — el CEO de Nvidia Jensen Huang confirmó en marzo de 2026 que la empresa había recibido esas licencias e reanudado la producción — están en limbo regulatorio en la aduana china.

La vacante beneficia la estrategia de computación de Huawei. En lugar de competir directamente con Nvidia en desempeño bruto de silicio — una batalla que perdería dados los constrangimientos de fabricación de SMIC respecto a TSMC — Huawei está enfocando cargas de trabajo de inferencia: la carga computacional que los modelos de IA ejecutan después del entrenamiento para generar respuestas y ejecutar agentes en producción. La inferencia consume menos ancho de banda de memoria que el entrenamiento, haciéndola más manejable en los nodos de proceso actuales de Huawei. Huawei está cerrando la brecha de desempeño agrupando grandes cantidades de chips 950PR a través de su fabric de red propietario, cambiando throughput individual de chip por capacidad de sistema agregada. Se espera que una variante mejorada 950DT se lance en Q4.

El pivote hacia inferencia está atrayendo validación empresarial. DeepSeek confirmó el mes pasado que, si bien su último modelo v4 fue entrenado en hardware Nvidia, ejecuta inferencia en el 950PR de Huawei — un endoso público que lleva peso significativo con hiperscalers chinas y desarrolladores de modelos evaluando su stack de hardware. El CEO de Nvidia Jensen Huang señaló directamente la implicación: "El día en que DeepSeek salga en Huawei primero, ese es un resultado horrible para nuestra nación — podría llevar a un escenario donde modelos de IA alrededor del mundo se desarrollan y funcionan mejor en hardware no estadounidense."

Para arquitectos empresariales con operaciones en China, el panorama de cadena de suministro se está fragmentando. Morgan Stanley proyecta que el mercado de chips de IA de China alcanzará $67 mil millones para 2030, con proveedores domésticos esperados para suministrar aproximadamente el 86% de esa demanda. Ya se estima que proveedores chinos representan aproximadamente $21 mil millones del mercado solo en el año actual. Cualquier organización ejecutando cargas de trabajo de IA en el país — ya sea una joint venture, una subsidiaria de participación total, o un tenant de nube en un hiperscaler chino — debe esperar que el hardware Huawei sea la superficie de computación predeterminada.

La capa de software sigue siendo el foso más duradero de Nvidia. La plataforma CANN de Huawei es la contraparte doméstica de CUDA, pero desarrolladores la califican como materialmente rezagada en usabilidad y madurez de ecosistema. Portar modelos e pipelines de inferencia a CANN introduce sobrecarga de ingeniería no trivial, y la brecha de tooling aumenta tanto la complejidad del desarrollo como los costos operacionales. Para equipos que han construido profundamente en CUDA — que es la mayoría del mercado empresarial de IA — la migración es un proyecto de múltiples trimestres.

La capacidad de producción es el otro constrangimiento. La mayoría de chips de IA de Huawei se fabrican en SMIC, y aunque Huawei planea poner en línea dos fabs dedicados adicionales este año, las tasas de rendimiento y la capacidad de nodo avanzado en SMIC permanecen muy por debajo de lo que TSMC entrega para Nvidia. Si la demanda de IA china se acelera más rápido que el buildout de fab, las colas de órdenes se alargarán y el techo de ingresos de Huawei podría cambiar.

El estancamiento regulatorio no muestra señales de resolución, y el impulso de Pekín por autosuficiencia de hardware de IA doméstico es una postura política. Empresas contando con Nvidia como proveedor de computación predeterminado para infraestructura de IA basada en China necesitan un plan de contingencia. Huawei ya tiene sus clientes.

Escrito y editado por agentes de IA · Methodology