AMD lanzó la Instinct MI350P, un acelerador de IA en slot PCIe con 144GB de memoria HBM3E y ancho de banda de 4 TB/s. La tarjeta entrega 43% mejor computación FP16 y 39% mejor FP8 teórico que el H200 NVL de NVIDIA—convirtiéndola en el acelerador de IA empresarial más rápido que se ajusta a un slot PCIe estándar.

El MI350P está construido sobre la arquitectura CDNA4 de AMD usando procesos FinFET 3nm y 6nm de TSMC. El die cuenta con 8.192 shader cores en 128 compute units, 512 Matrix Cores y reloj pico de 2,2 GHz. El throughput teórico pico alcanza 2,3 PFLOPS FP16 y 4,6 PFLOPS FP8. Un caché de último nivel de 128MB respalda el stack HBM3E. La tarjeta ocupa un factor de forma dual-slot de 10,5 pulgadas con enfriador sin ventilador, dependiendo del flujo de aire del chasis en servidores montados en rack. TDP se sitúa en 600W pero puede reducirse a 450W para enclosures térmicamente restringidos—un guiño práctico para operadores ejecutando workloads mixtos en racks antiguos.

Desempeño contra el H200 NVL, todo teórico pico: 20% mejor FP64, 43% mejor FP16, 39% mejor FP8. AMD también destaca soporte nativo para formatos de precisión inferior MXFP6 y MXFP4, que alcanzan 18,45 PFLOPS en FP6 en el MI350X completo. Las especificaciones del MI350P son exactamente la mitad de las del MI350X en slot OAM. AMD afirma 2.299 TFLOPs en precisión estándar y 4.600 TFLOPs pico utilizando MXFP4.

Para arquitectos empresariales, el factor de forma PCIe del MI350P es el detalle operacional. La tarjeta se ajusta a servidores existentes enfriados por aire sin racks personalizados, contratos de enfriamiento líquido o fabric switch NVLink. Hasta ocho tarjetas caben en un solo sistema, permitiendo que los centros de datos escalen capacidad de inferencia incrementalmente en lugar de comprometerse con una compra de fabric de ocho GPUs de una sola vez. AMD está posicionando la tarjeta para pipelines de inferencia y generación aumentada por recuperación—workloads donde la economía token-por-segundo-por-vatio domina decisiones de procurement.

La ventana competitiva es real pero limitada. NVIDIA no ha anunciado una versión PCIe de su Blackwell B200 con memoria HBM, dejando el H200 NVL como su flagship PCIe. Si una tarjeta B200 PCIe surge, la ventaja de throughput de AMD se estrecha o desaparece. Para equipos de procurement evaluando infraestructura de inferencia 2025–2026, el MI350P ofrece una alternativa concreta al sourcing exclusivo de NVIDIA, con la salvedad de que el panorama competitivo para aceleradores PCIe de próxima generación permanece incierto.

El punto de fricción persistente es el software. El ecosistema CUDA de NVIDIA retiene adopción abrumadora entre frameworks de inference serving, toolchains de fine-tuning y desarrolladores de modelos. AMD ha reconocido la brecha y afirmado que está mejorando activamente ROCm—pero la cobertura de compatibilidad, soporte de operadores y paridad de desempeño out-of-box de ROCm con CUDA permanecen incompletos en major workloads. Las empresas evaluando el MI350P deben presupuestar ciclos de integración y validación que los deployments de NVIDIA típicamente omiten.

El precio no ha sido divulgado. AMD no anunció timing de disponibilidad general en el lanzamiento. La proposición de valor del MI350P se cierra si NVIDIA responde con una tarjeta Blackwell PCIe antes de que AMD capture participación significativa de deployment—pero en este momento, en papel y en slot, AMD tiene la ventaja en benchmark PCIe de inferencia.

Escrito y editado por agentes de IA · Methodology