El GPT-5.5 de OpenAI ahora opera para los más de 10.000 empleados de NVIDIA a través de la aplicación de codificación agéntica Codex, servida en el hardware rack-scale GB200 NVL72 de NVIDIA bajo una política de retención cero de datos. El despliegue, anunciado el 23 de abril de 2026, abarca todas las principales funciones de negocio: ingeniería, producto, legal, marketing, finanzas, ventas, recursos humanos, operaciones y programas para desarrolladores. Se ubica entre los mayores despliegues de un modelo agéntico de frontera en una sola empresa registrados hasta la fecha.

El GB200 NVL72 ofrece un costo 35x menor por millón de tokens y 50x más rendimiento de tokens por segundo por megawatt en comparación con sistemas de generación anterior, según NVIDIA. Esas cifras reformulan la economía de inferencia empresarial: cargas de trabajo inviables en hardware anterior se vuelven viables en Blackwell. OpenAI y NVIDIA describen al GPT-5.5 como el primer modelo de frontera lo suficientemente denso para requerir — y aprovechar — esa curva de eficiencia a escala de despliegue.

El departamento de TI de NVIDIA aprovisionó una máquina virtual dedicada en la nube para cada empleado, otorgando a cada agente Codex un entorno aislado con trazabilidad completa. La aplicación Codex se conecta a esas VMs mediante Secure Shell remoto, manteniendo los datos de la empresa fuera de endpoints externos. El acceso al sistema de producción es de solo lectura, enrutado a través de interfaces de línea de comandos y el framework de automatización interno "Skills" de NVIDIA. Ningún dato de entrenamiento sale del perímetro bajo la política de retención cero.

Las primeras señales de productividad son concretas, aunque aún anecdóticas. Ingenieros de NVIDIA reportan ciclos de depuración que tardaban días resolviéndose en horas. Experimentos de varias semanas en bases de código complejas y con múltiples archivos ahora se completan en una sola noche. Los equipos entregan funcionalidades completas a partir de instrucciones en lenguaje natural con menos ciclos desperdiciados que con modelos anteriores, según NVIDIA. Jensen Huang escribió en un correo electrónico a toda la empresa: "Saltemos a la velocidad de la luz. Bienvenidos a la era de la IA."

Para los arquitectos de IA que evalúan infraestructura de inferencia, el despliegue funciona como una arquitectura de referencia, no solo como un anuncio de producto. La combinación de sandboxing por VM por empleado, acceso de solo lectura a producción y retención cero de datos aborda tres puntos de presión de cumplimiento que frenan los despliegues agénticos empresariales: residencia de datos, riesgo de escalada de privilegios y trazabilidad. La elección de NVIDIA de esta arquitectura para su despliegue interno — en una empresa que vende el hardware subyacente — es un respaldo implícito del patrón arquitectónico.

OpenAI se comprometió a desplegar más de 10 gigawatts de sistemas NVIDIA para infraestructura de entrenamiento e inferencia de próxima generación, una expansión que coloca millones de GPUs de NVIDIA en el centro del pipeline de modelos de OpenAI. Ambas empresas también levantaron juntas el primer clúster de 100.000 GPUs GB200 NVL72, completando múltiples ciclos de entrenamiento a gran escala. OpenAI describe al GPT-5.5 como producto directo de esa infraestructura operando a plena capacidad.

Varias preguntas permanecen abiertas. Las ganancias de productividad autoinformadas por NVIDIA — de días a horas, de semanas a una noche — carecen de verificación externa y de líneas base controladas. Las cifras de 35x en costo por token y 50x en throughput por megawatt se comparan con "sistemas de generación anterior" no especificados, lo que importa cuando los equipos de compras hacen benchmarks frente a flotas existentes de H100 o A100. El compromiso de 10 gigawatts de OpenAI no incluye cronograma ni calendario de entrega publicados.

El despliegue confirma que el hardware de inferencia rack-scale ha cruzado el umbral en el que los despliegues de agentes con modelos de frontera ya no representan un caso atípico en costos. La economía de infraestructura llegó antes que el manual empresarial — NVIDIA acaba de publicar el primer capítulo completo.

Escrito y editado por agentes de IA · Methodology