GPT-5.5 se lanzó el 23 de abril dentro de OpenAI Codex y está desplegándose para los suscriptores de pago de ChatGPT, pero el acceso a la API está suspendido indefinidamente. OpenAI cita requisitos de seguridad a escala y ha fijado el precio de la eventual API en $5 por millón de tokens de entrada y $30 por millón de tokens de salida — el doble de las tarifas del GPT-5.4.

En el comunicado de hoy, OpenAI declaró: "Los despliegues por API requieren salvaguardas distintas y estamos trabajando estrechamente con socios y clientes en los requisitos de seguridad para servirlo a escala. Llevaremos GPT-5.5 y GPT-5.5 Pro a la API muy pronto." El enmarque "muy pronto" no incluye ninguna fecha concreta, dejando a los equipos empresariales que dependen del acceso programático sin un plazo definido.

GPT-5.4 cuesta $2.50 por millón de tokens de entrada y $15 por millón de tokens de salida. GPT-5.5 duplica ambas cifras. La variante Pro va más lejos — $30 por millón de tokens de entrada y $180 por millón de tokens de salida — posicionándose como el Opus al Sonnet del GPT-5.4 en la lógica emergente de niveles de modelos de OpenAI. GPT-5.4 sigue disponible a sus tarifas actuales.

Con la API no disponible, una alternativa semi-oficial ya está activa. El endpoint /backend-api/codex/responses de OpenAI — el mismo que utiliza el Codex CLI open-source — ha sido respaldado públicamente para integraciones de terceros por Romain Huet, responsable de relaciones con desarrolladores de OpenAI. El 30 de marzo, Huet escribió: "¡Queremos que la gente pueda usar Codex, y su suscripción de ChatGPT, donde quiera! Eso significa en la app, en la terminal, pero también en JetBrains, Xcode, OpenCode, Pi y ahora en Claude Code." Peter Steinberger, creador de OpenClaw y ahora empleado de OpenAI, confirmó la postura: "La suscripción de OpenAI está oficialmente soportada."

Cualquier desarrollador con una suscripción activa de ChatGPT o Codex puede enrutar prompts a GPT-5.5 hoy mismo. El autor de herramientas Simon Willison lo demostró pocas horas después del lanzamiento, publicando llm-openai-via-codex — un plugin para su framework LLM open-source que autentica contra el almacén de tokens del Codex CLI y redirige las solicitudes al endpoint. El plugin expone el conjunto completo de funciones del LLM: archivos adjuntos de imágenes, chat multi-turno, llamadas a herramientas y acceso a los modos de razonamiento configurables de GPT-5.5.

Anthropic bloqueó OpenClaw — un harness de agente integrado al nivel de suscripción de Anthropic — a principios de este año. El respaldo público de OpenAI al endpoint de Codex como vía de integración aprobada es un contraste directo. Al nombrar Claude Code como integrador oficial de Codex, OpenAI agudizó la ironía: la propia herramienta de código de Anthropic puede operar legalmente sobre los rieles de suscripción de OpenAI. OpenAI contrató posteriormente a Steinberger, el desarrollador al que Anthropic había antagonizado.

La pregunta crítica para los arquitectos empresariales es si el endpoint de Codex ofrece fiabilidad a nivel de producción. No la ofrece. OpenAI no ha publicado SLAs, límites de tasa ni compromisos de versionado para el endpoint de backend — se trata de infraestructura open-source que OpenAI ha decidido no bloquear, no un producto soportado. Los equipos que evalúen GPT-5.5 para cargas de trabajo en producción deben tratar la vía Codex como acceso de nivel sandbox hasta que la API formal esté disponible.

Los costos de razonamiento escalan marcadamente en configuraciones de mayor esfuerzo. En las pruebas de Willison, el nivel de esfuerzo de razonamiento xhigh consumió 9,322 tokens de razonamiento en una sola tarea de generación de SVG, frente a 39 tokens con la configuración predeterminada — una diferencia de 239x. A $30 por millón de tokens de salida, las cargas de trabajo con razonamiento xhigh sostenido aparecerán rápidamente en los paneles de gasto empresarial.

El movimiento de OpenAI reconfigura cómo los laboratorios de IA gestionan la división entre suscripción y API. La ventaja no fue para el laboratorio con la mejor política de acceso, sino para el que primero lanzó el cliente open-source.

Escrito y editado por agentes de IA · Methodology