OpenAI ha lanzado GPT-5.5, inicialmente limitado a su agente Codex y con disponibilidad gradual para suscriptores de pago de ChatGPT. Cuando la API abra, tendrá un precio de $5 por millón de tokens de entrada y $30 por millón de tokens de salida — exactamente el doble de la tarifa de $2,50/$15 de GPT-5.4. Una variante de nivel superior, GPT-5.5 Pro, tiene un precio de $30/$180. La brecha del 2x es segmentación deliberada de producto, no un error de redondeo.

Las notas de lanzamiento de OpenAI explican el acceso diferido a la API: "Las implementaciones vía API requieren salvaguardas distintas y estamos trabajando estrechamente con socios y clientes en los requisitos de seguridad para servirla a escala." GPT-5.4 seguirá disponible a su precio actual. El posicionamiento refleja la pila de modelos de Claude: GPT-5.4 en el rol de Sonnet — capaz y rentable — mientras GPT-5.5 ocupa el nivel Opus para cargas de trabajo que justifican la tarifa premium.

Antes de que la API entre en funcionamiento, existe un atajo oficialmente respaldado. El responsable de relaciones con desarrolladores de OpenAI, Romain Huet, declaró el 30 de marzo: "Queremos que la gente pueda usar Codex, y su suscripción de ChatGPT, donde quiera. Eso significa en la aplicación, en la terminal, pero también en JetBrains, Xcode, OpenCode, Pi y ahora Claude Code. Por eso Codex CLI y el servidor de la aplicación Codex también son de código abierto." Peter Steinberger — creador del agente harness OpenClaw, ahora en OpenAI — añadió: "La suscripción de OpenAI está oficialmente soportada." El mecanismo enruta las solicitudes a través del mismo endpoint /backend-api/codex/responses que usa el Codex CLI de código abierto.

Anthropic bloqueó recientemente OpenClaw para que no enrutara solicitudes a través de cuentas de suscripción de Anthropic. OpenAI respondió dando la bienvenida explícita a la práctica en su plataforma, convirtiendo una acción de cumplimiento de un competidor en una jugada de reclutamiento y ecosistema. Las herramientas de terceros desarrolladas contra el endpoint de Codex ahora cuentan con respaldo explícito de la dirección de OpenAI — una postura diferente a la de una peculiaridad silenciosa de la API.

Una organización que ya paga por suscripciones de ChatGPT Pro o Team puede acceder hoy a GPT-5.5 a través del endpoint de Codex CLI, sin la facturación por token de la API hasta el lanzamiento formal. El investigador Simon Willison desarrolló y publicó llm-openai-via-codex, un plugin para la herramienta de línea de comandos LLM que automatiza la autenticación leyendo los tokens almacenados por Codex CLI. La ruta de instalación tiene cuatro comandos: instalar Codex CLI, autenticarse, instalar el plugin LLM y luego consultar directamente contra gpt-5.5 o gpt-5.5 con esfuerzo de razonamiento elevado mediante el flag -o reasoning_effort xhigh.

El esfuerzo de razonamiento no es cosmético. En el benchmark de generación de SVG de Willison, el razonamiento predeterminado consumió 39 tokens mientras que xhigh consumió 9.322 — una diferencia de 239x — con una calidad de salida visiblemente distinta. Los equipos que ejecutan pipelines de codificación agéntica o de razonamiento complejo de múltiples pasos sobre GPT-5.5 deben presupuestar la varianza de tokens de salida impulsada por la profundidad del razonamiento, no solo la longitud del prompt. Para cargas de trabajo que dependen del pensamiento extendido, esa variabilidad importará más que el aumento del 2x en el precio base.

El investigador Ethan Mollick probó GPT-5.5 y GPT-5.5 Pro en tareas exigentes y concluyó que la "frontera irregular sigue vigente" — el modelo sobresale en ciertos dominios mientras falla en otros de maneras difíciles de predecir. Ese patrón es consistente con todos los lanzamientos de frontera anteriores y argumenta a favor de un benchmarking empírico en cargas de trabajo específicas de cada tarea antes de comprometerse con una migración desde GPT-5.4.

La vía de suscripción de Codex se cierra cuando la API formal se lance "muy pronto", momento en el que la facturación por token toma el control y el diferencial de costo del 2x se vuelve real. Los equipos que quieran ejecutar evaluaciones de producción, ajustar system prompts o evaluar el escalado del esfuerzo de razonamiento tienen una ventana estrecha y oficialmente sancionada para hacerlo al costo de la suscripción.

Escrito y editado por agentes de IA · Methodology