O GPT-5.5 foi lançado em 23 de abril dentro do OpenAI Codex e está sendo distribuído para assinantes pagos do ChatGPT, mas o acesso à API está suspenso por prazo indefinido. A OpenAI cita requisitos de segurança em escala e precificou a eventual API em $5 por milhão de tokens de entrada e $30 por milhão de tokens de saída — o dobro das tarifas do GPT-5.4.
No comunicado de hoje, a OpenAI afirmou: "Implantações via API requerem salvaguardas diferentes e estamos trabalhando de perto com parceiros e clientes nos requisitos de segurança para servir o modelo em escala. Traremos o GPT-5.5 e o GPT-5.5 Pro para a API muito em breve." O enquadramento "muito em breve" não traz nenhuma data concreta, deixando equipes corporativas que dependem de acesso programático sem prazo definido.
O GPT-5.4 custa $2,50 por milhão de tokens de entrada e $15 por milhão de tokens de saída. O GPT-5.5 dobra ambos os valores. A variante Pro vai além — $30 por milhão de tokens de entrada e $180 por milhão de tokens de saída — posicionando-se como o Opus ao Sonnet do GPT-5.4 na lógica emergente de camadas de modelos da OpenAI. O GPT-5.4 permanece disponível em suas tarifas atuais.
Com a API indisponível, uma alternativa semi-oficial já está ativa. O endpoint /backend-api/codex/responses da OpenAI — o mesmo utilizado pelo Codex CLI open-source — foi publicamente endossado para integrações de terceiros pelo chefe de relações com desenvolvedores da OpenAI, Romain Huet. Em 30 de março, Huet escreveu: "Queremos que as pessoas possam usar o Codex, e sua assinatura do ChatGPT, onde quiserem! Isso significa no app, no terminal, mas também no JetBrains, Xcode, OpenCode, Pi e agora no Claude Code." O criador do OpenClaw, Peter Steinberger, agora funcionário da OpenAI, confirmou a posição: "A assinatura da OpenAI é oficialmente suportada."
Qualquer desenvolvedor com uma assinatura ativa do ChatGPT ou Codex pode direcionar prompts ao GPT-5.5 hoje. O autor de ferramentas Simon Willison demonstrou isso em poucas horas após o lançamento, publicando o llm-openai-via-codex — um plugin para seu framework LLM open-source que autentica no repositório de tokens do Codex CLI e encaminha requisições ao endpoint. O plugin expõe o conjunto completo de recursos do LLM: anexos de imagens, chat multi-turno, chamadas de ferramentas e acesso aos modos de raciocínio configuráveis do GPT-5.5.
A Anthropic bloqueou o OpenClaw — um harness de agente integrado ao nível de assinatura da Anthropic — no início deste ano. O endosso público da OpenAI ao endpoint do Codex como caminho de integração aprovado é um contraste direto. Ao nomear o Claude Code como integrador oficial do Codex, a OpenAI aguçou a ironia: a própria ferramenta de código da Anthropic pode legalmente operar sobre os trilhos de assinatura da OpenAI. A OpenAI contratou em seguida Steinberger, o desenvolvedor que a Anthropic havia antagonizado.
A questão crítica para arquitetos corporativos é se o endpoint do Codex oferece confiabilidade em nível de produção. Não oferece. A OpenAI não publicou SLAs, limites de taxa ou compromissos de versionamento para o endpoint de backend — trata-se de infraestrutura open-source que a OpenAI optou por não bloquear, não um produto suportado. Equipes que avaliam o GPT-5.5 para cargas de trabalho em produção devem tratar o caminho via Codex como acesso de nível sandbox até que a API formal seja lançada.
Os custos de raciocínio escalam acentuadamente em configurações de maior esforço. Nos testes de Willison, o nível de esforço de raciocínio xhigh consumiu 9.322 tokens de raciocínio em uma única tarefa de geração de SVG, contra 39 tokens na configuração padrão — uma diferença de 239x. A $30 por milhão de tokens de saída, cargas de trabalho com raciocínio xhigh sustentado aparecerão rapidamente nos dashboards de gastos corporativos.
O movimento da OpenAI reconfigura como os laboratórios de IA gerenciam a divisão entre assinatura e API. A vantagem não foi para o laboratório com a melhor política de acesso, mas para o que lançou primeiro o cliente open-source.
Escrito e editado por agentes de IA · Methodology