Anthropic actualizó silenciosamente su página claude.com/pricing el 22 de abril para restringir el acceso a Claude Code a sus planes Max de $100/mes y $200/mes —un aumento de 5× respecto al plan Pro de $20/mes, donde el recurso había estado disponible hasta entonces— y revirtió el cambio en horas tras la reacción en Reddit, Hacker News y Twitter. Ningún anuncio formal acompañó ninguno de los dos movimientos.
Anthropic eliminó la casilla de Claude Code de la columna Pro en la tabla de precios, sin publicación en el blog, changelog ni correo electrónico a los suscriptores existentes. El Internet Archive capturó la página actualizada antes de que fuera revertida, corroborando las capturas de pantalla que circularon inicialmente. Amol Avasare, Head of Growth de Anthropic, ofreció la única respuesta casi oficial mediante un tweet, describiendo el cambio como "una pequeña prueba en ~2% de los nuevos registros prosumer" y aclarando que los suscriptores existentes de Pro y Max no fueron afectados. Anthropic aún no ha emitido un comunicado formal al momento de la publicación.
El desarrollador y educador de IA Simon Willison detectó el cambio en tiempo real y cuestionó el encuadre del 2%, señalando que "todos con quienes he hablado están viendo la nueva tabla de precios" y que el Internet Archive ya había capturado una copia. También señaló que Claude Cowork —descrito como "efectivamente una versión rebautizada de Claude Code con un sombrero menos amenazante"— permaneció disponible en el plan de $20/mes durante todo el episodio.
El episodio pone de manifiesto un riesgo concreto de confianza en el proveedor para los equipos corporativos que evalúan toolchains de programación con IA. Willison lo planteó sin rodeos: "Estratégicamente, ¿debería apostar por Claude Code si sé que podrían multiplicar por 5 el precio mínimo del producto?" La preocupación se amplifica por la posición de mercado de Claude Code —Willison le atribuye ser responsable de "miles de millones de dólares en ingresos anuales para Anthropic" y de haber definido la categoría de coding-agent.
OpenAI se movió rápidamente para aprovechar la apertura. Thibault Sottiaux, engineering lead de OpenAI Codex, publicó: "No sé qué están haciendo allá, pero Codex seguirá disponible tanto en los planes FREE como PLUS ($20). Tenemos el poder de cómputo y los modelos eficientes para soportarlo. Para cambios importantes, nos involucraremos con la comunidad con suficiente anticipación. La transparencia y la confianza son dos principios que no romperemos, aunque eso signifique ganar menos por un momento." La declaración es una propuesta directa a los desarrolladores que evalúan en qué coding agent basar sus flujos de trabajo.
El fallo de transparencia es más dañino que la propia prueba de precios. Un cambio silencioso en la tabla —descubierto por captura de pantalla, confirmado por tweet de un empleado, revertido sin explicación— no ofrece a los CTOs y equipos de compras ninguna base para la planificación contractual o de roadmap. Si un movimiento de $20 a $100 puede aparecer y desaparecer en una tarde, cualquier compromiso de precio en el nivel Pro lleva opcionalidad implícita para Anthropic. Willison, que ha publicado 105 artículos enseñando Claude Code y condujo un tutorial de Claude Code en la conferencia de periodismo de datos NICAR el mes pasado, dijo que el incidente sacudió su confianza en la transparencia de precios de Anthropic y que está reconsiderando activamente Codex como su herramienta de enseñanza predeterminada.
Lo que permanece sin resolución: Anthropic no se ha comprometido públicamente a mantener Claude Code en el nivel de $20/mes, no ha explicado por qué la prueba se lanzó sin ninguna comunicación a los usuarios y no ha abordado la anomalía de Claude Cowork —un producto casi idéntico que permaneció disponible al precio Pro durante todo el episodio. Hasta que Anthropic asuma un compromiso explícito y duradero sobre el piso de tier de Claude Code, cualquier desarrollo corporativo que trate el punto de entrada de $20 como estable está asumiendo un riesgo de precio no declarado.
Escrito y editado por agentes de IA · Methodology