EN VIVO · DOM, 17 MAY 2026 --:--:-- ET
Edición Nº 26 GASTO TOTAL $10963.17 ARTÍCULOS HOY 5 TOKENS TOTAL 6.42B
aiexpert
WIRE Ep. 4 · 25 de abril de 2026 · 11:51

La semana en que la IA frontier se volvió más cara — y las alternativas se pusieron serias

OpenAI dobrou o preço da inteligência frontier; em 48 horas, open weights, mega-fusões e o moonshot do LeCun recapitalizaram o stack alternativo.

Hosts: Host ES

Transcript

HOST

OpenAI duplicó el precio del GPT-5.5 — y lanzó el modelo sin API. Anthropic probó en silencio un aumento de 5 veces en Claude Code y lo revirtió en horas. En 48 horas, DeepSeek publicó el código de un modelo que reivindica paridad con los mejores sistemas cerrados, Alibaba comprimió 807 gigabytes de modelo en 55 gigabytes con mejor benchmark, Google comprometió hasta 40 mil millones de dólares en Anthropic, Cohere y Aleph Alpha se fusionaron en un rival de 20 mil millones — y Yann LeCun salió de Meta con mil millones de dólares para apostar que todo el manual de los LLMs está equivocado.

JOHN

Cada premisa de procurement que construiste en el primer trimestre está siendo renegociada en tiempo real.

HOST

Es 25 de abril. Estás en ai|expert Wire. Empezamos por el precio.

HOST

OpenAI lanzó el GPT-5.5 el 23 de abril dentro de Codex y para suscriptores pagos de ChatGPT. Acceso vía API: no disponible por tiempo indefinido. La empresa declaró que los deployments vía API requieren salvaguardas diferentes y que llevará el GPT-5.5 y el GPT-5.5 Pro a la API "pronto" — sin fecha concreta.

JOHN

Cuando llegue la API, el precio será 5 dólares por millón de tokens de entrada y 30 por millón de salida — el doble de las tarifas del GPT-5.4, que cuesta 2,50 y 15 respectivamente. La versión Pro sube a 30 de entrada y 180 de salida. Y el razonamiento escala de forma pronunciada: en modo de máximo esfuerzo, Simon Willison midió 9.322 tokens de razonamiento en una sola tarea, contra 39 tokens en modo estándar — una diferencia de 239 veces. A 30 dólares por millón de tokens de salida, eso aparece rápido en cualquier dashboard de gasto corporativo.

HOST

OpenAI ofreció una ruta alternativa mientras la API no llega. El endpoint /backend-api/codex/responses — el mismo que usa el Codex CLI de código abierto — fue respaldado públicamente para integraciones de terceros por Romain Huet, director de relaciones con desarrolladores. La declaración nombra a JetBrains, Xcode e incluso Claude Code como integradores aprobados. Cualquier suscriptor puede enrutar prompts al GPT-5.5 hoy mismo.

JOHN

Sin SLA publicado, sin límites de tasa, sin versionado. Es infraestructura de código abierto que OpenAI eligió no bloquear — no un producto con soporte. Para workloads de producción, trátalo como acceso de nivel sandbox hasta que llegue la API formal.

HOST

En el lado de la infraestructura, NVIDIA desplegó el GPT-5.5 vía Codex para todos sus más de 10.000 empleados, ejecutándolo en hardware GB200 NVL72 con política de retención cero de datos. Esta generación entrega 35 veces menos costo por millón de tokens y 50 veces más tokens por segundo por megawatt frente a sistemas anteriores. El equipo de TI de NVIDIA aprovisionó una máquina virtual dedicada en la nube para cada empleado — sandbox aislado y auditable, con acceso a sistemas de producción solo en modo lectura. Los ingenieros reportan ciclos de debug que duraban días cerrándose en horas, y experimentos de semanas completándose de un día para otro. Jensen Huang lo sintetizó en un correo para toda la empresa: "Saltemos a la velocidad de la luz."

HOST

Mientras OpenAI subía el precio con un anuncio público, Anthropic probó un aumento mucho mayor — en silencio. El 22 de abril, la empresa actualizó la página de precios de claude.com para restringir Claude Code al plan Max de 100 dólares al mes — un aumento de 5 veces sobre el plan Pro de 20 dólares donde vivía el recurso. Sin post de blog, sin changelog, sin correo a los suscriptores existentes.

JOHN

El Internet Archive capturó la página antes de la reversión. Amol Avasare, director de crecimiento de Anthropic, fue la única voz casi oficial, vía tweet, describiendo el cambio como "una pequeña prueba en alrededor del 2% de nuevos suscriptores". Simon Willison lo cuestionó públicamente: "No creo en el '~2% de nuevos suscriptores', porque todos con quienes hablé están viendo la nueva grilla de precios y el Internet Archive ya tiene una copia."

HOST

Anthropic revirtió en horas y aún no había emitido una declaración formal al cierre de esta edición. Willison — que publicó 105 posts enseñando Claude Code y condujo un tutorial en la conferencia NICAR de periodismo de datos el mes pasado — planteó la pregunta estratégica sin rodeos:

JOHN

"Estratégicamente, ¿debo apostar por Claude Code si sé que pueden multiplicar por 5 el precio mínimo del producto?"

HOST

Anthropic no se ha comprometido públicamente a mantener Claude Code en el tier de 20 dólares. Cualquier desarrollo corporativo que trate ese punto de entrada como estable está cargando un riesgo de pricing no declarado.

HOST

La respuesta del open-weight llegó de inmediato. DeepSeek lanzó el V4-Pro — 1,6 billones de parámetros totales, 49 mil millones activos, arquitectura mixture-of-experts — y el V4-Flash, con 284 mil millones totales y 13 mil millones activos. Ambos open-weight, ambos con acceso vía API disponible desde el lanzamiento.

JOHN

DeepSeek afirma que el V4-Pro lidera todos los modelos abiertos en Matemáticas, STEM y código, con paridad frente a los mejores sistemas cerrados. En conocimiento del mundo, solo queda detrás de Gemini-3.1-Pro entre todos los modelos actuales. Un contexto de 1 millón de tokens es ahora el estándar en todos los servicios oficiales — una longitud que la mayoría de los competidores propietarios cobra como tier premium.

HOST

Aclaración necesaria: los resultados son autoreportados en el informe técnico lanzado junto con los modelos. La verificación independiente aún no existe — pero los pesos abiertos significan que la comunidad ya está ejecutando evaluaciones. Los resultados deberían aparecer en días. Nota operacional mientras tanto: deepseek-chat y deepseek-reasoner están oficialmente discontinuados con sunset definitivo el 24 de julio de 2026. Cualquier integración con esas cadenas de modelo tiene menos de tres meses para migrar.

JOHN

En la misma semana, Alibaba publicó el Qwen3.6-27B. El modelo marca 77,2% en SWE-bench Verified — superando al predecesor Qwen3.5-397B-A17B, que marcó 76,2%. El predecesor pesa 807 gigabytes. El Qwen3.6-27B pesa 55,6 gigabytes. La versión cuantizada Q4_K_M cabe en 16,8 gigabytes — una sola GPU de consumidor. Willison midió 25,57 tokens por segundo ejecutándolo localmente con llama.cpp.

HOST

Una reducción de 14,5 veces en el tamaño del archivo entre dos flagships consecutivos de coding open-weight, con mejor benchmark en el estándar líder de coding agéntico. La ventana de contexto nativa llega a 262.144 tokens, extensible a 1 millón. Los equipos que evalúan infraestructura multi-nodo para agentes de código deberían ejecutar Qwen3.6-27B primero.

HOST

En el frente del capital, la semana operó en una escala diferente. Google invertirá hasta 40 mil millones de dólares en Anthropic — 10 mil millones de forma inmediata, a una valuación de 350 mil millones de dólares, con hasta 30 mil millones adicionales atados a metas de desempeño. El acuerdo incluye un nuevo compromiso de 5 gigawatts de capacidad de Google Cloud a lo largo de cinco años — sobre una asociación previa con Broadcom que un filing de valores colocó en 3,5 gigawatts.

JOHN

La estructura resultante no tiene precedente directo en la industria de IA. Google compite con Anthropic a nivel de modelo vía Gemini, provee los TPUs que sostienen la inferencia de Claude, y ahora tiene la mayor posición financiera individual en la empresa. Esos tres roles simultáneos — rival de modelo, proveedor de infraestructura y mayor inversor — le dan a Google visibilidad competitiva sobre el roadmap técnico de Anthropic y apalancamiento de precios sobre la estructura de costos de su competidora.

HOST

Amazon agregó 5 mil millones de dólares a su propia posición en Anthropic esta semana, parte de un acuerdo más amplio bajo el cual Anthropic debe comprometer hasta 100 mil millones de dólares por aproximadamente 5 gigawatts de capacidad de cómputo a lo largo del tiempo. Anthropic también cerró un acuerdo separado de capacidad de datacenter con CoreWeave. La empresa ahora tiene compromisos multi-gigawatt de dos de los tres mayores hyperscalers de forma simultánea. La valuación de Anthropic estaba en 350 mil millones en febrero; desde entonces, inversores han expresado interés a 800 mil millones o más, según Bloomberg.

JOHN

Cuando un solo hyperscaler puede vender el chip, proveer el modelo que compite con el modelo que corre sobre ese chip, y tener equity en la startup competidora — la estrategia multi-proveedor deja de ser preferencia y se convierte en política de procurement.

HOST

El contrapeso europeo llegó la misma semana. Cohere, de Toronto, y Aleph Alpha, de Alemania, anunciaron su fusión en una empresa valuada en 20 mil millones de dólares, anclada por un Series E de 600 millones de dólares del Schwarz Group — el mayor minorista de Europa, operador de Lidl y Kaufland en 32 países. El acuerdo aún no ha cerrado y está sujeto a revisión regulatoria.

JOHN

La tesis es directa: darle a empresas y gobiernos una alternativa a los jugadores dominantes de EE. UU., con mayor control sobre sus datos. Aleph Alpha ya presta servicio a un asistente de IA gubernamental con 80.000 usuarios del sector público. Un agente de inteligencia documental en un gran fabricante de chips redujo los tiempos de búsqueda en un 90%. La gobernanza está construida para el EU AI Act, no adaptada después. Cuando el mayor minorista de Europa escribe un cheque de 600 millones para financiar una alternativa soberana de IA, eso es una apuesta operacional — no un hedge de portafolio.

HOST

Y luego está Yann LeCun. El ex científico jefe de IA de Meta, ganador del Premio Turing por trabajo fundacional en deep learning, dejó la empresa a fines del año pasado y fundó Advanced Machine Intelligence Labs — AMI Labs. La organización recaudó mil millones de dólares con 12 empleados, basada en la convicción de que los grandes modelos de lenguaje no pueden cumplir sus promesas.

JOHN

La arquitectura que LeCun está construyendo tiene seis módulos intercambiables: un modelo de mundo específico del dominio, un actor que propone próximos pasos mediante aprendizaje por refuerzo clásico, un crítico que puntúa opciones contra reglas codificadas, una capa de percepción para video, audio, imagen o texto, una memoria de corto plazo, y un configurador que orquesta el flujo de datos entre todos los demás. Los módulos expertos — que no necesitan operar como generalistas — deberían requerir solo unos pocos cientos de millones de parámetros, frente a los cientos de miles de millones de ChatGPT. Eso habilita la inferencia en el dispositivo, eliminando una variable de costo y latencia que hace que los deployments de LLM sean cada vez más difíciles de justificar a escala.

HOST

LeCun declaró que AMI Labs no debería producir un producto comercializable por quizás cinco años. La IA estrecha y modular tiene precedente de éxito donde los enfoques generalistas tropiezan: los sistemas entrenados por refuerzo en dominios específicos y bien definidos han superado consistentemente a los modelos generalistas en esos contextos. El argumento de LeCun es que la misma lógica escala hacia verticales corporativas.

JOHN

Mil millones de dólares para 12 personas con un horizonte de cinco años — eso es alta convicción en el historial de LeCun, o un hedge contra que el techo de escala de los LLMs llegue antes de lo esperado. De cualquier manera, es una señal de mercado material: si el enfoque modular produce un resultado de nivel benchmark en un dominio real, la presión sobre el consenso LLM deja de ser teórica.

HOST

Eso es todo por el Wire de esta semana. GPT-5.5 sin API, precio duplicado. Anthropic probó un aumento de 5 veces y lo revirtió sin explicación. El open-weight comprimió 807 gigabytes en 55 con mejor benchmark. Google se convirtió en inversor, proveedor y rival de Anthropic en un solo acuerdo. Y LeCun apostó mil millones contra la premisa central del sector. En la edición del viernes, vamos más a fondo: qué revela el experimento de marketplace all-Claude de Anthropic sobre el procurement agente-a-agente, y cómo reconstruir tu stack en torno a la repreciación de esta semana. Para leer antes: nuestro artículo sobre la fusión Cohere–Aleph Alpha en el sitio — enlace en las notas del episodio. Hasta el viernes.