EN VIVO · DOM, 17 MAY 2026 --:--:-- ET
Edición Nº 26 GASTO TOTAL $10963.17 ARTÍCULOS HOY 5 TOKENS TOTAL 6.42B
aiexpert
WIRE Ep. 5 · 29 de abril de 2026 · 16:51

La semana en que el stack de IA fue repreciado

Capital, contratos y costo por token se movieron todos a la vez — el stack de IA que las empresas compran luce materialmente distinto al que tenían el viernes.

Hosts: Host ES

Transcript

HOST

Cuatro días. Ese es el tiempo que le tomó a OpenAI y Microsoft romper el contrato de exclusividad que estructuraba el mercado de IA desde 2019, a Google extender un cheque de hasta cuarenta mil millones de dólares a un competidor directo, y al precio de un token GPT duplicarse exactamente cuando el primer estudio sistemático muestra que los agentes de IA consumen mil veces más tokens que el code chat. Si tienes un diagrama de arquitectura de stack de IA en tu Confluence, ya está desactualizado. En este Wire: el fin de la exclusividad de Azure, el capital que reconfiguró Anthropic, la fusión soberana que emergió de Europa, el nuevo umbral de costo agentivo, y los vacíos de gobernanza que los reguladores aún no han cerrado.

JOHN

Lo que une todas estas historias es una lógica común: los supuestos sobre los cuales los equipos de arquitectura construyeron sus planes para 2026 — de precio, de proveedor, de responsabilidad legal — cambiaron todos al mismo tiempo.

HOST

Empecemos por el contrato. OpenAI y Microsoft reescribieron el acuerdo que fundaba la asociación desde 2019. Tres cambios estructurales: fin de la exclusividad de distribución de la API en Azure, eliminación de la cláusula AGI, e inversión del flujo de ingresos.

JOHN

La cláusula AGI era la más problemática. Le otorgaba a Microsoft derechos amplios sobre la propiedad intelectual de OpenAI hasta que la empresa se autodeclarara como habiendo alcanzado la inteligencia artificial general — una definición indefinida, controlada por quien emite la declaración, con incentivos perversos integrados en la estructura.

HOST

Eliminada. En su lugar, Microsoft recibe una licencia no exclusiva de los modelos y productos de OpenAI válida hasta 2032, sin ninguna contingencia tecnológica. El detonante de la renegociación fue concreto: el plan de OpenAI de distribuir productos a través de AWS arriesgaba violar los términos de exclusividad de Azure. Sam Altman y Satya Nadella negociaron personalmente durante varias semanas.

JOHN

El resultado: OpenAI puede ahora distribuir modelos y productos a través de cualquier proveedor de nube. Azure mantiene el estatus de socio preferencial — los productos todavía se lanzan allí primero — pero el monopolio de distribución terminó.

HOST

En el lado financiero: Microsoft dejó de pagarle a OpenAI el veinte por ciento de los ingresos que generaba revendiendo modelos a través de Azure — ese pago fue eliminado. OpenAI todavía paga un revenue share a Microsoft, con un tope total y vencimiento en 2030, al mismo porcentaje de antes. La monetización de Microsoft migra al equity: obtiene ganancias del crecimiento general de OpenAI, no del margen de distribución de la API. Para el arquitecto: multi-cloud con modelos GPT dejó de ser una cuestión contractual abierta. Los equipos de procurement que diferían evaluaciones de AWS o Google Cloud por riesgo de exclusividad de Azure pueden reabrir esos procesos ahora.

HOST

Capital. Google invertirá hasta cuarenta mil millones de dólares en Anthropic — diez mil millones de inmediato, a una valuación de trescientos cincuenta mil millones de dólares, con hasta treinta mil millones adicionales condicionados a metas de rendimiento. Esto convierte a Alphabet en el mayor accionista individual de la startup mientras compite directamente con ella en la capa de modelo, a través de Gemini.

JOHN

La estructura resultante no tiene precedente directo en el sector. Google compite con Anthropic en la capa de modelo, provee los TPUs que ejecutan la inferencia de Claude, y ahora tiene la mayor posición financiera individual en la empresa. Rival de modelo, proveedor de infraestructura y mayor financiador — simultáneamente.

HOST

El acuerdo incluye un compromiso adicional de cinco gigawatts de capacidad de cómputo en Google Cloud por cinco años — sobre un acuerdo previo con Broadcom que un filing de valores mobiliarios cuantificó en tres punto cinco gigawatts. Amazon agregó otros cinco mil millones de dólares a su propia posición en Anthropic esa misma semana, dentro de un acuerdo más amplio por el cual Anthropic debería comprometer hasta cien mil millones de dólares por aproximadamente cinco gigawatts de capacidad de cómputo a lo largo del tiempo. Anthropic también cerró un acuerdo separado de datacenter con CoreWeave.

JOHN

El contexto detrás de la urgencia: Anthropic enfrentó quejas generalizadas de usuarios sobre límites de uso en las últimas semanas. La carrera por capacidad de cómputo es real, cara y acelerada. La empresa ahora tiene compromisos multi-gigawatt con dos de los tres hyperscalers simultáneamente.

HOST

Para el arquitecto: cuando un único hyperscaler puede venderte el chip, proveer el modelo que compite con el que corre en él, y tener el mayor equity stake en la empresa competidora — la exposición ya no es solo costo de nube. Es gobernanza de proveedor. "Estrategia multi-vendor de IA" sale de la columna de preferencia y entra en la columna de política de procurement.

HOST

El tercer movimiento de la semana vino de fuera de Silicon Valley. Cohere, de Canadá, y Aleph Alpha, de Alemania, anunciaron una fusión para formar una empresa de IA enterprise valuada en veinte mil millones de dólares, según el Financial Times. El acuerdo está anclado por un Series E de seiscientos millones de dólares del Schwarz Group — el mayor minorista de Europa, operador de Lidl y Kaufland en treinta y dos países, y ya inversor de Aleph Alpha.

JOHN

Aleph Alpha opera un asistente de IA gubernamental con ochenta mil usuarios en el sector público alemán. Sus modelos fueron construidos desde cero para residencia de datos europea y conformidad con el AI Act de la UE — no adaptados a posteriori. Su tagline es "AI Made in Germany. For Europe" — y eso es posicionamiento y hecho regulatorio al mismo tiempo.

HOST

La lógica estratégica declarada es directa: dar a empresas y gobiernos una alternativa a los labs americanos que hoy dominan la IA comercial, con mayor independencia y control sobre sus datos. El acuerdo aún no se ha cerrado — está sujeto a revisión regulatoria, un obstáculo no trivial para una fusión transfronteriza en un sector bajo escrutinio de concentración de mercado. El valor de veinte mil millones es el reporte del FT sobre una estructura aún en análisis.

JOHN

Pero el cheque de seiscientos millones del Schwarz Group es una señal operacional, no especulativa. Cuando el mayor minorista de Europa escribe una suma de nueve dígitos para financiar una alternativa soberana de IA, eso no es un hedge de portafolio. Es una apuesta de cadena de suministro.

HOST

Para los equipos con restricciones de residencia de datos o exposición al AI Act de la UE, la fusión crea un único interlocutor con infraestructura full-stack en jurisdicciones norteamericanas y europeas, y un modelo de gobernanza diseñado para el AI Act desde el origen — no adaptado a él después.

HOST

Ahora la capa de costo. GPT-5.5 llegó. Cuando la API abra, el precio será de cinco dólares por millón de tokens de entrada y treinta dólares por millón de tokens de salida — exactamente el doble de GPT-5.4, que está a dos con cincuenta y quince dólares. Una variante GPT-5.5 Pro llega a treinta dólares de entrada y ciento ochenta de salida. OpenAI posiciona GPT-5.4 como la opción capaz y eficiente en costo; GPT-5.5 ocupa el tier premium para workloads que justifican el precio.

JOHN

El doble del precio base sería absorbible si los patrones de consumo de los agentes fueran lineales. Pero esta semana se publicó el primer estudio sistemático de consumo de tokens en tareas agentivas — y los números cambian el cálculo por completo.

HOST

El paper, de investigadores del MIT, Stanford, la Universidad de Michigan y Salesforce AI Research, analizó trayectorias de ocho LLMs frontier — incluyendo GPT-5, Claude Sonnet 4.5 y Kimi-K2 — en el benchmark SWE-bench Verified. La mecánica detrás de los costos:

HOST

Son los tokens de entrada — no los de salida — los que dirigen el costo total. Los agentes reingresan continuamente ventanas de contexto largas en loops de planificación y recuperación de errores, con la generación de código en sí representando una fracción mínima del gasto. El consumo también es altamente estocástico: en la misma tarea, el total de tokens puede variar hasta treinta veces entre ejecuciones. Y esa varianza no se correlaciona con el resultado — la precisión alcanza su pico en niveles intermedios de costo y se satura, o cae, en costos más altos. Volver a ejecutar el agente simplemente con más tokens no es una solución confiable.

JOHN

La variable de mayor apalancamiento que el estudio identifica es la elección del modelo. Kimi-K2 y Claude Sonnet 4.5 consumieron, en promedio, más de un punto cinco millones de tokens adicionales en comparación con GPT-5 en las mismas tareas. Para equipos que ejecutan cientos de sesiones paralelas o pipelines de CI, esa diferencia se multiplica en costo de infraestructura relevante — y el estudio ofrece una base empírica para decisiones de selección de modelo que van más allá de la accuracy.

HOST

El número central del paper: los agentes de IA consumen aproximadamente mil veces más tokens que el code chat convencional.

JOHN

Y los modelos no pueden predecir su propio consumo antes de la ejecución con confianza. La correlación máxima de predicción fue de cero punto treinta y nueve, con subestimación sistemática. Las estimativas de auto-presupuesto de los agentes no pueden usarse como insumo de scheduling sin una capa de calibración empírica.

HOST

Junta las dos historias: GPT-5.5 al doble del precio base, con agentes consumiendo mil veces más tokens que el code chat. Los presupuestos de agentes enterprise acaban de ser repreciados por órdenes de magnitud. Mide las trayectorias empíricamente, o presupuesta a ciegas.

HOST

Dos movimientos de gobernanza cierran la semana. El primero es una apertura. El 27 de abril, OpenAI recibió la autorización FedRAMP 20x Moderate para ChatGPT Enterprise y su plataforma de API — habilitando el procurement federal de modelos frontier en agencias civiles estadounidenses. FedRAMP 20x es una vía simplificada que la GSA anunció en marzo de 2025, reemplazando paquetes de documentación manual con evidencias de seguridad cloud-native, Key Security Indicators y validación automatizada.

JOHN

GPT-5.5 ya está disponible en el entorno FedRAMP. Codex Cloud también será accesible a través de los workspaces FedRAMP de ChatGPT Enterprise — para agencias con programas activos de modernización de software, un entorno de coding agentivo autorizado al nivel Moderate elimina una barrera de procurement. Para arquitectos que atienden contratistas federales: el paquete de autorización reutilizable está en el Trust Portal de OpenAI. Cada agencia retiene la autoridad para imponer controles adicionales antes de la producción. FedRAMP Moderate cubre información no clasificada controlada — no se extiende a workloads High o de seguridad nacional.

HOST

El segundo movimiento de gobernanza es una advertencia. Un paper publicado el 24 de abril en arXiv por Gauri Sharma y Maryam Molamohammadi mapea una falla estructural en las cadenas de suministro de IA para contratación. Los sistemas modernos de hiring por IA operan en cuatro capas — proveedores de datos, desarrolladores de modelo, proveedores de plataforma y organizaciones deployers — y esta arquitectura crea vacíos de responsabilidad que ni el AI Act de la UE, ni la NYC Local Law 144, ni el Colorado AI Act están estructurados para cerrar.

JOHN

La mecánica del problema: un parser de currículos puede no producir sesgo medible de forma aislada, pero contribuir a resultados discriminatorios cuando se integra con algoritmos específicos de ranking y thresholds de filtrado. Cada actor en la cadena puede demostrar conformidad individualmente. El sistema integrado puede producir resultados sesgados de todas formas. Y esto no es teórico — es la arquitectura estándar de cualquier stack de HR tech moderno.

HOST

Bajo el AI Act de la UE, las herramientas de contratación por IA están en el nivel de riesgo más alto — y son los deployers, no los proveedores upstream, los principales responsables legales de las evaluaciones de impacto en derechos fundamentales. Si el sesgo se origina en el modelo o en los datos de entrenamiento del proveedor, la organización que hace el deploy sigue siendo el objetivo regulatorio, sin derecho garantizado de acceso técnico para diagnosticar la causa raíz. Para equipos jurídicos y de compliance que negocian contratos de IA con proveedores: los derechos de auditoría a nivel de sistema, la divulgación de configuración y las cláusulas de responsabilidad compartida no son adiciones opcionales. Son el único mecanismo que cierra el vacío que la ley actual deja abierto.

HOST

Eso fue el Wire del lunes en ai|expert. Capital, contratos y costo por token se movieron juntos esta semana — y el stack de IA que las empresas compran parece materialmente diferente al del viernes pasado. En la Edition del viernes, profundizamos en el hilo de soberanía: el pacto DeepMind–Corea del Sur, y lo que el roadmap de IA de Ubuntu de Canonical significa para on-prem. Hasta entonces.