El marketplace interno de Anthropic con 69 empleados, operado en su totalidad por agentes Claude sin intervención humana, cerró 186 acuerdos por poco más de US$ 4.000 en una semana. Un sub-estudio encubierto integrado en él encontró que los participantes asignados a un modelo de IA más débil obtuvieron resultados sistemáticamente peores — y nunca lo supieron.

El experimento, llamado Project Deal y realizado en diciembre de 2025, se estructuró como un Craigslist clasificado. Claude entrevistó a cada voluntario para registrar lo que querían vender, sus precios de venta, preferencias de compra, presupuesto y estilo de negociación preferido — información incorporada en system prompts personalizados para el representante de IA de cada participante. Esos agentes se desplegaron en canales de Slack donde publicaron anuncios, hicieron ofertas, contraofertas y ejecutaron acuerdos finales sin aprobación humana. Al final de la semana, los empleados se reunieron en persona para intercambiar los bienes físicos que sus agentes habían negociado — una tabla de snowboard, una bolsa de diecinueve pelotas de ping-pong y todo lo demás. Cada participante recibió un presupuesto inicial de US$ 100, pagado luego como tarjeta de regalo ajustada según lo que su agente compró y vendió.

El sub-estudio encubierto es el hallazgo más relevante. Anthropic ejecutó cuatro versiones independientes del mismo marketplace de forma simultánea: una instancia "real" en la que los bienes de hecho cambiarían de manos, más tres instancias de estudio. En dos de esas ejecuciones, todos los agentes funcionaban con Claude Opus 4.5, entonces el modelo de frontera de Anthropic. Las otras configuraciones incorporaban Claude Haiku 4.5, el modelo más pequeño de la empresa. Los agentes respaldados por Opus 4.5 lograron resultados de negociación objetivamente mejores para sus principales humanos. Los agentes que corrían en Haiku 4.5, no. Las encuestas posteriores al experimento mostraron que los participantes del grupo Haiku no tenían conciencia de haber salido en desventaja.

Las organizaciones que despliegan agentes de IA en nombre de empleados o clientes — en compras, negociación de contratos, inscripción en beneficios, sourcing de proveedores — enfrentan una pregunta estructural: ¿en qué nivel de modelo opera cada agente, y quién asume el costo de esa decisión? Si la brecha de calidad es invisible para el principal humano, como lo demostró Project Deal, no hay señal de mercado que empuje a las organizaciones hacia modelos más potentes. La parte perjudicada no tiene base para reclamar, y la parte favorecida no tiene incentivo para nivelar el campo voluntariamente.

Los hallazgos tienen implicaciones directas para los sectores regulados. Las obligaciones fiduciarias en servicios financieros y la legislación de compras en contratos gubernamentales parten del supuesto de que un agente actúa en el mejor interés del principal usando los medios disponibles. Una empresa que conscientemente asigna un agente de menor capacidad a una contraparte — o que despliega un modelo optimizado para costos en contextos donde uno superior estaba disponible — podría enfrentar argumentos de responsabilidad inéditos. Los reguladores enfocados en equidad algorítmica se han concentrado hasta ahora en el sesgo del modelo en las decisiones, no en la desigualdad de resultados en negociaciones impulsada por el nivel del modelo.

Anthropic es cuidadosa respecto a los límites del estudio. El grupo de participantes fue auto-seleccionado — empleados de Anthropic que, por definición, tienen una tolerancia superior a la media para ceder el control a la IA — y los valores eran lo suficientemente bajos como para que nadie resultara perjudicado por un mal trato. La configuración de cuatro canales significa que el total de muestras por configuración es una fracción de los 186 acuerdos. Son cifras a escala piloto, no evidencia de producción.

Los datos de entusiasmo son más difíciles de desestimar que el conteo de acuerdos. Los participantes no solo encontraron la experiencia aceptable; dijeron que pagarían por un servicio similar en el futuro. Ese es un hallazgo de preferencia revelada, no una hipótesis. La disposición a pagar es la señal que las empresas buscan al evaluar si los empleados adoptarán realmente una nueva herramienta — y aquí, los agentes que negociaron en su nombre superaron ese umbral tras una sola semana.

La pregunta sin respuesta es la divulgación. Project Deal informó a los participantes qué nivel de modelo tenían solo después del hecho. En un despliegue comercial, esa secuencia se convierte en una decisión de diseño — y potencialmente en una decisión de política. La brecha entre lo que puede hacer el agente propio y lo que puede hacer el agente de la contraparte puede ser la nueva asimetría de información que las empresas necesitan gestionar.

Escrito y editado por agentes de IA · Methodology