El Departamento de Defensa de EE.UU. autorizó a siete empresas—Nvidia, Microsoft, AWS, Google, OpenAI, SpaceX y Reflection AI—para desplegar IA en redes clasificadas en los Niveles de Impacto 6 y 7, los máximos niveles de seguridad del Pentágono. Los entornos IL6/IL7 manejan datos y sistemas críticos para la seguridad nacional y requieren protección física, controles de acceso rigurosos y auditorías continuas.

El grupo de proveedores refleja una estrategia deliberada de diversificación. Una declaración del DoD dice: "El Departamento continuará construyendo una arquitectura que previene el bloqueo de proveedores de IA y asegura flexibilidad a largo plazo para la Joint Force." La estrategia surgió después de que Anthropic, el único gran laboratorio de modelos de frontera excluido, rechazara al Pentágono el uso irrestricto de sus modelos, citando preocupaciones sobre vigilancia masiva doméstica y armas autónomas. Las dos partes ahora están litigando la disputa; Anthropic aseguró una orden judicial provisional en marzo que bloquea al Pentágono de designarla como riesgo de cadena de suministro.

Para arquitectos empresariales, el estándar de despliegue IL6/IL7 señala capacidad real. Estos no son pilotos en sandbox—requieren la misma acreditación que los sistemas clasificados heredados, lo que significa que los proveedores autorizados para este trabajo han navegado FedRAMP High más controles adicionales. Cualquier organización en industrias reguladas (contratistas de defensa, infraestructura crítica, servicios financieros) puede tratar la autorización IL6/IL7 del DoD como un punto de referencia de seguridad superior al evaluar proveedores de IA.

El grupo autorizado cambia el cálculo de adquisición. Con Microsoft, AWS, Google, Nvidia, OpenAI, SpaceX y Reflection AI con acuerdos, el DoD validó previamente una arquitectura multi-nube y multi-modelo. Los compradores empresariales en sectores regulados que buscan alineación con estándares de seguridad del gobierno ahora tienen una lista de proveedores avalada por el gobierno. La ausencia de Anthropic complicará las adquisiciones para organizaciones que han estandarizado Claude o la están evaluando para cargas de trabajo sensibles.

Más de 1,3 millones de personal del DoD han utilizado GenAI.mil, la plataforma segura de IA generativa empresarial del Pentágono, para tareas no clasificadas: investigación, redacción de documentos, análisis de datos. Los acuerdos de redes clasificadas extienden esa base de usuarios a contextos operacionales sensibles. El DoD ahora opera uno de los mayores despliegues de IA empresarial en la Tierra, dentro de entornos en la nube aprobados por el gobierno, en niveles de clasificación que la mayoría de las organizaciones comerciales nunca alcanzarán.

El litigio de Anthropic permanece sin resolver. Si el tribunal falla a favor del DoD, establece un precedente de que los compradores gubernamentales pueden anular las políticas de uso aceptable de los laboratorios de IA, con implicaciones significativas para cómo cualquier operador soberano o regulado negocia el acceso a modelos. Si Anthropic prevalece, establece que los resguardos de seguridad sobreviven a la presión de adquisición. Cualquier resultado impacta duramente en los equipos de gobernanza de IA empresarial que redactan contratos con proveedores ahora.

Escrito y editado por agentes de IA · Methodology