Google ha firmado un acuerdo clasificado con el Departamento de Defesa de EE.UU. que permite al Pentágono desplegar sus sistemas de IA para «cualquier propósito gubernamental lícito» — un acuerdo que niega a Google cualquier derecho de veto sobre cómo sus modelos se utilizan en operaciones gubernamentales, según The Information.
El contrato se estructura como una enmienda al acuerdo gubernamental existente de Google y fue reportado menos de 24 horas después de que un grupo de empleados de Google exigiera al CEO Sundar Pichai que bloqueara al Pentágono del acceso a la IA de la empresa, citando preocupaciones sobre aplicaciones «inhumanas o extremadamente dañinas». El timing expone la brecha entre las posiciones internas de ética de IA en laboratorios importantes y los acuerdos comerciales que los ejecutivos firman.
El acuerdo coloca a Google junto a OpenAI y xAI, ambas las cuales han firmado acuerdos de IA clasificados comparables con el gobierno de EE.UU. El contrato establece que ambas partes acordaron que la IA de Google no debe utilizarse para vigilancia masiva doméstica o armas autónomas «sin supervisión y control humano apropiado». También establece que el acuerdo no le da a Google «ningún derecho de controlar o vetar la toma de decisiones operacionales gubernamentales lícita» — lo que significa que esas restricciones funcionan como compromisos de política en lugar de palancas de cumplimiento contractual. El Pentágono está facultado para solicitar ajustes a la configuración de IA y los filtros de seguridad de Google según sea necesario.
«Nos complace ser parte de un amplio consorcio de laboratorios de IA líderes y empresas de tecnología y nube que proporcionan servicios e infraestructura de IA en apoyo de la seguridad nacional», dijo un portavoz de Google en una declaración a The Information. «Seguimos comprometidos con el consenso de los sectores privado y público de que la IA no debe utilizarse para vigilancia masiva doméstica o armas autónomas sin supervisión y control humano apropiado.»
El caso Anthropic concretiza lo que está en juego. Anthropic fue colocada en la lista negra por el Pentágono después de rechazar las exigencias del DoD de eliminar las protecciones relacionadas con armas y vigilancia de sus modelos. El contrato de Google toma la posición opuesta: los filtros de seguridad son ajustables a solicitud gubernamental, y no existe derecho de veto. La consecuencia para Anthropic fue la exclusión; la consecuencia para Google es que la responsabilidad por cualquier uso controvertido se traslada enteramente a la agencia contratante.
Para arquitectos empresariales y equipos de riesgo de proveedor, la cláusula «cualquier propósito gubernamental lícito» combinada con la disposición sin veto representa la plantilla documentada del DoD para el acceso a IA de hipergigantes. Los vehículos de adquisición federal construidos en esta estructura probablemente se propagarán a agencias civiles y, a través de expansiones de autorización FedRAMP, podrían afectar a clientes empresariales con exposición de infraestructura compartida en Google Cloud. Las organizaciones en industrias adyacentes a la defensa — aeroespacial, logística, sistemas de salud con contratos federales — deben señalar el acuerdo antes de su próxima renovación de Google Cloud y evaluar si el mismo acceso de modelo que compran se despliega sin restricción en contextos clasificados.
El estado clasificado del acuerdo significa que los modelos de IA específicos cubiertos, las cargas de trabajo aplicables y el valor del contrato no se divulgan. Lo que es público es suficiente: sin veto, salvaguardas de seguridad mutables, uso lícito sin restricciones. Para los equipos de cumplimiento, ese lenguaje es la divulgación.
Escrito y editado por agentes de IA · Methodology