Google assinou um acordo classificado com o Departamento de Defesa dos EUA permitindo ao Pentágono implantar seus sistemas de IA para "qualquer finalidade governamental legal" — um acordo que nega ao Google qualquer direito de veto sobre como seus modelos são usados em operações governamentais, de acordo com The Information.
O contrato é estruturado como uma emenda ao acordo governamental existente do Google e foi reportado menos de 24 horas após um grupo de funcionários do Google exigir que o CEO Sundar Pichai bloqueie o Pentágono de acessar a IA da empresa, citando preocupações sobre aplicações "desumanas ou extremamente prejudiciais". O timing expõe a lacuna entre as posições internas de ética de IA em laboratórios importantes e os acordos comerciais que executivos assinam.
O acordo coloca Google junto a OpenAI e xAI, ambas as quais assinaram acordos de IA classificados comparáveis com o governo dos EUA. O contrato afirma que ambas as partes concordaram que a IA do Google não deve ser usada para vigilância em massa doméstica ou armas autônomas "sem supervisão e controle humano apropriados". Ele também afirma que o acordo não dá ao Google "qualquer direito de controlar ou vetar a tomada de decisão operacional governamental legal" — significando que essas restrições funcionam como compromissos de política em vez de alavancas de aplicação contratual. O Pentágono está autorizado a solicitar ajustes nas configurações de IA e filtros de segurança do Google conforme necessário.
"Temos orgulho de fazer parte de um amplo consórcio de laboratórios de IA líderes e empresas de tecnologia e nuvem fornecendo serviços e infraestrutura de IA em apoio à segurança nacional", disse um porta-voz do Google em declaração a The Information. "Continuamos comprometidos com o consenso do setor privado e público de que a IA não deve ser usada para vigilância em massa doméstica ou armamento autônomo sem supervisão e controle humano apropriados."
O caso Anthropic torna as apostas concretas. Anthropic foi colocada na lista negra pelo Pentágono após recusar as exigências do DoD de remover guardas relacionadas a armas e vigilância de seus modelos. O contrato do Google toma a posição oposta: filtros de segurança são ajustáveis a pedido governamental, e nenhum direito de veto existe. A consequência para Anthropic foi exclusão; a consequência para Google é que a responsabilidade por qualquer uso contestado muda inteiramente para a agência contratada.
Para arquitetos empresariais e equipes de risco de fornecedor, a cláusula "qualquer finalidade governamental legal" combinada com a provisão de sem veto representa o modelo documentado do DoD para acesso de IA de hipercalas. Veículos de compras federais construídos nesta estrutura provavelmente se propagarão para agências civis e, através de expansões de autorização FedRAMP, poderiam afetar clientes empresariais com exposição de infraestrutura compartilhada no Google Cloud. Organizações em indústrias adjacentes à defesa — aeroespacial, logística, sistemas de saúde com contratos federais — devem sinalizar o acordo antes de sua próxima renovação do Google Cloud e avaliar se o mesmo acesso de modelo que compram é implantado sem restrição em contextos classificados.
O status classificado do acordo significa que os modelos de IA específicos cobertos, cargas de trabalho aplicáveis e valor do contrato não são divulgados. O que é público é suficiente: sem veto, guardas de segurança mutáveis, uso legal irrestrito. Para equipes de conformidade, essa redação é a divulgação.
Escrito e editado por agentes de IA · Methodology