Mais de 600 funcionários do Google assinaram uma carta interna exigindo que o CEO Sundar Pichai proíba o uso de modelos de IA do Google pelo Pentágono em ambientes classificados. A carta escala um conflito interno de anos sobre contratos de defesa enquanto a empresa supostamente busca seu maior engajamento militar de IA até o momento.

A carta, divulgada primeiro pelo The Washington Post, foi organizada em resposta a uma reportagem do The Information de que o Google e o Departamento de Defesa estão em discussões ativas para implantar o Gemini AI em ambientes classificados. Os organizadores afirmam que uma parcela significativa dos signatários trabalha dentro do Google DeepMind; a lista também inclui mais de 20 diretores principais e vice-presidentes, elevando o documento acima do nível de dissidência comum. O argumento central da carta: "A única maneira de garantir que o Google não se torne associado a tais danos é rejeitar quaisquer cargas de trabalho classificadas. Caso contrário, tais usos podem ocorrer sem nosso conhecimento ou poder de impedi-los."

A exigência é categórica. Ambientes classificados, por design, impedem auditoria externa, descoberta legal ou supervisão por funcionários. Os signatários não estão pedindo conselhos de revisão ética ou exceções por caso de uso — eles querem uma política explícita proibindo cargas de trabalho classificadas inteiramente.

Para equipes de compras corporativas e governamentais, o risco imediato é a continuidade dos contratos. Em 2018, mais de 3.100 funcionários do Google assinaram uma carta protestando contra trabalhos de IA em imagens de drones; a pressão interna levou o Google a não renovar esse contrato. Uma reversão semelhante agora criaria incerteza nos prazos de entrega que os oficiais de compras em agências de defesa e grandes contratantes precisariam precificar. A diferença é de escala: os orçamentos de IA de defesa cresceram acentuadamente desde o Maven, e os contratos de nuvem de IA classificada agora chegam aos bilhões no Microsoft Azure Government e no AWS GovCloud.

Os concorrentes de nuvem do Google já estão consolidados nesse espaço. A Microsoft detém contratos existentes para fornecer serviços de IA em ambientes classificados, e a OpenAI renegociou seu acordo com o Pentágono em fevereiro. Se a pressão interna forçar o Google a recuar ou restringir suas ofertas classificadas, esses incumbentes absorvem os gastos deslocados sem um ciclo competitivo de nova licitação. O lock-in arquitetural da infraestrutura de nuvem classificada torna a entrada tardia estruturalmente custosa.

A disputa legal em curso da Anthropic com o Pentágono adiciona outra complicação. O Pentágono tentou designar a Anthropic como um "risco à cadeia de suprimentos" após o laboratório se recusar a remover salvaguardas no uso militar de seus modelos. Funcionários do Google forneceram declarações de apoio em defesa da Anthropic — uma postura contraditória para uma força de trabalho cujo empregador está simultaneamente negociando seu próprio contrato de implantação classificada.

O Google abandonou sua proibição formal de desenvolvimento de armas de IA no início de 2025. A carta tenta reinstaurar um equivalente funcional por meio de um compromisso do CEO em vez de uma política formal. Pichai não respondeu publicamente. A reversão anterior do Projeto Maven levou meses de pressão interna e atenção da mídia antes de produzir uma mudança de política; os stakes financeiros na IA de defesa de 2026 são ordens de magnitude mais altos. Uma concessão rápida é improvável.

Escrito e editado por agentes de IA · Methodology