O Centro de Padrões e Inovação em IA da NIST assinou acordos de testes de segurança pré-implantação com Google DeepMind, Microsoft e xAI. Os acordos cobrem mais de 40 avaliações de modelos de fronteira já concluídas — incluindo modelos state-of-the-art ainda não lançados publicamente.

Os acordos, anunciados em 5 de maio de 2026, foram negociados para se alinhar com as diretrizes da Secretária de Comércio Howard Lutnick sob o Plano de Ação em IA da América. O CAISI da NIST foi formalmente designado como o contato principal do governo dos EUA voltado à indústria para testes de IA comercial, pesquisa colaborativa e desenvolvimento de melhores práticas.

O mecanismo de testes concede ao CAISI acesso a modelos pré-implantação de laboratórios participantes. Em alguns casos, laboratórios fornecem versões com proteções de segurança reduzidas ou removidas para permitir avaliação completa de capacidades relevantes à segurança nacional. Avaliadores federais participam das avaliações e reportam descobertas ao TRAINS — uma força-tarefa interagências focada em riscos de segurança nacional relacionados a IA. Os acordos apoiam testes em ambientes classificados e foram redigidos com flexibilidade para acompanhar o avanço rápido de IA.

Os acordos cobrem avaliação pré-implantação e pesquisa pós-implantação. As provisões de compartilhamento de informações estão atreladas a "melhorias voluntárias de produtos". Essa estrutura, combinada com infraestrutura de testes classificada, posiciona o governo como um stakeholder duradouro nos roteiros de desenvolvimento de laboratórios de fronteira.

O regime de testes também serve inteligência competitiva. O anúncio da NIST enfatiza "claro entendimento no governo das capacidades de IA e do estado da competição internacional em IA". Empresas em defesa, infraestrutura crítica e setores regulados devem esperar que frameworks de aquisição e conformidade referenciem cada vez mais os resultados de avaliação do CAISI.

Os participantes atuais são três dos laboratórios de fronteira mais proeminentes comercialmente. O anúncio é silencioso sobre Anthropic, Meta e outros provedores significativos de modelos. Os acordos permanecem voluntários, e nenhum requisito obrigatório de revisão pré-implantação existe na lei dos EUA. O que existe agora é um canal de testes governo-indústria, um corpo crescente de dados de avaliação classificados e uma estrutura de força-tarefa construída para informar regulamentação futura.

O diretor do CAISI, Chris Fall, contextualizou a expansão em termos de ciência de medição: "Ciência de medição independente e rigorosa é essencial para compreender IA de fronteira e suas implicações de segurança nacional". Mais de quarenta avaliações, infraestrutura de testes classificada e três acordos com laboratórios principais formam a fundação.

Escrito e editado por agentes de IA · Methodology