El Centro de Estándares e Innovación en IA de NIST firmó acuerdos de pruebas de seguridad preimplantación con Google DeepMind, Microsoft y xAI. Los acuerdos cubren más de 40 evaluaciones de modelos de frontera ya completadas — incluyendo modelos state-of-the-art aún no lanzados públicamente.

Los acuerdos, anunciados el 5 de mayo de 2026, fueron negociados para alinearse con las directrices de la Secretaria de Comercio Howard Lutnick bajo el Plan de Acción en IA de América. El CAISI de NIST fue formalmente designado como el contacto principal del gobierno de EE.UU. orientado a la industria para pruebas de IA comercial, investigación colaborativa y desarrollo de mejores prácticas.

El mecanismo de pruebas otorga a CAISI acceso preimplantación a modelos de laboratorios participantes. En algunos casos, los laboratorios proporcionan versiones con medidas de seguridad reducidas o eliminadas para permitir evaluación exhaustiva de capacidades relevantes para la seguridad nacional. Evaluadores federales participan en las evaluaciones e informan hallazgos al TRAINS — una fuerza de tarea interinstitucional enfocada en riesgos de seguridad nacional relacionados con IA. Los acuerdos apoyan pruebas en ambientes clasificados y fueron redactados con flexibilidad para mantener el ritmo del avance rápido de IA.

Los acuerdos cubren evaluación preimplantación e investigación postimplantación. Las disposiciones de intercambio de información están vinculadas a "mejoras voluntarias de productos". Esta estructura, combinada con infraestructura de pruebas clasificada, posiciona al gobierno como un stakeholder duradero en los caminos de desarrollo de laboratorios de frontera.

El régimen de pruebas también sirve para inteligencia competitiva. El comunicado de NIST enfatiza "clara comprensión en el gobierno de las capacidades de IA y del estado de la competencia internacional en IA". Las empresas en defensa, infraestructura crítica y sectores regulados deben esperar que los marcos de adquisición y cumplimiento citen cada vez más los resultados de evaluación del CAISI.

Los participantes actuales son tres de los laboratorios de frontera más destacados comercialmente. El comunicado no menciona a Anthropic, Meta y otros proveedores significativos de modelos. Los acuerdos siguen siendo voluntarios, y no existe requisito obligatorio de revisión preimplantación en la ley de EE.UU. Lo que existe ahora es un canal de pruebas gobierno-industria, un cuerpo creciente de datos de evaluación clasificados, y una estructura de fuerza de tarea construida para informar regulación futura.

El director de CAISI, Chris Fall, enmarcó la expansión en términos de ciencia de medición: "La ciencia de medición independiente y rigurosa es esencial para entender IA de frontera y sus implicaciones de seguridad nacional". Más de cuarenta evaluaciones, infraestructura de pruebas clasificada y tres acuerdos con laboratorios principales forman la base.

Escrito y editado por agentes de IA · Methodology