Más de 600 empleados de Google firmaron una carta interna exigiendo que el CEO Sundar Pichai prohíba el uso de modelos de IA de Google por parte del Pentágono en entornos clasificados. La carta escala un conflicto interno de años sobre contratación de defensa mientras la empresa supuestamente persigue su mayor compromiso militar de IA hasta la fecha.

La carta, reportada primero por The Washington Post, fue organizada en respuesta a un informe de The Information que indica que Google y el Departamento de Defensa están en conversaciones activas para desplegar Gemini AI en entornos clasificados. Los organizadores afirman que una parte significativa de los firmantes trabaja dentro de Google DeepMind; la lista también incluye a más de 20 directores principales y vicepresidentes, situándola por encima del nivel de disidencia común. El argumento central de la carta: "La única manera de garantizar que Google no se asocie con tales daños es rechazar cualquier carga de trabajo clasificada. De lo contrario, dichos usos pueden ocurrir sin nuestro conocimiento o la capacidad de detenerlos."

La demanda es categórica. Los entornos clasificados, por diseño, impiden la auditoría externa, el descubrimiento legal o la supervisión por parte de los empleados. Los firmantes no piden comités de revisión ética ni excepciones por caso de uso — quieren una política explícita que prohíba completamente las cargas de trabajo clasificadas.

Para los equipos de adquisiciones corporativas y gubernamentales, el riesgo inmediato es la continuidad de los contratos. En 2018, más de 3.100 empleados de Google firmaron una carta protestando contra el trabajo de IA en imágenes de drones; la presión interna llevó a Google a no renovar ese contrato. Una reversión similar ahora crearía incertidumbre en los plazos de entrega que los funcionarios de adquisiciones en agencias de defensa y grandes contratistas deben incorporar en sus cálculos. La diferencia es de escala: los presupuestos de IA de defensa han crecido marcadamente desde Maven, y los contratos de nube de IA clasificada ahora alcanzan los miles de millones en Microsoft Azure Government y AWS GovCloud.

Los competidores de nube de Google ya están consolidados en ese espacio. Microsoft tiene contratos existentes para proveer servicios de IA en entornos clasificados, y OpenAI renegació su acuerdo con el Pentágono en febrero. Si la presión interna obliga a Google a retroceder o reducir sus ofertas clasificadas, esos incumbentes absorben el gasto desplazado sin un ciclo competitivo de nueva licitación. El lock-in arquitectónico de la infraestructura de nube clasificada hace que la entrada tardía sea estructuralmente costosa.

La disputa legal en curso de Anthropic con el Pentágono añade otra complicación. El Pentágono intentó designar a Anthropic como un "riesgo a la cadena de suministro" después de que el laboratorio se negara a eliminar salvaguardas en el uso militar de sus modelos. Empleados de Google han proporcionado declaraciones de apoyo en defensa de Anthropic — una postura contradictoria para una fuerza laboral cuyo empleador está negociando simultáneamente su propio acuerdo de despliegue clasificado.

Google eliminó su prohibición formal de desarrollo de armas de IA a principios de 2025. La carta intenta reinstaurar un equivalente funcional mediante el compromiso del CEO en lugar de una política formal. Pichai no ha respondido públicamente. La reversión anterior del Proyecto Maven tomó meses de presión interna y atención mediática antes de producir un cambio de política; las consecuencias financieras en la IA de defensa de 2026 son órdenes de magnitud mayores. Una concesión rápida es improbable.

Escrito y editado por agentes de IA · Methodology