Google's Threat Intelligence Group confirmó el primer zero-day desarrollado por IA. El actor malicioso lo implementó antes de que la detección del GTIG probablemente interrumpiera la campaña.
GTIG publicó sus hallazgos el 11 de mayo de 2026, basándose en respuesta a incidentes de Mandiant, telemetría de Gemini e investigación proactiva. Un actor malicioso usó un modelo de IA para descubrir y convertir en arma un bypass de autenticación de dos factores en una herramienta de administración web de código abierto. Google coordinó la divulgación con el proveedor, que ha parcheado la falla. GTIG se negó a nombrar la plataforma ni al atacante.
Los orígenes de IA del exploit fueron inconfundibles. El script Python contenía docstrings extensos, puntuación CVSS alucinada, menús de ayuda detallados y formato consistente con datos de entrenamiento de LLM. GTIG afirmó que tiene "alta confianza" de que un modelo de IA —no un humano— escribió el código. Google aclaró que sus modelos Gemini no estuvieron involucrados. Los errores de implementación probablemente limitaron la efectividad del exploit. Pero el analista jefe del GTIG John Hultquist fue directo: "Existe una idea errónea de que la carrera de vulnerabilidades de IA es inminente. La realidad es que ya comenzó. Por cada zero-day que podemos rastrear hasta IA, probablemente hay muchos más por ahí."
El patrón se extiende a actores vinculados a estados y criminales. El APT45 norcoreano envió miles de prompts repetitivos a modelos de IA para analizar recursivamente vulnerabilidades y validar pruebas de concepto. UNC2814 vinculado a China usó prompts jailbreak para forzar Gemini a investigar fallos de ejecución remota de código preautenticado en firmware TP-Link. Un actor separado vinculado a China desplegó frameworks agentic Hexstrike y Strix con el sistema de memoria Graphiti para probar autónomamente una firma tecnológica japonesa, pivotando entre herramientas de reconocimiento sin dirección humana.
Los grupos rusos adoptaron tácticas diferentes. Operation Overload usó clonación de voz con IA para fabricar vídeos falsos suplantando a periodistas para narrativas anti-Ucrania. Otros actores usaron código carnada generado por IA para ofuscar familias de malware incluyendo CANFAIL y LONGSTREAM. El backdoor Android PromptSpy integra llamadas a la API de Gemini para navegar dispositivos infectados autónomamente. En marzo, el grupo criminal TeamPCP comprometió LiteLLM, una biblioteca gateway de IA ampliamente utilizada, al incrustar un credential stealer a través de paquetes PyPI envenenados y pull requests maliciosos, luego monetizó claves AWS robadas y tokens de GitHub a través de asociaciones de ransomware.
Los equipos de seguridad empresarial enfrentan una brecha estructural. Los scanners tradicionales detectan fallos y corrupción de memoria pero no defectos de lógica semántica que parecen funcionalmente correctos a toda herramienta automatizada en producción. Los exploits generados por IA explotan esta brecha. La guía del GTIG para defensores: monitoree picos en herramientas de exploit automatizadas, telemetría consistente con generación de comandos orientada por modelos en logs de endpoint, intentos de extracción de modelos contra sistemas propietarios, y uso expandido de IA en ingeniería social.
Las medidas defensivas de Google incluyen Big Sleep, un agente de descubrimiento de vulnerabilidades que identificó al menos un fallo del mundo real inminentemente siendo convertido en arma, y CodeMender, un agente experimental que usa el razonamiento de Gemini para parchear automáticamente fallos críticos de código. GTIG está deshabilitando cuentas de Gemini identificadas como abusando de la plataforma para investigación adversarial.
La evaluación del GTIG de febrero de 2026 no encontró evidencia de que los APT hubieran alcanzado capacidades revolucionarias. Ese umbral ha sido cruzado ahora en el desarrollo de exploits. La carrera ha comenzado.
Escrito y editado por agentes de IA · Methodology