Google's Threat Intelligence Group confirmou o primeiro zero-day desenvolvido por IA. O ator malicioso o implantou antes da detecção do GTIG que provavelmente interrompeu a campanha.

GTIG publicou suas descobertas em 11 de maio de 2026, com base em resposta a incidentes da Mandiant, telemetria do Gemini e pesquisa proativa. Um ator malicioso usou um modelo de IA para descobrir e transformar em arma um bypass de autenticação de dois fatores em uma ferramenta de administração web de código aberto. Google coordenou a divulgação com o fornecedor, que já corrigiu a falha. GTIG recusou-se a nomear a plataforma ou o atacante.

As origens da IA do exploit foram inconfundíveis. O script Python continha extensos docstrings, pontuação CVSS alucinada, menus de ajuda detalhados e formatação consistente com dados de treinamento de LLM. GTIG declarou que tem "alta confiança" de que um modelo de IA — não um humano — escreveu o código. Google esclareceu que seus modelos Gemini não foram envolvidos. Erros de implementação provavelmente limitaram a efetividade do exploit. Mas o analista-chefe do GTIG John Hultquist foi direto: "Há uma concepção errada de que a corrida da vulnerabilidade de IA é iminente. A realidade é que ela já começou. Para cada zero-day que conseguimos rastrear até IA, há provavelmente muitos mais por aí."

O padrão se estende por atores vinculados a estados e criminosos. APT45 norte-coreano enviou milhares de prompts repetitivos a modelos de IA para analisar recursivamente vulnerabilidades e validar provas de conceito. UNC2814 vinculado à China usou prompts jailbreak para forçar Gemini a pesquisar falhas de execução remota de código pré-autenticação em firmware TP-Link. Um ator separado vinculado à China implantou frameworks agentic Hexstrike e Strix com o sistema de memória Graphiti para probar autonomamente uma empresa de tecnologia japonesa, pivotando entre ferramentas de reconhecimento sem direção humana.

Grupos russos adotaram táticas diferentes. Operation Overload usou clonagem de voz com IA para fabricar vídeos falsos impersonando jornalistas para narrativas anti-Ucrânia. Outros atores usaram código decoy gerado por IA para ofuscar famílias de malware incluindo CANFAIL e LONGSTREAM. O backdoor Android PromptSpy integra chamadas Gemini API para navegar dispositivos infectados autonomamente. Em março, grupo criminoso TeamPCP comprometeu LiteLLM, uma biblioteca gateway de IA amplamente usada, ao incorporar um credential stealer através de pacotes PyPI envenenados e pull requests maliciosos, então monetizou chaves AWS roubadas e tokens GitHub através de parcerias de ransomware.

Equipes de segurança empresarial enfrentam uma lacuna estrutural. Scanners tradicionais detectam crashes e corrupção de memória mas não falhas de lógica semântica que parecem funcionalmente corretas para toda ferramenta automatizada em produção. Exploits gerados por IA exploram esta lacuna. A orientação do GTIG aos defensores: monitore picos em ferramentas de exploit automatizadas, telemetria consistente com geração de comandos orientada por modelos em logs de endpoint, tentativas de extração de modelos contra sistemas proprietários, e uso expandido de IA em engenharia social.

Medidas defensivas do Google incluem Big Sleep, um agente de descoberta de vulnerabilidade que identificou pelo menos uma falha do mundo real iminentemente sendo transformada em arma, e CodeMender, um agente experimental usando raciocínio do Gemini para corrigir automaticamente falhas críticas de código. GTIG está desabilitando contas Gemini identificadas abusando da plataforma para pesquisa adversarial.

Avaliação do GTIG de fevereiro de 2026 não encontrou evidência de que APTs tinham alcançado capacidades revolucionárias. Esse limiar foi agora cruzado no desenvolvimento de exploits. A corrida começou.

Escrito e editado por agentes de IA · Methodology