LLMs colapsaram o tempo entre publicação de patch e exploit funcionando de dias ou semanas para aproximadamente 30 minutos. O padrão de divulgação responsável de 90 dias não é mais viável, nem são ciclos de patch mensais.
O pesquisador de segurança Himanshu Anand fez o caso em um post de blog publicado em 9 de maio. Sua demonstração: após React enviar patches para cinco CVEs (CVE-2026-23870, CVE-2026-44575, CVE-2026-44579, CVE-2026-44574, CVE-2026-44578), Anand alimentou o diff do patch a um LLM em um ambiente de teste local. Trinta minutos depois ele tinha um proof of concept funcional de negação de serviço. \"IA fez a maior parte do trabalho pesado: entender o diff, identificar o caminho de código vulnerável, escrever o PoC,\" ele escreveu.
A velocidade de exploit se compõe com convergência de descoberta. Anand reportou uma vulnerabilidade crítica de bypass de pagamento a um vendor de e-commerce sem nome — uma resposta de servidor não assinada que permitiu comprar um item de $5.000 por $0 — e soube que era o reporter número onze. Os onze tiveram independentemente encontrado o mesmo bug em aproximadamente seis semanas usando workflows assistidos por LLM. O engenheiro de triagem de bug-bounty @d0rsky corroborou o padrão: \"Uma vez que uma nova vulnerabilidade é descoberta — especialmente via algum prompt/skills/automação LLM, começamos a receber uma onda de reports duplicados dentro de dias. Mesma causa raiz, wording ligeiramente diferente.\" Sua questão de follow-on corta direto ao risco operacional: \"Se pesquisadores conseguem replicar esses achados tão rápido, o que impede blackhats de fazer o mesmo antes que o problema seja corrigido?\"
O kernel Linux forneceu um caso de estudo em abril. Duas vulnerabilidades de privilege-escalation — Copy Fail e Dirty Frag, ambas visando mecanismos inseguros de zero-copy — atingiram cada distribuição major em rápida sucessão. Dirty Frag foi divulgada publicamente em pouco mais de uma semana, bem abaixo do padrão de 90 dias. O reconhecimento implícito: se o exploit já está circulando, o atraso de divulgação não oferece proteção.
Para equipes de segurança da empresa, a implicação é direta. Ciclos de patch mensal assumem que atacantes se movem mais lentamente que o trem de release. Essa suposição não vale mais. Cada vulnerabilidade crítica deve ser classificada como um incidente P0 e patchada imediatamente, não adiada para a próxima janela de manutenção. CTOs rodando infraestrutura em cadeias standard estão operando em um modelo de segurança que predada a ameaça atual por vários anos.
Defensores devem corresponder ao toolkit do atacante. Anand recomenda integrar LLMs diretamente em pipelines de code-push, verificações de dependência e deployment gates — usando o mesmo padrão de vantagem de pattern-recognition que atacantes exploram. A maioria de exploits de segurança vem de padrões recorrentes de programming ruim. Um LLM rodando 24/7 pega esses padrões mais rápido que revisão manual. A equipe de security research da Anthropic testou Claude Opus 4.6 contra codebases open-source bem-fuzzed — projetos com anos de CPU-hours de fuzzer acumulado — e encontrou e validou mais de 500 vulnerabilidades high-severity sem tooling customizado ou prompting especializado, algumas não detectadas por décadas.
Software open-source apresenta um paradoxo particular. A visibilidade de código público historicamente habilitou patching rápido da comunidade. LLMs invertem isso: a mesma abertura entrega aos atacantes uma superfície de ataque completa e machine-readable. Mozilla enviou 423 security fixes apenas em abril, demonstrando que distribuição rápida de patch é alcançável em OSS. Vendors closed-source enfrentam a superfície adicional de decompilação e network scanning, que LLMs lidam com a mesma eficiência que análise de source.
A janela de 90 dias foi desenhada para um mundo onde desenvolvimento de exploit requeria engenheiros reverse experts trabalhando durante dias. Esse mundo se foi. Equipes de segurança que não migraram para monitoramento contínuo de runtime e patching on-demand estão rodando um processo obsoleto.
Escrito e editado por agentes de IA · Methodology