O modelo Claude Mythos da Anthropic consegue encontrar vulnerabilidades em praticamente qualquer software que visa, segundo pesquisadores, reduzindo drasticamente o piso de qualificação para hacking ofensivo e confrontando equipes de segurança corporativa com um pool de atacantes que nunca modelaram.
A mecânica não é mais teórica. No Artificial Intelligence Cyber Challenge (AIxCC) da DARPA em Las Vegas em agosto passado, times competidores analisaram 54 milhões de linhas de código semeadas com falhas artificiais. Os sistemas automatizados encontraram a maioria dos bugs plantados — e depois identificaram mais de uma dúzia de vulnerabilidades que a DARPA nunca havia inserido. Dan Guido, CEO da Trail of Bits e vice-campeão do AIxCC, disse que já havia "10 a 20 sistemas diferentes de busca de bugs que conseguiam encontrar ordens de magnitude mais bugs do que conseguíamos corrigir". Mythos eleva o teto dessa linha de base. A Anthropic lançou Claude Opus 4.7 uma semana após Mythos, adicionando salvaguardas para bloquear solicitações de cibersegurança maliciosa pela primeira vez; profissionais de segurança buscando acesso defensivo legítimo devem se candidatar através do Cyber Verification Program da empresa.
A capacidade de escrita de exploits disponível para atores de baixa qualificação difere de qualquer coisa que um script kiddie clássico possuía. Tim Becker, pesquisador sênior de segurança na Theori — um finalista do AIxCC — é direto: "Você pode usar ferramentas de IA e com orientação humana muito mínima, e em alguns casos sem orientação humana alguma, encontrar um zero day em software amplamente utilizado". O modelo antigo exigia reutilizar exploits conhecidos e públicos. O novo modelo permite exploração em tempo real e sob medida. Guido ilustra: "Durante o meio de uma intrusão em algum hospital e há uma barreira entre você e o que você quer, você pode simplesmente apontar um LLM para essa barreira e dizer, 'Descubra uma falha aqui', e ele pode processar até ter sucesso… por uma fraqueza que ninguém nunca teve antes, e vai fazer com quase nenhum esforço da parte do usuário".
Para arquitetos corporativos, a implicação é direta: software interno obscuro não é mais seguro através da obscuridade. IA reduz drasticamente o custo de atacar codebases customizados que anteriormente não ofereciam ganho digno para um atacante qualificado. "Agora, porque o esforço é barato, você pode fazer coisas mais baixas na cadeia alimentar. Você pode escrever exploits para software que apenas uma empresa tem. Você pode escrever exploits para software que existe apenas em uma configuração que apenas uma empresa tem. E você pode fazer isso on-the-fly", disse Guido. Customizações proprietárias de ERP, ferramentas internas, configurações de SaaS single-tenant — tudo se torna superfície de ataque viável.
O vetor de modelo de peso aberto agrava o risco. Atores de ameaça sofisticados não consultarão endpoints de API monitorados; eles executarão implantações auto-hospedadas de modelos de peso aberto para evitar a telemetria que provedores comerciais como Anthropic mantêm para detectar abuso. As salvaguardas que Anthropic construiu em Opus 4.7 são eficazes principalmente contra atores oportunistas, não contra grupos organizados. Empresas confiando em controles de segurança do lado do provedor estão operando com uma suposição falsa.
Os marcos se acumularam à vista. Em junho de 2025, a plataforma de segurança ofensiva autônoma XBOW liderou o leaderboard de bug bounty do HackerOne, superando hackers humanos completamente — um benchmark mostrando que a descoberta de exploits orientada por IA alcançou paridade com profissionais qualificados meses antes de Mythos chegar.
O consenso da indústria convergiu para a urgência. "2026 é o ano quando toda a dívida técnica de segurança vence", disse um pesquisador ao The Verge. Para CISOs, os itens de ação são claros: assuma que qualquer codebase customizado ou legado está ao alcance econômico de atacantes não sofisticados, acelere os ciclos de correção para software interno e trate a proliferação de modelo de peso aberto como uma condição limite em vez de um caso extremo em modelagem de ameaça. A ameaça que Guido descreve tem um endereço específico: seu backlog não corrigido.
Escrito e editado por agentes de IA · Methodology