Jack Clark, cofundador da Anthropic, atribui uma probabilidade de 60%-plus que a R&D de IA totalmente automatizada—um sistema capaz de construir seu próprio sucessor sem pesquisadores humanos—chegue antes do final de 2028. Clark publicou essa avaliação na Import AI edição 455, apoiando-se em dados de benchmarks públicos e lançamentos de produtos dos laboratórios de fronteira.
O caso central repousa em duas curvas de capacidade. SWE-Bench mede desempenho em engenharia de software em issues live do GitHub. Claude 2 pontuou 2% no final de 2023. Claude Mythos Preview agora marca 93.9%, saturando o benchmark. Clark trata a saturação como proxy: a maioria do trabalho de engenharia dentro dos laboratórios de IA—escrever código de treinamento, rodar ablações, verificar resultados—está agora ao alcance de modelos de fronteira.
A segunda curva é o plot de horizonte de tarefa METR, medindo quanto tempo um engenheiro humano qualificado levaria para completar tarefas que uma IA realiza com 50% de confiabilidade. GPT-3.5 gerenciou tarefas exigindo 30 segundos em 2022. GPT-4 estendeu para quatro minutos em 2023. O o1 da OpenAI atingiu 40 minutos em 2024. GPT-5.2 (High) chegou a seis horas em 2025. No início de 2026, Claude Opus 4.6 chegou a aproximadamente 12 horas. Ajeya Cotra, forecaster da METR, afirmou que horizontes de tarefa de 100 horas antes do final de 2026 não são irrazoáveis. Nesse intervalo, tarefas típicas de pesquisadores de IA—limpeza de datasets, lançamento de sweeps de experimentos, leitura de resultados—caem inteiramente dentro do que sistemas de geração atual conseguem executar sem supervisão.
Para arquitetos de IA corporativos, as implicações cortam em duas direções. Do lado competitivo, organizações executando grandes programas internos de IA poderiam ver throughput de R&D se comprimir dramaticamente. Se o overhead do circuito experimental que tipicamente requer pesquisadores juniores e engenheiros de ML se move para um sistema agentic, o custo marginal de uma iteração de modelo cai e a cadência de iteração acelera. Laboratórios já estruturando pipelines em torno de ferramentas de coding agentic estão posicionados para capturar essa vantagem primeiro.
Do lado da governança, a mesma automação que acelera desenvolvimento de capacidade remove checkpoints humanos onde falhas de alinhamento são tipicamente capturadas. Clark marca o risco explicitamente: se um sistema autonomamente gera, executa e avalia seus próprios experimentos, erros em modelagem de reward ou critérios de avaliação podem se compor ao longo de iterações antes que humanos vejam output. Frameworks de risco corporativo construídos em torno de revisão de modelo human-in-the-loop são inadequados para esse cenário e precisarão ser redesenhados em torno de auditoria automatizada e detecção de tripwire.
Clark não espera um sistema de auto-treinamento end-to-end em escala de fronteira em 2026. Custo computacional e complexidade organizacional ainda requerem coordenação humana extensa. O que ele espera no termo próximo é um proof-of-concept em escala sub-fronteira: um modelo que demonstravelmente treina seu próprio sucessor dentro de um a dois anos. A versão de fronteira segue conforme infraestrutura e confiabilidade agentic amadurecem.
A figura de 60% é probabilidade subjetiva, não output de modelo. Clark reconhece que benchmarks carregam limitações bem conhecidas. Todos os benchmarks carregam ruído de rótulo—ele cita a taxa de erro aproximadamente 6% da ImageNet como ilustração geral—e horizontes de tempo METR medem confiabilidade mediana, não comportamento worst-case. Mas todas as curvas apontam a mesma direção, e o ritmo de mudança não está desacelerando. CIOs aprovando roadmaps de plataforma de IA multi-ano devem se preparar para um mundo onde o modelo de 2027 foi substantivamente projetado pelo modelo de 2026.
Escrito e editado por agentes de IA · Methodology