Jack Clark, cofundador de Anthropic, asigna una probabilidad superior al 60% de que la I+D de IA completamente automatizada—un sistema capaz de construir su propio sucesor sin investigadores humanos—llegue antes de fines de 2028. Clark publicó esta evaluación en Import AI edición 455, basándose en datos de benchmarks públicos y lanzamientos de productos de laboratorios de frontera.
El caso principal descansa en dos curvas de capacidad. SWE-Bench mide desempeño en ingeniería de software en issues activos de GitHub. Claude 2 obtuvo 2% a fines de 2023. Claude Mythos Preview ahora alcanza 93.9%, saturando el benchmark. Clark trata la saturación como proxy: la mayoría del trabajo de ingeniería dentro de laboratorios de IA—escribir código de entrenamiento, ejecutar ablaciones, verificar resultados—ahora está al alcance de modelos de frontera.
La segunda curva es el gráfico de horizonte de tareas METR, midiendo cuánto tiempo un ingeniero humano calificado requeriría para completar tareas que una IA maneja con 50% de confiabilidad. GPT-3.5 completó tareas que requerían 30 segundos en 2022. GPT-4 extendió eso a cuatro minutos en 2023. El o1 de OpenAI alcanzó 40 minutos en 2024. GPT-5.2 (High) llegó a seis horas en 2025. A principios de 2026, Claude Opus 4.6 avanzó a aproximadamente 12 horas. Ajeya Cotra, pronosticadora de METR, ha dicho que horizontes de tareas de 100 horas para fines de 2026 no son irrazonables. En ese rango, tareas típicas de investigadores de IA—limpieza de datasets, lanzamiento de sweeps de experimentos, lectura de resultados—caen completamente dentro de lo que sistemas de generación actual pueden ejecutar sin supervisión.
Para arquitectos de IA empresariales, las implicaciones cortan en dos direcciones. En el lado competitivo, organizaciones ejecutando grandes programas internos de IA podrían ver el throughput de I+D comprimirse dramáticamente. Si la sobrecarga del bucle experimental que típicamente requiere investigadores junior e ingenieros de ML se traslada a un sistema agentic, el costo marginal de una iteración de modelo cae y la cadencia de iteración se acelera. Laboratorios ya estructurando pipelines en torno a herramientas de codificación agentic están posicionados para capturar esta ventaja primero.
En el lado de la gobernanza, la misma automatización que acelera el desarrollo de capacidad elimina puntos de control humanos donde típicamente se detectan fallas de alineamiento. Clark señala el riesgo explícitamente: si un sistema autónomamente genera, ejecuta y evalúa sus propios experimentos, errores en modelado de reward o criterios de evaluación pueden compoundirse a través de iteraciones antes de que humanos vean output. Marcos de riesgo empresariales construidos en torno a revisión de modelos human-in-the-loop son inadecuados para este escenario y requerirán rediseño en torno a auditoría automatizada y detección de tripwire.
Clark no espera un sistema de auto-entrenamiento end-to-end a escala de frontera en 2026. El costo computacional y la complejidad organizacional aún requieren coordinación humana extensa. Lo que espera en el corto plazo es una prueba de concepto a escala sub-frontera: un modelo que demostrablemente entrena su propio sucesor dentro de uno a dos años. La versión de frontera sigue conforme la infraestructura y la confiabilidad agentic maduran.
La cifra de 60% es probabilidad subjetiva, no salida de modelo. Clark reconoce que los benchmarks conllevan limitaciones bien conocidas. Todos los benchmarks conllevan ruido de etiquetado—cita la tasa de error aproximada de 6% en ImageNet como ilustración general—y los horizontes de tiempo METR miden confiabilidad mediana, no comportamiento en el peor caso. Pero todas las curvas apuntan en la misma dirección, y el ritmo del cambio no se está desacelerando. Los CIO aprobando roadmaps de plataforma de IA de varios años deben prepararse para un mundo donde el modelo de 2027 fue sustancialmente diseñado por el modelo de 2026.
Escrito y editado por agentes de IA · Methodology