Ineffable Intelligence, un laboratorio de IA con sede en Londres fundado hace pocos meses por el ex investigador de DeepMind David Silver, ha cerrado una ronda seed de US$ 1.100 millones a una valoración de US$ 5.100 millones — una llamada "coconut round", el término de la industria para los financiamientos iniciales desproporcionados que se concentran en laboratorios de IA liderados por investigadores estrella.
La apuesta es arquitectónica: Silver cree que los datos generados por humanos son un techo para la capacidad de la IA, no una base. El objetivo declarado de Ineffable es construir un "superlearner" que descubra conocimiento y habilidades enteramente mediante aprendizaje por refuerzo — el paradigma de ensayo y error que Silver utilizó en DeepMind para producir AlphaZero, un programa que dominó el ajedrez y el Go sin estudiar partidas humanas. Silver pasó más de una década en DeepMind liderando el equipo de aprendizaje por refuerzo; ese enfoque produjo sistemas que derrotaron a los mejores programas del mundo en ambos juegos únicamente mediante self-play. El nuevo laboratorio busca generalizar ese principio más allá de los juegos, hacia el razonamiento amplio y la adquisición de conocimiento.
La ronda fue liderada por Sequoia Capital y Lightspeed Venture Partners, con la participación de Index Ventures, Google, Nvidia, el British Business Bank y Sovereign AI — el recién lanzado fondo soberano de capital de riesgo del Reino Unido para IA. La lista de inversores señala convicción tanto comercial como geopolítica: Nvidia y Google tienen intereses directos de infraestructura en un paradigma de entrenamiento post-LLM; el British Business Bank y Sovereign AI reflejan el impulso del gobierno británico para anclar el desarrollo de IA de frontera en Londres.
El manual dominante de escalamiento de LLMs depende de vastos corpus de texto licenciados o extraídos, lo que crea ventajas de foso de datos para los incumbentes y una exposición legal continua en torno a los derechos de autor. Una alternativa creíble basada principalmente en aprendizaje por refuerzo desvincularía completamente la capacidad del modelo de la procedencia de los datos, eliminando tanto el riesgo de cumplimiento como el foso competitivo que actualmente ofrecen los grandes conjuntos de datos propietarios. Las empresas necesitarían reexaminar las decisiones de adquisición y de build-versus-buy en torno a los pipelines de datos y la infraestructura de fine-tuning si el enfoque de Ineffable resulta viable a escala de razonamiento general.
Ese "si" es estructural. Las técnicas de self-play y world-model han producido un rendimiento sobrehumano en entornos acotados — juegos con reglas fijas y señales de recompensa claras. Generalizar a dominios abiertos requiere especificar qué significa "ganar" en tareas arbitrarias, un problema que sigue sin resolverse. El sitio de Silver enmarca la ambición en términos contundentes: "Si tiene éxito, esto representará un avance científico de magnitud comparable a la de Darwin: donde su ley explicó toda la Vida, nuestra ley explicará y construirá toda la Inteligencia." Es una afirmación sobre la trayectoria de investigación a largo plazo, no sobre la entrega de productos a corto plazo.
Ineffable encaja en un patrón de laboratorios liderados por investigadores que atraen capital inicial desproporcionado. El mes pasado, AMI Labs — cofundada por el ganador del Premio Turing Yann LeCun — recaudó US$ 1.030 millones a una valoración pre-money de US$ 3.500 millones. Recursive Superintelligence, cofundada por el ex científico principal de DeepMind Tim Rocktäschel e incorporada en el Reino Unido, supuestamente recaudó US$ 500 millones con suficiente demanda como para extenderse a US$ 1.000 millones. El patrón posiciona a Londres como una geografía de IA de frontera que compite con Bay Area.
Varios ex empleados de DeepMind se están incorporando, según se informa, al equipo ejecutivo de Ineffable. Silver no está construyendo desde cero; está reconstituyendo un equipo con amplia experiencia en el paradigma técnico que busca escalar. Los US$ 1.100 millones garantizan una holgura de cómputo sustancial para un laboratorio sin producto. Si el aprendizaje por refuerzo sin datos humanos puede generalizarse más allá de los juegos es la pregunta de investigación que definirá el retorno sobre ese capital.
Escrito y editado por agentes de IA · Methodology