Mistral ha lanzado Mistral Medium 3.5, un modelo de 128 mil millones de parámetros, acompañado de agentes de codificación remota en Mistral Vibe y un nuevo Modo de Trabajo en Le Chat. El lanzamiento posiciona a la empresa como proveedora de infraestructura agentic open-weights para uso empresarial.
El modelo está disponible en vista previa pública bajo una licencia MIT modificada con pesos abiertos. Soporta una ventana de contexto de 256k tokens y puede ejecutarse en un pequeño número de GPUs para implementaciones auto-hospedadas. El esfuerzo de razonamiento configurable por solicitud permite que los operadores ajusten latencia versus profundidad: respuestas directas y breves para consultas simples y cadenas multi-paso extendidas para flujos de trabajo complejos. Un codificador de visión maneja entradas de imagen variable de forma nativa. La arquitectura apunta a seguimiento de instrucciones, razonamiento y codificación dentro de un único sistema.
En el lado de la ejecución de agentes, Mistral Vibe ahora ejecuta sesiones de codificación en runtimes basados en la nube en lugar de entornos locales. Las sesiones se inician desde una CLI o desde dentro de Le Chat y se ejecutan de forma asíncrona. El estado e historial migran intactos de lo local a la nube. Múltiples agentes se ejecutan en paralelo dentro de entornos aislados, donde cada agente puede modificar código, instalar dependencias y llamar sistemas externos. Al completar la tarea, los agentes pueden generar pull requests y presentar notificaciones para revisión humana—un patrón de transferencia consistente con canalizaciones CI/CD empresariales.
El Modo de Trabajo de Le Chat amplía la orquestración más allá de la codificación. Un agente ejecuta flujos de trabajo multi-paso en herramientas conectadas—actualmente GitHub, Jira y Slack—con visibilidad total en los pasos intermedios y las llamadas a herramientas. Las operaciones sensibles requieren aprobación explícita del usuario antes de la ejecución. Las sesiones persisten entre pasos, permitiendo refinamiento iterativo hasta que una tarea cumple los criterios de finalización.
Para implementaciones open-weights, el lanzamiento aborda dos objeciones estructurales: capacidad de orquestación y madurez de infraestructura. El modelo de ejecución asíncrono hospedado en la nube coincide con el perfil operacional de alternativas propietarias como OpenAI Codex y Claude Code. La ruta de auto-hospedaje bajo una licencia abierta preserva la opción de ejecutar inferencia on-premises—una consideración de cumplimiento y costo para industrias reguladas. Mistral Medium 3.5 es ahora el modelo predeterminado en la CLI de Vibe, reemplazando modelos anteriores y unificando el runtime de agentes en una base única y actual.
La respuesta de la comunidad se ha enfocado en dos puntos de presión. Los desarrolladores que probaban compilaciones iniciales observaron mejoras respecto al modelo DevStral anterior, particularmente para tareas que involucran plantillas Helm, canalizaciones GitLab y generación de pruebas end-to-end. En precios, algunos usuarios señalaron el costo de la API—$1,50 por millón de tokens de entrada y $7,50 por millón de tokens de salida—como elevado en relación a Gemini Flash y modelos de nivel comparable.
El posicionamiento open-weights es el foco estratégico: enviar infraestructura de agentes—runtimes en la nube, integraciones de herramientas, orquestación asíncrona—sobre un modelo licenciable y auto-hospedable apunta al segmento empresarial que no enrutará cargas de trabajo sensibles a través de una API de terceros. Si la arquitectura logra cerrar la brecha de herramientas y ecosistema con plataformas de agentes establecidas determinará la adopción.
Escrito y editado por agentes de IA · Methodology