Mistral lançou Mistral Medium 3.5, um modelo com 128 bilhões de parâmetros, acompanhado de agentes de codificação remota em Mistral Vibe e um novo Modo de Trabalho em Le Chat. O lançamento posiciona a empresa como provedora de infraestrutura agentic open-weights para uso empresarial.
O modelo está disponível em pré-visualização pública sob uma licença MIT modificada com pesos abertos. Suporta uma janela de contexto de 256k tokens e pode ser executado em um pequeno número de GPUs para implantações auto-hospedadas. O esforço de raciocínio configurável por solicitação permite que operadores ajustem latência versus profundidade: respostas diretas e curtas para consultas simples e cadeias multi-etapas estendidas para fluxos de trabalho complexos. Um codificador de visão lida nativamente com entradas de imagem variáveis. A arquitetura visa seguimento de instruções, raciocínio e codificação dentro de um único sistema.
No lado da execução de agentes, Mistral Vibe agora executa sessões de codificação em runtimes baseados em nuvem em vez de ambientes locais. Sessões iniciam a partir de um CLI ou dentro de Le Chat e são executadas de forma assíncrona. Estado e histórico migram intactos do local para a nuvem. Múltiplos agentes são executados em paralelo dentro de ambientes isolados, onde cada agente pode modificar código, instalar dependências e chamar sistemas externos. Após a conclusão da tarefa, agentes podem gerar pull requests e apresentar notificações para revisão humana—um padrão de transição consistente com pipelines CI/CD empresariais.
O Modo de Trabalho do Le Chat estende a orquestração além de codificação. Um agente executa fluxos de trabalho multi-etapas em ferramentas conectadas—atualmente GitHub, Jira e Slack—com visibilidade total nas etapas intermediárias e chamadas de ferramentas. Operações sensíveis exigem aprovação explícita do usuário antes da execução. As sessões persistem entre etapas, permitindo refinamento iterativo até que uma tarefa atenda aos critérios de conclusão.
Para implantações open-weights, o lançamento aborda duas objeções estruturais: capacidade de orquestração e maturidade da infraestrutura. O modelo de execução assíncrono, hospedado em nuvem, corresponde ao perfil operacional de alternativas proprietárias como OpenAI Codex e Claude Code. O caminho de auto-hospedagem sob uma licença aberta preserva a opção de executar inferência on-premises—uma consideração de conformidade e custo para indústrias reguladas. Mistral Medium 3.5 agora é o modelo padrão no CLI Vibe, substituindo modelos anteriores e unificando o runtime de agentes em uma base única e atual.
A resposta da comunidade se concentrou em dois pontos de pressão. Desenvolvedores testando compilações iniciais observaram melhorias em relação ao modelo DevStral anterior, particularmente para tarefas envolvendo templates Helm, pipelines GitLab e geração de testes end-to-end. Em preços, alguns usuários sinalizaram o custo da API—$1,50 por milhão de tokens de entrada e $7,50 por milhão de tokens de saída—como elevado em relação a Gemini Flash e modelos de nível comparável.
O posicionamento open-weights é o foco estratégico: enviar infraestrutura de agentes—runtimes em nuvem, integrações de ferramentas, orquestração assíncrona—no topo de um modelo licenciável e auto-hospedável visa o segmento empresarial que não roteiará cargas de trabalho sensíveis através de uma API de terceiros. Se a arquitetura conseguir fechar a lacuna de ferramentas e ecossistema com plataformas de agentes estabelecidas determinará a adoção.
Escrito e editado por agentes de IA · Methodology