С 1‑миллионным контекстным окном и sparse MoE-дизайном MiMo‑V2.5 нацелен на разработчиков автономных агентов для кодинга и рабочих процессов.
Xiaomi выпустила и открыла исходный код моделей MiMo-V2.5 и MiMo-V2.5-Pro под лицензией MIT, предложив разработчикам еще один потенциально более дешевый вариант для создания AI-агентов, способных выполнять более длительные задачи, такие как программирование и автоматизация рабочих процессов.
По словам компании, обе модели поддерживают контекстное окно в 1 миллион токенов. MiMo-V2.5-Pro предназначена для сложных задач агентов и кодинга, а MiMo-V2.5 — это нативная омнимодальная модель, которая поддерживает текст, изображения, видео и аудио.
Релиз вышел на фоне того, что агентные AI-нагрузки усиливают давление на корпоративные бюджеты на искусственный интеллект. Такие системы могут быстро расходовать большие объемы токенов, пока планируют действия, вызывают инструменты, пишут код и восстанавливаются после ошибок, поэтому контроль затрат и развертывания становится для разработчиков все важнее.
Используя лицензию MIT, Xiaomi заявила, что разрешает коммерческое развертывание, дальнейшее обучение и fine-tuning без дополнительного согласования. Тулика Шил, старший вице-президент Kadence International, сказала, что лицензия MIT может сделать модели привлекательными. «Она позволяет компаниям свободно модифицировать, разворачивать и коммерциализировать модель без ограничений, что редкость в сегодняшнем ландшафте AI», — сказала Шил.
«В ClawEval V2.5-Pro показывает результат 64% Pass^3, используя лишь около 70K токенов на траекторию — примерно на 40–60% меньше, чем Claude Opus 4.6, Gemini 3.1 Pro и GPT-5.4 при сопоставимом уровне возможностей», — заявила Xiaomi в блоге.
Модели используют разреженную архитектуру mixture-of-experts (MoE), чтобы управлять вычислительными затратами. MiMo-V2.5 с 310 млрд параметров активирует только 15 млрд параметров на запрос, а Pro-версия с 1,02 трлн параметров — 42 млрд. Xiaomi заявила, что гибридная attention-архитектура Pro-модели может почти в семь раз сократить объем KV-cache при задачах с длинным контекстом.
Xiaomi привела несколько длинных тестов, включая компилятор SysY на Rust, который MiMo-V2.5-Pro завершила за 4,3 часа и 672 вызова инструментов, пройдя 233 из 233 скрытых тестов. Компания также сообщила, что модель создала настольный видеоредактор на 8 192 строки кода за 1 868 вызовов инструментов и 11,5 часа автономной работы.
Будут ли компании внедрять MiMo?
Сможет ли Xiaomi добиться внедрения MiMo-V2.5 среди корпоративных разработчиков вместо закрытых frontier-моделей для агентного кодинга и автоматизации, будет зависеть от того, как компании оценят производительность, стоимость и риски.
«При оценке Xiaomi MiMo-V2.5 и ее вариантов корпоративным разработчикам стоит смотреть на total cost of ownership», — сказал Лиан Дже Су, главный аналитик Omdia. «TCO включает эффективность токенов, стоимость успешной задачи и отсутствие лицензионных расходов, связанных с проприетарными моделями. Закрытые frontier-модели по-прежнему могут выигрывать на общих задачах и самых сложных краевых случаях, но open-weight-модели превосходны в агентной работе, которая по своей природе высокообъемна».
Парикх Джайн, CEO Pareekh Consulting, сказал, что предприятиям стоит рассматривать MiMo-V2.5 не как замену Claude или GPT, а как экономичную агентную модель для задач с большим расходом токенов.
«Ключевой сигнал бенчмарка — это не только точность, но и число токенов на успешно выполненную задачу», — сказал Джайн. «Frontier-модели часто достигают более высокой успешности на сложных кодинговых бенчмарках, но делают это с огромными затратами на рассуждение. MiMo-V2.5 создана для Token Efficiency, то есть достигает сопоставимых результатов при значительно меньшем числе входных и выходных токенов».
По словам Джайна, это может сделать модели вроде MiMo полезными как «экономичные рабочие лошади» для повторяющегося кодинга, QA, миграции, документации, тестирования и автоматизации, тогда как закрытые frontier-модели останутся верхней планкой качества для самых сложных задач.
Ашиш Банерджи, старший главный аналитик Gartner, заявил, что такие модели, как MiMo, могут заметно изменить экономику корпоративного AI для long-horizon-агентов.
«Когда задачи растягиваются на миллионы токенов, тарифицируемые проприетарные API перестают выглядеть как удобство и начинают выглядеть как налог на итерации», — сказал Банерджи. «Напротив, лицензия MIT у MiMo, открытые веса, контекстное окно на 1M токенов и относительно низкая цена делают развертывание в private cloud или self-hosted стратегически обоснованным».
Однако, по его словам, это не означает, что компании откажутся от проприетарных API.
«Предприятия продолжат использовать проприетарные API ради frontier-точности и низкого операционного потребления, одновременно переводя масштабируемые повторяемые агентные сценарии на открытые модели, где важнее предсказуемость затрат, контроль данных и возможность настройки», — сказал Банерджи. «Иными словами, long-horizon и high-volume агентный AI будет развиваться как гибридный рынок, а open models вроде MiMo будут снижать зависимость от чистых API».
Су добавил, что внедрение может столкнуться с трудностями, поскольку модели китайского происхождения могут вызывать обеспокоенность у регулируемых западных организаций.
Материал — перевод статьи с английского.
Оригинал: Xiaomi releases MIT‑licensed MiMo models for long‑running AI agents
