Xiaomi, которую многие по привычке связывают прежде всего со смартфонами и электромобилями, неожиданно — и довольно громко, хотя формально без лишнего шума — вышла с новой большой языковой моделью MiMo-V2-Pro. Речь идет о foundation-модели с заявленным масштабом в 1 трлн параметров. По ряду бенчмарков она подбирается вплотную к системам уровня GPT-5.2 и Claude Opus 4.6, а доступ через API у Xiaomi стоит в разы дешевле: примерно в шесть-семь раз, если работать в пределах контекста до 256 тыс. токенов.
За запуском стоит Фули Ло — один из заметных участников проекта DeepSeek R1. Он назвал релиз «тихой засадой» на мировой AI-передовой. Формулировка, конечно, колкая, но в ней есть смысл: Xiaomi не просто выпустила еще одну модель, а явно пытается зайти в сегмент, где сегодня решают не красивые демо, а практическая разработка AI-агентов и автоматизация.
В своем посте в X Ло также отметил, что компания собирается открыть исходный код одной из версий модели, когда та станет достаточно стабильной. Не сейчас. Позже. И, честно говоря, это типичный осторожный ход для рынка, где все хотят open source, но не все готовы выкладывать сырой продукт.
Самое любопытное в MiMo-V2-Pro — не только сухие цифры. Xiaomi делает ставку на так называемое «пространство действий»: не просто генерацию текста или кода, а выполнение многошаговых задач, работу с инструментами, терминалом, файлами и агентными сценариями. То есть компания целится не в чат-бота ради чат-бота, а в модель, которую можно встроить в реальные корпоративные процессы.
И это, пожалуй, логично. Xiaomi давно умеет собирать сложные аппаратно-программные экосистемы: смартфоны, IoT, автомобили, облачные сервисы. Теперь к этому набору добавляется еще и слой продвинутого AI-рассуждения. Получается не просто LLM, а потенциальный «мозг» для цифровых систем, где важны координация, память, инструменты и устойчивость под нагрузкой.
Технологическая основа: ставка на архитектуру агентности
Если коротко, главная проблема эпохи AI-агентов проста до банальности: как сохранить сильное рассуждение на длинных задачах и больших массивах данных, не утонув в задержках и стоимости. MiMo-V2-Pro решает это через sparse-архитектуру. Общий размер модели — 1T параметров, но в каждом отдельном проходе активируются только 42 млрд. За счет этого система остается значительно эффективнее, чем можно было бы ожидать от модели такого масштаба.
Важную роль играет и механизм Hybrid Attention. Обычные трансформеры, как известно, начинают «тяжелеть» по мере роста контекста — вычислительная цена растет очень быстро. У MiMo-V2-Pro используется соотношение 7:1, тогда как у MiMo-V2-Flash было 5:1. На практике это помогает модели работать с контекстным окном до 1 млн токенов и не разваливаться по дороге. Ну, по крайней мере, так утверждает Xiaomi.
Если перевести это с инженерного на человеческий: модель не перечитывает весь массив одинаково внимательно. Она как исследователь в огромной библиотеке — быстро просматривает большую часть материалов, но фокусируется на том, что действительно важно для текущего шага. Такой подход особенно интересен для агентной памяти и RAG, где длинный контекст — не роскошь, а рабочая необходимость.
Еще один слой — Multi-Token Prediction. Он позволяет модели предсказывать сразу несколько токенов за шаг, а не двигаться строго по одному. В результате снижается задержка, особенно в сценариях, где агенту нужно «думать» сериями и быстро переходить от анализа к действию. Мелочь? Не совсем. В production-среде именно такие вещи часто решают, будет система полезной или просто красивой на слайде.
По словам Ло, эти архитектурные решения были приняты за несколько месяцев до релиза, когда стало ясно, что рынок резко смещается в сторону агентных систем. И тут Xiaomi, похоже, не промахнулась: сегодня спрос растет именно на архитектуру AI-агентов, а не только на универсальные чат-модели.
Бенчмарки: не идеал, но уже очень близко к верхней лиге

Сравнение MiMo-V2-Pro с другими ведущими моделями. Источник: Xiaomi.
По внутренним данным Xiaomi, модель особенно сильна не в «стерильных» тестах, а в задачах, приближенных к реальным агентным сценариям. На GDPval-AA, который оценивает производительность в agentic-задачах, MiMo-V2-Pro получила Elo 1426. Это выше, чем у GLM-5 с 1406 и Kimi K2.5 с 1283.
Да, до самых мощных западных моделей она пока не дотягивается. Claude Sonnet 4.6, например, показывает 1633 Elo. Но для китайской модели это, по имеющимся данным, лучший результат в данной категории. И это уже не выглядит как локальная история «для внутреннего рынка».
Сторонний аналитический проект Artificial Analysis подтвердил общий уровень модели: MiMo-V2-Pro заняла 10-е место в глобальном Intelligence Index с результатом 49. Это ставит ее рядом с GPT-5.2 Codex и выше Grok 4.20 Beta. Не вершина Олимпа, но уже этажом ниже — а иногда и это достаточно, если цена не кусается.

MiMo-V2-Pro в рейтинге Intelligence Index. Источник: Artificial Analysis.
Особенно заметен прогресс по сравнению с MiMo-V2-Flash:
Галлюцинации: показатель снижен до 30% против 48% у Flash.
Индекс всеведения: +5, что выше, чем у GLM-5 (+2) и Kimi K2.5 (-8).
Эффективность токенов: на прохождение всего Intelligence Index модели потребовалось 77 млн выходных токенов против 109 млн у GLM-5 и 89 млн у Kimi K2.5.
На ClawEval — бенчмарке для агентных scaffolds — MiMo-V2-Pro набрала 61,5. Это уже очень близко к Claude Opus 4.6 с 66,3 и заметно выше GPT-5.2 с 50,0. В Terminal-Bench 2.0 модель получила 86,7, что указывает на высокую надежность в средах, где агенту нужно работать с терминалом и командами без постоянной ручной подстраховки.
И вот тут начинается самое интересное. Потому что для enterprise важен не абстрактный IQ модели, а то, насколько она годится для автоматизации процессов, инженерных задач, оркестрации и длинных цепочек действий. А здесь Xiaomi, похоже, попала в нерв рынка.
Что это значит для enterprise: цена, агенты, оркестрация и риски
Для компаний, которые оценивают платформы под AI-автоматизацию, MiMo-V2-Pro выглядит как очень сильный кандидат по соотношению «интеллект / стоимость». По данным Artificial Analysis, прогон их индекса стоил около $348 для MiMo-V2-Pro против $2 304 для GPT-5.2 и $2 486 для Claude Opus 4.6. Разница, мягко говоря, не косметическая.
Для инфраструктурных команд это означает возможность тестировать модель топ-уровня без бюджета, который обычно вызывает нервный тик у финансового директора. Для команд, строящих мультиагентные системы, важнее другое: длинный контекст, устойчивое рассуждение и хорошая работа с инструментами делают MiMo-V2-Pro потенциальным координационным ядром для сложных workflow.
Контекстное окно в 1 млн токенов открывает интересные сценарии для корпоративного поиска, анализа документации, больших кодовых баз и RAG-конвейеров. Можно подавать крупные массивы данных без агрессивной нарезки на мелкие фрагменты. Это не серебряная пуля, конечно, но в ряде случаев сильно упрощает архитектуру.
Есть и оборотная сторона. Чем агентнее модель, тем шире поверхность атаки. Если система умеет работать с терминалом, файлами и внешними инструментами, то растут риски prompt injection, несанкционированных действий и утечек через цепочки вызовов. Тут уже не обойтись без нормальной безопасности AI-агентов, мониторинга, журналирования и ограничений на уровне инструментов.
Кроме того, в отличие от MiMo-V2-Flash, версия Pro пока не поставляется с открытыми весами. А значит, внутренние команды безопасности и compliance не смогут провести глубокий аудит модели на том уровне, который иногда требуется в чувствительных корпоративных внедрениях. И да, это может стать стоп-фактором для части regulated-сценариев. Неприятно, но факт.
Поэтому внедрение такой модели в enterprise-ландшафт почти наверняка потребует не только тестов качества, но и отдельного слоя governance: политики доступа, трассируемость действий, контроль инструментов, sandboxing и AI compliance и соответствие требованиям. Без этого — ну такое.
Цены и доступность
Xiaomi выставила цены агрессивно, явно с прицелом на рынок разработчиков и корпоративных команд, которые считают каждый миллион токенов:
MiMo-V2-Pro до 256K контекста: $1 за 1 млн входных токенов и $3 за 1 млн выходных.
MiMo-V2-Pro от 256K до 1M: $2 за 1 млн входных токенов и $6 за 1 млн выходных.
Чтение из кэша: $0,20 за 1 млн токенов на нижнем уровне и $0,40 на верхнем.
Запись в кэш: временно бесплатно.
На фоне глобальных frontier-моделей это выглядит весьма конкурентно. Да, есть более дешевые варианты вроде Grok 4.1 Fast или MiniMax M2.7, но если смотреть именно на сочетание агентных возможностей, длинного контекста и уровня рассуждения, MiMo-V2-Pro выглядит очень крепко. Не идеально. Но крепко.
Модель | Вход | Выход | Общая стоимость | Источник |
Grok 4.1 Fast | $0.20 | $0.50 | $0.70 | |
MiniMax M2.7 | $0.30 | $1.20 | $1.50 | |
Gemini 3 Flash | $0.50 | $3.00 | $3.50 | |
Kimi-K2.5 | $0.60 | $3.00 | $3.60 | |
MiMo-V2-Pro (≤256K) | $1.00 | $3.00 | $4.00 | |
GLM-5-Turbo | $0.96 | $3.20 | $4.16 | |
GLM-5 | $1.00 | $3.20 | $4.20 | |
Claude Haiku 4.5 | $1.00 | $5.00 | $6.00 | |
Qwen3-Max | $1.20 | $6.00 | $7.20 | |
Gemini 3 Pro | $2.00 | $12.00 | $14.00 | |
GPT-5.2 | $1.75 | $14.00 | $15.75 | |
GPT-5.4 | $2.50 | $15.00 | $17.50 | |
Claude Sonnet 4.5 | $3.00 | $15.00 | $18.00 | |
Claude Opus 4.6 | $5.00 | $25.00 | $30.00 | |
GPT-5.4 Pro | $30.00 | $180.00 | $210.00 |
Сейчас MiMo-V2-Pro доступна только через собственный API Xiaomi. Поддержки изображений и мультимодального ввода пока нет, что в 2026 году выглядит заметным ограничением. Впрочем, компания уже анонсировала отдельную MiMo-V2-Omni для таких сценариев, так что, вероятно, это вопрос времени.
Почему этот релиз важен
MiMo-V2-Pro — это не просто еще одна китайская LLM, которая «почти догнала» лидеров. Таких формулировок рынок уже наслушался. Здесь важнее другое: Xiaomi показала, что модель, ориентированная на агентные действия, длинный контекст, кодинг и orchestration, может быть одновременно сильной и сравнительно доступной по цене.
Если этот уровень подтвердится в реальных корпоративных внедрениях, рынок AI-автоматизации может заметно качнуться. Не революция за одну ночь — нет, конечно. Но сдвиг вполне возможен. Особенно там, где компании ищут баланс между качеством, стоимостью и возможностью быстро запускать production-сценарии.
И, пожалуй, главный вопрос теперь звучит уже не так: «Насколько хорошо модель разговаривает?» В 2026 году этого мало. Вопрос другой — умеет ли она действовать, координировать, помнить контекст и не ломаться на полпути. Xiaomi утверждает, что умеет. Рынок скоро проверит.
