Иногда рынок меняется не с громким хлопком, а почти буднично. Вчера MCP выглядел как аккуратная техническая спецификация «для своих». Сегодня — уже как слой по умолчанию для AI-агентов. И вот это, если честно, куда важнее самой цифры.
Хотя цифра тоже, мягко говоря, нешуточная: 25 марта 2026 года Model Context Protocol от Anthropic перевалил за 97 миллионов установок. Для мира AI-инфраструктуры это не просто быстрый рост. Это почти рывок с места в карьер.
97 миллионов — и дело не только в масштабе
Сами по себе установки мало что объясняют, если не смотреть на контекст. А контекст тут такой: крупнейшие поставщики моделей и платформ почти синхронно начали включать MCP-совместимые инструменты в базовый стек. Не как приятный бонус. Не как экспериментальную галочку. А как норму.
OpenAI, Google DeepMind, Cohere, Mistral — к середине марта все они уже встроили поддержку MCP в свои агентные фреймворки. Когда конкуренты, которые обычно тянут одеяло каждый в свою сторону, вдруг принимают один и тот же протокол за считаные недели, это уже не просто adoption. Это сигнал: рынок устал от хаоса интеграций.
И да, MCP — не модель и не очередной модный фреймворк. Это протокол. Спецификация того, как AI-агенты общаются с инструментами, API и внешними источниками данных. Что-то вроде HTTP для агентных систем: не особенно гламурно, зато без него всё начинает скрипеть, ломаться и ехать боком.
Если по-человечески: что вообще делает MCP
До MCP почти каждая разработка AI-агентов и автоматизация упиралась в одну и ту же боль. Подключили агента к одной базе — написали кастомный коннектор. Понадобился Slack — пишите ещё один. Потом CRM, файловое хранилище, GitHub, внутренний API, аналитика... и понеслось. Интеграционный зоопарк, честно говоря.
MCP наводит порядок. Агент подключается к серверу по единому протоколу, получает описание доступных возможностей, понимает, какие параметры нужны для вызова инструментов, какие ресурсы можно читать и что вообще находится по ту сторону соединения. Не магия. Просто нормальная стандартизация — та самая скучная вещь, которая потом экономит сотни часов и кучу нервов.
Архитектура тут трёхслойная:
Hosts — это приложения, где живёт агент: Claude Desktop, корпоративный copilot, внутренний агентный runtime.
Clients — компоненты, которые ведут сам протокольный диалог и держат соединение с конкретным сервером инструментов.
Servers — поставщики возможностей: доступ к GitHub, Postgres, файловой системе, Slack, Kubernetes и так далее.
Звучит сухо, но в этом и сила. Сервер объявляет, что умеет. Клиент решает, что использовать. Host определяет, что вообще разрешено пользователю. Три уровня контроля — вместо одной жирной, непрозрачной интеграции, где потом никто не понимает, кто кому что открыл.
Почему именно март 2026 стал переломным
Потому что пилоты закончились. По данным анализа трендов enterprise AI, первый квартал 2026 года стал моментом, когда крупные компании начали переводить agentic AI из режима «давайте попробуем» в production. А production, как известно, не любит самодельщину.
Пилот может пережить пять странных коннекторов и пару хрупких скриптов. Продакшен — нет. Там любая нестабильная интеграция превращается в ночной звонок дежурному инженеру. И вот тут MCP оказался не просто удобным, а практически неизбежным.
Например, Block после внедрения MCP в контуре финансовых данных избавилась от 340 кастомных коннекторов. Apollo встроила протокол в свою go-to-market платформу и сократила издержки на поддержку интеграций на 60%. Replit вообще выстраивает AI-среду разработки вокруг MCP-примитивов. Это уже не лабораторные опыты. Это архитектурный выбор — взрослый, дорогой и, видимо, осознанный.
Под капотом всё довольно приземлённо. И это хорошо
MCP использует JSON-RPC 2.0 как формат обмена сообщениями и работает поверх stdio для локальных сценариев или HTTP с Server-Sent Events для удалённых подключений. Никакой экзотики. Никаких «революционных» транспортов, которые потом неделю дебажат три команды подряд.
Именно эта инженерная скромность, возможно, и сыграла протоколу на руку. Когда компании строят архитектуру AI-агентов, они обычно хотят не красивый слайд, а предсказуемую эксплуатацию. MCP даёт именно это.
Во время подключения клиент получает манифест возможностей, где описаны:
- Tools — функции, которые агент может вызывать;
- Resources — данные, которые агент может читать;
- Prompts — заранее определённые шаблоны инструкций для типовых задач.
Смысл в том, что агенту не нужно заранее «знать» каждый инструмент. Он читает манифест и сам понимает интерфейс. Видит инструмент с именем send_message, параметрами channel и content — и уже может работать. Без жёстко зашитой логики под каждый сервис. Удобно? Да. Но важнее другое: это делает систему расширяемой без постоянного переписывания кода.
Главный сдвиг, который многие недооценивают
О MCP часто говорят как об инструменте для ускорения интеграций. Это правда, но только наполовину. Настоящая перемена — в том, кто контролирует слой доступа.
Раньше платформенные вендоры держали коннекторы при себе, как хороший ресторан держит секретный соус. Хотите доступ к данным? Идите через наш API, по нашим правилам, в нашей экосистеме. MCP эту логику подтачивает.
Если компания поднимает собственный MCP-сервер для внутренних API, к нему может подключиться любой совместимый агент. Не нужен специальный союз с вендором модели. Не нужен отдельный проприетарный runtime. Достаточно говорить на одном протокольном языке. Всё. И это уже очень серьёзный сдвиг в балансе сил.
Честно? Многие крупные платформы, кажется, пока ещё не до конца это переварили. Они смотрят на MCP как на дополнительный способ доступа рядом с их собственными API. Но история технологий обычно идёт по одному сценарию: как только появляется достаточно хороший универсальный стандарт, разработчики постепенно перестают любить кастомщину. Не сразу. Но быстро.
Экосистема важнее самой спецификации
Есть ещё одно заблуждение: будто MCP ценен только как протокол. На практике львиная доля пользы приходит не из PDF со спецификацией, а из экосистемы серверов и SDK. И вот тут всё уже выглядит очень серьёзно.
Anthropic и сообщество выпустили рабочие reference-реализации для файловой системы, Git и GitHub, Postgres, SQLite, Slack, Google Drive, Kubernetes, AWS и других типовых сервисов. Это не игрушки для демо. Это production-grade компоненты с обработкой ошибок, границами разрешений и нормальной эксплуатационной логикой. Короче, не стыдно ставить в дело.
Именно поэтому рост до 97 миллионов установок выглядит правдоподобно. Когда у рынка уже есть готовые кирпичи, внедрение идёт не по сантиметру, а скачками.
Безопасность: вот где всё становится по-настоящему серьёзным
Универсальный протокол для доступа агентов к инструментам — идея мощная, но сразу вызывает нервный вопрос: а что, если агент сойдёт с рельсов? Или его скомпрометируют? Или, что бывает чаще, кто-то просто криво настроит права? Да-да, именно так обычно всё и ломается.
MCP строится вокруг явных capability grants. Сервер открывает только те возможности, которые сам публикует. Host разрешает только те соединения, которые одобрены пользователем или политикой. Клиент не может внезапно «нащупать» скрытые функции за пределами выданных прав.
На практике к этому добавляются стандартные меры: OAuth или API-ключи, аудит вызовов, rate limiting, sandboxing, интеграция с SIEM и контроль аномалий. Для компаний, которым нужна безопасность AI-агентов, это особенно важно: MCP даёт не только удобство, но и понятную точку контроля.
Но — и это важное «но» — сам протокол не спасает от плохой реализации. Если MCP-сервер написан спустя рукава и открывает всё подряд, никакая спецификация не сотворит чудо. Протокол задаёт рамку. Дисциплину всё равно обеспечивает инженерная команда.
Что стоит делать компаниям уже сейчас
Если у вас AI-агенты уже работают в production, а MCP ещё нет, тянуть, вероятно, не стоит. Не потому что «все побежали». А потому что дальше цена ожидания будет только расти.
Первое: проведите инвентаризацию интеграций. Какие инструменты и источники данных уже используют агенты? Где сидят проприетарные коннекторы, а где — самописный код?
Второе: проверьте, какие MCP-серверы уже существуют. Для GitHub, Slack, баз данных, облаков и внутренних сервисов часто не нужно изобретать велосипед. Он уже собран, накачан и, возможно, даже едет.
Третье: заранее продумайте модель авторизации. Кто к чему подключается, по каким ролям, через какие политики, с каким аудитом. Здесь особенно полезно увязать протокол с AI compliance и соответствием требованиям, если вы работаете в регулируемой среде.
Четвёртое: запускайте shadow deployment. Поднимите MCP-путь параллельно с текущими интеграциями, направьте туда часть трафика и сравните надёжность, задержки, поведение при сбоях. Сухая практика почти всегда полезнее красивой теории.
Пятое: постепенно выводите из эксплуатации кастомные коннекторы, если MCP показывает сопоставимый или лучший результат. Иначе технический долг будет только пухнуть. Неприятно, но факт.
На уровне кода клиент на Python выглядит довольно просто:
from mcp import ClientSession
from mcp.client.stdio import stdio_client
async with stdio_client(server_path) as (read, write):
async with ClientSession(read, write) as session:
await session.initialize()
tools = await session.list_tools()
result = await session.call_tool("query_database",
arguments={"sql": "SELECT * FROM users LIMIT 10"})
И в этом, пожалуй, вся суть. Порог входа не выглядит пугающим. Освоение измеряется часами, а не неделями. Ну, если без драм, конечно.
Куда всё это ведёт рынок AI-агентов
Победители уже вырисовываются. Компании, которые быстро выпускают MCP-серверы для своих платформ, получают более прочное место в стеке. Разработчики агентных систем и фреймворков могут меньше возиться с интеграциями и больше — с orchestration logic, памятью, маршрутизацией, качеством reasoning.
Особенно интересно это смотрится на фоне роста спроса на мультиагентные системы и связки с агентной памятью, RAG и внутренними знаниями компании. Когда протокольный слой стандартизирован, строить поверх него сложные сценарии координации становится куда проще.
А вот проигрывают те, кто слишком долго делал ставку на закрытые API, эксклюзивные коннекторы и интеграции как средство удержания клиентов. Если любой совместимый агент может прийти к данным через MCP, прежние «рвы» вокруг платформы становятся заметно мельче.
Есть ещё один недооценённый сценарий — и он, возможно, самый денежный
Все любят говорить о том, как MCP соединяет агентов с современными сервисами. Но по-настоящему большая ценность, особенно для enterprise, часто скрыта в другом: в подключении к старым внутренним системам, которые вообще не проектировались под AI.
У любой крупной компании есть этот пласт — legacy-базы, внутренние API, странные сервисы десятилетней давности, куски инфраструктуры, которые никто не хочет трогать без крайней нужды. Они не станут «AI-native» по щелчку пальцев. Да и не должны.
MCP-сервер позволяет обернуть такие системы аккуратным слоем доступа: добавить discovery возможностей, контроль разрешений, аудит, нормальный формат ответов. Базовая система при этом остаётся на месте. Неидеально? Возможно. Но очень практично. А в enterprise практичность, как ни крути, оплачивает счета.
Что дальше
Рубеж в 97 миллионов установок — это уже не пробный шар. Это факт рынка. Дальше вопрос не в том, выживет ли MCP, а в том, насколько глубоко он встроится в стандартную архитектуру AI-автоматизации.
Следить стоит как минимум за тремя направлениями.
Во-первых, streaming и real-time данные. Сегодня MCP отлично чувствует себя в request-response сценариях, но агентам всё чаще нужны потоки событий, логи, метрики, рыночные данные. Здесь протоколу ещё есть куда дорастать.
Во-вторых, координация нескольких агентов. MCP хорошо описывает agent-to-tool взаимодействие, но не закрывает полностью сценарии agent-to-agent. А спрос на сложные multi-agent orchestration-паттерны растёт буквально на глазах.
В-третьих, формальная верификация и доверенная реализация. Для регулируемых отраслей одних обещаний безопасности мало. Им нужны доказуемые гарантии. И, скорее всего, рынок к этому придёт.
Итог — без лишней патетики
MCP от Anthropic уже трудно называть просто удачным протоколом. Он всё больше похож на базовый слой, вокруг которого будет строиться разработка AI-агентов, корпоративная автоматизация, безопасность, агентная память и новые архитектуры enterprise AI.
Можно, конечно, спорить о сроках. Можно сомневаться в деталях реализации. Можно откладывать миграцию ещё квартал-другой. Но общий вектор, кажется, уже ясен. Когда инфраструктурный стандарт становится настолько распространённым, он перестаёт быть темой для дискуссий и превращается в фон — как электричество в офисе или HTTPS в браузере. Просто работает. И все к этому привыкают.
97 миллионов установок MCP — это не просто красивая метрика. Это момент, когда агентный AI перестал быть набором разрозненных экспериментов и начал складываться в настоящую инженерную систему.



