Не очередной эксперимент в духе «давайте прикрутим LLM и посмотрим, что выйдет». Pinterest пошла заметно дальше: инженерные команды компании развернули внутреннюю экосистему Model Context Protocol (MCP), рассчитанную уже не на демо, а на реальную эксплуатацию. Цель вполне приземлённая — дать AI-агентам доступ к инструментам, данным и инженерным системам так, чтобы это работало стабильно, масштабировалось без нервного тика и не превращалось в коллекцию случайных интеграций.
По сути, речь идёт о стандартизированной платформе для разработки AI-агентов и автоматизации, где вместо разрозненных ad hoc-связок используются production-ready MCP-серверы, центральный реестр и интеграции с внутренними developer tools. MCP задаёт единый клиент-серверный механизм, через который языковые модели могут вызывать инструменты и получать доступ к структурированным данным. Благодаря этому агенты берут на себя вполне конкретные задачи: анализ логов, проверку bug tickets, подготовку сводок по инцидентам и работу с внутренними live-системами.
Выбрав архитектуру из нескольких внутренних облачных MCP-серверов, разделённых по доменам и связанных через центральный registry, Pinterest получила гибкую и безопасную основу для AI-агентов, встроенных в повседневные инженерные процессы.
И это, честно говоря, ключевой момент. Вместо одного большого сервиса компания собрала парк облачных MCP-серверов, каждый из которых отвечает за свой домен — например, Presto, Spark или Airflow. Такой подход выглядит куда взрослее: контекст не раздувается до бесконечности, инструменты изолированы, а права доступа можно настраивать точечно, без магии и без лишнего героизма. Если вам близка тема архитектуры AI-агентов, это почти учебный пример того, как строить систему не «вообще умно», а практично.
Инфраструктурой и жизненным циклом этих сервисов управляет единый deployment pipeline. Он закрывает вопросы развёртывания, масштабирования и сопровождения, чтобы инженерные команды не вязли в платформенной рутине и могли сосредоточиться на описании интерфейсов инструментов. Вроде мелочь, а на деле именно такие вещи и отличают лабораторную игрушку от рабочей enterprise AI-платформы.
Центральный MCP registry стал для этой схемы источником истины: в нём хранятся одобренные серверы и метаданные для подключения. Через UI и API внутренние клиенты, IDE и агентные приложения могут находить нужные серверы, проверять их статус и подключать их в свои сценарии. Перед вызовом инструмента клиент сначала обращается к registry, чтобы подтвердить права доступа и актуальное состояние сервера. То есть governance здесь не где-то на бумаге — он встроен прямо в маршрут выполнения.
У Pinterest есть и вполне осязаемая north-star-метрика: сэкономленное время. Владельцы инструментов оценивают, сколько минут экономит один вызов, опираясь на лёгкую пользовательскую обратную связь и сравнение с ручными workflows. По состоянию на январь 2025 года MCP-серверы обрабатывали 66 000 вызовов в месяц у 844 активных пользователей. Эквивалентная экономия — около 7 000 часов ежемесячно. Цифры, мягко говоря, не декоративные.
AI-агенты встроены в чат-платформы и IDE, где нужные MCP-серверы обнаруживаются через registry. Дальше начинается самое интересное: агент может самостоятельно расследовать инцидент, собрать контекст, подготовить summary и даже предложить изменения. Но — и это правильно — не всё отдано на откуп автоматике. Для чувствительных операций Pinterest использует human-in-the-loop approval: перед потенциально рискованным действием агент должен запросить подтверждение через механизм elicitation. Иными словами, агент предлагает, человек решает. Иногда это чуть медленнее. Зато потом никто не бегает по коридору с вопросом, кто именно нажал не ту кнопку.
/filters:no_upscale()/news/2026/04/pinterest-mcp-ecosystem/en/resources/1Screenshot%202026-03-21%20at%206.27.19%E2%80%AFPM-1774143801369.png)
Сквозной процесс разработки MCP-сервера показывает ту же логику: сначала стандартизация, потом масштаб. Не наоборот. И, наверное, в этом вся соль.
Отдельного внимания заслуживает модель безопасности. Здесь используется двухуровневая авторизация: JWT конечных пользователей управляют доступом в сценариях human-in-the-loop, а сервисные потоки опираются на mesh identities. На стороне серверов применяются granular authorization decorators и ограничения по business group, чтобы высокопривилегированные операции были доступны только одобренным командам. Для компаний, которым важны безопасность AI-агентов и контроль доступа, это очень показательный паттерн.
OAuth-потоки надстроены поверх существующей внутренней аутентификации, поэтому пользователю не приходится лишний раз проходить согласования, а аудит остаётся полным и прозрачным. Каждый MCP-сервер обязан соответствовать MCP Security Standard и пройти проверки со стороны Security, Legal/Privacy и GenAI-команд до выхода в production. Да, звучит строго. Но в enterprise-среде иначе, по-хорошему, и не должно быть.
Если смотреть шире, кейс Pinterest хорошо ложится в общий тренд: рынок смещается от простых NLP-интерфейсов к системам, где AI-агенты получают безопасный доступ к живым данным, корпоративным инструментам и операционным контурам. Это уже не просто «чат с моделью», а полноценная агентная инфраструктура — с контролем, памятью, маршрутизацией и правилами. В похожих сценариях особенно важны агентная память и RAG, а также механизмы AI compliance и соответствия требованиям, потому что без них масштабирование быстро упирается в риски, а не в возможности.
Pinterest продолжает расширять набор MCP-серверов, усиливать интеграции на разных инженерных поверхностях и дорабатывать governance-модель. Картина вырисовывается довольно ясная: если компания хочет всерьёз внедрять AI-автоматизацию, ей нужна не одна умная модель, а связная экосистема. С архитектурой. С безопасностью. С понятными правилами. Всё остальное — ну, это обычно заканчивается красивой презентацией и очень грустной эксплуатацией.

