Snyk представила Agent Security для защиты полного жизненного цикла AI-агентов и объявила о доступности Evo AI-SPM
23 марта 2026 г.
Новое решение помогает контролировать автономных AI-агентов на всём пути — от разработки до production — и превращает политики AI-безопасности в реальные, исполнимые механизмы контроля.
САН-ФРАНЦИСКО, 23 марта 2026 г. (RSA Conference 2026) — Snyk, специализирующаяся на AI-безопасности, объявила о запуске нового решения Agent Security и о выходе Snyk Evo AI-SPM в статус общей доступности (GA). И, честно говоря, момент выбран очень точный: компании массово внедряют автономных coding-агентов вроде Claude Code, Cursor и Devin, но нередко без внятной модели контроля — кто что генерирует, какие инструменты вызывает и какие действия вообще выполняются в production-среде.
Параллельно с выходом из stealth-режима Snyk Evo AI-SPM, созданный внутри специализированного AI-инновационного подразделения компании, расширяет практические возможности AI Security Fabric. По сути, речь идёт об архитектуре, которая обеспечивает контроль над автономными агентами с момента их появления в программном контуре и дальше — на каждом шаге, каждом вызове, каждом действии. Чем активнее предприятия разворачивают агентные системы по всему software stack, тем нужнее становится отдельный слой enforcement. Именно его Snyk и предлагает: через этот слой должен проходить любой agentic workflow, если бизнесу важно соблюдение корпоративных требований к безопасности.
Shadow AI уже не теория, а вполне рабочая головная боль
Автономные программные агенты уже пишут код, меняют его и выкатывают с машинной скоростью. А традиционные процессы security review, мягко говоря, не поспевают. Согласно отчёту Snyk 2026 State of Agentic AI Adoption Report, многие компании, уверенные, что AI у них под контролем, на деле столкнулись с обратным. На каждую официально развёрнутую AI-модель приходится почти втрое больше неучтённых программных компонентов.
Во время early access, после более чем 500 сканирований Evo, организации — даже те, у кого уже были внедрены cloud security-инструменты и CNAPP-контроли, — обнаружили в своих codebase неуправляемые agentic AI-компоненты. Раньше они просто проскальзывали мимо существующего security stack. Неприятный сюрприз, да.
Платформы облачной безопасности обычно показывают, где AI работает уже после развёртывания. Snyk делает акцент на другом: где именно AI встраивается в программное обеспечение и как применить governance-политики ещё до того, как всё это окажется в облаке.
«Agentic-архитектуры превращают governance в задачу уровня software supply chain, — заявил Manoj Nair, Chief Innovation Officer в Snyk. — Сильная сторона Snyk в том, что мы подтверждаем, какие findings действительно реальны и потенциально эксплуатируемы, опираясь на ground truth data, накопленные за десятилетие enterprise-внедрений. Ни одна AI-модель не создаст такой контекст из воздуха. Claude находит. Snyk подтверждает. Агент исправляет только то, что действительно важно».
«Одним из самых впечатляющих качеств Evo AI-SPM стала видимость, — отметил Jason Langston, Director, Product Security в WEX. — На настройку ушёл один день, а на получение отчёта и фактически полной картины — ещё меньше. В WEX мы оцениваем AI через призму бизнес-влияния, поэтому возможность быстро увидеть реальный масштаб уже существующего ландшафта оказалась крайне полезной отправной точкой».
Evo AI-SPM: когда governance перестаёт быть декларацией
Evo AI-SPM выступает как движок решения Snyk Agent Security и переводит AI-безопасность в операционный режим с помощью специализированных автоматизированных агентов. Чтобы убрать ручную возню с governance, Discovery Agent автоматически картирует поверхность атаки по принципу code-first и формирует актуальный AI-BOM. Дальше этот inventory непрерывно обогащается агентом Risk Intelligence Agent: добавляются метаданные, показатели hallucination и bias, а также контекстные сигналы безопасности. Затем Policy Agent переводит governance-намерения, сформулированные на обычном английском языке, в machine-enforceable guardrails, которые исполняются прямо в CI pipeline.
Для компаний, которые строят разработку AI-агентов и автоматизацию, такой подход особенно важен: политика безопасности перестаёт быть PDF-файлом, который лежит где-то в папке, и становится рабочим механизмом. Не на словах — в процессе.
Контроль полного жизненного цикла агента: Environment, Artifact и Behavior
Чтобы команды разработки могли использовать AI-инструменты для coding без провалов в security posture, Snyk Agent Security объединяет защиту трёх критически важных фаз agentic-разработки:
Environment — Agent Scan (Open Preview): защищает цепочку поставки инструментов, от которых зависят агенты, и помогает убедиться, что каждый MCP-сервер и каждый agent skill известны, доверены и находятся под управлением governance.
Artifact — Snyk Studio: встраивает security-валидацию непосредственно в CI/CD pipeline по мере создания кода. Решение уже используется более чем 300 enterprise-клиентами и нативно интегрировано в workflows Claude Code, Cursor и Devin.
Behavior — Agent Guard (Private Preview): обеспечивает контроль в реальном времени внутри development loop, блокируя деструктивные команды и точно регулируя поведение агентов.
Если смотреть шире, это уже не просто точечная защита, а полноценная архитектура AI-агентов, где учитываются среда, артефакты и поведение. И это, пожалуй, логично: уязвимость редко живёт только в одном месте.
Помимо этапа разработки, Snyk защищает и AI-native-приложения во время runtime. В сегменте динамического тестирования Snyk API & Web нацелен на уязвимости авторизации и бизнес-логики — например, BOLA и IDOR. Такие проблемы нередко встречаются в коде, сгенерированном AI, а при доступе к нему со стороны автономных агентов риски становятся уже совсем не академическими.
Кроме того, Agent Red Teaming (Open Preview) использует автономных агентов для моделирования многошаговых атакующих сценариев и непрерывного поиска уязвимостей, чтобы их можно было устранить до эксплуатации в production. Для организаций, которым важны безопасность AI-агентов и раннее выявление рисков, это выглядит особенно практичным шагом.
Отдельно стоит отметить, что подобные решения хорошо ложатся в контур AI compliance и соответствия требованиям: когда агентные системы становятся частью критичных бизнес-процессов, вопрос уже не только в скорости разработки, но и в доказуемом контроле. Иначе потом приходится долго разбираться — кто, что, зачем и почему вообще запустил.
Доступность
Evo AI-SPM — включая Discovery Agent, Risk Intelligence Agent и Policy Agent, — а также API & Web Testing уже доступны в статусе Generally Available (GA).
Snyk Studio теперь встроен непосредственно в AI-driven workflows разработки внутри платформы Snyk.
Agent Scan и Agent Red Teaming сейчас доступны в Open Preview, а Agent Guard — в Private Preview. Snyk активно ищет design partners для участия в preview-программах.
На этой неделе Snyk показывает новое решение Agent Security и возможности Evo AI-SPM в статусе GA на RSA Conference 2026. Чтобы узнать подробности или запросить демо, посетите https://snyk.io/events/rsac/.
О компании Snyk
Snyk — компания в сфере AI-безопасности, которая помогает enterprise-организациям разрабатывать и защищать своё AI-будущее. Платформа Snyk AI Security Platform выступает как AI Security Fabric для отрасли, встраивая защиту прямо в процесс создания решений и помогая защищать GenAI-код, AI-native-приложения и agentic-системы. Благодаря видимости, контролю и автономной защите с самого начала Snyk даёт более чем 4 800 клиентам по всему миру возможность внедрять AI увереннее и, что называется, без лишней дрожи в коленях.
