Anthropic тестирует Claude Mythos: утечка раскрыла новую AI-модель, скачок возможностей и риски для кибербезопасности
История всплыла не из пресс-релиза и не со сцены. Всё куда прозаичнее — и, честно говоря, неловче. Случайно открытый для индексации массив данных показал, что Anthropic уже работает с новой моделью искусственного интеллекта, которая внутри компании описывается как заметный, почти рубежный скачок по сравнению с прежними системами.
После того как факт утечки стал известен, Anthropic подтвердила главное: новая модель действительно существует, она обучена и уже проходит испытания у ограниченного круга клиентов раннего доступа. По словам представителя компании, речь идёт о «качественном скачке» в возможностях и о самой мощной модели, которую Anthropic когда-либо создавала.
Если говорить проще: это не очередное косметическое обновление. Похоже, компания подбирается к новому классу frontier-моделей — более дорогих, более сильных и, что важно, куда более чувствительных с точки зрения безопасности AI-систем.
Судя по черновым материалам, изученным Fortune, модель фигурировала под названием Claude Mythos. В тех же документах встречалось и другое имя — Capybara. Похоже, одно обозначает саму модель, а другое — новый уровень в линейке Anthropic, стоящий выше Opus. То есть выше того, что компания до сих пор считала своей вершиной.
И вот тут начинается самое интересное.
Что именно утекло
В открытом хранилище оказались черновики материалов, структурированные данные для веб-страниц, изображения, PDF-файлы и другие объекты, которые, судя по всему, не предназначались для публичного доступа. Исследователи кибербезопасности Рой Паз из LayerX Security и Александр Паувелс из Кембриджского университета обнаружили среди этих файлов почти 3 000 объектов, связанных с блогом Anthropic и ранее не публиковавшихся на официальных площадках компании.
После уведомления со стороны Fortune компания закрыла публичный доступ к хранилищу. Anthropic признала, что причиной стала человеческая ошибка в настройке CMS: черновой контент оказался доступен извне и индексировался. Бывает — но, мягко говоря, неприятно, особенно для компании, которая много говорит о безопасном развитии ИИ.
В материалах утечки, помимо упоминания Mythos, содержалось описание новой ступени моделей. Сейчас Anthropic делит свои системы на три уровня: Opus — самые мощные, Sonnet — более быстрые и доступные, Haiku — компактные и дешёвые. Но в черновике говорилось, что Capybara — это уже следующий класс: крупнее, умнее и дороже, чем Opus.
Внутренний текст формулировал это без особой скромности: по сравнению с Claude Opus 4.6 новая система показывает заметно лучшие результаты в программировании, академическом рассуждении и задачах кибербезопасности. Не «чуть лучше». Существенно лучше.
Для компаний, которые строят AI-агентов и системы автоматизации, такие сдвиги важны не только как новость рынка. Это сигнал, что требования к качеству моделей, оркестрации и контролю рисков будут расти — быстро, без раскачки.
Почему Mythos считают шагом вперёд
Anthropic подтвердила, что разрабатывает универсальную модель с серьёзными улучшениями в рассуждении, программировании и кибербезопасности. Формулировка сухая, корпоративная. Но за ней читается простая мысль: новая модель умеет больше, чем прежние, и умеет это увереннее.
Черновик публикации утверждал, что обучение Claude Mythos уже завершено. Там же модель называлась «безусловно самой мощной AI-моделью», которую компания когда-либо разрабатывала. Звучит громко. Возможно, даже слишком громко. Но если Anthropic сама решила придержать релиз и ограничиться ранним доступом, значит, дело не только в маркетинге.
По документам видно, что компания не спешит выкатывать систему в широкий доступ. Причины две: высокая стоимость эксплуатации и повышенный профиль риска. И это, если честно, выглядит логично. Чем сильнее модель, тем выше цена ошибки — технической, юридической, репутационной.
На практике именно здесь и начинается взрослая архитектура AI-агентов: не просто взять мощную модель, а встроить её в управляемый контур с ограничениями, маршрутизацией задач, аудитом действий и понятной ответственностью на каждом шаге.
Главная тревога — кибербезопасность
Самая жёсткая часть утекшего черновика касалась не производительности как таковой, а киберрисков. Согласно документу, Anthropic считает, что новая модель несёт существенные, возможно, беспрецедентные риски в сфере кибербезопасности.
В тексте говорилось, что система уже сейчас «значительно опережает любую другую AI-модель по кибервозможностям» и фактически предвещает волну моделей, способных эксплуатировать уязвимости быстрее, чем защитники успеют реагировать. Иными словами: инструмент, который помогает искать дыры в коде, может столь же эффективно помочь и тем, кто хочет эти дыры использовать.
Старый сюжет, да. Но ставки теперь выше.
Именно поэтому план вывода модели, по данным из черновика, ориентирован прежде всего на защитников — организации, которым нужен временной зазор, чтобы укрепить свои codebase, процессы реагирования и внутренние средства контроля. Такой подход хорошо ложится в логику безопасности AI-агентов: сильные модели нельзя просто подключать к критическим системам без песочниц, политик доступа, журналирования и сценариев аварийного отключения.
Anthropic здесь не одинока. OpenAI ранее тоже заявляла, что её более новые модели перешли порог, после которого киберриски становятся отдельной категорией оценки. У Anthropic похожие сигналы уже были и с Opus 4.6: компания признавала, что модель умеет находить ранее неизвестные уязвимости в production-коде. Это классическая dual-use-способность — полезная для защиты и опасная при злоупотреблении.
Более того, Anthropic уже сообщала о попытках использовать Claude в реальных кибератаках, включая операции, которые связывали с государственными структурами Китая. В одном из случаев, по данным компании, злоумышленники применяли Claude Code в координированной кампании против примерно 30 организаций — от технологических компаний до финансовых учреждений и госструктур. Потом аккаунты заблокировали, пострадавших уведомили, расследование провели. Но сам факт, ну, довольно красноречив.
Что это значит для рынка AI-агентов и корпоративного внедрения
Если Mythos действительно открывает новый уровень возможностей, последствия выйдут далеко за рамки одной новости про Anthropic. Для бизнеса это означает, что следующий виток внедрения ИИ будет упираться не только в качество модели, но и в то, насколько грамотно выстроены память, контекст, контроль доступа, проверка действий и соответствие требованиям.
Сильная модель без нормального контура управления — как спорткар на льду. Едет быстро, красиво, а потом — ну вы поняли.
Поэтому компании, которые сегодня инвестируют в агентную память и RAG, мультиагентные сценарии, безопасное выполнение инструментов и AI compliance, скорее всего, окажутся в более устойчивой позиции, когда подобные модели станут массовее. Особенно это касается корпоративного сегмента, где важны аудит, разграничение ролей, защита данных и воспроизводимость решений.
На российском рынке запрос на такие решения уже формируется вокруг тем вроде разработки AI-агентов, автоматизации бизнес-процессов, мультиагентных систем, безопасной интеграции LLM и соответствия внутренним и отраслевым требованиям. И это не теоретический разговор. Когда модели становятся сильнее, цена архитектурных компромиссов растёт почти мгновенно.
Ещё одна деталь утечки: закрытый саммит для CEO
В том же наборе файлов обнаружили PDF с описанием закрытого мероприятия для руководителей европейских компаний. Встреча должна пройти в Великобритании, а среди участников заявлен CEO Anthropic Дарио Амодеи. Имена остальных гостей не раскрывались, но их описывали как одних из самых влиятельных бизнес-лидеров Европы.
Формат — камерный двухдневный выезд в усадьбе XVIII века, переделанной в отель и spa, где планировались обсуждения внедрения ИИ в бизнес, выступления законодателей и политиков, а также демонстрация ещё не выпущенных возможностей Claude. В общем, классический executive offsite: тихо, дорого, без лишних глаз.
Anthropic подтвердила, что мероприятие — часть серии встреч с бизнес-аудиторией, которые компания проводит уже около года. Официальная формулировка ожидаемая: обсуждение будущего AI с европейскими лидерами бизнеса.
И тут, конечно, есть лёгкая ирония. Компания готовит приватный разговор о будущем безопасного ИИ, а черновики и сопроводительные материалы утекают через публично доступную CMS. Такое бывает. Но осадочек остаётся.
Почему эта история важнее, чем кажется
На поверхности это новость об утечке и ещё не анонсированной модели. Но глубже — это маркер того, куда движется весь рынок. Frontier AI становится мощнее, дороже и опаснее в эксплуатации без должных ограничений. А значит, выигрывать будут не те, у кого просто есть доступ к самой сильной модели, а те, кто умеет оборачивать её в надёжную инженерную и управленческую оболочку.
Собственно, в этом и состоит взросление отрасли: от восторга по поводу «ещё более умной модели» — к дисциплине вокруг безопасности, памяти, оркестрации, мониторинга и соответствия требованиям. Без этого дальше уже никак. Точнее, можно, но недолго.
Если утекшие материалы верно отражают планы Anthropic, Claude Mythos — или Capybara, как ни назови, — может стать не просто очередной моделью в линейке, а ранним сигналом новой фазы рынка. Фазы, где AI compliance и соответствие требованиям, защита AI-агентов и продуманная архитектура будут не опцией, а базовой гигиеной.
И да, пожалуй, это и есть главный вывод. Не сама утечка. Не название модели. А то, что индустрия, похоже, входит в режим, где мощность ИИ растёт быстрее, чем комфорт людей, которые должны этим управлять.
