Anthropic готовит Claude Mythos — новую модель с усиленными возможностями рассуждения
Иногда о крупных запусках рынок узнаёт не из красивого пресс-релиза, а почти случайно. Именно так и вышло с Claude Mythos: из-за ошибки в настройке CMS у Anthropic в открытом доступе оказалась папка с тысячами внутренних материалов, и среди них — черновик публикации о новой большой языковой модели компании.
Позже Anthropic подтвердила проект в комментарии для Fortune. По словам компании, обучение Claude Mythos уже завершено, а сама модель проходит пилотное тестирование с ограниченным кругом ранних заказчиков. Формулировка у Anthropic была, прямо скажем, недвусмысленная: это самая мощная LLM, которую компания создавала на текущий момент.
Судя по утёкшим материалам, речь идёт не просто о ещё одной версии Claude, а о более дорогом и более производительном уровне в продуктовой линейке. Сейчас флагманская Claude 4.6 доступна в трёх вариантах с разной функциональностью и ценой. С выходом Mythos компания, похоже, добавит четвёртый уровень. И да, он будет стоить дороже.
В черновике блога фигурировало внутреннее обозначение одной из редакций Mythos — Capybara. Забавное имя, если честно, но содержание там совсем не шуточное. По данным внутреннего тестирования Anthropic, эта версия заметно превосходит Claude 4.6 Opus в задачах программирования и в сценариях, где от модели требуется сложное, многошаговое рассуждение.
Особенно сильные результаты, как сообщается, Capybara показывает в поиске уязвимостей. Вот тут начинается самое интересное. Чем лучше модель умеет анализировать код, тем выше её ценность не только для защитников, но и для злоумышленников. Поэтому Anthropic отдельно подчёркивает, что собирается ограничивать доступ и вводить дополнительные меры защиты, чтобы такие инструменты не попали не в те руки. В корпоративной среде это напрямую связано с темами безопасности AI-агентов и контролируемого внедрения ИИ в критичные процессы.
В утёкшем тексте даже звучала довольно жёсткая мысль: новые модели уже подводят индустрию к волне систем, способных эксплуатировать уязвимости быстрее, чем защитные команды успевают реагировать. Поэтому ранний доступ для организаций подаётся как способ дать бизнесу фору, чтобы компании успели укрепить кодовые базы до того, как AI-управляемые атаки станут по-настоящему массовыми. Сценарий, мягко говоря, не из приятных.
Рынок отреагировал нервно. После появления новости акции CrowdStrike, Palo Alto Networks и ряда других крупных игроков в кибербезопасности просели более чем на 5%. Инвесторы, вероятно, увидели в Mythos и Capybara потенциальный сдвиг сил на рынке обнаружения уязвимостей. И, возможно, не без оснований.
Тем более что Anthropic уже зашла в этот сегмент раньше: в прошлом месяце компания представила Claude Code Security. Сейчас этот инструмент работает на базе Claude Opus 4.6 и, по данным Anthropic, показывает высокую эффективность при анализе кода. Инженеры компании использовали его для поиска более 500 критически опасных эксплойтов в open-source-проектах. В одном из случаев модель смогла выявить наличие дефекта в PDF-инструменте, опираясь всего лишь на комментарий разработчика в журнале изменений. Неплохо. Даже слегка тревожно.
Если смотреть шире, история с Mythos хорошо показывает, куда вообще движется рынок: от обычных чат-ботов — к системам, которые умеют рассуждать, проверять гипотезы, анализировать код, находить слабые места и действовать почти как специализированные цифровые исполнители. Для компаний это уже не просто «ещё одна модель», а база для разработки AI-агентов и автоматизации, особенно в инженерных, аналитических и security-нагрузках.
Но тут есть нюанс. Чем мощнее reasoning-модель, тем важнее её архитектурная обвязка: права доступа, аудит действий, ограничения на выполнение опасных операций, память, контекст, маршрутизация задач между агентами. Без этого даже сильная модель остаётся, ну, слишком вольной. Поэтому предприятия всё чаще смотрят не только на качество LLM, но и на архитектуру AI-агентов, а также на механизмы AI compliance и соответствия требованиям.
На фоне этой истории всплыл и ещё один важный контекст: буквально за несколько дней до новости о Mythos стало известно, что OpenAI завершила pretraining своей новой модели, известной внутри компании под кодовым именем Spud. Этап pretraining формирует базовые способности LLM, а затем уже следуют дообучение, оптимизация производительности, повышение безопасности и настройка удобства использования. Ожидается, что OpenAI представит новинку в ближайшие недели.
Так что гонка ускоряется. Очень. Anthropic, OpenAI и другие разработчики уже соревнуются не просто в размере моделей, а в качестве рассуждения, глубине анализа и способности работать в прикладных, местами рискованных сценариях. И если Mythos действительно окажется настолько сильной, как утверждают утёкшие материалы, рынок enterprise AI, кибербезопасности и агентных систем может качнуться довольно резко — не завтра когда-нибудь, а почти сейчас.
И да, вся эта история началась с банальной ошибки конфигурации. Бывает. Но последствия у таких «бывает» порой очень даже серьёзные.
Что это значит для бизнеса
Для российских и международных компаний сигнал вполне ясный: модели нового поколения всё активнее переходят из режима демонстрации в режим практического применения. Особенно там, где нужны сложное рассуждение, анализ больших массивов кода, поиск уязвимостей, автоматизация инженерных операций и работа с длинным контекстом. В таких сценариях всё чаще востребованы не одиночные модели, а связки из LLM, инструментов, памяти и оркестрации — то есть полноценные агентные контуры.
Именно поэтому интерес к темам вроде мультиагентных систем, RAG, агентной памяти и защищённой автоматизации растёт буквально на глазах. Не потому, что это модно. Потому, что иначе такие модели сложно внедрять безопасно и предсказуемо, особенно в enterprise-среде.
Ключевые выводы
- Anthropic подтвердила, что тестирует новую LLM Claude Mythos.
- Модель уже обучена и проходит пилотирование у ранних клиентов.
- Внутренняя редакция Capybara, по сообщениям, превосходит Claude 4.6 Opus в программировании и задачах рассуждения.
- Одно из самых сильных направлений модели — поиск уязвимостей в коде и задачи кибербезопасности.
- Из-за высокого риска злоупотреблений Anthropic планирует дополнительные меры контроля доступа.
- Новость усиливает интерес рынка к AI-агентам, enterprise AI и безопасной архитектуре внедрения.
Источник изображения: Anthropic
