Что вообще случилось

Anthropic случайно выложила исходники Claude Code — почти целиком

Исследователь безопасности Chaofan Shou заметил, что CLI-инструмент Claude Code, который Anthropic продвигает как флагманское решение для программирования в терминале, содержит .map-файл, через который можно добраться до оригинальных исходников. Не к кусочку. Не к обрывкам. Практически ко всей кодовой базе.

Если по-простому, source maps нужны для отладки: они связывают собранный production-код с исходными файлами. В релизных пакетах такие вещи обычно вычищают — это базовая гигиена сборки, без драматизма. Здесь, похоже, не вычистили. В результате файл вел к ZIP-архиву в облачном хранилище Anthropic, где лежали примерно 1 900 файлов и свыше 512 000 строк кода, включая невыпущенные функции, внутренние флаги и служебные подсказки для модели.

Исходный код Claude Code утек через map-файл в их npm registry!

@Fried_rice (Chaofan Shou)

Дальше все понеслось по классике интернета: зеркала на GitHub, треды на Hacker News, обсуждения на Reddit, разборы от независимых разработчиков и публикации в профильных медиа. Кто-то даже использовал сам Claude Code, чтобы анализировать утекший Claude Code. Ну а что, символично. Даже слишком.

Потом в историю внезапно влетел OpenAI Codex — но там был не слив, а шутка

Когда тема с Claude Code уже разогналась, инженер из команды Codex в OpenAI, @reach_vb, опубликовал пост в духе: мол, «черт, кто-то в OpenAI слил весь код Codex». Звучало громко. Народ дернулся. Некоторые — очень даже.

черт возьми, кто-то в OpenAI слил весь код Codex..

@reach_vb (участник команды OpenAI Codex)

Но это был сарказм, почти подмигивание в ленту. Проблема в том, что интернет плохо считывает интонацию, особенно когда все уже на взводе. В итоге часть аудитории решила, что OpenAI тоже «пробили» в тот же день.

На практике все куда прозаичнее. Codex CLI OpenAI открыла еще в апреле 2025 года — осознанно, публично и под лицензией Apache 2.0. Тогда же об этом писали крупные техмедиа, а сам репозиторий с тех пор спокойно живет на GitHub, набрав более 60 000 звезд и сотни контрибьюторов. То есть «утечка» Codex — это, по сути, ссылка на давно открытый репозиторий. Не взлом. Не слив. Просто открытый код, который и так лежит на виду.

⚠ Случайная утечка

Claude Code

Проприетарная кодовая база оказалась доступна через .map-файл в npm-пакете. Внутри — около 1 900 файлов, более 512 тыс. строк TypeScript, скрытые функции, внутренние кодовые названия и system prompts.

✓ Открыто намеренно

OpenAI Codex CLI

Публичный проект под лицензией Apache 2.0 с апреля 2025 года. Более 60 тыс. звезд на GitHub, тысячи коммитов и активное сообщество. Иными словами, открыт по замыслу, а не по ошибке.

Что нашли в коде

Claude Code оказался не просто терминальным помощником, а заготовкой под серьезную агентную платформу

Самое любопытное в этой истории — даже не сам факт утечки, а то, что она показала. Судя по коду, Claude Code — это не «чат-бот в консоли», как могло казаться по внешней оболочке, а куда более сложная система с явным уклоном в разработку AI-агентов и автоматизацию.

В цифрах
Всего файлов~1,900
Строк кода512,000+
Инструментов агента40+
Slash-команд~50
Найдено feature flags44
Невыпущенных функций20+

Особенно много шума наделали скрытые функции. В коде фигурирует KAIROS — режим постоянно активного фонового агента, который, судя по описаниям, может работать автономно и заниматься «консолидацией памяти», пока пользователь ничего не делает. Есть и ULTRAPLAN — система удаленного планирования задач на 30 минут вперед. Плюс Coordinator Mode, где один экземпляр Claude управляет несколькими worker-агентами параллельно. То есть речь уже идет не просто о помощнике, а о зачатках мультиагентной системы.

И да, там нашелся BUDDY — виртуальный питомец в духе Tamagotchi, живущий прямо в терминале. С видами, редкостью, шляпами, shiny-вариантами и характеристиками вроде Debugging, Patience, Chaos, Wisdom и Snark. Звучит немного дико. Но, если честно, по-человечески даже симпатично.

Кроме того, код раскрывает встроенные system prompts, механизмы оркестрации агентов, IDE-интеграции для VS Code и JetBrains, plugin-архитектуру, голосовой ввод, vim-режим и внутренний Undercover Mode — режим, который должен был не допускать утечки кодовых названий Anthropic в git-коммитах. Тут, конечно, ирония уже не тонкая, а почти с лопатой.

Отдельно стоит отметить блоки, связанные с памятью и сохранением контекста между сессиями. Это важный сигнал для рынка: современные агентные продукты все чаще строятся вокруг долговременного контекста, retrieval-подходов и агентной памяти. Если вам близка эта тема, то она напрямую пересекается с практиками агентной памяти и RAG.

Почему это вообще важно

Это не просто неловкий инцидент. Это история про безопасность AI-агентов, конкуренцию и сдвиг всей отрасли

Для Anthropic. Ситуация, мягко говоря, неприятная. Компания, которая делает ставку на безопасность и надежность AI, по сути, сама раскрыла внутреннюю механику собственного продукта из-за ошибки в pipeline сборки. Для конкурентов это подарок: они получили доступ к архитектурным решениям, системам разрешений, внутренним подсказкам и намекам на будущую дорожную карту. А в мире, где архитектура AI-агентов становится конкурентным преимуществом, такие детали стоят очень дорого.

Для OpenAI. Контраст получился почти театральный. Пока одна компания случайно раскрывает проприетарный код, другая давно перевела аналогичный CLI-продукт в открытую модель распространения. Можно спорить, хороша ли open-source-стратегия для таких инструментов, но в одном смысле она железобетонна: нельзя «слить» то, что уже опубликовано официально.

Для разработчиков и инженерных команд. Это напоминание, от которого слегка холодеет спина: одна забытая настройка в .npmignore, один неочищенный артефакт сборки, один дефолт в bundler — и наружу вываливается все. Вообще все. Не только код, но и внутренние подсказки, флаги, интеграции, планы. Короче, мелочь, которая внезапно перестает быть мелочью.

Для компаний, внедряющих AI в бизнес. Инцидент еще раз показывает, почему безопасность AI-агентов и контроль цепочки поставки ПО — не факультатив, а базовая дисциплина. Особенно если речь идет о корпоративных AI-системах, где на кону данные, процессы и соответствие внутренним требованиям.

Почему это касается не только инженеров

Рынок AI-инструментов для программирования стал прозрачнее — и это многое меняет

Даже если терминал для вас — это что-то из жизни очень уставших разработчиков, история все равно важная. Она показывает, куда на самом деле движется рынок. Не к очередным чат-ботам с красивой оберткой, а к агентным системам, которые умеют работать в фоне, координировать подзадачи, запускать собственные процессы и сохранять контекст между сессиями.

Именно это и видно в Claude Code: постоянные агенты, координация нескольких исполнителей, проактивное планирование, память, интеграция с IDE, автономные сценарии. Сегодня это инструменты для кода. Завтра — для аналитики, операций, поддержки, комплаенса, внутренних бизнес-процессов. Собственно, так и развивается корпоративное AI compliance и соответствие требованиям: сначала появляется мощная автоматизация, а потом всем срочно нужны правила, контроль и внятная архитектура.

И вот тут возникает уже не технический, а почти философский вопрос: должны ли такие системы оставаться закрытыми? OpenAI сделала ставку на открытый код для Codex. Anthropic — на закрытую модель для Claude Code. После этой истории различие между подходами стало не абстрактным, а очень приземленным. Почти осязаемым.

Возможно, главный вывод даже не в том, кто сегодня выглядел лучше в новостной повестке. А в том, что будущее AI-агентов уже не прячется где-то за кулисами. Оно, кажется, вылезло наружу чуть раньше срока — неровно, шумно, местами нелепо, но предельно наглядно.