Утечка Claude Code намекает на «проактивный» режим: Anthropic, похоже, тестирует новые AI-агенты для разработки
История вышла, мягко говоря, неловкая. Обычное обновление Claude Code внезапно обернулось утечкой, из-за которой в открытый доступ попали внутренние детали продукта Anthropic — и, похоже, намёки на то, куда компания двигает свой инструмент для программирования дальше.
По данным Ars Technica, The Verge и других изданий, после выхода обновления Claude Code 2.1.88 пользователи заметили в пакете файл, который раскрывал исходный код приложения. Пока Anthropic исправляла проблему, код успели выложить в публичный репозиторий GitHub. Дальше — как это обычно бывает в интернете — всё разлетелось очень быстро: репозиторий, как сообщается, скопировали более 50 000 раз. В результате посторонние, включая конкурентов, получили доступ более чем к 512 000 строк кода и примерно к 2 000 TypeScript-файлам.
А вот тут начинается самое любопытное. Несколько пользователей, изучавших утёкшую кодовую базу, заявили, что нашли следы ещё неанонсированных возможностей. И если это действительно так, Anthropic может готовить не просто обновления интерфейса, а более самостоятельные сценарии работы для AI-инструмента.
Например, в публикации в X основатель AI-стартапа Creator Buddy Алекс Финн написал, что обнаружил feature flag с названием Proactive mode. Судя по формулировке, речь может идти о режиме, в котором Claude Code способен действовать без прямого запроса пользователя. То есть не просто отвечать на команду, а проявлять инициативу — предлагать шаги, запускать процессы или подсказывать действия заранее. Для рынка разработки AI-агентов и автоматизации это, вообще-то, очень показательный вектор: индустрия всё заметнее движется от «умного помощника» к более автономному агентному поведению.
Финн также утверждает, что в коде просматривались элементы криптовалютной платёжной системы. Если интерпретация верна, в будущем это теоретически может открыть путь к сценариям, где AI-агенты совершают автономные платежи. Звучит амбициозно. И, честно говоря, немного тревожно тоже — потому что как только агент получает возможность не только анализировать, но и тратить деньги, вопросы безопасности AI-агентов и контроля полномочий становятся уже не академическими, а вполне приземлёнными.
Есть и более странные находки — в хорошем, почти интернетном смысле. В посте на Reddit, который заметило The Verge, другой пользователь сообщил о признаках виртуального компаньона в духе Tamagotchi, который якобы «реагирует на ваше программирование». Похоже, это мог быть первоапрельский эксперимент или внутренняя шутка. Ну а что — разработчики тоже люди, им иногда хочется добавить в код что-нибудь чуть менее скучное, чем очередной флаг конфигурации.
Официальная позиция Anthropic при этом звучит довольно сдержанно. Представитель компании сообщил BleepingComputer, что один из релизов Claude Code действительно содержал часть внутреннего исходного кода. По словам компании, конфиденциальные данные клиентов и учётные данные не были затронуты. В Anthropic подчеркнули, что речь идёт не о взломе, а об ошибке при упаковке релиза, вызванной человеческим фактором. Компания, как заявляется, уже внедряет меры, чтобы подобное не повторилось.
И это важное уточнение. Утечка исходников — неприятная история сама по себе, но всё же есть разница между компрометацией клиентских данных и публикацией внутренних файлов из-за сбоя в релизном процессе. Хотя, если смотреть шире, подобные инциденты снова поднимают тему инженерной дисциплины, управления доступом и AI compliance и соответствия требованиям. Потому что в корпоративной среде одно неловкое движение — и последствия уже совсем не мемные.
Впрочем, делать слишком далеко идущие выводы рано. Код, флаги функций, экспериментальные модули — всё это ещё не означает, что конкретная возможность вообще дойдёт до пользователей. В продуктовой разработке такие вещи появляются и исчезают постоянно. Сегодня команда тестирует один сценарий, завтра вырезает его без сожалений. Бывает. Даже часто.
Но сам сигнал интересный: если Proactive mode действительно существует хотя бы на уровне прототипа, Anthropic, вероятно, изучает более сложную архитектуру AI-агентов, где инструмент для кодинга не просто ждёт инструкций, а участвует в процессе активнее — возможно, с элементами памяти, контекста и полуавтономного поведения. А это уже территория, где особенно важны агентная логика, контроль действий, журналирование и, конечно, доверие к системе. Без этого всё быстро превращается в «ну он сам что-то сделал», а такой сценарий бизнес обычно не любит.
Короче говоря: утечка, вероятно, случайная; находки — пока неофициальные; выводы — предварительные. Но если даже часть обнаруженного окажется реальной дорожной картой, Claude Code может эволюционировать из AI-помощника в более самостоятельный инструмент. И вот это уже по-настоящему интересно. Немного сумбурно, да. Зато очень показательно.
