Выручка Anthropic подскочила до $19 млрд: Claude Code ускорил рост, но вопросы безопасности AI никуда не делись
Выручка Anthropic подскочила до $19 млрд: Claude Code ускорил рост, но вопросы безопасности AI никуда не делись
У Anthropic, похоже, очень сильный год. По словам гендиректора компании Дарио Амодеи, озвученным на конференции Morgan Stanley TMT, прогноз по годовой регулярной выручке (ARR) уже превысил $19 млрд. И это не плавный рост, а почти рывок: только за февраль компания, как сообщается, прибавила около $6 млрд.
Если смотреть на динамику без лишнего шума, картина впечатляющая. В конце 2025 года ARR Anthropic оценивался примерно в $9 млрд. Несколько недель назад речь шла уже примерно о $14 млрд. Теперь — выше $19 млрд. Для рынка корпоративного AI это, мягко говоря, заметный сигнал: спрос на прикладные AI-продукты и инструменты автоматизации растёт быстрее, чем многие ожидали.
Первой об этом сообщила Bloomberg News.
Почему Anthropic так быстро растёт
Главный драйвер роста — активное внедрение моделей и продуктов Anthropic, в том числе Claude Code. Именно этот инструмент для программирования, судя по всему, стал одним из ключевых факторов ускорения выручки. Компании сегодня охотно платят за решения, которые реально сокращают время разработки, автоматизируют рутинные операции и встраиваются в рабочие процессы без лишней боли. Не теория, а практика.
И тут есть важный контекст. Рынок уже давно смотрит не просто на «умные модели», а на то, как они превращаются в работающие системы: в разработку AI-агентов и автоматизацию, в инструменты для инженерных команд, в корпоративные сценарии, где ценится не эффектная демо-версия, а предсказуемый результат. Claude Code попал ровно в эту нервную точку.
Anthropic сейчас оценивается примерно в $380 млрд, и такой рост выручки только подогревает интерес инвесторов. Внимание к компании усилилось именно потому, что её продукты помогают автоматизировать сложные задачи, включая программирование. А это уже не нишевая история для энтузиастов, а большой корпоративный рынок — с бюджетами, требованиями к безопасности и, конечно, жёсткими ожиданиями по ROI.
Но есть и неприятная часть истории
На фоне финансового взлёта у Anthropic возник серьёзный конфликт с Пентагоном из-за подхода к безопасности AI. И вот здесь всё становится куда менее прямолинейным. В пятницу министр обороны США Пит Хегсет объявил разработчика AI риском для цепочки поставок. Формулировка тяжёлая, почти токсичная, потому что такой статус обычно ассоциируется с компаниями из государств, которые Вашингтон считает противниками.
Причина конфликта, по имеющимся данным, связана с тем, что Anthropic настаивала на ограничениях в использовании её AI-технологий Пентагоном — в частности, для задач наблюдения и автономных вооружений. Иными словами, компания попыталась провести красную линию. А государственный заказчик, похоже, с этой линией не согласился. Бывает. Но редко без последствий.
Если трактовать ситуацию жёстко, заявление Хегсета может фактически перекрыть продажи Anthropic правительству США и, возможно, осложнить работу с рядом корпоративных клиентов, для которых вопросы госзакупок, цепочек поставок и AI compliance и соответствия требованиям — не бюрократия ради бюрократии, а обязательное условие сделки.
Что сказал Дарио Амодеи
По словам инвестора Брэда Герстнера, на мероприятии Амодеи заявил: «Мы верим в Америку и верим в помощь в защите нашей страны… и продолжим искать решение вместе с DoD». Цитата прозвучала как попытка снизить градус конфликта и показать, что Anthropic не отказывается от диалога. Хотя, если честно, ситуация всё равно выглядит нервной — слишком уж высоки ставки.
Что это значит для рынка AI
История Anthropic хорошо показывает, как сегодня устроен рынок искусственного интеллекта. С одной стороны — бешеный рост выручки, спрос на AI-автоматизацию, интерес к инструментам для разработки и масштабированию агентных сценариев. С другой — безопасность, ограничения на применение моделей, контроль доступа, регуляторика. Одним словом, не только скорость, но и тормоза.
Для компаний, которые строят корпоративные AI-решения, это уже почти базовое правило: мало просто внедрить модель. Нужны продуманная архитектура AI-агентов, понятные механизмы контроля, а ещё защита данных и надёжные политики использования. Иначе рост может оказаться быстрым, но хрупким. Очень хрупким.
Особенно это заметно там, где AI выходит за рамки чат-интерфейса и превращается в рабочую систему с памятью, инструментами и доступом к внутренним данным компании. В таких случаях на первый план выходят безопасность AI-агентов, разграничение прав, аудит действий, а также качество контекста — например, через агентную память и RAG. Без этого масштабирование выглядит красиво только на слайдах. В жизни всё грубее.
Так что новость про $19 млрд ARR — это не просто ещё один громкий заголовок о росте AI-компании. Это маркер зрелости рынка. Побеждают не только те, у кого сильная модель, но и те, кто умеет превратить её в полезный, управляемый и коммерчески жизнеспособный продукт.
У Anthropic, судя по цифрам, с коммерческой частью сейчас всё очень неплохо. А вот политические и регуляторные риски, да, никуда не делись. И, наверное, именно в этом сегодня вся суть корпоративного AI: огромные возможности идут в комплекте с не менее крупными ограничениями.
