OpenAI, AWS и Azure делят AI-стек: Frontier выходит в AWS в рамках мультиоблачной сделки на $110 млрд
У OpenAI, похоже, началась новая фаза взросления — шумная, дорогая и очень показательная для всего рынка enterprise AI. Компания объявила о пакете финансирования на 110 млрд долларов, в котором Amazon вкладывает 50 млрд и заодно получает статус эксклюзивного внешнего облачного дистрибьютора платформы Frontier. Речь не просто о деньгах. По сути, OpenAI перекраивает свою мультиоблачную модель: Azure остаётся домом для stateless API, а AWS забирает на себя stateful runtime-среды для агентных сценариев.
Если говорить без корпоративного лака, разделение выглядит так: короткие API-вызовы без долговременного контекста — это Azure; длительно живущие среды, где AI-агенты удерживают память, состояние и рабочую нить, — это AWS. Для компаний, которые строят разработку AI-агентов и автоматизацию, разница совсем не косметическая. Это уже вопрос архитектуры, эксплуатационной модели и того, где именно будет жить агентная логика.
В раунде также участвуют Nvidia и SoftBank — по 30 млрд долларов каждая. На этом фоне оценка OpenAI достигает 730 млрд долларов до привлечения новых средств. Согласно документам SEC, инвестиция Amazon разбита на две части: 15 млрд долларов сразу и ещё 35 млрд при выполнении определённых условий. Среди них — IPO или достижение заранее оговорённых этапов. Формулировки там, мягко говоря, не самые разговорчивые.
Технически всё крутится вокруг состояния модели. Azure сохраняет эксклюзивность как облако для OpenAI API без сохранения сессии: запрос пришёл, ответ ушёл, контекст не живёт дольше вызова. AWS, напротив, получает права на распространение stateful runtime environments — сред, где модель может удерживать память, контекст, идентичность и продолжать работу в рамках длинных бизнес-процессов. И вот тут начинается самое интересное.
OpenAI и AWS совместно создают stateful runtime нового поколения, который будет доступен в Amazon Bedrock, чтобы разработчики могли строить AI-агентов с сохранением контекста, памяти и непрерывности на production-масштабе.
Именно так описал партнёрство CEO AWS Мэтт Гарман. Для корпоративных заказчиков это означает довольно прямую схему: если Frontier покупается через AWS, inference будет выполняться в Amazon Bedrock. Если клиент идёт напрямую к OpenAI, инфраструктурной базой остаётся Azure. То есть Microsoft из игры не выбывает — вовсе нет, — но роли теперь разведены куда чётче.
Отдельная деталь, и она важная: OpenAI расширяет уже существующее соглашение с AWS на 38 млрд долларов ещё на 100 млрд в горизонте восьми лет. Параллельно компания обязуется потребить 2 гигаватта мощности AWS Trainium на чипах Trainium3 и Trainium4 следующего поколения. Это сильный сигнал в пользу стратегии Amazon по custom silicon. Раньше ставку на Trainium уже сделал Anthropic для Claude; теперь OpenAI становится второй крупной AI-лабораторией, которая всерьёз принимает альтернативу Nvidia. Неожиданно? Скорее уже неизбежно.
Эта сделка продолжает разворот, начавшийся после реструктуризации партнёрства OpenAI и Microsoft в октябре 2025 года. Тогда Microsoft отказалась от права первоочередного доступа к новым вычислительным мощностям в обмен на обязательства OpenAI по потреблению Azure на 250 млрд долларов. При этом Microsoft сохраняет эксклюзивные права на интеллектуальную собственность OpenAI, а все stateless API-вызовы по-прежнему проходят через Azure — в том числе и те, что возникают внутри партнёрств с Amazon.
Сама Frontier, запущенная 5 февраля, позиционируется как корпоративная платформа для развёртывания AI-агентов с общим бизнес-контекстом, механизмами governance и защитой уровня enterprise. Платформа умеет подключаться к data warehouse, CRM и внутренним системам компании, чтобы снабжать агентов институциональными знаниями. По сути, OpenAI предлагает относиться к агентам почти как к новым сотрудникам: их нужно подключить к данным, ввести в контекст, ограничить правами и научить работать по правилам. Звучит немного по-человечески — и в этом, наверное, весь замысел.
Среди ранних пользователей Frontier названы HP, Intuit, Oracle, State Farm, Thermo Fisher и Uber. Пилотные внедрения также идут в BBVA, Cisco и T-Mobile. Для рынка это важный маркер: крупные компании уже смотрят не просто на модели, а на полноценные мультиагентные системы, где у агентов есть роли, память, ограничения и устойчивые рабочие контуры.
В обсуждении на Hacker News, как водится, быстро всплыли сомнения насчёт циклического характера финансирования. Один из участников заметил, что инвестиция Amazon фактически завязана на использовании AWS для Frontier, а условия Nvidia, вероятно, подразумевают продолжение закупок её аппаратного обеспечения. И, честно говоря, это не выглядит уж совсем фантазией. Связка между equity и облачными обязательствами здесь довольно плотная.
Более того, документы указывают: если Joint Collaboration Agreement будет расторгнуто, обязательство Amazon на 35 млрд долларов тоже прекращает действие. То есть это не просто «мы в вас верим, держите чек». Это конструкция с жёсткими коммерческими и инфраструктурными сцепками. Немного брачный контракт, немного промышленная политика.
В комментариях к объявлению о партнёрстве исследователь AI Аббас М. назвал происходящее архитектурным сдвигом. И, пожалуй, в этом есть зерно. Stateful runtime плюс Frontier в AWS действительно указывают на переход от инструментов, работающих по схеме «ввёл промпт — получил ответ», к постоянным AI-системам, встроенным в корпоративную среду. Здесь уже критичны не только модели, но и агентная память и RAG, контроль доступа, трассируемость действий и долгоживущий контекст.
Если смотреть шире, сделка подчёркивает растущую конкуренцию гиперскейлеров за разные слои AI-стека. AWS получает канал enterprise-дистрибуции через Bedrock и усиливает позиции в сегменте stateful агентных платформ. Microsoft удерживает API-слой и IP-контроль. А OpenAI, по сути, раскладывает свои сервисы по облакам в зависимости от архитектурной природы нагрузки. Необычный ход, но логичный.
Для российских компаний и команд, которые проектируют архитектуру AI-агентов, из этой истории следует простой вывод: будущее enterprise AI всё меньше похоже на один универсальный API и всё больше — на составную систему из памяти, оркестрации, политик безопасности и облачной специализации. Где-то нужен stateless inference. Где-то — stateful агент с историей действий. А где-то, ну да, придётся собирать всё это вместе и ещё проверять на соответствие требованиям.
Именно поэтому разговор о корпоративных AI-системах уже нельзя сводить только к качеству модели. На первый план выходят безопасность AI-агентов, управление состоянием, наблюдаемость, разграничение прав и AI compliance. Иначе агент получится умный, но, как это бывает, слегка бесконтрольный. А такой сотрудник — даже цифровой — мало кому нужен.
