GTC Nvidia 2026: почему CPU внезапно стал ключевым элементом AI-инфраструктуры
GTC Nvidia 2026: почему CPU вдруг оказался в центре AI-инфраструктуры
Долгое время весь шум в мире ИИ крутился вокруг GPU. И это понятно: именно графические ускорители Nvidia стали мотором бума генеративного ИИ. Но сейчас картина чуть сложнее — и, если честно, куда интереснее. Накануне конференции GTC становится видно, что в архитектуре современных AI-систем на первый план выходит уже не только GPU, но и CPU.
Причина довольно приземлённая, без магии. Новая волна agentic AI — то есть систем, где несколько моделей и сервисов координируют действия, обмениваются данными, вызывают инструменты и исполняют цепочки задач, — требует не только ускорения математики, но и мощной оркестрации. А это как раз территория CPU. Для компаний, которые строят AI-агентов и автоматизацию, это уже не теоретический спор, а вполне практический вопрос производительности, стоимости и масштабирования.
Ключевые моменты
- CPU переживают новый виток спроса, потому что агентные AI-workflow всё чаще упираются не в GPU, а в общесистемную координацию и перемещение данных.
- Intel и AMD по-прежнему сильны на рынке серверных процессоров, но Nvidia всё активнее продвигает собственные CPU для дата-центров — Grace и следующее поколение Vera.
- После сделки с Meta Nvidia показала, что её CPU могут использоваться не только в связке с GPU, но и как самостоятельная часть AI-инфраструктуры.
Nvidia уже много лет доминирует в сегменте AI-ускорителей, однако рост агентных сценариев изменил саму логику вычислений. Если раньше основной акцент делался на обучении моделей и инференсе, то теперь всё чаще речь идёт о системах, где нужно маршрутизировать запросы, держать состояние, управлять памятью, вызывать внешние сервисы, синхронизировать несколько агентов. Короче, работы у CPU — выше крыши.
На GTC компания, как ожидается, подробнее расскажет о своих CPU, оптимизированных под agentic AI. Более того, на выставке может появиться отдельная стойка, посвящённая именно процессорам. Для Nvidia это уже не побочный продукт и не «довесок» к GPU, а часть более широкой стратегии по построению полноценной AI-платформы.
Дион Харрис, руководитель направления AI infrastructure в Nvidia, сформулировал это довольно прямо: CPU становятся узким местом при масштабировании AI- и agentic-workflow. И в этом, по его словам, для компании открывается серьёзная возможность. Звучит сухо, но смысл простой: если GPU умеют быстро считать, то кто-то ещё должен организовать весь этот оркестр. Иначе — пробка. Настоящая.
Первый серверный CPU Nvidia, Grace, был анонсирован ещё в 2021 году. Следующее поколение, Vera, уже запущено в производство. Обычно эти процессоры работают в составе крупных rack-scale-систем вместе с GPU Hopper, Blackwell или Rubin. Но в феврале стратегия Nvidia заметно сдвинулась: компания объявила о многолетнем соглашении с Meta, в рамках которого CPU Grace разворачиваются и как самостоятельные процессоры, а Vera планируется к внедрению в 2027 году.
По данным Nvidia, тысячи её standalone CPU уже используются и в суперкомпьютерных средах — в Texas Advanced Computing Center и Los Alamos National Laboratory. Это важный сигнал: CPU компании перестают быть исключительно «спутником» GPU и начинают жить собственной жизнью. Не совсем отдельно, конечно, но уже близко.
Bank of America оценивает, что мировой рынок CPU может вырасти с 27 млрд долларов в 2025 году до 60 млрд к 2030-му. На этом фоне особенно показательно, что выручка Nvidia от дата-центров за последний квартал превысила 62 млрд долларов — на 75% больше, чем годом ранее. И хотя львиная доля этих денег всё ещё связана с GPU, сам вектор меняется.
Почему так происходит? Потому что AI перестаёт быть просто «вопросом и ответом». Всё больше систем работают как цепочки действий: один агент ищет данные, другой вызывает API, третий проверяет результат, четвёртый формирует ответ, а пятый — да, бывает и так — следит за соблюдением правил и ограничений. В таких сценариях особенно важны мультиагентные системы, где CPU отвечает за координацию, последовательные операции и общую управляемость среды.
GPU отлично подходят для параллельных вычислений: у них тысячи ядер, заточенных под одновременное выполнение множества операций. CPU устроены иначе — ядер меньше, зато они мощнее и лучше справляются с задачами общего назначения. Именно это и нужно агентным системам, где приходится постоянно перемещать данные, переключать контекст, управлять очередями, состоянием, логикой вызовов. Не самая гламурная работа, но без неё всё рассыпается.
Дженсен Хуанг на недавнем звонке с инвесторами не раз возвращался к теме agentic AI. По его словам, такие системы создают команды агентов, работающих совместно, а объём генерируемых токенов растёт экспоненциально. Следовательно, инференс должен идти быстрее, а эффективность на ватт становится критически важной. И вот тут CPU снова всплывает — не как звезда сцены, а как тот самый человек за кулисами, без которого спектакль просто не начнётся.
Nvidia также утверждает, что её standalone CPU обеспечивают заметный прирост performance-per-watt в дата-центрах Meta. Аналитик Creative Strategies Бен Баджарин описывает это как новую инфраструктурную модель: отдельные CPU-стойки, задача которых — запускать agentic AI и оркестрировать взаимодействие между программным слоем и ускорителями. И да, звучит немного как инженерный быт. Но именно из этого быта и складывается современная AI-инфраструктура.
Тихий кризис на рынке CPU
Рынок серверных процессоров, который ещё недавно казался почти скучным, теперь оказался в центре нового дефицита. The Futurum Group даже называет ситуацию «тихим кризисом поставок» и предполагает, что к 2028 году темпы роста CPU могут обогнать GPU. Неожиданный поворот? Ещё какой.
Reuters сообщало, что AMD и Intel предупреждали клиентов в Китае о затяжных сроках поставок CPU. В отдельных случаях ожидание доходит до шести месяцев, а цены выросли более чем на 10%. Форрест Норрод из AMD признал, что рост спроса за последние шесть–девять месяцев оказался беспрецедентным. По его словам, признаков скорого охлаждения рынка пока не видно.
Intel, в свою очередь, ожидает, что запасы опустятся до минимального уровня в текущем квартале, хотя компания рассчитывает улучшить ситуацию во втором квартале и далее по ходу 2026 года. Баджарин сформулировал это почти по-народному: кремниевые пластины не растут на деревьях. Грубо, но метко.
На вопрос о возможных задержках поставок CPU в самой Nvidia Харрис ответил спокойно: пока всё идёт нормально. По его словам, устойчивость цепочки поставок помогает компании держать темп, в том числе потому, что значительная часть CPU продаётся в составе комплексных rack-scale-систем.
Почему CPU Nvidia устроены иначе
По словам Харриса, Nvidia сознательно пошла другим путём, чем Intel и AMD. Её CPU проектируются не как максимально универсальные серверные процессоры, а как компоненты, оптимизированные под AI-workflow и обслуживание GPU. Это важная разница — и архитектурно, и коммерчески.
Например, у Grace 72 ядра, тогда как у серверных линеек AMD EPYC и Intel Xeon число ядер может доходить до 128. Для гиперскейлеров высокая плотность ядер часто означает лучшую экономику на уровне цены за ядро. Но Nvidia делает ставку на другое: на высокую однопоточную производительность и на то, чтобы дорогие GPU не простаивали. Потому что если ускоритель ждёт CPU — это, мягко говоря, дорогая пауза.
Есть и ещё одно отличие: Nvidia использует архитектуру Arm, тогда как Intel и AMD традиционно опираются на x86. Arm давно ассоциируется с энергоэффективностью, а x86 — с классическим серверным рынком. В контексте AI это уже не просто вопрос совместимости, а часть более широкой дискуссии о том, какой должна быть архитектура AI-агентов и инфраструктуры под них: универсальной, специализированной или гибридной.
Форрест Норрод из AMD признал, что Nvidia хорошо оптимизировала свои процессоры именно для поддержки собственных GPU. При этом для задач общего назначения, по его мнению, они подходят хуже. И это, в общем, не упрёк, а констатация. Nvidia не пытается понравиться всем сразу — она строит систему под конкретный тип нагрузки.
При этом компания не отказывается от более универсальных CPU там, где это нужно. Например, в платформе HGX Rubin NVL8, которую клиенты используют как базовый блок для собственных AI-стоек, Nvidia сочетает свои GPU с host CPU от Intel или AMD. То есть стратегия не догматичная. Скорее прагматичная. Сегодня это редкость, кстати.
Рынок меняется — и Nvidia играет шире
Выход Nvidia в сегмент standalone CPU происходит на фоне более крупного тренда: крупнейшие облачные компании всё активнее разрабатывают собственные Arm-процессоры. Amazon ещё в 2018 году выпустила Graviton. Google представила Axion в 2024-м, и, по данным Futurum Group, этот чип уже обрабатывает около 30% внутренних приложений компании. Microsoft в ноябре выпустила Cobalt второго поколения. Arm, как ожидается, тоже может представить собственный CPU, а Meta называется среди первых клиентов.
По оценке Mercury Research, в четвёртом квартале 2025 года рынок серверных CPU выглядел так: Intel — 60%, AMD — 24,3%, Nvidia — 6,2%, а остальное пришлось на кастомные Arm-чипы гиперскейлеров. Пока Nvidia здесь не лидер. Но она и не обязана им быть, чтобы влиять на правила игры.
Компания последовательно расширяет экосистему. В мае Nvidia открыла свою технологию NVLink для лицензирования сторонними игроками, а затем заключила ряд соглашений с Intel, Qualcomm, Fujitsu и Arm, чтобы упростить интеграцию сторонних CPU с GPU Nvidia в AI-серверах. Позже компания начала поддерживать и открытую архитектуру RISC-V, а в январе договорилась с SiFive об использовании NVLink для соединения RISC-V-разработок с GPU Nvidia.
Иными словами, Nvidia продвигает не только собственные чипы, но и платформенный подход. Харрис прямо говорит, что стратегия компании остаётся platform-agnostic — то есть не завязанной на одну-единственную архитектуру. Для рынка это важный момент: в эпоху AI побеждает не тот, кто контролирует один компонент, а тот, кто умеет собрать всю систему целиком. Иногда криво, иногда через компромиссы, но собрать.
Для бизнеса это особенно актуально в проектах, где важны не только вычисления, но и надёжность, управляемость и соответствие требованиям. В реальных корпоративных внедрениях AI всё чаще встают вопросы про безопасность AI-агентов, контроль доступа, аудит действий агентов, а также хранение контекста и долговременной памяти через агентную память и RAG. И вот тут CPU, как ни странно, снова становится критически важным слоем — потому что именно он часто держит на себе orchestration, middleware и системную логику.
Если смотреть шире, история вокруг GTC — это не просто сюжет про новый чип. Это сигнал, что AI-инфраструктура взрослеет. Рынок уходит от простой формулы «чем больше GPU, тем лучше» к более сложной модели, где важны баланс, связность и архитектурная дисциплина. Немного скучнее для заголовков, зато куда ближе к реальности.
Так что да: на конференции Nvidia в центре внимания будет не только GPU. CPU, который долго считался чем-то фоновым, теперь выходит под свет софитов. И, похоже, не на один сезон.
