Agentic AI 不只吃 GPU,現在也開始改寫 CPU 採購,資料中心的下一波壓力換了方向

過去兩年談 AI 基礎設施,市場最容易記住的永遠是 GPU。誰拿到更多 H100、誰排到更多機櫃、誰先把訓練叢集蓋起來,幾乎就像這場競賽唯一的語言。但 Morgan Stanley 最新的看法提醒了一件很實際的事,如果生成式 AI 的下一步真的往 agentic AI 走,也就是讓模型開始自己拆任務、自己查資料、自己呼叫工具,再把結果拼回來,那麼資料中心裡最先被重新估價的,未必只有 GPU,反而可能是長期被當成配角的 CPU。

Reuters 4 月 20 日報導,Morgan Stanley 認為越來越自主的 AI 工作負載,會把資料中心投資從過去高度集中在圖形處理器的模式,拉向更廣的運算結構,尤其是中央處理器。這個判斷乍看像華爾街替老牌 CPU 公司找新故事,但如果把它和產業工程端的觀察放在一起看,味道就不太一樣了。SemiEngineering 同期一篇訪談指出,agentic AI 和單次問答型生成式 AI 最大的差別,不是模型比較會說話,而是它更像持續運行的協作流程,代理之間會同時抓資料、比對上下文、呼叫工具,這會顯著拉高一般用途運算、資料移動與編排層的需求。

這意味著資料中心的壓力正在換方向。GPU 仍然是模型訓練與大規模推論的核心,但一旦系統開始同時執行多個代理、維持長時間上下文、串接外部系統,CPU 就不再只是把任務送到 GPU 的交通警察。它會重新成為 orchestrator,也就是負責排程、控制資料流、處理系統邏輯與支援更多記憶體和 I/O 壓力的那一層。對 AMD、Arm 與 Intel 來說,這不是靠情懷回春,而是因為 AI 工作負載本身正在變得更像一個永不下班的分散式軟體系統。

這個訊號真正值得注意的地方,在於它會改變資料中心建置的採購公式。如果企業過去只問「GPU 買得到嗎」,接下來更可能要問「整個 rack 的 CPU、記憶體、網路與儲存比例該怎麼配,才不會讓代理工作流卡在資料搬運」。也就是說,AI 資本支出不一定會從 GPU 轉移出去,但它會開始向外擴散。這會讓 CPU 供應商有更多被重新定價的空間,也會迫使雲端與企業客戶把規劃思路從單晶片崇拜,拉回系統級平衡。

對市場來說,這類變化往往不是一天內造成爆發,而是慢慢改寫下一輪預算分配。當代理型 AI 成為企業產品、客服、自動化和內部知識系統的常態,資料中心競爭就不再只是誰擁有最多加速器,而是誰能把 CPU、GPU、記憶體頻寬與資料搬運路徑編成一套不會失速的結構。Morgan Stanley 看到的是投資風向,工程端看到的是架構負擔,而把兩者合起來看,市場真正該讀到的訊號是,AI 的下一波硬體故事,可能不再是單點稱王,而是整個運算堆疊一起漲價、一起變關鍵。

發表迴響