DeepSeek V4 接上華為晶片堆疊後,中國 AI 競賽開始少一個 NVIDIA 假設

過去一年大家談中國 AI,多半還停在兩個問題:模型到底追上多少、晶片到底還差多遠。DeepSeek 這次把 V4 預覽版放出來,真正有意思的地方不是又多了一個新模型,而是它開始讓「中國本土模型能不能在本土晶片堆疊上穩定跑起來」這件事,從概念變成可被市場討論的具體進度。當 Reuters 把焦點放在 V4 已適配華為晶片、華為又補了一則 Ascend 950 supernode 可完整支援 V4 的訊號時,這則消息就不只是在講模型性能,而是在講整條 AI 基礎設施鏈條是不是開始脫離對單一外部供應的預設。

從 DeepSeek 在 Hugging Face 的官方模型頁來看,V4 不是單一版本,而是一個系列:V4-Pro 總參數 1.6T、啟用 49B,V4-Flash 則是 284B、啟用 13B,兩者都支援 100 萬 token context。官方描述把重點放在長上下文效率、agentic 任務、以及更完整的 reasoning modes,這代表 DeepSeek 想競逐的已經不只是 benchmark 排名,而是實際工作流裡「能不能接工具、能不能處理更長脈絡、能不能把推理成本壓低」這三件事。這一點和前一波只靠低價震撼市場的敘事相比,成熟得多,也更靠近企業真的會在意的部署問題。

CNBC 的報導補上了另一塊關鍵背景:華為已確認其最新 Ascend AI computing cluster 可以支援 DeepSeek V4,但外界仍不清楚華為晶片究竟在訓練過程中參與到什麼程度。這個不確定性其實反而重要,因為它提醒我們現在能確認的是「支援與適配能力正在成形」,還不能直接把它寫成「已完全脫離 Nvidia」。換句話說,DeepSeek V4 真正改變的不是地緣技術競賽已經分出勝負,而是它讓市場第一次可以比較認真地討論:即便拿不到最先進的美系 GPU,一套足夠有競爭力的模型—晶片—叢集組合,是否仍能支撐 agent、推理與企業部署場景持續往前走。

這會改寫的也不只是中國本地的模型排名。若模型本身是開源的、成本更低,還能逐步在國產晶片與叢集上形成比較完整的工具鏈,那競爭就會從「誰的模型最強」慢慢轉成「誰的整套系統更不容易被卡住」。這類變化對開發者與企業採購端都很實際:你看的不再只是單次 API 成本,而是模型可移植性、供應鏈韌性、以及未來三到六季內能不能持續擴容。從這個角度看,DeepSeek V4 的新聞價值,不在它是不是又一次震撼華爾街,而在它把 AI 競賽的比較單位,從模型能力往整個計算堆疊拉近了一步。

當然,這件事還遠不到能宣告中國 AI 已全面自給。模型頁上的 benchmark 與官方說法,仍需要更多第三方部署經驗去驗證;華為晶片在訓練、推理、穩定性與成本上的實際表現,也要等更多開發者與企業落地後才會慢慢明朗。但就訊號密度而言,這波發布已足以讓產業重新調整觀察角度:未來幾季如果還有更多模型直接以國產晶片適配為前提來發表,那代表 AI 競爭的主戰場,很可能真的會從「買到多少頂規 GPU」轉向「誰能先把替代堆疊變成可規模化的現實」。

對 yes.fish 來說,這則消息最值得記住的一句話不是中國又出了一個新模型,而是模型、晶片與叢集之間開始出現更緊的本地化閉環。只要這個閉環繼續變厚,AI 產業接下來比的就不只是前沿能力,也包括誰能在供應受限的世界裡,先把可用性做成體系。

發表迴響