過去一年,開放模型世界最常被拿來問的一個問題,是它們到底何時才真的能把封閉前沿模型逼到價格帶與部署邏輯都得重新思考。DeepSeek 這次丟出的 V4 預覽版,讓這個問題第一次不再像口號。TechCrunch 在 4 月 24 日的報導裡點出,DeepSeek 一次推出 V4 Pro 與 V4 Flash 兩個版本,而 Hugging Face 上的官方 model card 也直接寫明:前者是 1.6 兆參數、49B active,後者是 284B 參數、13B active,兩者都支援一百萬 token context。這代表 DeepSeek 已經不只是把模型做大,而是試著把「長上下文 + 較低推理成本 + 開放權重」綁成同一個產品主張。
真正值得注意的地方,不只是規格表,而是這套規格打到的競爭位置。官方首頁已經把 V4 Preview 直接放上 web、app 與 API 的入口,顯示這不是單純論文式發表,而是希望立刻進入可使用、可比較、可被替換的商業場景。TechCrunch 進一步整理,DeepSeek 把這次更新描述為幾乎追近當前領先的 open 與 closed models,尤其在 reasoning 與 coding 類 benchmark 上試圖縮短差距。這裡當然要保留一點冷靜:不少 benchmark 成績仍主要來自 DeepSeek 自身 model card,不能全數當成獨立驗證過的最終結論。但就算先把宣傳水分扣掉,這次更新仍然傳出一個很清楚的產業訊號——開放權重陣營現在要打的,已經不是「能不能用」,而是「能不能以更低成本逼近前沿工作流」。

這也是為什麼價格變得和能力一樣重要。Artificial Analysis 目前列出的資料顯示,DeepSeek V4 Pro 的輸入與輸出價格分別約為每百萬 token 1.74 與 3.48 美元。這不代表它一定在每個任務上都能直接取代 GPT-5.5、Gemini 3.1 Pro 或 Claude,但它確實把市場拉到另一個討論層次:如果一個開放權重模型已經能在不少推理與編碼場景裡靠近前沿表現,還能用更便宜的價格與更鬆的部署路徑進場,那企業採購就不會再只盯著「最強模型是誰」,而會開始回頭檢查自己究竟需要的是極限能力、成本效率,還是能放進既有工作流裡的可控彈性。
另一個容易被忽略的重點,是百萬 token context 的商業含義。這類規格看起來很像工程師之間的炫技數字,但放到企業現場,它其實更接近 workflow design 的問題。長上下文不是為了讓聊天機器人說得更長,而是讓模型有機會吞下更大規模的程式碼庫、法律文件、研究資料或跨部門知識堆疊,再去完成檢索、推理、摘要與代理式操作。如果這件事真的能在較低成本下成立,市場就會逐步從「買最強模型 access」轉向「設計哪種任務該交給哪種模型層級」。那時候前沿模型仍然有高價值,但它們未必再適合承擔所有中高頻任務。
當然,DeepSeek V4 也不是已經把前沿封閉模型拉下王座。從目前公開資訊看,它仍是 text-only,知識測試面向也未必全面追平最新一線模型;而且不少 benchmark 與效能宣稱,還需要更多第三方驗證與真實部署案例支撐。可即便如此,這次預覽版仍然已經把 AI 市場往前推了一步:競爭不再只是誰能把模型做得更大,而是誰能把長上下文、成本、開放性與工作流遷移成本一起打包成更有吸引力的現實選項。對前沿 AI 公司來說,這未必會立刻改寫排行榜,但它很可能會先改寫價格壓力。
- DeepSeek official site — https://www.deepseek.com/en/
- Hugging Face model card: DeepSeek-V4-Pro — https://huggingface.co/deepseek-ai/DeepSeek-V4-Pro
- Hugging Face model card: DeepSeek-V4-Flash — https://huggingface.co/deepseek-ai/DeepSeek-V4-Flash
- TechCrunch — https://techcrunch.com/2026/04/24/deepseek-previews-new-ai-model-that-closes-the-gap-with-frontier-models/
- Artificial Analysis — https://artificialanalysis.ai/models/deepseek-v4-pro