當 Goldman 把 Claude 從香港收回去,企業 AI 真正卡住的不是模型能力,而是合約與地理邊界

Reuters 報導,Goldman Sachs 已經撤回香港員工對 Anthropic Claude 的存取;同一則 wire 也說,這是銀行在重新檢視 AI 工具的資料安全與合約邊界。Economic Times 與 The Edge Malaysia 之後都轉載了這個版本,補上的背景很關鍵:Goldman 在 2 月還公開提過正與 Anthropic 合作開發 AI agents。換句話說,這不是一個「忽然不想用 AI」的故事,而是一個企業 AI 走進真實部署後,開始被地理與法務切碎的故事。

這種切碎感,往往比模型本身的好壞更決定一個產品能不能落地。對銀行來說,AI 不是單純裝上去就結束;資料會不會離開指定區域、誰能看得到輸出、合約裡怎麼定義支援範圍、出問題時責任算誰,這些都會直接影響能不能在某個辦公室、某條業務線、某個國家真的啟用。很多科技敘事喜歡把企業 AI 寫成「誰先把模型買進來,誰就先贏」,但金融業實際上更像反過來:誰先把部署邊界、風險審批和合約條款講清楚,誰才有資格真的把模型打開。

香港這個案例之所以值得看,不只是因為 Goldman 和 Anthropic 兩個名字都夠大,而是它把企業 AI 的下一階段輪廓講得很清楚:同一套模型、同一份產品文件,在不同地區可以有不同的可用性。對供應商來說,這代表銷售不再只是賣功能,還要賣支援區域、資料路由、審核流程與合約語言;對買方來說,採購也不再只是比較準確率,而是比較哪家能把風險框架一起交付。當 AI 開始進入高監管產業,真正稀缺的不是 demo,而是可控。

這也解釋了為什麼這類消息會在金融圈特別敏感。銀行最怕的不是工具不好用,而是工具好用到足以擴散,但又不好管。只要一間大型機構開始把某個地區的權限收窄,後面跟著的通常不是單一產品停售,而是一連串問題:其他地區要不要也分流、內部平台要不要做區域白名單、供應商合約要不要重寫、資料留存政策要不要重新分級。從這個角度看,Goldman 收回 Claude 的存取,不像是退一步,更像是企業 AI 開始進入「誰能在哪裡用」比「模型有多強」更重要的階段。

發表迴響