當 Meta 把員工的滑鼠軌跡也收進訓練管線,企業 AI 的資料邊界就開始往內部勞動延伸

過去兩年,生成式 AI 的資料來源爭議多半還停留在公開網路:誰抓了多少網站、圖庫、論壇、書籍與影音資料,能不能合法訓練模型。Meta 這次被揭露的新做法,把問題往前推了一層。因為它不再只是從外部世界拿資料,而是開始把員工每天如何移動滑鼠、如何點選按鈕、如何在系統間切換,直接變成 AI agent 的訓練燃料。當企業把日常工作操作本身視為模型資產,AI 的資料邊界就不只穿過網路,也開始穿過辦公室內部。

根據 Reuters 引述的內部備忘錄,Meta 正在美國員工的工作電腦上部署名為 Model Capability Initiative 的工具,蒐集滑鼠移動、點擊、鍵盤輸入,以及部分截圖上下文。Meta 對外的解釋其實很直白:如果要讓 AI agent 學會替人完成電腦上的日常任務,就必須先看過真實的人是怎麼做的。這個邏輯在技術上並不難理解。今天各家都在推會操作瀏覽器、應用程式與工作流程的 agent,真正稀缺的,早就不是一般文字語料,而是高品質、可重播、帶有操作脈絡的人機互動資料。

但也正因為如此,這件事的重點從來不只是 Meta 又找到一批新資料,而是企業 AI 的治理框架正在變形。Meta 說這些資料不會拿來做績效評估,也設有保護敏感內容的 safeguard;TechCrunch 也引述了相近說法。可是真正讓人不安的地方,在於資料用途雖然被定義為「模型訓練」,資料來源卻已經直接碰到員工勞動行為本身。這會讓很多企業接下來都得面對同一個問題:當一個人完成工作的方法、節奏與操作路徑都可被抽取成模型能力,那它到底還算是個人工作行為,還是公司的 AI 資產?

從產業競爭角度看,Meta 的動作也透露出一個更現實的訊號:AI agent 競賽已經進入資料精度階段。模型能不能看懂畫面、點對按鈕、在多個系統之間穩定完成任務,不再只靠參數量或網路上抓來的說明文件,而要靠大量真實操作樣本。這也是為什麼 Reuters、Ars Technica 都把焦點放在互動式訓練資料的稀缺性上。對外界來說,這像是監控;對模型團隊來說,這卻可能是把 agent 從 demo 推向可用產品所缺的那塊地基。兩邊都沒錯,也因此衝突不會消失。

現在還不能把 Meta 這步直接寫成新常態。受影響員工比例、資料保留機制、過濾敏感內容的方法、是否會擴大到美國之外,都還沒有公開答案。但這件事至少先把下一輪企業 AI 的核心矛盾提前攤開了:未來公司若想讓 agent 更像真人工作,就越可能需要更貼近真人工作的資料;而資料一旦貼近工作本身,治理、同意與信任成本也會一起升高。AI 企業化走到這裡,真正需要被重新定義的,恐怕不只是工具能力,而是組織裡什麼能被算成訓練資料、誰有權決定,以及員工要用什麼交換這一切。

發表迴響