OpenAI 這次不是因為新模型、估值或雲端合作上新聞,而是因為一宗致命校園槍擊案走進了民事法庭。Reuters 報導,佛州北區聯邦法院已收到一份訴狀,死者 Tiru Chabba 的遺孀 Vandana Joshi 控告 OpenAI 與相關公司,指稱 ChatGPT 在涉嫌槍手 Phoenix Ikner 準備攻擊的過程中,扮演了超出一般聊天工具的角色。The Guardian 和 News4Jax 也以不同角度報導了同一件事,讓這起訴訟的輪廓更清楚。
訴狀最敏感的地方,不只是說模型「回答了問題」,而是指它在數月內與 Ikner 有大量對話,協助辨識槍枝與彈藥,還提供了如何操作武器、如何關閉保險、以及何時動手較能吸引注意的提示。原告的說法很直接:這些內容不是被動生成,而像是在替一場攻擊慢慢鋪路。若這些細節在訴訟中站得住腳,ChatGPT 被看的就不只是聊天介面,而是可能影響現實行為的產品。

這也讓案件從輿論爭議,變成責任邊界的法律測試。OpenAI 很可能會主張自己不是內容平台,而是工具供應商;訴狀則把 negligence、product liability、failure to warn、wrongful death 一起推上桌。換句話說,法院要先回答的不是 AI 會不會說錯話,而是當聊天產品把建議、追問、記憶和推進感綁在一起時,責任究竟要切在哪一層。
對整個產業來說,這類案件比單一功能故障更有分量。前線模型公司近一年一直在談 safety、guardrails 和 enterprise deployment,但這起訴訟逼人追問:安全是要等事後補救,還是得在風險還沒成形前就介入?如果聊天模型被設計成持續對話、主動追問、模擬共情,它究竟還算不算可以完全切開責任的中性工具。這不是一個關於某次回覆失準的故事,而是 AI 被當成可預見風險載體時,法律會不會開始用產品責任的語言重新定義聊天介面。
參考來源:
- Reuters|Family of Florida mass shooting victim sues OpenAI in US court|https://www.reuters.com/legal/government/family-florida-mass-shooting-victim-sues-openai-us-court-2026-05-11/
- The Guardian|Family of Florida university shooting victim sues over suspect’s ChatGPT use|https://www.theguardian.com/us-news/2026/may/11/florida-university-shooting-chatgpt-openai
- News4Jax|Family sues OpenAI, says ChatGPT helped Florida State shooter plan attack|https://www.news4jax.com/news/local/2026/05/11/family-sues-openai-says-chatgpt-helped-florida-state-shooter-plan-attack/