羅馬這一回不是在討論抽象的科技倫理,而是把 AI 直接放進戰爭語言裡。Pope Leo XIV 在羅馬大學 Sapienza 的演說裡,說投資 AI 與高科技武器正把世界推向一個「spiral of annihilation」。這句話的力道,不在於它多激烈,而在於它把原本分散在軍事、教育、醫療與治理各自角落的議題,硬生生拉回同一條責任線上。
如果只把這段話看成一則宗教新聞,就會錯過它真正的技術訊號。教宗點名 AI 的不是演算法本身,而是它被放進什麼決策系統、被誰拿去加速什麼結果。NPR 的報導寫得很直接:他要求外界更嚴格監督 AI 在軍事與民用上的開發與使用,避免人類把選擇責任丟給機器。這種說法,和近來很多企業把效率、裁員、戰術優勢一股腦塞進 AI 敘事的方式,剛好形成反面對照。

從 yes.fish 一路追的那條線看,這種訊號其實不陌生:AI 早就不只是模型競賽,而是基建、法規、部署節奏與責任分攤的總和。AP 科技版面今天同樣把 Pope Leo XIV 的 AI 關注放在頭部位置,顯示這不只是教廷對技術的態度宣示,而是全球科技敘事正在往更硬的治理題目移動。當一位宗教領袖公開把 AI、軍備、教育與公共支出放在同一段話裡,等於提醒所有把 AI 當成成長引擎的人:效率不是唯一指標,誰承擔後果才是。
這也讓下一步問題更清楚了。企業可以繼續把 AI 當成生產力工具,政府可以繼續談監管框架,但若系統已經開始參與分類、目標判定、武器與資訊戰,那就不能再只用「創新」兩字帶過。這波不是道德宣言的回潮,而是技術責任被重新定價。看似是教宗對世界說話,實際上是在提醒整個 AI 產業:你們賣出去的不是單一功能,而是一段會回到現實世界的後果鏈。
參考來源