Georgia 法院把 AI 假引文算進懲戒:律師不再能把『模型寫的』當擋箭牌

AI 進法律圈,真正先出事的往往不是大案子,而是註腳。喬治亞州最高法院這次處理 Hannah Payne 的新審請求時,先碰到的不是案件本身,而是一份被 AI 內容污染的法律文件:裡面有不存在的案例,也有根本不支持原意的引文。法院最後沒有先談案情,而是先把流程拉回來重寫,等於直接告訴所有律師和檢察官,AI 可以幫你起草,但不能幫你背書。

Reuters 的報導指出,法院已對 Clayton County 助理檢察官 Deborah Leslie 採取懲戒;Atlanta News First 則補得更清楚:法院認定她提交的回應和後續提案都混入了虛構或誤引的案例。Leslie 後來承認自己用了 AI 來起草文件,但沒有在送件前逐一驗證引文。這句話在平常像是工作失誤,在法庭裡卻是程序問題,因為一旦引用錯了,失真的不只是文字,還可能是整份裁定的可信度。

這起案子最值得記住的,不是 AI「有多會亂編」,而是法院第一次把責任壓回人類工作流。Georgia Supreme Court 一方面提醒試行中的 proposed order 要仔細審查,另一方面也對 Leslie 暫停在該院執業六個月,要求額外完成倫理、寫作和 AI 使用課程。換句話說,法院接受技術,但不接受偷懶;接受草稿機,但不接受把草稿當成定稿。

如果把這件事放到更大的法律科技場景看,它其實是個很早、但很重要的警訊。很多團隊以為導入 AI 是為了提速,真正的成本卻會轉移到驗證、責任與紀錄保存。當一份文件可以被模型瞬間寫完,下一個瓶頸就會變成誰來查案例、誰來對照法條、誰來保證沒有 hallucination 混進去。這不是 AI 會不會進入法律圈的問題,而是法律圈能不能承擔它帶來的審核負擔。

更現實一點說,這類案例也會逼所有高風險工作重新定義「效率」。真正有價值的不是把一份 brief 寫快,而是把審核流程做成機制,讓錯誤在出門前就被擋住。法院今天懲戒的是一位檢察官,明天可能就是任何把模型輸出直接送件的人。AI 能幫忙開始,但最後簽名的,還是人。

參考來源:

發表迴響