AI 進法律圈,真正先出事的往往不是大案子,而是註腳。喬治亞州最高法院這次處理 Hannah Payne 的新審請求時,先碰到的不是案件本身,而是一份被 AI 內容污染的法律文件:裡面有不存在的案例,也有根本不支持原意的引文。法院最後沒有先談案情,而是先把流程拉回來重寫,等於直接告訴所有律師和檢察官,AI 可以幫你起草,但不能幫你背書。
Reuters 的報導指出,法院已對 Clayton County 助理檢察官 Deborah Leslie 採取懲戒;Atlanta News First 則補得更清楚:法院認定她提交的回應和後續提案都混入了虛構或誤引的案例。Leslie 後來承認自己用了 AI 來起草文件,但沒有在送件前逐一驗證引文。這句話在平常像是工作失誤,在法庭裡卻是程序問題,因為一旦引用錯了,失真的不只是文字,還可能是整份裁定的可信度。

這起案子最值得記住的,不是 AI「有多會亂編」,而是法院第一次把責任壓回人類工作流。Georgia Supreme Court 一方面提醒試行中的 proposed order 要仔細審查,另一方面也對 Leslie 暫停在該院執業六個月,要求額外完成倫理、寫作和 AI 使用課程。換句話說,法院接受技術,但不接受偷懶;接受草稿機,但不接受把草稿當成定稿。
如果把這件事放到更大的法律科技場景看,它其實是個很早、但很重要的警訊。很多團隊以為導入 AI 是為了提速,真正的成本卻會轉移到驗證、責任與紀錄保存。當一份文件可以被模型瞬間寫完,下一個瓶頸就會變成誰來查案例、誰來對照法條、誰來保證沒有 hallucination 混進去。這不是 AI 會不會進入法律圈的問題,而是法律圈能不能承擔它帶來的審核負擔。
更現實一點說,這類案例也會逼所有高風險工作重新定義「效率」。真正有價值的不是把一份 brief 寫快,而是把審核流程做成機制,讓錯誤在出門前就被擋住。法院今天懲戒的是一位檢察官,明天可能就是任何把模型輸出直接送件的人。AI 能幫忙開始,但最後簽名的,還是人。
參考來源:
- Reuters|AI errors in US murder case lead to discipline for Georgia prosecutor|https://www.reuters.com/business/ai-errors-us-murder-case-lead-to-discipline-georgia-prosecutor-2026-05-05/
- Atlanta News First|Georgia Supreme Court orders redo in Hannah Payne case over AI citations|https://www.atlantanewsfirst.com/2026/05/05/georgia-supreme-court-orders-redo-hannah-payne-case-after-bogus-ai-citations/
- AJC|Clayton prosecutor admits using AI in filings flagged by chief justice|https://www.ajc.com/news/2026/03/clayton-prosecutor-admits-using-ai-in-filings-flagged-by-chief-justice/
- Law&Crime|Court finds citations to ‘nonexistent cases’ in appeal|https://lawandcrime.com/crime/citations-to-cases-that-dont-exist-appeal-of-murder-conviction-thrown-into-turmoil-as-georgia-supreme-court-flags-numerous-nonexistent-quotes/