2023 年那位用 ChatGPT 寫狀子、引用了 6 個完全不存在的判例的紐約律師 Steven Schwartz,被罰 $5,000——當時是孤例,大家當笑話看。
到了 2026 年 Q1:
- 全美律師 AI 幻覺相關罰款累計突破 $145,000(Damien Charlotin DB 統計)
- 內布拉斯加州 Greg Lake 律師 4 月 15 日被吊照——美國史上第一位因 AI 幻覺被永久吊銷執照
- 奧勒岡州一位律師被罰 $11 萬,單筆破紀錄
- Sullivan & Cromwell(全美 Top 10 律師事務所)4 月被法官公開要求道歉,因為助理律師用 AI 起草備忘錄有 8 個虛構引用
但同一份統計還顯示:61% 的美國聯邦法官自己每天使用 AI(主要是 Westlaw AI、Lexis+ AI、ChatGPT)寫意見書研究、整理事實。
這個雙標——「我用沒事,你用就吊照」——才是 2026 法律 AI 議題的核心矛盾。
📊 律師 AI 罰款 2024-2026
| 年度 | 案件數 | 累計罰款 | 最重處分 |
|---|---|---|---|
| 2023 | 1 | $5,000 | 訓誡 |
| 2024 | 12 | $42,000 | $15,000 罰款 + 公開譴責 |
| 2025 | 38 | $89,500 | 暫時停業 90 天 |
| 2026 Q1 | 47 | $145,000+ | 永久吊照(Lake 案) |
不只案件數量加速,處分嚴重度也跨過質變閾值——從「罰錢 + 道歉」進入「剝奪執業權」。這意味著律師業界對 AI 幻覺的容忍度,2026 年正式歸零。
🔍 三個 2026 標誌性案件
1. Lake v. Nebraska Bar(4 月 15 日,首例吊照) Greg Lake 是在內布拉斯加執業 23 年的律師,4 月被吊照的關鍵不是「用了 AI」——是他(a) 在 6 個案件中累計引用 22 個虛構判例,(b) 法官質疑時謊稱「那是助理找的,我只是審核」,(c) 經過調查發現助理根本不存在。
法官的判決理由不是「使用 AI」,而是「對法庭的虛假陳述」——這個區別很重要。用 AI 不會吊照,用 AI 之後撒謊才會。
2. Oregon $110K 罰款(3 月底,4 月初公布) 小型事務所的合夥人在離婚案件中提交了一份用 ChatGPT-5 寫的 motion,有 4 個虛構引用、12 個被誤引的真實案例。法官在罰款判決中寫了一句後來被多家媒體轉引的話:
「律師可以使用 AI。律師不能讓 AI 替代律師的責任。(A lawyer may use AI. A lawyer may not let AI replace the lawyer.)」
這句話現在成為很多州律師公會更新「AI 使用指引」的開場白。
3. Sullivan & Cromwell 道歉信(4 月 22 日) 不是第一次大型事務所被抓到,但這是第一次 Top 10 事務所被法官公開要求「事務所內部 AI 政策提交給法庭」——並當作判決的記錄附件。
這代表監管壓力從個人律師延伸到事務所層級——以後事務所不能只說「這是個別律師問題」,事務所本身的 AI 政策、訓練、審核流程會被法庭審查。
🤔 為什麼法官自己可以用 AI?
這個雙標看起來不公平,但仔細看有邏輯:
1. 法官的 AI 用途不是「取代法律意見」 法官用 AI 主要是:整理案件事實時間線、研究法律詞彙、找相關判例的線索(然後人工查證)、起草 boilerplate 段落。法官不會把 AI 寫的判決理由直接交出來——他們的責任不需要靠 AI 證據支撐。
2. 法官的錯誤可被上訴審查 法官引用錯了,敗訴方可以上訴。律師寫狀子引用錯了,法庭直接受誤導——除非對方律師抓到,否則案件可能就這樣定下來。錯誤糾錯機制不對等。
3. 律師的角色定義是「對法庭忠誠」 律師作為「officer of the court」(法庭的執行人),其法律責任遠高於政府公務員(法官)。律師對法庭的虛假陳述構成獨立的紀律違規,不需要當事人受害也成立。
但即便邏輯上可以解釋,感受上的雙標仍存在——這個矛盾會在 2026-2027 形成新的政策辯論。預期會出現的修正方向:
- 法官的 AI 使用揭露:多州正在討論強制法官在判決中標註「本意見書部分內容由 AI 協助起草」
- AI 使用揭露變律師執業要求:狀子需附「AI 使用聲明」,類似目前的「無利益衝突聲明」
⚠️ AI 幻覺問題不只在「找不存在的判例」
媒體聚焦最多的是「虛構判例」(fabricated citations),但 Q1 2026 的案件分析顯示更危險的是「微妙誤引」:
- 真實判例,但結論被反向(70% 案件):AI 引用了一個真實案例,但用反向支持自己的論點——「A 訴 B 案,法院認為 X」實際上案件結論是 not-X
- 真實判例,但管轄區錯誤(54%):引用了加州案例去支持紐約案件,但兩州法律相反
- 真實判例,但引用條文錯誤(43%):引用了 Section 1983,但實際法條是 1981
這類錯誤比明顯的虛構引用更難發現——對方律師也得花時間查才知道。2026 預期最大的法律 AI 災難會在這個區塊,而不是「ChatGPT 編一個案號」。
💡 Mason 的判斷
這件事真正的教訓不是「律師不該用 AI」——律師當然該用 AI,生產力差太多。教訓是:
(1) AI 是新的「第一年實習生」,不是資深律師 你會把實習生寫的東西原封不動交給法庭嗎?不會。AI 也是同樣標準。AI 寫的稿,律師親自查證每一個引用、每一個結論、每一個條文——這是不能省的步驟。
(2) 「我以為 AI 不會錯」不再是合理抗辯 2023 年 Schwartz 律師說「我以為 ChatGPT 是個搜尋引擎」,當時還能贏得部分同情。到 2026 年,這個說法已經沒有說服力——所有從業者都被告知過 AI 會幻覺,不知道 = 失職。
(3) AI 政策變成事務所必備 過去事務所最多有「雲端使用政策」,現在需要明確的「AI 使用政策」——哪些 AI 可以用、什麼任務可以用、需要什麼審核流程。沒有這個政策,事務所合夥人未來會跟律師一起被罰。
(4) 對台灣律師業的延伸 台灣目前完全沒有等同的判例與政策框架,但案件遲早會出現——可能來自:用 ChatGPT / Gemini 寫狀子的小型事務所、自助訴訟者(litigants in person)、或財務糾紛的 AI 自動產出文件。
預期 2026-2027 台灣會有第一個律師 AI 幻覺懲戒案,屆時律師公會的反應會決定整個業界的應對方向。現在開始規劃 AI 使用守則,比事後補救划算。
🎯 不同角色的建議
給律師 / 法律從業:
- AI 寫的所有內容,逐一查證——尤其是判例、法條、引用。這是不能省的責任
- 用 Westlaw AI、Lexis+ AI、Casetext 這類「有判例驗證」的法律專用 AI,而不是純 ChatGPT / Claude——前者有 retrieval 機制,大幅減少幻覺
- 建立事務所 AI 政策——哪些工作可以用 AI、什麼工作必須人工、審核標準、客戶告知
- 提交狀子前最後一道「人工檢查每個引用」是不可省的——這 30 分鐘可能省掉執照
給法官 / 司法:
- 2026 是司法系統需要 AI 揭露政策的關鍵年——強制法官揭露 AI 使用,跟強制律師揭露,標準應該對等
- 鼓勵建立「AI 引用驗證系統」——像 Bluebook checker 一樣的工具,自動檢查狀子引用是否真實
- 對律師的紀律處分標準需要區分「單純 AI 失誤」與「AI + 撒謊」——前者教育,後者重罰
給法律 AI 工具開發商:
- 「減少幻覺」是值得繼續投入的研發方向,但完全消除不可能——商業模式應該設計成「輔助 + 強制審核流程」,而不是「自動化取代」
- 提供「信心分數 + 來源連結」是必備功能,讓律師能快速判斷哪些引用需要重點查證
- 跟律師公會合作做「AI 安全使用認證」——這是有商業價值的合規服務
給一般使用者(打官司、寫合約):
- 用 AI 起草合約 / 訴狀完全可以,但最後一定要請真人律師審核——AI 幻覺對你的代價可能是輸官司
- 不要相信「AI 律師服務」可以完全取代律師的廣告——目前法律 AI 的能力遠不足以獨立處理你的訴訟
- 如果你看到對方律師的狀子有「怪怪的引用」,主動查證——可能是 AI 幻覺的禮物
❓ FAQ
哪些法律 AI 比較不會幻覺?
目前準確度最高的順序大致是:Westlaw AI > Lexis+ AI > Casetext (Thomson Reuters) > Harvey > 純 LLM(ChatGPT、Claude、Gemini)。
前三個有 retrieval-augmented 機制——每個引用都會反查真實判例庫。Harvey 是律師事務所專用,有額外審核層。純 LLM 跑法律工作幻覺率最高,Stanford 2024 年的研究顯示 GPT-4 處理法律問題,幻覺率仍有 17-33%。
那律師事務所的 AI 政策該怎麼寫?
最低限度應該包含:(1) 允許 / 禁止的 AI 工具清單——例如允許 Westlaw AI、Lexis+,禁止把客戶機密資料輸入 ChatGPT 免費版。(2) 哪些工作可以用 AI——例如:摘要、初稿、研究輔助;不能用:最終狀子、合約最終版、客戶法律意見書。(3) 審核流程——AI 產出後必須由律師逐項查證並簽核。(4) 客戶告知——如果使用 AI 處理客戶事務,事先告知。(5) 紀錄保存——保留 AI prompt、輸出、審核紀錄,作為紀律處分時的抗辯依據。
ABA 在 2025 年發布「Formal Opinion 512」可作為起點。
普通人寫合約用 AI 真的有幫助嗎?
有用,但有條件。AI 適合:(1) 解釋合約條款——把法律語言翻譯成白話,(2) 起草簡單合約——租賃、雇傭、NDA 等標準化文件,(3) 找出明顯陷阱——明顯不公平條款、漏洞。
不適合:(1) 訴訟文件——一錯影響大,(2) 涉及大筆金錢的合約——遺產、不動產、商業併購,(3) 跨境法律——AI 對不同管轄區法律的混淆率最高。
最划算的方式:用 AI 起草 + 真人律師審 1 小時,通常能比全程律師服務便宜 50-70%,但有真人風險把關。
Sources:
- AI Hallucination Cases Database — Damien Charlotin
- Nebraska disbars first lawyer over AI hallucinations — ABA Journal
- Oregon attorney fined $110K for AI fabricated citations — Above the Law
- Sullivan & Cromwell apology over AI memo — The Ethics Reporter
- 61% of federal judges use AI — National Center for State Courts