2026 年 4 月 6-7 日,一件前所未有的事情發生了:OpenAI、Anthropic 和 Google 同時宣布聯手。 這三家在商業上拼得你死我活的公司,決定透過 Frontier Model Forum 共享威脅情報,共同對抗中國 AI 公司的「對抗式蒸餾」攻擊。
這是 AI 產業史上第一次,所有前沿實驗室協調防禦同一個外部威脅。
🔑 5 個關鍵重點
- Anthropic 直接點名 DeepSeek、Moonshot、MiniMax 非法蒸餾 Claude
- 被記錄的證據:24,000 個假帳號、1,600 萬次未授權對話
- 美國官員估計蒸餾每年造成矽谷 AI 實驗室數十億美元損失
- Frontier Model Forum 從安全承諾平台轉型為主動威脅情報共享機制
- 針對蒸餾的立法已在推動中,民事訴訟預計 6-12 個月內提起
🤔 什麼是「蒸餾」?先搞懂技術原理
合法蒸餾 vs. 對抗式蒸餾
「蒸餾」本身是正常的 AI 技術——用一個大模型(老師)的輸出來訓練一個小模型(學生),讓小模型學到大模型的能力。OpenAI 自己的 GPT-5.4 mini 就是用這種方式做的。
問題出在手法:
| 合法蒸餾 | 對抗式蒸餾 | |
|---|---|---|
| 授權 | ✅ 有授權或自家模型 | ❌ 未經授權 |
| 帳號 | 正常商業帳號 | 數萬個假帳號 |
| 費用 | 支付 API 費用 | 刻意規避付費 |
| Prompt 設計 | 一般使用 | 精心設計以最大化能力提取 |
| 揭露 | 公開說明來源 | 隱瞞訓練資料來源 |
| 規模 | 有限度 | 數百萬次系統性提取 |
具體怎麼操作?
對抗式蒸餾的流程大致如下:
- 建立假帳號 — 用假身份大量註冊 API 帳號,繞過使用量限制
- 設計提取 Prompt — 不是一般的「幫我寫 email」,而是精心設計的指令,讓模型展現最深層的推理能力
- 大規模收集輸出 — 自動化腳本批量送 prompt、收回答,累積數百萬筆高品質的「老師回答」
- 訓練自家模型 — 用這些輸出當訓練資料,教自家小模型模仿大模型的行為模式
- 發布競品 — 推出「性能接近但成本更低」的模型,不提及訓練資料來源
📋 已知的證據
Anthropic 的指控
Anthropic 是目前公開最多細節的公司,直接點名了三家中國 AI 公司:
| 被點名公司 | 說明 |
|---|---|
| DeepSeek | 中國最大的開源 AI 模型開發商 |
| Moonshot AI | Kimi 聊天機器人的開發商 |
| MiniMax | M2.7 開發商,2026 年初港股上市 |
已記錄的數字:
- 24,000+ 個詐騙帳號
- 1,600 萬+ 次未授權的 Claude 對話
- 美國官員估計每年數十億美元的利潤損失
這和你有什麼關係?
如果你正在使用 DeepSeek 或 MiniMax M2.7 的 API,這代表你用的模型可能部分能力來自未授權的蒸餾。這不是說這些模型「不好用」——它們確實表現出色——而是它們的能力來源存在法律和倫理上的爭議。
⚠️ 重要釐清 被點名不等於被定罪。目前這些是 Anthropic 的單方面指控,尚未進入司法程序。DeepSeek、Moonshot、MiniMax 尚未公開回應。在法律判決出來之前,這些仍是「指控」而非「事實」。
🛡️ 反制措施:聯盟在做什麼
Frontier Model Forum 的轉型
Frontier Model Forum 由 OpenAI、Anthropic、Google 和 Microsoft 在 2023 年共同創立,原本是一個「安全承諾」的行業組織。現在它轉型為主動的威脅情報共享平台——類似金融業的反洗錢情報共享網路。
技術面反制
| 措施 | 說明 |
|---|---|
| 行為偵測系統 | 用 AI 分析 API 使用模式,識別蒸餾式的查詢模式 |
| 帳號驗證強化 | 更嚴格的身份驗證,增加假帳號的建立成本 |
| 速率限制 | 對高量 API 請求設定新的限制 |
| 使用條款更新 | 更明確禁止訓練用途的條款 |
法律面行動
| 行動 | 狀態 | 時程 |
|---|---|---|
| OpenAI 向美國眾議院中國委員會提交備忘錄 | ✅ 已提交 | 2026/4 |
| 針對蒸餾的立法 | 🔄 推動中 | 進行中 |
| 對被點名公司的民事訴訟 | 📋 準備中 | 預計 6-12 個月 |
| AI 蒸餾出口管制 | 🔄 遊說中 | 時程未定 |
🔓 被忽略的安全隱憂
蒸餾不只是商業問題,還有一個更嚴重的安全隱憂:
蒸餾出來的模型通常缺乏安全護欄。
當你蒸餾一個模型,你複製的是它的「能力」——回答問題、寫程式碼、做推理的部分。但安全層——拒絕有害請求的對齊訓練、降低風險的護欄——不會完整轉移。
這意味著:
- 一個蒸餾版的 Claude 可能保有 Claude 的推理能力,但不會拒絕生成危險內容
- 如果這些模型被用於政府級的監控或假訊息生成,就是國安層級的問題
- 這也是為什麼美國政府會介入——這不只是公司利潤的問題
🌊 產業衝擊:開發者該怎麼辦
對 API 開發者的影響
如果你在用美國 AI 公司的 API,預期會看到:
- 更嚴格的使用條款 — 更明確禁止用 API 輸出來訓練模型
- 帳號驗證變嚴 — 可能需要更多身份驗證步驟
- 速率限制調整 — 高量使用模式可能觸發審查
對用中國模型的開發者的影響
如果你在用 DeepSeek、MiniMax 等中國模型的 API:
- 短期內不受影響 — 這些服務仍然正常運作
- 長期風險 — 如果出口管制落地,美國開發者可能被限制使用
- 法律灰色地帶 — 如果你的產品依賴這些模型,需要評估供應鏈風險
對開源社群的影響
諷刺的是,蒸餾爭議可能傷害正當的開源生態。如果 AI 公司因為害怕蒸餾而減少開源(Meta 已經開始了),最終受害的是整個開源社群。
⚖️ 平衡觀點:這件事沒那麼黑白分明
在急著站隊之前,有幾個值得思考的角度:
蒸餾的邊界在哪裡?
- 用 ChatGPT 輸出來微調自己的小模型 → 幾乎所有人都在做
- 用 1,000 個帳號系統性提取 → 明顯違反使用條款
- 介於中間的灰色地帶 → 法律還沒有追上
美國公司也不是完全清白
OpenAI 自己就曾因為用網路上的版權內容訓練模型而被告——AI 版權戰爭仍在打。「未經授權使用他人的智慧成果來訓練自己的模型」這件事,不是只有中國公司在做。
地緣政治的工具化
這場「反蒸餾聯盟」的時機點——恰好在中美 AI 競賽白熱化的當下——讓人很難完全排除地緣政治的考量。保護智慧財產是正當的,但當它和「遏制中國 AI」的國策高度重疊時,需要更仔細地分辨哪些是真正的法律問題,哪些是政治操作。
❓ FAQ
我用 DeepSeek / MiniMax 的 API 會有法律風險嗎?
目前不會。使用這些服務本身不違法——你是消費者,不是蒸餾者。但如果未來出口管制擴大,美國開發者的使用可能受限。台灣和其他地區的開發者目前不受影響,但建議持續關注政策變化。
蒸餾出來的模型真的比較不安全嗎?
技術上是的。蒸餾主要複製的是模型的「能力」——回答問題、寫程式碼等。對齊訓練(讓模型拒絕有害請求)是獨立的訓練階段,不會完整保留在蒸餾的結果中。但這不代表蒸餾模型完全沒有安全措施——大多數公司會在蒸餾後再做自己的對齊訓練。
這會影響開源模型的發展嗎?
很可能會。Meta 放棄 Muse Spark 開源的原因之一就是蒸餾威脅。如果更多公司因為害怕蒸餾而走向閉源,開源社群的前沿模型來源會減少。不過 DeepSeek 和 MiniMax M2.7 等中國公司反而在加速開源——這形成了一個有趣的悖論:被指控偷的人反而給得最多。
Frontier Model Forum 是什麼?
2023 年由 OpenAI、Anthropic、Google 和 Microsoft 共同成立的行業組織,原本專注於 AI 安全承諾和最佳實踐分享。2026 年 4 月起轉型為主動的威脅情報共享平台,功能類似金融業的反洗錢情報共享網路(FinCEN)。
中國公司有回應嗎?
截至 2026 年 4 月 13 日,DeepSeek、Moonshot 和 MiniMax 均未公開回應這些指控。值得注意的是,這些指控目前是 Anthropic 的單方面說法,尚未經過法律程序驗證。