📰 發生了什麼事?
2026 年初,美國發生了一起史無前例的事件:一家 AI 公司因為拒絕移除安全限制,被自己國家的政府列為「國家安全威脅」。
這家公司是 Anthropic——Claude AI 的開發商,估值 3,800 億美元,由前 OpenAI 副總裁 Dario Amodei 創立。
💡 一句話理解 Anthropic 說「我們的 AI 不能用於自主武器和大規模監控」,五角大廈說「配合國防需求否則列為黑名單」,法院說「政府你違法了」。
⏱️ 完整時間線
| 日期 | 事件 |
|---|---|
| 1 月 | 國防部發布備忘錄:所有 AI 合約必須在 180 天內加入「任何合法用途」條款 |
| 2/24 | 國防部長 Pete Hegseth 給 Anthropic 3 天最後通牒:接受「全面開放使用」條款,否則列為供應鏈風險 |
| 2/26 | Anthropic 公開拒絕最後通牒,重申安全護欄立場 |
| 2/27 | Trump 總統下令所有聯邦機構停用 Anthropic 技術 |
| 2/27 | 國防部將 Anthropic 列為**「供應鏈安全風險」**——這個標籤通常只用於外國敵對勢力 |
| 3/9 | Anthropic 提起聯邦訴訟,主張政府行為是違憲的言論報復 |
| 3/26 | 聯邦法官 Rita Lin 發出臨時禁制令,認定政府行為「可能違法且恣意專斷」 |
🔍 Anthropic 的兩條紅線
Anthropic CEO Dario Amodei 明確畫出了 Claude 不能跨越的兩條底線:
紅線一:禁止大規模國內監控
Anthropic 拒絕讓 Claude 被用於對美國公民的大規模監控。理由:
- AI 的監控能力正在超越現有法律保護的範圍
- 一旦部署,這類系統極難被撤回或有效監管
- 即使最初的意圖是「合法的」,技術能力的存在本身就會產生濫用風險
紅線二:禁止全自主武器
Anthropic 拒絕讓 Claude 控制不需人類介入就能選擇和攻擊目標的武器系統。理由:
- 當前 AI 模型的可靠性不足以承擔攸關生死的決策
- AI 的「幻覺」問題在高風險場景中可能產生災難性後果
- 自主武器一旦部署,其錯誤的代價是不可逆的
⚠️ 重要背景 Anthropic 並不反對所有軍事合作。它支持 AI 用於後勤、情報分析、網路安全等用途——只是在「自主武器」和「大規模監控」這兩個領域劃了紅線。
⚖️ 法院怎麼判?
3 月 26 日,加州北區聯邦法官 Rita Lin 發出 43 頁的裁定書,判決政府的行為很可能違法。
法官的三大認定
-
「恣意且專斷」(Arbitrary and Capricious) — 政府將 Anthropic 列為「供應鏈風險」缺乏合理的國安依據,標籤使用方式與其設計目的不符
-
「言論報復」(First Amendment Retaliation) — 法官認為,政府的行為是在懲罰 Anthropic 公開表達對軍事 AI 使用的安全立場——這構成違憲的言論報復
-
「範圍過廣」(Overbroad) — 全面禁止聯邦機構使用 Anthropic 技術的命令影響範圍過大,超出了合理的國安考量
法官給了政府 7 天的上訴窗口。案件仍在進行中。
🌊 這件事為什麼重要?
1. 它為整個 AI 產業設立了先例
這是美國歷史上第一次 AI 公司因為堅持安全原則而被政府制裁。法院的判決意味著:
- AI 公司有權在商業合約中設定倫理紅線
- 政府不能因為企業公開表達安全立場就進行報復
- 「國安供應鏈風險」標籤不能被當作懲罰工具
2. 它暴露了 AI 軍事化的深層矛盾
| 政府的立場 | Anthropic 的立場 |
|---|---|
| AI 能力應該不受限制地服務於國防 | 不可靠的 AI 反而會危害國防安全 |
| 設限等於資敵 | 不設限才是對美軍的不負責任 |
| 國安凌駕於企業自主 | 安全護欄保護的就是國安 |
| 商業公司有義務配合政府 | 配合⻝合法需求,但不跨越倫理底線 |
3. 它改變了 AI 公司的競爭格局
- OpenAI 趁虛而入 — 在 Anthropic 被排除後,OpenAI 迅速與國防部簽約
- AI 安全 vs 商業利益 — 堅持安全原則是否等於放棄最大的客戶?
- 人才流動 — 事件發生後,多位 AI 安全研究員公開表態支持 Anthropic
🤔 不同觀點
支持 Anthropic 的論點
- 技術現實:AI 確實還不夠可靠到可以做生死決策。Claude 會幻覺、會出錯——在戰場上這意味著平民傷亡
- 制度保障:如果 AI 公司不能說「不」,那 AI 安全研究就毫無意義
- 長期利益:建立負責任的 AI 使用規範,長期來看對國防更有利
反對 Anthropic 的論點
- 國安優先:如果美國自我設限,中國和俄羅斯不會。AI 軍備競賽中的道德自律可能是致命的
- 政府有權要求:納稅人資助的國防預算採購應該有完整的使用權限
- 安全戲碼:Anthropic 的估值 3,800 億美元中有多少來自「我們最安全」的品牌敘事?
中立觀察
這個辯論沒有標準答案。但值得注意的是:法院站在了 Anthropic 這邊——不是說 Anthropic 的安全立場「正確」,而是說政府的懲罰手段「違法」。程序正義本身就是民主制度的核心。
📊 對你有什麼影響?
如果你使用 Claude
- 正常使用不受影響 — 消費者產品(Claude.ai、API)運作正常
- 企業用戶注意 — 如果你的公司與美國聯邦政府有業務往來,可能需要評估是否繼續使用 Claude
- 數據安全更有保障 — Anthropic 的安全立場反而證明了它對用戶隱私的承諾
如果你是 AI 從業者
- 這是一個值得深思的案例:技術能力 ≠ 應該部署的場景
- 了解 AI 安全不只是技術問題,也是法律和倫理問題
- 參考 AI 安全基礎 和 Prompt Injection 了解更多安全議題
如果你關注 AI 產業
- 觀察後續判決——這將決定 AI 公司與政府的權力邊界
- 關注 OpenAI 拿到國防合約後的條款——它是否接受了 Anthropic 拒絕的條件?
- 這場對決的結果將影響全球 AI 監管的方向
🔮 後續觀察重點
- 上訴結果 — 政府是否上訴?上訴法院怎麼判?
- OpenAI 的國防合約 — 條款內容是否公開?是否包含自主武器用途?
- 國會立法 — 是否會因此加速 AI 軍事使用的立法進程?
- 歐盟反應 — 歐盟 AI Act 是否會引用此案強化自主武器禁令?
- Anthropic 的商業影響 — 失去聯邦合約對營收和估值的長期衝擊
❓ FAQ
Anthropic 被列為「國安威脅」嗎?
被列為「供應鏈安全風險」,這是一個通常用於外國敵對企業(如華為)的標籤。但聯邦法官已發出臨時禁制令,認定此標籤的使用「可能違法」。目前此標籤的效力已被暫時凍結。
Claude 還能正常使用嗎?
可以。消費者和企業版 Claude 的使用完全不受影響。此爭議僅涉及美國聯邦政府的採購合約,不影響一般使用者。法院的禁制令也暫時阻止了政府停用 Claude 的命令。
Anthropic 真的完全不做軍事合作嗎?
不是。Anthropic 支持 AI 用於國防的多個領域,包括後勤規劃、情報分析、網路安全和通訊。它只在兩個領域劃了紅線:大規模國內監控和全自主武器(無人類介入就能選擇和攻擊目標的系統)。
OpenAI 在這件事上的立場是什麼?
OpenAI 在 Anthropic 被排除後迅速與國防部簽訂合約。雖然 OpenAI 未公開評論此事件,但其行動被外界解讀為採取了更配合政府需求的立場。這也加劇了兩家公司在 AI 安全理念上的分歧。
這件事對全球 AI 監管有什麼影響?
這是全球首起 AI 公司因安全立場被政府制裁的案例,其判決結果將成為各國參考的先例。歐盟 AI Act 已經對軍事 AI 有嚴格限制,此案可能進一步強化國際社會對自主武器的管控呼聲。