5 月 1 日 CNN、Breaking Defense 同步報導:美國國防部一次與 8 家 AI 廠商簽署「進入機密網路」合約——OpenAI、Google、Microsoft、Amazon、Oracle、NVIDIA、SpaceX、Reflection AI——但獨缺 Anthropic。Pentagon 給的官方理由是「supply-chain risk(供應鏈風險)」,但業內共識是另一個版本:Anthropic 拒絕放鬆安全護欄、不接受軍事用途特別授權。
這件事的諷刺在於:Anthropic 是這 9 家公司裡,把「AI 安全」放在品牌核心最重的一家。它被踢出國防案的理由,正是它最自豪的特色。
📋 8+1 的對比
| 簽約方 | 主要供應 | 安全立場特徵 |
|---|---|---|
| OpenAI | GPT-5 系列 + Sora | 早期反對軍用,2024 年改章程允許 |
| Gemini + Cloud + TPU | 2018 取消 Maven 後,2024 重新允許防禦用途 | |
| Microsoft | Azure + Copilot + 整合 OpenAI | 長期 DoD 合作(JEDI、JWCC) |
| Amazon | AWS + Bedrock + Trainium | 全方位配合,長期 IC(情報社群)合約 |
| Oracle | 雲端 + 資料庫 | 政府市場長期玩家 |
| NVIDIA | GPU + DGX | 賣硬體沒立場問題 |
| SpaceX / Starshield | Starlink 軍用變體 + 發射 | Musk 親自配合度高 |
| Reflection AI | 新進場、Vinod Khosla 投資 | 新公司,主動定位「美國國防 AI」 |
| ❌ Anthropic | Claude(被排除) | 唯一拒絕放鬆使用條款的前沿 lab |
最值得注意的是 Reflection AI——一家成立不到兩年、產品力遠不如 Anthropic 的新公司,理由就是「願意配合」。Pentagon 寧可用一家較弱的廠商,也不要一家不肯妥協的強廠商。
🤔 「Supply-chain risk」是真的還是藉口?
Pentagon 給的官方解釋是供應鏈風險——但這個說法經不起推敲:
問題 1:Anthropic 的算力主要由 Google + AWS 提供,這兩家都已簽 Pentagon 合約。它們的供應鏈可以,Anthropic 的不行? 邏輯不通。
問題 2:Anthropic 是美國公司、總部舊金山、創辦人 Dario / Daniela Amodei 是美國人、員工大多在美國。「供應鏈風險」通常指外國成分——Anthropic 沒有。
問題 3:Pentagon 採購文件實際提到的是 「policy alignment risk(政策契合風險)」——這個詞才是真實理由。Anthropic 的 Acceptable Use Policy 明文限制「武器系統、自主殺傷力決策、未經授權監視」,這些跟 Pentagon 多數採購用途有實質衝突。
簡單說:Pentagon 想要的是「我說怎麼用就怎麼用」,Anthropic 給的是「我的條款定義邊界」。前者要求廠商讓步,後者拒絕——所以分手。
🪞 矛盾的訊號:對 Anthropic、對美國、對 AI 安全運動
這件事對三個層面都有反差訊號:
對 Anthropic 自己:過去三年它建立的品牌核心就是「比 OpenAI 更負責任」。但「負責任」在商業現實裡,意味著放棄一個可能價值 $5B-$10B 的政府市場。董事會這個決定不容易——這是 Anthropic vs Pentagon 裡 3 月就被預告的伏筆,但這次正式變現實。
對股東(Google、AWS、Blackstone)而言,這個決定有財務代價。但 Anthropic 承擔了——這是少見的「新創用品牌價值頂住短期收入」案例。
對美國國防 AI 戰略:Pentagon 的訊號是「我們需要可控的 AI,不需要會頂嘴的 AI」。但這個立場跟過去兩年 AI 安全社群的呼籲——「模型不應自動聽命所有指令」——完全相反。
換句話說,美國政府想要的 AI 安全 ≠ AI 研究界想要的 AI 安全。前者強調「對使用者(政府)忠誠」,後者強調「對人類整體價值對齊」。這個分歧 2026 年首次以採購決定的形式公開化。
對 AI 安全運動:過去 5 年 AI 安全研究者的論述是「負責任的公司會贏」——市場會獎勵安全,客戶會選負責任廠商。但 Pentagon 案展示的是相反:負責任的廠商被排除,願意配合的廠商勝出。
這個結果對 AI 安全運動的論述基礎是個打擊——它顯示「責任 vs 收入」是真實的二選一,不是「都能贏」的虛假對立。Anthropic 這次選了責任,但它能選多久?
🌍 國際面:盟友會不會跟進?
英國、澳洲、日本、韓國的國防部都會看這件事——他們都需要採購前沿 AI,但都還沒做出 Pentagon 這種規模的選擇。
幾個可能的後續:
- 英國 / 澳洲(Five Eyes) 大概率跟進,把 Anthropic 排除在 IC 用途外
- 日本 / 韓國 可能採取不同立場——他們對中國 AI 警戒度高,需要美國前沿 AI,但 Anthropic 的拒絕配合會被視為美國 AI 的內部分裂訊號
- 歐盟 因為 EU AI Act 對軍用 AI 限制更嚴,Anthropic 反而在歐洲市場(包括歐盟內部國防合作)有優勢
- 以色列、印度、新加坡 等中型強權傾向務實——誰賣就買誰,跟進 Pentagon 立場概率不高
長期看,Anthropic 可能變成「歐盟 + 民間客戶」陣營的旗手,Pentagon 八家變成「美國軍工 + 親美陣營」的供應主軸。全球 AI 採購會出現分流。
💡 Mason 的判斷
這件事最值得記住的不是「Anthropic 被踢出」,是「品牌承諾被測試了,而 Anthropic 沒退」。
過去 5 年 AI 公司的「負責任」承諾大多是行銷語言——到了真的要拒絕高額合約時,絕大多數會找一個轉圜方式繼續做(OpenAI 2024 年取消「禁止軍用」條款就是例子)。Anthropic 這次沒轉圜,讓品牌承諾從口號變成實際決策。
但這個決定的代價會持續顯現:
- 企業客戶觀察:對需要跟政府合作的企業客戶(國防承包商、軍火商、安全機構),Anthropic 變得「用了會麻煩」。可能流失部分相關客戶
- 下一輪估值:$350B 估值有部分是「未來政府收入潛力」的折算。Pentagon 案後,這部分要被市場重新定價——下一輪估值的成長性會被打折
- 內部人才壓力:Anthropic 內部有部分研究員是因為「做有影響力的工作」加入,放棄 Pentagon 案會讓部分人覺得「我們的研究不會真正被部署到關鍵場景」——這個張力會在未來 12 個月顯現
- 長期品牌資產:對「選 AI 廠商看價值觀」的客戶而言,這次反而強化信任。歐洲、加拿大、澳洲非政府部門、學術界、NGO 會更願意付費
這不是「Anthropic 贏了」也不是「Anthropic 輸了」。這是「Anthropic 在守住自己的定義」——而這個定義會被市場以 5-10 年的時間驗證。
🎯 不同角色的建議
給政策觀察者:
- 「AI 公司會不會配合政府」這個問題,過去都是假設性的,現在變成可觀察的事實。未來每家前沿 AI 都會被同樣測試
- Pentagon 八家裡 Reflection AI 是黑馬——一家小公司用「全配合」策略卡進機密網路,這個劇本會在歐洲、亞洲被複製
- 美國內部「AI 安全 vs AI 主導權」的張力,過去在學術圈,現在進入採購層級——這是新的政策觀察重點
給企業 / 採購方:
- 如果你的業務跟政府、軍工、敏感監視有關聯,Anthropic Claude 用得時候要看自己的 use case——AUP 條款可能限制部分用途
- 如果你的業務跟「對人權、隱私、創意自由」敏感的領域有關(媒體、人權組織、學術出版),Claude 反而是相對安全的選擇——它已經證明會頂壓力
- 雙模型策略仍重要——沒有 AI 廠商能同時滿足所有合規與業務需求
給 AI 開發者 / 研究者:
- 如果你關心 AI 安全運動的長期可持續性,Anthropic 這次決定值得支持(用 Claude、付錢、發聲)——它在用商業代價示範 AI 倫理可以是真的
- 如果你在前沿 lab 工作,這件事是好的反思題——你公司的「負責任」承諾,撐得住下一個 $10B 合約嗎?
給投資人:
- $350B 估值裡的「政府市場潛力」要打折——但這個折扣已經反映在 Pentagon 案被報導的這週了
- Reflection AI 這類「全配合策略」的新興 lab 會獲得政府訂單支撐,估值會跑短期出乎意料的快——但長期看,品牌脆弱度高
- 真正的長期贏家可能是「分人格」的 AI 公司——主品牌做負責任、子品牌或合作夥伴吃政府市場。OpenAI 已經透過跟 Microsoft 的關係做這個操作,Anthropic 暫時還沒
❓ FAQ
Pentagon 真的不能用 Claude 嗎?
不能用 Anthropic 直接提供的 Claude,但可以透過 AWS Bedrock / Google Vertex AI 用——技術上。但這幾家雲廠的合約裡,使用 Claude 仍要遵守 Anthropic 的 AUP。Pentagon 想用 Claude 做 AUP 禁止的事,雲廠會被夾在中間。
更可能的結果:Pentagon 不會繞道用 Claude,因為法律 / 合約風險太高,直接用 OpenAI / Reflection AI 即可。Anthropic 算是真的失去這個市場。
Anthropic 的 AUP 真的禁止軍用嗎?
禁止的是特定軍用,不是「全部軍用」。AUP 明確禁止:武器設計、自動化殺傷決策、大規模監視、針對特定族群的鎖定。但允許的軍用包括:後勤、情報分析、文件處理、訓練模擬、防禦性網路安全。
問題在於 Pentagon 不接受「用途清單限制」——他們要「可以做任何事的 AI」。這個分歧不是「軍用 vs 反軍用」,是「廠商有沒有定義邊界的權利」。
Reflection AI 是什麼?憑什麼跟 OpenAI / Google 並列?
Reflection AI 成立於 2024 年,創辦人是前 DeepMind 研究員 Misha Laskin / Ioannis Antonoglou,Vinod Khosla、Sequoia 領投,$130M Series A。產品是「面向企業 / 政府的自主 Agent」,定位明顯與軍方應用契合。
技術力距離 OpenAI / Anthropic 仍有差距——但 Pentagon 採購邏輯不是「最強」,是「最配合 + 美國公司 + 安全許可」。Reflection 把這三件事優先,所以勝出。這個劇本可能讓 2026-2027 出現一批「政府合約優先」的新興 AI 公司。
Sources:
- Pentagon strikes deals with 8 Big Tech companies after shunning Anthropic — CNN
- Pentagon clears 8 tech firms to deploy AI on classified networks — Breaking Defense
- Why the Pentagon excluded Anthropic — Defense One
- Anthropic Acceptable Use Policy — Anthropic Legal
- Reflection AI raises $130M led by Khosla — TechCrunch