回到頂部
五角大廈跟 8 家 AI 廠簽約,獨缺 Anthropic:以安全為品牌的公司被以安全為由踢出國防

五角大廈跟 8 家 AI 廠簽約,獨缺 Anthropic:以安全為品牌的公司被以安全為由踢出國防

OpenAI、Google、Microsoft、Amazon、Oracle、Nvidia、SpaceX、Reflection AI 同步進入 Pentagon 機密網路,Anthropic 被以「supply-chain risk」排除。這個矛盾的訊號是什麼?

5 月 1 日 CNN、Breaking Defense 同步報導:美國國防部一次與 8 家 AI 廠商簽署「進入機密網路」合約——OpenAI、Google、Microsoft、Amazon、Oracle、NVIDIA、SpaceX、Reflection AI——但獨缺 Anthropic。Pentagon 給的官方理由是「supply-chain risk(供應鏈風險)」,但業內共識是另一個版本:Anthropic 拒絕放鬆安全護欄、不接受軍事用途特別授權

這件事的諷刺在於:Anthropic 是這 9 家公司裡,把「AI 安全」放在品牌核心最重的一家。它被踢出國防案的理由,正是它最自豪的特色。

📋 8+1 的對比

簽約方主要供應安全立場特徵
OpenAIGPT-5 系列 + Sora早期反對軍用,2024 年改章程允許
GoogleGemini + Cloud + TPU2018 取消 Maven 後,2024 重新允許防禦用途
MicrosoftAzure + Copilot + 整合 OpenAI長期 DoD 合作(JEDI、JWCC)
AmazonAWS + Bedrock + Trainium全方位配合,長期 IC(情報社群)合約
Oracle雲端 + 資料庫政府市場長期玩家
NVIDIAGPU + DGX賣硬體沒立場問題
SpaceX / StarshieldStarlink 軍用變體 + 發射Musk 親自配合度高
Reflection AI新進場、Vinod Khosla 投資新公司,主動定位「美國國防 AI」
❌ AnthropicClaude(被排除)唯一拒絕放鬆使用條款的前沿 lab

最值得注意的是 Reflection AI——一家成立不到兩年、產品力遠不如 Anthropic 的新公司,理由就是「願意配合」。Pentagon 寧可用一家較弱的廠商,也不要一家不肯妥協的強廠商。


🤔 「Supply-chain risk」是真的還是藉口?

Pentagon 給的官方解釋是供應鏈風險——但這個說法經不起推敲:

問題 1:Anthropic 的算力主要由 Google + AWS 提供,這兩家都已簽 Pentagon 合約。它們的供應鏈可以,Anthropic 的不行? 邏輯不通。

問題 2:Anthropic 是美國公司、總部舊金山、創辦人 Dario / Daniela Amodei 是美國人、員工大多在美國。「供應鏈風險」通常指外國成分——Anthropic 沒有。

問題 3:Pentagon 採購文件實際提到的是 「policy alignment risk(政策契合風險)」——這個詞才是真實理由。Anthropic 的 Acceptable Use Policy 明文限制「武器系統、自主殺傷力決策、未經授權監視」,這些跟 Pentagon 多數採購用途有實質衝突。

簡單說:Pentagon 想要的是「我說怎麼用就怎麼用」,Anthropic 給的是「我的條款定義邊界」。前者要求廠商讓步,後者拒絕——所以分手。


🪞 矛盾的訊號:對 Anthropic、對美國、對 AI 安全運動

這件事對三個層面都有反差訊號:

對 Anthropic 自己:過去三年它建立的品牌核心就是「比 OpenAI 更負責任」。但「負責任」在商業現實裡,意味著放棄一個可能價值 $5B-$10B 的政府市場。董事會這個決定不容易——這是 Anthropic vs Pentagon 裡 3 月就被預告的伏筆,但這次正式變現實。

對股東(Google、AWS、Blackstone)而言,這個決定有財務代價。但 Anthropic 承擔了——這是少見的「新創用品牌價值頂住短期收入」案例。

對美國國防 AI 戰略:Pentagon 的訊號是「我們需要可控的 AI,不需要會頂嘴的 AI」。但這個立場跟過去兩年 AI 安全社群的呼籲——「模型不應自動聽命所有指令」——完全相反。

換句話說,美國政府想要的 AI 安全 ≠ AI 研究界想要的 AI 安全。前者強調「對使用者(政府)忠誠」,後者強調「對人類整體價值對齊」。這個分歧 2026 年首次以採購決定的形式公開化。

對 AI 安全運動:過去 5 年 AI 安全研究者的論述是「負責任的公司會贏」——市場會獎勵安全,客戶會選負責任廠商。但 Pentagon 案展示的是相反:負責任的廠商被排除,願意配合的廠商勝出

這個結果對 AI 安全運動的論述基礎是個打擊——它顯示「責任 vs 收入」是真實的二選一,不是「都能贏」的虛假對立。Anthropic 這次選了責任,但它能選多久?


🌍 國際面:盟友會不會跟進?

英國、澳洲、日本、韓國的國防部都會看這件事——他們都需要採購前沿 AI,但都還沒做出 Pentagon 這種規模的選擇。

幾個可能的後續:

  • 英國 / 澳洲(Five Eyes) 大概率跟進,把 Anthropic 排除在 IC 用途外
  • 日本 / 韓國 可能採取不同立場——他們對中國 AI 警戒度高,需要美國前沿 AI,但 Anthropic 的拒絕配合會被視為美國 AI 的內部分裂訊號
  • 歐盟 因為 EU AI Act 對軍用 AI 限制更嚴,Anthropic 反而在歐洲市場(包括歐盟內部國防合作)有優勢
  • 以色列、印度、新加坡 等中型強權傾向務實——誰賣就買誰,跟進 Pentagon 立場概率不高

長期看,Anthropic 可能變成「歐盟 + 民間客戶」陣營的旗手,Pentagon 八家變成「美國軍工 + 親美陣營」的供應主軸。全球 AI 採購會出現分流


💡 Mason 的判斷

這件事最值得記住的不是「Anthropic 被踢出」,是「品牌承諾被測試了,而 Anthropic 沒退」。

過去 5 年 AI 公司的「負責任」承諾大多是行銷語言——到了真的要拒絕高額合約時,絕大多數會找一個轉圜方式繼續做(OpenAI 2024 年取消「禁止軍用」條款就是例子)。Anthropic 這次沒轉圜,讓品牌承諾從口號變成實際決策。

但這個決定的代價會持續顯現:

  • 企業客戶觀察:對需要跟政府合作的企業客戶(國防承包商、軍火商、安全機構),Anthropic 變得「用了會麻煩」。可能流失部分相關客戶
  • 下一輪估值:$350B 估值有部分是「未來政府收入潛力」的折算。Pentagon 案後,這部分要被市場重新定價——下一輪估值的成長性會被打折
  • 內部人才壓力:Anthropic 內部有部分研究員是因為「做有影響力的工作」加入,放棄 Pentagon 案會讓部分人覺得「我們的研究不會真正被部署到關鍵場景」——這個張力會在未來 12 個月顯現
  • 長期品牌資產:對「選 AI 廠商看價值觀」的客戶而言,這次反而強化信任。歐洲、加拿大、澳洲非政府部門、學術界、NGO 會更願意付費

這不是「Anthropic 贏了」也不是「Anthropic 輸了」。這是「Anthropic 在守住自己的定義」——而這個定義會被市場以 5-10 年的時間驗證


🎯 不同角色的建議

給政策觀察者:

  • 「AI 公司會不會配合政府」這個問題,過去都是假設性的,現在變成可觀察的事實。未來每家前沿 AI 都會被同樣測試
  • Pentagon 八家裡 Reflection AI 是黑馬——一家小公司用「全配合」策略卡進機密網路,這個劇本會在歐洲、亞洲被複製
  • 美國內部「AI 安全 vs AI 主導權」的張力,過去在學術圈,現在進入採購層級——這是新的政策觀察重點

給企業 / 採購方:

  • 如果你的業務跟政府、軍工、敏感監視有關聯,Anthropic Claude 用得時候要看自己的 use case——AUP 條款可能限制部分用途
  • 如果你的業務跟「對人權、隱私、創意自由」敏感的領域有關(媒體、人權組織、學術出版),Claude 反而是相對安全的選擇——它已經證明會頂壓力
  • 雙模型策略仍重要——沒有 AI 廠商能同時滿足所有合規與業務需求

給 AI 開發者 / 研究者:

  • 如果你關心 AI 安全運動的長期可持續性,Anthropic 這次決定值得支持(用 Claude、付錢、發聲)——它在用商業代價示範 AI 倫理可以是真的
  • 如果你在前沿 lab 工作,這件事是好的反思題——你公司的「負責任」承諾,撐得住下一個 $10B 合約嗎?

給投資人:

  • $350B 估值裡的「政府市場潛力」要打折——但這個折扣已經反映在 Pentagon 案被報導的這週了
  • Reflection AI 這類「全配合策略」的新興 lab 會獲得政府訂單支撐,估值會跑短期出乎意料的快——但長期看,品牌脆弱度高
  • 真正的長期贏家可能是「分人格」的 AI 公司——主品牌做負責任、子品牌或合作夥伴吃政府市場。OpenAI 已經透過跟 Microsoft 的關係做這個操作,Anthropic 暫時還沒

❓ FAQ

Pentagon 真的不能用 Claude 嗎?

不能用 Anthropic 直接提供的 Claude,但可以透過 AWS Bedrock / Google Vertex AI 用——技術上。但這幾家雲廠的合約裡,使用 Claude 仍要遵守 Anthropic 的 AUP。Pentagon 想用 Claude 做 AUP 禁止的事,雲廠會被夾在中間

更可能的結果:Pentagon 不會繞道用 Claude,因為法律 / 合約風險太高,直接用 OpenAI / Reflection AI 即可。Anthropic 算是真的失去這個市場

Anthropic 的 AUP 真的禁止軍用嗎?

禁止的是特定軍用,不是「全部軍用」。AUP 明確禁止:武器設計、自動化殺傷決策、大規模監視、針對特定族群的鎖定。但允許的軍用包括:後勤、情報分析、文件處理、訓練模擬、防禦性網路安全。

問題在於 Pentagon 不接受「用途清單限制」——他們要「可以做任何事的 AI」。這個分歧不是「軍用 vs 反軍用」,是「廠商有沒有定義邊界的權利」。

Reflection AI 是什麼?憑什麼跟 OpenAI / Google 並列?

Reflection AI 成立於 2024 年,創辦人是前 DeepMind 研究員 Misha Laskin / Ioannis Antonoglou,Vinod Khosla、Sequoia 領投,$130M Series A。產品是「面向企業 / 政府的自主 Agent」,定位明顯與軍方應用契合。

技術力距離 OpenAI / Anthropic 仍有差距——但 Pentagon 採購邏輯不是「最強」,是「最配合 + 美國公司 + 安全許可」。Reflection 把這三件事優先,所以勝出。這個劇本可能讓 2026-2027 出現一批「政府合約優先」的新興 AI 公司

Sources:

📚 延伸閱讀