📰 一場意外,讓全世界看到了 AI 的未來
2026 年 3 月底,Anthropic 的內容管理系統(CMS)發生嚴重配置錯誤,導致約 3,000 份未公開的內部文件被意外曝露在公開網路上。
獨立安全研究員率先發現了這個漏洞,《Fortune》雜誌搶先報導。
這些文件揭露了 Anthropic 正在開發的下一代 AI 模型——內部代號 「Capybara」(水豚),正式品牌名 「Claude Mythos」。
Anthropic 隨後確認了模型的存在,並立即關閉了公開存取。
💡 一句話理解 Anthropic 正在秘密開發一個超越 Claude Opus 的新模型,代號「水豚」。它在程式設計和學術推理上表現優異——但真正讓人不安的是,它的網路安全攻擊能力遠超所有現有 AI。
🧠 面向一:模型本身——什麼是 Claude Mythos?
產品定位
Claude Mythos 不是 Opus 的升級版——它是一個全新的效能層級(tier):
| 層級 | 代表模型 | 定位 | API 定價(每百萬 token) |
|---|---|---|---|
| Haiku | Claude 4.5 Haiku | 極速、低成本 | $1 / $5 |
| Sonnet | Claude 4.6 Sonnet | 日常工作主力 | $3 / $15 |
| Opus | Claude 4.6 Opus | 複雜分析旗艦 | $5 / $25 |
| Capybara | Claude Mythos ⚡ | 超旗艦——未公開 | 未定 |
效能表現
根據洩露的內部評估文件:
| 評測領域 | vs Claude Opus 4.6 | 描述 |
|---|---|---|
| 軟體開發 | 📈 大幅領先 | 程式碼基準測試得分顯著提升 |
| 學術推理 | 📈 大幅領先 | 邏輯推理和分析能力顯著進步 |
| 網路安全 | 📈 遠超所有 AI | 可識別和利用軟體漏洞 |
| 整體 | 📈 階梯式跳躍 | Anthropic 稱之為「step change」而非漸進更新 |
Anthropic 在內部文件中使用了「step change」(階梯式變革)這個詞——不是「更好一點」,而是「不同等級的東西」。
🛡️ 面向二:網路安全——為什麼全世界都很緊張?
洩露文件怎麼說
Anthropic 的內部草稿中有一段引發廣泛討論的描述:
「該模型目前遠遠領先於任何其他 AI 模型的網路安全能力。」
具體而言,Mythos 能夠:
- 自動掃描軟體系統中的已知和未知漏洞
- 設計利用方案(exploit)來攻擊這些漏洞
- 突破防線的速度可能超過人類資安團隊的修補速度
雙重用途困境
| 角度 | 攻擊(危險) | 防禦(有益) |
|---|---|---|
| 漏洞掃描 | ❌ 駭客找到零日漏洞 | ✅ 企業提前發現並修補 |
| 攻擊模擬 | ❌ 自動化滲透測試被濫用 | ✅ 紅隊測試成本大幅降低 |
| 程式碼審查 | ❌ 找到開源軟體的攻擊面 | ✅ 大規模安全審計人人可用 |
這是典型的「雙重用途(dual-use)」技術——同一個能力既能保護系統,也能摧毀系統。誰先拿到它,誰就有優勢。
市場反應
消息曝光後:
- CrowdStrike、Palo Alto Networks、Zscaler 等資安股價短暫大跌
- 投資者擔憂:如果 AI 能突破防線,現有資安產品還有用嗎?
- 但也有分析師認為:AI 防禦 = 新的市場機會
🏛️ 面向三:洩漏事件本身——Anthropic 的信任危機
發生了什麼
| 時間 | 事件 |
|---|---|
| 3 月底 | CMS 配置錯誤,約 3,000 份機密文件公開 |
| 數小時內 | 獨立安全研究員發現並通報 |
| 同日 | 《Fortune》搶先報導 |
| 隨後 | Anthropic 確認模型存在,關閉公開存取 |
諷刺之處
一家以「AI 安全」為核心使命的公司,卻因為最基本的 CMS 配置錯誤洩露了機密——這對 Anthropic 的品牌造成了多重傷害:
- 技術層面 — 連自家的資訊安全都沒做好?
- 戰略層面 — 最敏感的 AI 能力資訊在公開場合被任何人瀏覽
- 信任層面 — 如果你不能保護自己的秘密,用戶怎麼信任你保護他們的資料?
- 地緣政治 — 這些資訊是否已被對手情報機構取得?
Anthropic 的回應
- 歸因於「人為錯誤」
- 強調模型正在「審慎推出」(deliberate rollout)
- 確認已在洩漏前就向美國政府高層簡報了模型的風險和能力
- 目前僅向少數「網路安全防禦組織」提供早期存取
⚔️ 面向四:AI 軍備競賽——與對手的比較
2026 年 3 月最強 AI 對照
| 模型 | 公司 | 程式設計 | 推理 | 網路安全 | 開源 |
|---|---|---|---|---|---|
| Claude Mythos | Anthropic | ⭐⭐⭐⭐⭐ | ⭐⭐⭐⭐⭐ | ⭐⭐⭐⭐⭐ | ❌ |
| GPT-5.4 | OpenAI | ⭐⭐⭐⭐ | ⭐⭐⭐⭐⭐ | ⭐⭐⭐ | ❌ |
| Gemini Ultra 2.5 | ⭐⭐⭐⭐ | ⭐⭐⭐⭐ | ⭐⭐⭐ | ❌ | |
| DeepSeek V4 | DeepSeek | ⭐⭐⭐⭐ | ⭐⭐⭐⭐ | ⭐⭐⭐ | ✅ |
| Llama 4 | Meta | ⭐⭐⭐ | ⭐⭐⭐⭐ | ⭐⭐ | ✅ |
為什麼 Anthropic 能做到?
Anthropic 的優勢來自幾個方面:
- RLHF 專業 — 公司由多位 OpenAI 前核心研究員創辦,在對齊技術上有深厚基礎
- Constitutional AI — 自家發明的「憲法式 AI」訓練方法,讓模型在遵守規則的同時保持高能力
- 五角大廈爭議 — 拒絕軍事合作反而成為技術信譽的背書
- 資金充裕 — 已獲得超過 150 億美元融資,AI 軍備競賽中不缺彈藥
🔮 面向五:影響與未來——接下來會怎樣?
短期影響(1-3 個月)
| 項目 | 預期 |
|---|---|
| 公開發布 | 可能以「限制存取」方式推出——不是人人都能用 |
| 定價 | 預計高於 Opus($5/$25 per M token),可能 $8-15/$40-75 |
| 對手反應 | OpenAI 和 Google 可能加速自家下一代模型的發布 |
| 監管關注 | 美國政府和歐盟可能要求額外安全評估 |
中期影響(3-12 個月)
- 資安產業重塑 — AI 攻擊 vs AI 防禦的「軍備競賽」正式啟動
- AI 安全標準 — 對具有「危險能力」的 AI 可能出現新的監管框架
- 能力閾值辯論 — 「多強的 AI 才需要特殊管制?」成為核心政策問題
- 開源衝擊 — 如果閉源模型太危險,開源替代品的價值再次提升
對你的影響
如果你是 Claude 用戶:
- 短期內不會有變化——Mythos 的存取受到嚴格限制
- 未來可能以 Max 訂閱方案($100-200/月)提供
- 現有的 Sonnet 和 Opus 仍是主力
如果你是開發者:
- Claude Code 可能率先獲得 Mythos 加持
- 程式設計能力的大幅跳躍意味著 AI 輔助開發進入新紀元
- 關注 Anthropic API 的更新公告
如果你關注 AI 安全:
- 這是迄今最具體的「AI 超越人類防禦者」案例
- 美國 AI 政策是否會因此加速?
- 「能力前線的前沿」和「安全管控的前沿」差距正在擴大
📊 事件時間線
| 日期 | 事件 |
|---|---|
| 2024 年 3 月 | Anthropic 推出 Claude 3 系列(Haiku/Sonnet/Opus 三天王) |
| 2025 年初 | Claude 3.5 Sonnet 成為最受歡迎的 AI 助手之一 |
| 2025 年 9 月 | Anthropic 支付 15 億和解金 |
| 2026 年 3 月初 | Claude Code 和 Computer Use 功能更新 |
| 2026 年 3 月中 | Anthropic 拒絕五角大廈引發法律戰 |
| 2026 年 3 月底 | CMS 洩漏事件——Claude Mythos (Capybara) 曝光 |
❓ FAQ
Claude Mythos 什麼時候能用?
Anthropic 尚未公布正式發布日期。目前僅向少數網路安全防禦組織提供早期存取。根據洩漏文件和 Anthropic 的「審慎推出」策略,最樂觀的估計是 2026 年 Q2-Q3。但由於網路安全能力的敏感性,也有可能採取永久性的「限制存取」模式——不是所有人都能使用。
Capybara 為什麼叫「水豚」?
Anthropic 歷來用動物名稱作為模型代號——之前有 Haiku(不是動物但是個代號)。水豚(Capybara)是世界上最大的齧齒類動物,以溫和友善聞名。選擇這個名字可能有兩層含義:一是暗示這是「最大」的模型,二是 Anthropic 一貫強調的「友善 AI」品牌形象。正式商業名稱 Claude Mythos 中的「Mythos」(神話)則暗示了傳奇級的能力。
這會比 GPT-5.4 強嗎?
根據洩漏的內部評估,Claude Mythos 在程式設計和網路安全方面確實超越了同期的其他模型。但需要注意幾點:(1) 這是 Anthropic 自己的內部評估,可能有偏差;(2) OpenAI 的 GPT-5.4 在某些領域(如多模態理解)可能仍有優勢;(3) 直到第三方獨立基準測試出來前,我們無法做出客觀比較。詳見 GPT-5.4 vs DeepSeek V4 全面比較。
普通人應該擔心嗎?
短期內不需要恐慌。Anthropic 正在嚴格控制存取,而且「能發現漏洞」不等於「會主動攻擊」——模型需要人類指令才會運作。真正值得關注的是長期問題:當越來越多的 AI 具備這種能力,如何確保它們不被惡意使用?這不是個人層面的問題,而是需要產業和政府共同解決的系統性挑戰。
3,000 份洩漏文件還能看到嗎?
不行。Anthropic 在被通報後立即關閉了公開存取。但部分內容已被安全研究員和記者截圖、引用和報導,所以核心資訊已經在公共領域流通。這也是為什麼 Anthropic 選擇「確認模型存在」而非否認——因為否認已經沒有意義。