回到頂部

🚨 Claude Code 原始碼意外裸奔:50 萬行機密流出,揭開 Anthropic 的秘密模式

2026 年 3 月底,Anthropic 官方 CLI 工具 Claude Code 發生嚴重打包失誤,導致超過 50 萬行 TypeScript 核心程式碼外洩。包含備受爭議的「偽裝模式」與未公開模型代號全遭看光。這對 AI 業界帶來了什麼震撼?

Claude Code 原始碼意外裸奔:50 萬行機密流出,揭開 Anthropic 的秘密模式

🚨 什麼是 Claude Code 洩漏事件?

2026 年 3 月 31 日,資安研究員 Chaofan Shou 在 GitHub 與 X(推特)上拋出了一枚震撼彈:Anthropic 官方發布的 AI 開發工具 @anthropic-ai/claude-code 竟然不小心把自家的「原始碼完整打包」上傳到了公開的 npm 倉庫中。

💡 1 分鐘理解 這不是駭客攻擊,而是一個超低級的**「打包失誤(Packaging Error)」**。

正常的軟體發布:將寫好的程式碼「壓縮混淆(Minify)」後,變成機器才看得懂的一大坨亂碼再發布給大眾。 💣 這次發生的慘劇:Anthropic 的 DevOps 團隊在發布 2.1.88 版本時,不小心把用來除錯的 .map (Source Map) 檔案一起包進去了。這相當於把「亂碼翻譯成人類可讀原始碼的字典」直接白送給了全世界。結果,近 2,000 個檔案、多達 51.2 萬行純淨無比的 TypeScript 程式碼,就這樣在網路上「裸奔」。


🏗️ 這次洩漏我們看到了什麼?(社群深度挖掘)

這起事件引起了 Reddit 與 GitHub 開源社群的「尋寶狂歡」。這是開發者第一次能以「上帝視角」完整檢視頂級 AI Agent 的底層血肉架構。社群在程式碼中挖出了許多令人驚嘆的細節,包含正面平反與負面爭議:

發現亮點原始碼細節帶來的產業衝擊與意義
🟢 平反:證明沒有「偷換模型」過去 Reddit 上常有陰謀論,懷疑官方會偷偷把昂貴的 Opus 請求降級成便宜的 Sonnet 來省成本。但在原始碼的呼叫邏輯中,證實了 Anthropic 完全沒有偷偷降級模型的行為(正面) 為 API 供應商的誠信做了一次完美的「免費背書」,大幅提升了開發者對其系統後台的信任度。
🕵️‍♂️ 爭議:偽裝模式(Undercover Mode)程式碼內有一段特殊邏輯,指示 Claude 在參與 GitHub 討論時要刻意刪除 AI 標記的後設資料,並**「避免透露自己是 AI」**。(負面) 引發了社群對「AI 道德與透明度」的嚴重質疑。這等於官方提供了讓 AI 假裝成真人工程師在社群中混充的內建選項。
🛡️ 競爭防禦:反蒸餾(Anti-Distillation)機制程式碼內建了專門干擾競爭對手爬取資料的防禦機制。它會在背景塞入「誘餌工具(Decoy Tools)」,並故意把思考鏈(Reasoning Chains)「摘要閹割」後再輸出。(大開眼界) 這揭露了 AI 巨頭如何煞費苦心防範對手「偷師」他們的推理邏輯來訓練其它模型,展示了極高竿的商戰防衛戰術。
🧠 階級差距:內部員工專屬特權Claude Code 的系統提示詞(System Prompts)是在本地動態組裝的。程式碼揭露了只要身分驗證為內部員工(USER_TYPE === 'ant'),就能解鎖完全獨立且無限制的強大 Prompt 與隱藏功能。(中性) 證實了都市傳說:「對外發售的商業版」與「公司內部研發用的未對齊版」在 AI 智商與權限上確實有著嚴格的鴻溝。
🚀 未來藍圖:ULTRAPLAN 與 Buddy洩漏代碼中包含了專門處理 30 分鐘以上複雜協作任務的 ULTRAPLAN 模式,以及一個計畫類似電子雞(Tamagotchi)陪伴功能的 Buddy 系統。(正面) 雖然是不小心外流,但也成功替 Anthropic 接下來在 2026 下半年即將端出的殺手級功能,做了一波史無前例的免費預熱。

🛡️ 多面向分析:這是危機,還是變相開源?

雖然原始碼被看光,但我們必須釐清這事件的本質。從多個不同的利益關係者角度來看,這件事的影響各有不同:

1. 資安與 DevOps 視角:連巨頭都會犯的低級錯誤

許多開發者對此會心一笑。因為 Source Map 外洩(CWE-540)是 Web 開發史上最古老、最常見的意外。這證明了不論一間公司有多少 AI 天才、防護多嚴密,最終的 CI/CD 流程只要少寫一條 .npmignore 規則,還是會引發災難。這也給全球企業敲響了警鐘:傳統的前端/後端安全規範,在 AI 部署管道上同樣重要。

2. 官方回應:用戶資料安全無虞

Anthropic 官方在事發後火速回應並撤下該版本的 .map 檔。官方強調兩點關鍵防線並未被突破:

  • 使用者的對話紀錄與隱私資料絕對安全(因為洩漏的是 Client 端的工具原始碼,並非後端資料庫)。
  • 其最核心的 Claude 模型權重(Model Weights)與訓練數據並未洩漏(這些東西一直鎖在堅固的雲端機房裡)。

3. 開源社群:一場免費的高階架構教學

對 AI 工具開發者來說,這是一個「教科書級別」的學習機會。我們第一次看到了一家估值百億美金的公司,是如何處理 Token 截斷、如何設計系統提示詞(System Prompts)注入,以及如何優雅地管理終端機權限。這場「意外開源」,無形中反而大幅推進了整個 Agent 生態系的發展速度。

4. 陰謀論視角:這是一場精心策劃的「公關行銷」?

Reddit 上也有一派聲浪強烈認為這可能是一場**「200 IQ 的教科書級行銷操作」**(故意洩漏)。因為整起事件中,「剛好」沒有洩露任何核心模型權重(Weights),「剛好」沒有觸及任何用戶隱私,但卻「剛好」向全球展示了他們極具前瞻性的 Agent 程式碼架構、幫未來準備上線的 ULTRAPLAN 產品打滿了免費預熱廣告、甚至「無意中」替他們平反了沒有偷換模型的謠言。這場名為資安危機、實為底層肌肉展示的劇本,不僅沒有釀成實質災情,反而讓 Anthropic 在開源社群中的公信力與聲量都達到了全新高峰。

→ 了解更多 AI 自動化架構:Agentic AI:從「回答問題」到「自主做事」


❓ FAQ

我的 Claude 帳號會有被盜或被駭的風險嗎?

完全沒有風險。 這起事件洩漏的是軟體的「設計圖(原始碼)」,而不是任何人的密碼鑰匙(Credentials)或個人隱私資料。對於一般使用 Claude 網頁版或 API 的用戶來說,不受任何影響。

什麼是 Source Map?為什麼它會造成洩漏?

當我們寫好程式碼準備上架時,為了讓檔案變小且難以被別人偷看,系統會把程式碼壓縮成「一堆只有電腦懂的亂碼(例如變數 abc 變成 a)」。但工程師為了以後抓 Bug 方便,會產生一份 Source Map(解碼地圖)。Anthropic 就是不小心把這份「藏寶圖」連同產品一起包裝送出去了,大家拿到寶圖,自然就能把程式碼還原回原本乾淨、帶有註解的模樣。

官方提到的 Undercover Mode (偽裝模式) 是怎麼回事?

這是在原始碼中被挖出的一個功能標籤。該邏輯會要求 AI 在進行程式碼提交或是在 GitHub 等開源社群留言時,盡量使用像是人類工程師的語氣,並「隱藏」其身為 AI 程式碼編輯器的身分。目前 Anthropic 官方尚未對此功能的道德爭議做出最終的明確解釋,但已引發網路上對於「AI 分身」參與開發的各種討論。

📚 延伸閱讀