阿里巴巴 2026 年 4 月 20 日發表 Qwen3.6-Max-Preview,在 6 項程式碼 benchmark 登頂,但首次採用閉源、僅 API 提供的模式——同一天,Qwen Code 免費層也關閉。這不是單一發表事件,是中國頂規開源陣營第一次公開轉向。
🔒 先把事實講清楚
- 發表日期:2026 年 4 月 20 日
- 定位:Qwen3.6 家族最頂級,Preview 版、閉源、僅走 Alibaba Cloud API
- 同日動作:Qwen Code(官方 CLI)免費層終止
- Benchmark:六項第一——SWE-bench Pro、Terminal-Bench 2.0、SkillsBench、QwenClawBench、QwenWebBench、SciCode
- 殺傷力數字:QwenWebBench ELO 1558,Claude Opus 4.5 僅 1182
- 規格:260K context、OpenAI + Anthropic 雙規格 API 相容、新增
preserve_thinking(多輪 agent 任務保留推理鏈) - 沒有的東西:視覺輸入、開放權重、本地部署
重點不是「Max 跑分多強」——而是阿里第一次把旗艦擋在 API 後面。Qwen2、Qwen3、Qwen3.5 全系列都曾開源,包括本月 4/16 才剛開源的 35B-A3B。但 Max 這條線,現在關起來了。
⚡ 三個值得注意的訊號
1. 開源的「天花板」被明確切掉
阿里的策略變成:中小型模型繼續開源(27B、35B-A3B 還在 HuggingFace),旗艦留在 API。這是 OpenAI 與 Anthropic 用了兩年的劇本——用開源養社群、用閉源做營收。
對使用者意味什麼?你可以繼續用 Qwen 35B-A3B 做本地推論,但想用到最強版本就得付 API 錢。過去「Qwen = 免費頂規」這個等式,從 4/20 起不再成立。
2. 不是只有阿里這樣做
MiniMax 在 4 月稍早重寫 M2 系列授權,要求商用需書面授權——這等於把原本的「Apache 2.0 隨便用」改成半閉源。兩家同期同向動作,不是巧合。
更深的背景:2026 年 4 月中美 AI IP 戰升級,美方開始追討「用 GPT-4 輸出做訓練資料」的中國模型。阿里改閉源一部分是防蒸餾——權重不公開,別人沒辦法輕易做 distillation。
3. QwenWebBench 1558 vs Claude Opus 4.5 1182
這個差距很嚇人,但要拆解看。QwenWebBench 是阿里自訂的網頁操作 agent 測試——自家 benchmark 自家模型拿高分,要打問號。
真正中立的 SWE-bench Pro 上,Max 的領先幅度明顯小很多(個位數 pts)。所以結論是:Max 在自家定義的 agent 場景可能真的強,但「全面超越 Claude」是行銷敘事。實際用起來,仍要看你的具體工作流。
💡 Mason 的判斷
這是中國開源陣營的關鍵轉折,但不是「開源已死」。
真的部分:
- 頂規開源模型 vs 頂規閉源模型的差距會繼續存在,可能還會拉大
- 阿里、MiniMax 轉向代表「免費頂規」時代結束——免費的會是中小型模型,頂規要付錢
- 中國 AI 產業開始走向美國 playbook:開源做品牌、閉源做營收
兩邊都有理的灰色地帶:
支持這波轉向合理:AI 訓練成本天文數字,沒有營收模式不可能長期做下去。阿里 / MiniMax 過去兩年「用愛發電」已經是奢侈品。從商業邏輯看,閉源旗艦 + 開源中小型是目前最可持續的組合。
反對這波轉向的也有理:開源社群(Llama、Mistral、Qwen 早期)是整個行業崛起的底座。如果頂規永遠閉源,未來所有的 agent、工具、應用都會被少數公司卡脖子。這是過去一年大家警惕的「API 封建主義」。
Mason 的立場:我不選邊,但會提醒一件事——當免費頂規消失,你的產品 / 工作流如果之前靠 Qwen 旗艦跑,現在就面臨成本重估。這個決策不能拖。
🎯 給不同角色的實際動作
給企業主:
- 如果你之前用 Qwen 3.5 / 3.6 免費層做內部工具,2026 下半年重新評估成本。可能的組合:(a) 付 Max API 費用、(b) 降級用 35B-A3B 本地部署、(c) 換用仍開源的 DeepSeek / Mistral 家族
- 不要對「開源頂規」有 religious commitment——對你的業務來說,穩定、可預期成本、合規才是真訴求。閉源 API 只要便宜且穩定,用起來沒差
- 台灣企業特別注意:用阿里 API 涉及資料跨境,敏感業務資料不要走 Qwen Max。建議敏感場景留給本地開源、一般場景再考慮 API
給開發者:
- 「學一次 Qwen 就能在所有 size 上用」的時代結束——旗艦 Max 和開源 35B-A3B 在能力與行為上會逐步分化
- OpenAI + Anthropic 雙規格 API 相容是個大賣點,代表你可以把 Qwen Max 當 Claude 替補接進現有 pipeline。這是阿里想搶走 Anthropic 客戶的明牌
- 如果你在做開源本地 LLM 工作流,反而該更積極跟進 Qwen 35B-A3B、27B、Gemma 4 這類開源頂標——這塊的競爭反而更熱,因為各家知道頂規閉源後,開源中段會變成新戰場
給內容觀察者:
- 別寫「開源已死」這種標題——中小型開源反而進入黃金時代,因為大廠都在這層練手
- 真正的故事是「Tier 分化」:旗艦閉源、中型開源、小型社群蒸餾。這三層各自的商業邏輯不同,別混為一談
❓ FAQ
我之前用 Qwen 免費跑得好好的,現在該怎麼辦?
先確認你用的是哪個版本:
- Qwen 2.5、Qwen 3、Qwen 3.5、Qwen 3.6-35B-A3B / 27B:權重還在,Apache 2.0,可繼續免費商用
- Qwen Code CLI 免費層:4/20 起終止,要改付費或改用社群維護的替代
- Qwen 3.6-Max / Plus:閉源 API 付費
大部分人受影響的其實是 Qwen Code 這個 CLI 工具,不是模型本身。模型你可以繼續本地跑。真正要擔心的是:Qwen 未來會不會把下一代的開源時程拖慢、只開中段——這個趨勢 12 個月內會明朗。
Qwen Max 的 6 項 benchmark 第一,真的值得相信嗎?
看每項的性質:
- 中立 benchmark(SWE-bench Pro、Terminal-Bench 2.0、SciCode):領先幅度不大但可信
- 阿里自訂 benchmark(QwenClawBench、QwenWebBench):自家模型自家測,不能當客觀指標
QwenWebBench 那個 1558 vs Claude Opus 4.5 的 1182,是最容易被媒體抓的頭條數字,但這是自家測驗。真正要比,建議看獨立第三方評測(LMSys、Artificial Analysis),那裡目前 Max 還沒上榜,等幾週再看。
這波「開轉閉」會不會傳染到 DeepSeek、Mistral?
短期不會,中長期有壓力。
- DeepSeek:背後金主不靠 API 賺錢(幻方量化),開源動機純粹,短期不會轉
- Mistral:歐盟 AI Act 推動「主權 AI」,開源是政治資產,短期也不會轉
- 但長期:當訓練成本繼續放大(前沿模型 5 億美元起跳),所有純開源玩家都會面臨「怎麼活下去」的問題
合理預測:頂規閉源 + 中型開源會變成全行業共識,不只是阿里 / MiniMax。真正的開源頂規只會出現在「有其他金主」的玩家身上——學術機構、國家專案、非主流金融資本。
台灣開發者現在該學 Qwen 還是 Claude / GPT?
都要,重點是定位不同:
- Qwen(尤其開源中型):本地部署、資料不出境、成本可控的場景主力
- Claude / GPT:需要頂尖推理、多模態、最新能力的對外產品
- Qwen Max API:在 Anthropic 相容規格下當作 Claude 替補,用來做成本對沖
台灣這邊最務實的組合:對內工具用 Qwen 35B-A3B 本地跑(資料不出島),對外產品用 Claude / GPT 確保品質,Qwen Max API 備著做切換。別押單一模型,也別迷信開源或閉源。
Sources:
- Alibaba Drops Qwen 3.6 Max Preview — Decrypt
- Qwen3.6-Max-Preview Review: 6 Benchmark #1s, Closed-Weights Shift — TokenMix
- Alibaba Ships Third Closed-Source AI Model in Profit Pivot — Implicator
- Qwen3.6-Max Preview: Coding SOTA + Closed-Weights Pivot — Digital Applied
- Qwen3.6-Max-Preview: Benchmarks, API & Review — BuildFastWithAI