4 月 16 日 OpenAI 發表 GPT-Rosalind——一個專注生物學 / 蛋白質 / 藥物分子設計的多模態模型,性能在多個 benchmark 上勝過 AlphaFold 4 與 RoseTTAFold All-Atom 3。但發布同時公告了一個過去 OpenAI 從未對「通用 AI 模型」採用的策略:
「GPT-Rosalind 將不對外公開 API、不開源、不釋出權重。僅透過受審核的『trusted access program』,提供給 Amgen、Moderna、Vertex Pharmaceuticals、Allen Institute、Broad Institute 五個合作機構。」
8 天後 4/24,DeepSeek V4 也釋出生物學專業版 V4-Bio——完全開源、權重公開、API 免費。同期 Stability AI 開源 MoleculeFlow 7B(分子生成)。
兩邊哲學分歧在 2026 年 4 月正式定型:西方走「太危險所以不發布」,東方走「全部開源」。這不是新聞片段,這是 AI 治理路線在生技領域的首次正面對撞。
📊 Trusted access vs 開源:兩條路線的對比
| 項目 | GPT-Rosalind(封閉) | DeepSeek V4-Bio(開源) |
|---|---|---|
| 能力 | AlphaFold 4 +5%、可生成新分子 | 接近 GPT-Rosalind,少 3-7% |
| 取得門檻 | 審核 6 個月,只給 5 個機構 | 任何人 HuggingFace 下載 |
| 能否做雙重用途研究(治療 + 生化武器設計) | 理論可,但訪問受監控 | 理論可,沒有監控 |
| 學術研究使用 | 大學基本拿不到 | 全球任何研究者可用 |
| 第三方審計 | OpenAI + Anthropic + Apollo Research | 無正式審計機制 |
| 與監管溝通 | 跟 NIH、EMA、FDA 合作 | 中國科學院 + 國家藥監局 |
兩個重點:
(1) 能力差距小——DeepSeek V4-Bio 跟 GPT-Rosalind 在大部分 benchmark 差距小於 7%。「保密」並沒有提供顯著的能力護城河——只要中國 lab 持續開源,能力很難長期鎖住。
(2) 取得不對等——只給 5 個機構的策略,意味著美國中小藥廠、學術機構、開發中國家研究者都拿不到。這個分配本身就是個倫理問題:「太危險不能給你」這個邏輯,聽從者有時會反問:「那為什麼能給 Amgen?」。
🧬 「太危險」的真實風險評估
OpenAI 給 GPT-Rosalind 鎖在 trusted access 的官方理由是「dual-use risk(雙重用途風險)」——擔心模型被用來:
- 設計新型生物毒素(類似炭疽、肉毒桿菌等級的病原體)
- 改造已知病毒提升傳染性 / 致命性
- 繞過現有疫苗 / 治療
- 設計化學武器分子
這個風險不是空想——MIT 2024 年研究顯示,GPT-4 已可給出「設計增強感染力的 H5N1 變體」的詳細步驟,只是當時模型沒實際生成 3D 結構。GPT-Rosalind 與 V4-Bio 都跨過了那個門檻:它們可以從文字描述直接生成可實驗合成的分子。
但「鎖在 5 個機構」真的能避免風險嗎?三個質疑:
(1) 開源等價物存在——既然 DeepSeek V4-Bio 已開源,任何想做壞事的人都可以從那邊拿到 90% 的能力。GPT-Rosalind 的封閉只是「讓 OpenAI 自己能說沒參與」,不是真的阻止了風險
(2) 5 個機構也有員工流動——這 5 家加起來幾萬名研究員,只要其中一人外洩,封閉策略就崩潰。Anthropic Claude Mythos 早就示範過這個劇本
(3) 真正的風險來自「合成能力」,不是「模型可訪問性」——能設計出致命病毒,還需要 BSL-4 實驗室、特殊試劑、合成生物學基礎設施。這些門檻才是真實的攔阻,模型只是其中一環
換言之,「trusted access」這個策略,主要的功效是「法律 / 公關保護」,不是「生物安全」。OpenAI 不希望自己的模型出現在下一個生物恐攻新聞裡——這是合理的企業利益,但不該被包裝成「全人類安全」。
🌐 東西方分歧的深層邏輯
為什麼中國 lab 願意開源高風險模型,西方 lab 鎖起來?幾個原因:
(1) 風險承擔者不同 美國 AI lab 怕的是「被告 + 國會聽證 + 股價跌」——封閉化是降低法律暴險。中國 lab 怕的是「政府不開心」——只要符合國家科技自主戰略,風險由國家承擔,個別 lab 反而獲鼓勵開源。
(2) 對「軟實力」定位不同 OpenAI、Anthropic 把自己定位為「全球 AI 治理的負責任領導者」——這個品牌價值要求保守。DeepSeek、Qwen 把自己定位為「對抗西方 AI 霸權的開源旗手」——開源本身就是品牌價值。
(3) 對「民主化研究」的不同詮釋 西方版本:「民主化 = 安全 + 公平 + 多方共治」(實際上常變成「少數可信機構共治」)。東方版本:「民主化 = 全人類能用」(實際上常變成「包括壞人也能用」)。
兩邊都不是道德高地——兩邊都有自己的利益盲點。真正的智慧是承認這兩種路線都會繼續存在,然後設計治理機制來管控雙方的副作用。
🧪 對藥物研發的實際影響
這個議題不只是治理辯論——實際藥物研發已經開始受影響:
正面:
- 5 個 trusted access 機構在 6 月-12 月會跑出顯著的研發加速結果
- Amgen、Moderna 的合作協議是「新藥候選分子設計時間從 18 個月縮到 4-6 週」
- 預期 2027-2028 上市的新藥中,將有 5-8 款是 GPT-Rosalind 設計的
負面:
- 全球 95% 的藥物研發機構(包括台灣中研院、生技公司、大學實驗室)拿不到 trusted access
- 醫藥落後地區(印度、東南亞、非洲)完全無法參與——這加劇了醫療資源不平等
- 學術研究會被迫「用 DeepSeek V4-Bio 替代」——但中國模型有不同的訓練資料偏誤,可能在某些罕見疾病(西方資料豐富、中國資料少)上效果不如預期
💡 Mason 的判斷
「太危險所以不發布」這個敘事正在成為西方 AI lab 的標準操作——Claude Mythos、GPT-Rosalind、未來可能還有更多。我對這個趨勢的看法是保守支持但提高警覺。
保守支持的理由:有些能力(生物武器設計、自主網路攻擊、大規模社交工程)的下行風險真實存在,完全開放確實有問題。Anthropic 對 Claude Mythos 的處理示範了「先補洞再發布」是合理的。
提高警覺的理由:這個敘事很容易從「真實安全考量」滑向「商業護城河 + 公關保護」。判斷的關鍵是:
- 這個能力真的明顯比開源等價物強嗎?如果不是,封閉只是 PR
- Trusted access 的審核標準透明可審計嗎?還是 lab 自己說了算?
- 是否有第三方獨立審計?
- 學術界、公衛機構、開發中國家研究者有合理的取得管道嗎?
對 GPT-Rosalind 的具體評估:能力比 V4-Bio 高 3-7%(不顯著)、審核標準不透明、第三方審計只有 Apollo Research 一家、學術機構基本沒辦法用。評估結果偏「護城河 + 公關」,不是真實安全考量。
對台灣的延伸:台灣生技業在這個議題上是雙重不利——美國模型拿不到(中研院、生技中心都不在 trusted access 名單)、用中國模型有政治風險(資料合規、地緣政治)。這意味著 2026-2028 台灣的 AI 製藥能力會結構性落後——這個議題政府需要正視。
🎯 不同角色的建議
給生技業 / 製藥業:
- 如果你不在 trusted access 名單,短期接受 V4-Bio + MoleculeFlow 是合理選擇——不要等待西方模型開放
- 跟 trusted access 機構建立合作關係——大藥廠的 sub-licensing 是繞過 OpenAI 直接限制的方式
- 投資內部資料 + fine-tune 能力——通用模型的能力上限不是天花板,專業領域 fine-tune 可以彌補
給學術研究 / 公共衛生:
- 跟 V4-Bio 的中國研究者建立合作管道——這是政治敏感但學術有價值的選項
- 推動本國 / 區域層級的「公共生技 AI」——歐洲、英國、加拿大都已有類似計畫,台灣應該跟進
- 對「封閉 = 安全」的敘事保持批判——這個論述可能傷害學術自由
給政策制定者:
- 「Trusted access 制度設計」是 2026-2027 的關鍵政策議題——台灣應該主動爭取進入這類國際合作,而不是被動等待
- 對開源生技模型(V4-Bio、MoleculeFlow)應該設計「安全使用框架」——不能放任使用,但也不能直接禁止
- 公部門生技 AI 投資應該優先「公共資源」——讓大學、醫院、研究機構都能取得
給 AI 治理 / 倫理觀察者:
- 「東西方 AI 治理分歧」會在 2026-2027 進入新的對峙階段——這個議題比目前媒體討論的多元
- 留意「第三條路」的可能——例如國際公衛組織(WHO、CEPI)主導的 trusted access、或學術聯盟(MIT、Stanford、Karolinska)的共享機制
- 對「封閉化的安全敘事」進行批判性審視——多數情況下,真實動機是混合的
❓ FAQ
GPT-Rosalind 真的能設計新藥嗎?還是只是行銷?
真的可以——但「設計」是早期環節,離「FDA 批准的新藥」還很遠。GPT-Rosalind 可以做的:給定疾病靶點,生成 100-1000 個候選分子,並標記哪些有最可能的成藥性、毒性、可合成性。
但接下來的步驟仍需要:(1) 體外實驗驗證(6-12 個月)、(2) 動物實驗(1-2 年)、(3) 三期臨床(5-7 年)、(4) FDA 審批(1-2 年)。AI 加速的是第一步,整體上市時程從 12-15 年縮到 8-10 年——是改善,不是革命。
可參考早安健康前年的 AI 製藥 2026 文章。
真的有人會用 AI 設計生物武器嗎?
理論上有可能,實際上仍非常困難。能設計新型生物毒素的人不是只需要 AI——還需要:(1) 高階分子生物學博士級知識、(2) BSL-3/BSL-4 實驗室訪問、(3) 特殊合成試劑(很多受國際公約管制)、(4) 資金 $1M+、(5) 培養與測試的隱蔽性。
過去 30 年生物武器恐攻案例極少(炭疽郵件案、Aum Shinrikyo 失敗的炭疽嘗試),主因是執行門檻高,不是「沒人想做」。AI 降低了「設計」的門檻,但其他門檻仍在——整體可行性提高,但不是質變。
那 V4-Bio 開源真的會出事嗎?
短期不會,長期難說。短期(2-3 年)風險低,因為:(1) 真的能用它幹壞事的人本來就有別的管道、(2) 多數使用者是學術 / 商業研究、(3) 國際生物安全公約(BWC)仍在運作。
長期(10+ 年)風險不確定,因為:(1) AI 生物學能力會繼續加速、(2) 合成生物學基礎設施成本下降、(3) 國際局勢可能惡化。現在開源是合理選擇,但需要持續監控風險演變——這個動態評估比靜態的「開或鎖」二分更重要。
Sources: