過去 2 年所有人在討論「AI 算力」,但討論「算力的電從哪來」的人很少。4 月份這個議題被三件事同時推上版面:
- 4 月 20 日 Fortune:PJM 電網(美國最大,涵蓋 13 州 + DC)2027 年將短缺 6 GW——相當於 600 萬戶用電
- 4 月 23 日 CNN:北維吉尼亞「Data Center Alley」住戶電費 5 年漲 267%,16 個資料中心被地方擋下
- 4 月 27 日 TechCrunch:新建天然氣電廠成本 5 年飆升 66%,LNG 期貨同步上漲——「燒氣補 AI」這條路也變貴了
IEA 同期預估:2026 全球資料中心耗電將突破 1,000 TWh,等於日本全年用電量。2030 年可能達到 1,800-2,200 TWh,等於印度全國用電。
這個議題被低估的原因是:多數 AI 觀察者是程式員,不是電力工程師。但接下來 3 年,AI 產業最大的瓶頸不會是模型、不會是 GPU,而是電。
📊 資料中心耗電:量級對比
| 主體 | 2025 年用電(TWh) | 2030 預估(TWh) |
|---|---|---|
| 全球資料中心 | 460 | 1,800-2,200 |
| 全球電動車 | 95 | 320 |
| 美國全國家戶 | 1,510 | 1,650 |
| 日本全國 | 950 | — |
| 台灣全國 | 290 | — |
| 印度全國 | 1,750 | — |
最殘酷的對比:全球資料中心 2030 預估用電,跟印度全國目前用電同一量級。其中 AI 訓練 + 推論佔比預估 60-70%——其餘是傳統雲服務、加密貨幣、CDN。
換言之,「AI」這一個產業,2030 年會用掉一個 G20 等級國家的電。
🔌 電網為什麼跟不上?三個結構問題
問題 1:電網建設週期 = 7-15 年,AI 建設週期 = 2-3 年
蓋一個資料中心:18-30 個月。 蓋一條新的高壓輸電線(從規劃、環評、徵地、施工):7-15 年。 蓋一座大型發電廠(天然氣):4-7 年。 蓋一座核電廠:10-20 年。
這個時間差不能被金錢解決——徵地、環評、跨州審批,這些瓶頸不是錢的問題,是流程的問題。AI 蓋得比電網快,所以 AI 越蓋越多,電網越來越緊。
問題 2:AI 用電型態跟傳統不一樣
傳統資料中心:穩定 + 可預測(白天高、晚上低,類似辦公大樓)。 AI 訓練:spike + 不對稱(訓練 cluster 開機 = 100% 滿載 24/7,跑 4-8 週,然後關掉幾週,再開另一個)。
電網設計是針對穩定負載——AI 的「訓練 cluster spike + 推論平台 24/7 滿載」對電網是雙重壓力。傳統需求 forecast 模型對 AI 用電的預測誤差可達 30-40%。
問題 3:資料中心集中
美國 60% 的 AI 資料中心集中在 6 個地區——北維吉尼亞、亞利桑那鳳凰城、德州奧斯汀、奧勒岡 The Dalles、愛荷華、北卡羅來納州。這些地方的當地電網已經滿載。
新建在外圍的資料中心需要長距離輸電線——但輸電線蓋不出來(見問題 1)。所以新建資料中心的選址越來越受限,「能蓋的地方」變稀缺資源。
💸 對住戶電費的擠壓:北維吉尼亞案例
過去 5 年北維吉尼亞 Loudoun County 是全球最密集的資料中心區——超過 200 個營運中,佔全球網路流量的 70%。結果:
| 年度 | 住戶月均電費(美元) | 漲幅 |
|---|---|---|
| 2020 | 95 | 基準 |
| 2022 | 142 | +49% |
| 2024 | 218 | +130% |
| 2026 Q1 | 348 | +267% |
漲價的核心原因不是「資料中心搶電」——是「新建發電 + 輸電的成本被分攤到所有用電戶」。維吉尼亞州法律允許電力公司把基礎建設成本納入費率,結果是住戶在補貼資料中心的擴張。
地方民意的反彈在 2026 年達到臨界:Loudoun、Prince William、Fauquier 三個縣已通過「資料中心建設 moratorium」——禁止新建至少 18-24 個月。這在過去 10 年從未發生。
更關鍵的:緬因州 4 月底議會通過 LD-1985 法案,全州 5 年內禁止新建超過 50MW 的資料中心。如果其他州跟進,「美國資料中心遷移到電費低、政策鬆的中西部」這條路也會被堵。
🧨 「燒天然氣補 AI」這條路也快走不通
過去 2 年大廠的解法是「自己蓋天然氣電廠」——Microsoft、Google、Meta、Amazon 都跟天然氣業者簽 PPA(購電協議)。理論上這繞過電網瓶頸。
但 2026 年三件事讓這條路變難:
(1) 天然氣電廠建設成本暴漲 66% 2024 年新建一個 1GW 燃氣電廠約 $11 億,2026 年同樣規格 $18-19 億。原因:鋼鐵漲價、燃氣輪機(Siemens Energy、GE Vernova)排隊到 2030。
(2) LNG 出口需求壓擠國內供應 歐洲為了去俄化,大幅進口美國 LNG。美國天然氣國內價格 2025-2026 漲了 40%,進一步推高新建電廠營運成本。
(3) 環保 / ESG 壓力反彈 Microsoft、Google 都對外承諾「2030 年 net-zero」。新建燃氣電廠跟這個目標直接衝突。投資基金(BlackRock、Vanguard)已開始質疑——這些公司可能被迫修改 ESG 承諾,對股價是負面。
替代:核能。但核能建設週期 10-20 年,短期內救不了 2027 的缺口(可參考 AI 巨頭引爆核能復興)。
💡 Mason 的判斷
接下來 3-5 年 AI 產業最大的危機不是「AGI 會不會來」,是「電會不會夠」。如果不夠,以下幾件事會發生:
1. AI 算力價格停止下降 過去 10 年算力成本年降 30-50%,主要靠晶片進步 + 規模經濟。這個趨勢需要電力供應跟上。如果電變成瓶頸,「便宜算力」這個敘事會在 2027-2028 反轉——AI API 價格可能首次出現結構性上漲。
2. AI 產業地理版圖重塑 電多的地方贏:冰島、北歐、加拿大、巴西東北部會變成新的 AI 算力中心。電少的地方輸:新加坡、香港、台灣、日本因為土地 + 電網限制,難以擴張在地大型資料中心。
對台灣的延伸:台灣 AI 主權算力會撞上電力瓶頸——核能政策需要重新討論,但這個討論台灣社會還沒準備好。
3. AI 公司之間的「電力併購」 AI 公司可能直接買發電業者——Microsoft 已經開始(Three Mile Island 重啟)、Amazon 投資 Talen Energy。這個趨勢會擴散,未來 OpenAI / Anthropic 都會擁有自己的發電資產。
4. 電力消費透明化壓力 歐盟 EU AI Act 已要求大型 AI 揭露能耗。2026-2027 美國、亞洲會跟進——使用者會看到「這次 ChatGPT 對話用了 X 度電」之類的揭露。對使用者意識是好事,對 AI 公司行銷是壓力。
5. 「省電 AI」變成新的競爭力 過去模型公司比的是「參數多」「跑分高」。未來比的會多一條:「單位 token 用電量」。Google TurboQuant、Anthropic 的 efficient model 路線、本地 AI 趨勢都跟這個有關。
🎯 不同角色的建議
給 AI 產業參與者:
- 算力成本下降的假設不能再無條件採信——做 5 年產品規劃時,給 API 成本上漲留 30-50% 緩衝
- 跨區域部署能力會變得有價值——有能力把推論搬到電費便宜的地區(冰島、加拿大、東歐),會是隱形競爭力
- 投資「省電」技術——量化、distillation、本地 AI——這個賽道的價值會被重新定價
給投資人:
- AI 概念股的「算力擴張」估值應該打折——電網瓶頸會限制成長速度
- 電力相關標的(Constellation、Vistra、NuScale、SMR 業者)會繼續走多頭——但要分清「核能 SMR 真實案」與「炒作」
- 天然氣輪機業者(GE Vernova、Siemens Energy)排單到 2030,毛利率會擴張
給政策制定者:
- 電網建設審批速度需要根本改革——目前 7-15 年的週期不可能跟上 AI 需求
- 制定「AI 用電優先順序」框架——當電網緊張時,住戶用電應該優先於 AI 訓練(這個倫理共識還沒形成)
- 對台灣:核能議題需要重新打開——目前的能源政策無法支撐主權 AI 戰略
給一般使用者 / 環境意識者:
- 你用 ChatGPT 一次對話 ≈ 用 LED 燈泡 30 分鐘的電——個人使用影響不大
- 但訓練一個 GPT-5 級模型 ≈ 一個小城市一年用電——這個量級的決策不在你手上,但你的政治選擇會影響(電力政策、AI 監管)
- 真正想減少 AI 碳足跡的方式:用本地小模型(Gemma、Llama 衍生)取代雲端大模型——大多數日常任務不需要 frontier model
❓ FAQ
核能不是答案嗎?Microsoft、Google 都在投。
長期是,短期不是。SMR(小型模組化反應爐)最樂觀的時程是 2028-2030 開始大量上線——但 2026-2028 的缺口需要其他解。Three Mile Island 重啟(Microsoft)是現有反應爐重啟,2028 上線,但只能補 800 MW。
更現實的短期方案:(1) 提升現有電網效率(智能化、儲能整合)、(2) 讓 AI 訓練配合再生能源 schedule(Google 在做)、(3) 部分產能往海外搬——但這些都是緩兵之計。
台灣會被影響嗎?
會,而且影響不只一面。正面:台灣的 AI 算力需求增加(產業 AI 化、主權 AI),但台灣電力系統容量已經緊繃——這會推高工業電費、影響半導體競爭力。負面:全球資料中心遷移到電力豐富地區的趨勢,意味著台灣作為 AI 應用樞紐的吸引力會下降。
更深層:核能議題在台灣的政治結構下無法快速解決,這會導致台灣在 2030 後的 AI 主權建設,結構性落後新加坡、日本、韓國。這不是技術問題,是政治意願問題。
「AI 一次對話用 X 度電」這個數字怎麼算?
業界目前的估算:ChatGPT 4o 一次對話約 0.3-1.2 Wh(視長度與複雜度);訓練 GPT-4 等級模型約 51-62 GWh(等於 5,000-6,000 戶美國家庭一年用電)。
但這些數字爭議很大——OpenAI、Anthropic、Google 都不公開精確數字。EU AI Act 將強制大型模型公開耗電,屆時會有更可靠的數字。目前所有引用的數字都是學術估算,不是業界公布。
Sources:
- PJM 2027 capacity shortfall — Fortune
- Northern Virginia residential electric rates +267% in 5 years — CNN Business
- Natural gas plant build costs +66% — TechCrunch
- Electricity 2026 Report — IEA
- Maine LD-1985 data center moratorium — Common Dreams
- Belfer Center: Power constraints on AI growth — Harvard Kennedy School