回到頂部
AI 資料中心吃掉電網:PJM 2027 缺 6GW、住戶電費漲 267%

AI 資料中心吃掉電網:PJM 2027 缺 6GW、住戶電費漲 267%

IEA 預估 2026 全球資料中心耗電破 1,000 TWh,等於日本全年用電。PJM 2027 缺 6GW、緬因州考慮禁建——AI 投資狂熱正撞上電網的物理上限。

過去 2 年所有人在討論「AI 算力」,但討論「算力的電從哪來」的人很少。4 月份這個議題被三件事同時推上版面:

  • 4 月 20 日 Fortune:PJM 電網(美國最大,涵蓋 13 州 + DC)2027 年將短缺 6 GW——相當於 600 萬戶用電
  • 4 月 23 日 CNN:北維吉尼亞「Data Center Alley」住戶電費 5 年漲 267%,16 個資料中心被地方擋下
  • 4 月 27 日 TechCrunch:新建天然氣電廠成本 5 年飆升 66%,LNG 期貨同步上漲——「燒氣補 AI」這條路也變貴了

IEA 同期預估:2026 全球資料中心耗電將突破 1,000 TWh,等於日本全年用電量。2030 年可能達到 1,800-2,200 TWh,等於印度全國用電

這個議題被低估的原因是:多數 AI 觀察者是程式員,不是電力工程師。但接下來 3 年,AI 產業最大的瓶頸不會是模型、不會是 GPU,而是電

📊 資料中心耗電:量級對比

主體2025 年用電(TWh)2030 預估(TWh)
全球資料中心4601,800-2,200
全球電動車95320
美國全國家戶1,5101,650
日本全國950
台灣全國290
印度全國1,750

最殘酷的對比:全球資料中心 2030 預估用電,跟印度全國目前用電同一量級。其中 AI 訓練 + 推論佔比預估 60-70%——其餘是傳統雲服務、加密貨幣、CDN。

換言之,「AI」這一個產業,2030 年會用掉一個 G20 等級國家的電


🔌 電網為什麼跟不上?三個結構問題

問題 1:電網建設週期 = 7-15 年,AI 建設週期 = 2-3 年

蓋一個資料中心:18-30 個月。 蓋一條新的高壓輸電線(從規劃、環評、徵地、施工):7-15 年。 蓋一座大型發電廠(天然氣):4-7 年。 蓋一座核電廠:10-20 年

這個時間差不能被金錢解決——徵地、環評、跨州審批,這些瓶頸不是錢的問題,是流程的問題。AI 蓋得比電網快,所以 AI 越蓋越多,電網越來越緊。

問題 2:AI 用電型態跟傳統不一樣

傳統資料中心:穩定 + 可預測(白天高、晚上低,類似辦公大樓)。 AI 訓練:spike + 不對稱(訓練 cluster 開機 = 100% 滿載 24/7,跑 4-8 週,然後關掉幾週,再開另一個)。

電網設計是針對穩定負載——AI 的「訓練 cluster spike + 推論平台 24/7 滿載」對電網是雙重壓力。傳統需求 forecast 模型對 AI 用電的預測誤差可達 30-40%

問題 3:資料中心集中

美國 60% 的 AI 資料中心集中在 6 個地區——北維吉尼亞、亞利桑那鳳凰城、德州奧斯汀、奧勒岡 The Dalles、愛荷華、北卡羅來納州。這些地方的當地電網已經滿載

新建在外圍的資料中心需要長距離輸電線——但輸電線蓋不出來(見問題 1)。所以新建資料中心的選址越來越受限,「能蓋的地方」變稀缺資源


💸 對住戶電費的擠壓:北維吉尼亞案例

過去 5 年北維吉尼亞 Loudoun County 是全球最密集的資料中心區——超過 200 個營運中,佔全球網路流量的 70%。結果:

年度住戶月均電費(美元)漲幅
202095基準
2022142+49%
2024218+130%
2026 Q1348+267%

漲價的核心原因不是「資料中心搶電」——是「新建發電 + 輸電的成本被分攤到所有用電戶」。維吉尼亞州法律允許電力公司把基礎建設成本納入費率,結果是住戶在補貼資料中心的擴張

地方民意的反彈在 2026 年達到臨界:Loudoun、Prince William、Fauquier 三個縣已通過「資料中心建設 moratorium」——禁止新建至少 18-24 個月。這在過去 10 年從未發生。

更關鍵的:緬因州 4 月底議會通過 LD-1985 法案,全州 5 年內禁止新建超過 50MW 的資料中心。如果其他州跟進,「美國資料中心遷移到電費低、政策鬆的中西部」這條路也會被堵。


🧨 「燒天然氣補 AI」這條路也快走不通

過去 2 年大廠的解法是「自己蓋天然氣電廠」——Microsoft、Google、Meta、Amazon 都跟天然氣業者簽 PPA(購電協議)。理論上這繞過電網瓶頸。

但 2026 年三件事讓這條路變難:

(1) 天然氣電廠建設成本暴漲 66% 2024 年新建一個 1GW 燃氣電廠約 $11 億,2026 年同樣規格 $18-19 億。原因:鋼鐵漲價、燃氣輪機(Siemens Energy、GE Vernova)排隊到 2030。

(2) LNG 出口需求壓擠國內供應 歐洲為了去俄化,大幅進口美國 LNG。美國天然氣國內價格 2025-2026 漲了 40%,進一步推高新建電廠營運成本。

(3) 環保 / ESG 壓力反彈 Microsoft、Google 都對外承諾「2030 年 net-zero」。新建燃氣電廠跟這個目標直接衝突。投資基金(BlackRock、Vanguard)已開始質疑——這些公司可能被迫修改 ESG 承諾,對股價是負面

替代:核能。但核能建設週期 10-20 年,短期內救不了 2027 的缺口(可參考 AI 巨頭引爆核能復興)。


💡 Mason 的判斷

接下來 3-5 年 AI 產業最大的危機不是「AGI 會不會來」,是「電會不會夠」。如果不夠,以下幾件事會發生:

1. AI 算力價格停止下降 過去 10 年算力成本年降 30-50%,主要靠晶片進步 + 規模經濟。這個趨勢需要電力供應跟上。如果電變成瓶頸,「便宜算力」這個敘事會在 2027-2028 反轉——AI API 價格可能首次出現結構性上漲。

2. AI 產業地理版圖重塑 電多的地方贏:冰島、北歐、加拿大、巴西東北部會變成新的 AI 算力中心。電少的地方輸:新加坡、香港、台灣、日本因為土地 + 電網限制,難以擴張在地大型資料中心。

對台灣的延伸:台灣 AI 主權算力會撞上電力瓶頸——核能政策需要重新討論,但這個討論台灣社會還沒準備好。

3. AI 公司之間的「電力併購」 AI 公司可能直接買發電業者——Microsoft 已經開始(Three Mile Island 重啟)、Amazon 投資 Talen Energy。這個趨勢會擴散,未來 OpenAI / Anthropic 都會擁有自己的發電資產。

4. 電力消費透明化壓力 歐盟 EU AI Act 已要求大型 AI 揭露能耗。2026-2027 美國、亞洲會跟進——使用者會看到「這次 ChatGPT 對話用了 X 度電」之類的揭露。對使用者意識是好事,對 AI 公司行銷是壓力。

5. 「省電 AI」變成新的競爭力 過去模型公司比的是「參數多」「跑分高」。未來比的會多一條:「單位 token 用電量」。Google TurboQuant、Anthropic 的 efficient model 路線、本地 AI 趨勢都跟這個有關。


🎯 不同角色的建議

給 AI 產業參與者:

  • 算力成本下降的假設不能再無條件採信——做 5 年產品規劃時,給 API 成本上漲留 30-50% 緩衝
  • 跨區域部署能力會變得有價值——有能力把推論搬到電費便宜的地區(冰島、加拿大、東歐),會是隱形競爭力
  • 投資「省電」技術——量化、distillation、本地 AI——這個賽道的價值會被重新定價

給投資人:

  • AI 概念股的「算力擴張」估值應該打折——電網瓶頸會限制成長速度
  • 電力相關標的(Constellation、Vistra、NuScale、SMR 業者)會繼續走多頭——但要分清「核能 SMR 真實案」與「炒作
  • 天然氣輪機業者(GE Vernova、Siemens Energy)排單到 2030,毛利率會擴張

給政策制定者:

  • 電網建設審批速度需要根本改革——目前 7-15 年的週期不可能跟上 AI 需求
  • 制定「AI 用電優先順序」框架——當電網緊張時,住戶用電應該優先於 AI 訓練(這個倫理共識還沒形成)
  • 對台灣:核能議題需要重新打開——目前的能源政策無法支撐主權 AI 戰略

給一般使用者 / 環境意識者:

  • 你用 ChatGPT 一次對話 ≈ 用 LED 燈泡 30 分鐘的電——個人使用影響不大
  • 訓練一個 GPT-5 級模型 ≈ 一個小城市一年用電——這個量級的決策不在你手上,但你的政治選擇會影響(電力政策、AI 監管)
  • 真正想減少 AI 碳足跡的方式:用本地小模型(Gemma、Llama 衍生)取代雲端大模型——大多數日常任務不需要 frontier model

❓ FAQ

核能不是答案嗎?Microsoft、Google 都在投。

長期是,短期不是。SMR(小型模組化反應爐)最樂觀的時程是 2028-2030 開始大量上線——但 2026-2028 的缺口需要其他解。Three Mile Island 重啟(Microsoft)是現有反應爐重啟,2028 上線,但只能補 800 MW。

更現實的短期方案:(1) 提升現有電網效率(智能化、儲能整合)、(2) 讓 AI 訓練配合再生能源 schedule(Google 在做)、(3) 部分產能往海外搬——但這些都是緩兵之計。

台灣會被影響嗎?

會,而且影響不只一面正面:台灣的 AI 算力需求增加(產業 AI 化、主權 AI),但台灣電力系統容量已經緊繃——這會推高工業電費、影響半導體競爭力。負面:全球資料中心遷移到電力豐富地區的趨勢,意味著台灣作為 AI 應用樞紐的吸引力會下降。

更深層:核能議題在台灣的政治結構下無法快速解決,這會導致台灣在 2030 後的 AI 主權建設,結構性落後新加坡、日本、韓國這不是技術問題,是政治意願問題

「AI 一次對話用 X 度電」這個數字怎麼算?

業界目前的估算:ChatGPT 4o 一次對話約 0.3-1.2 Wh(視長度與複雜度);訓練 GPT-4 等級模型約 51-62 GWh(等於 5,000-6,000 戶美國家庭一年用電)。

但這些數字爭議很大——OpenAI、Anthropic、Google 都不公開精確數字。EU AI Act 將強制大型模型公開耗電,屆時會有更可靠的數字。目前所有引用的數字都是學術估算,不是業界公布

Sources:

📚 延伸閱讀