AI 的新聞敘事很容易卡在「算力爆炸」一句話,但真正接手這波需求的人,開始把焦點拉回到「尖峰管理」:不是只有建更多電廠,而是要在高耗能時段先把需求變得可控。這個轉向在電力市場其實很關鍵,因為用電不只看總量,還看何時、在哪裡和以多快的速度湧入。當 AI 基礎模型訓練、推論、備援機房同時向電網「同頻開火」,就會在局部形成極端壓力,供應者最怕的不是全年高一些,而是某些幾小時「太高」。
Reuters 引用美國能源資訊管理局(EIA)的預測時,核心訊息就是美國總電力消耗在 2026、2027 年持續上拱,AI 使用被視為其中一條推力。這意味著「容量」這個詞,從傳統電力產業語彙裡,換成了可執行的風險管理問題:哪幾個時間點可降載、哪些資料中心可先行回應、誰來付代價。對電網來說,這比單純追逐新增供給更有效率,因為建設、併網、採購與許可都來不及無限前置。
更有意思的是,Google 在近期公告中把 1GW 左右的需求回應能力納入其新契約。簡單說就是資料中心不再「只會吃電」,而是變成能配合網側指令做「可逆的可控需求」。這個模式對用電方本身也不是純受限,而是要在服務穩定、成本波動、企業合約風險之間重新算帳。你可以把它想像成一個新的 SLA:用穩定換取節點彈性,不是讓 AI 服務沒電就降能,是把可削減的工作搬到低成本時段,並保留核心服務完整性。
台灣在這裡可直接借鏡的是兩個方向。第一,資料中心與高耗能工業在採購條款裡,應更早加入「尖峰調度條款」,讓風險與激勵機制寫進契約,而不是發生斷供後再補位。第二,地方政府在發展 AI 夥伴生態時,不能只看投資額,也要看電力基礎設施的調度能力,否則資安、資本回收與社會認受度都可能被短期負荷失衡拖垮。AI 幫你加速模型,也會讓你學到更快失敗的工程邏輯;反過來,會管理尖峰的人,反而更容易把 AI 用在可持續的方向上。

參考來源
- Reuters:US power use to beat record highs in 2026 and 2027 as AI use surges, EIA says
- Google Blog:Demand-response data-center milestone
- USA Today:Google cuts data center power use to ease strain on US grids