top of page
點

每問一次 ChatGPT,要耗掉多少電?AI 時代的電力焦慮真相

  • 作家相片: Amiee
    Amiee
  • 4月13日
  • 讀畢需時 4 分鐘

🧠 你的一個問題,可能比你想像的還「耗電」


「幫我寫一份英文簡報」、「推薦 AI 股票」、「做一首饒舌詩歌送給男朋友」—— 每當你輸入一句話,背後不是只有演算法靈光一閃,而是一整座資料中心,成千上萬顆 GPU 被瞬間喚醒。


而這個過程,需要的不是靈感,是電。





🔋 ChatGPT 每次回答,到底耗掉多少電?


根據 Google Cloud 研究員Luccioni 等人的估算,ChatGPT 一次輸出(inference)約消耗:

0.01 kWh(千瓦時)相當於你手機從 0% 充到 100% 所需的電力

那麼,如果每天有 1 億人問一次 ChatGPT?

每日耗電 = 1 百萬度(1 GWh)相當於 1,000 個家庭一整天用電



🧠 ChatGPT 的訓練階段,比你想的還驚人


OpenAI 雖未公開 GPT-4 的訓練電力成本,但根據 UMass Amherst 的研究(2023 年):

GPT-3 訓練過程共耗電 1,287 MWh(= 1.3 GWh)

這相當於:

  • 約 1,200 戶美國家庭一年的用電量

  • 相當於台灣中型醫院一年的整體耗電


📌 訓練僅一次,推論卻每天都在重複——能耗將遠超初期預估。




🌍 AI 整體耗能:從你我的問題,變成地球級負擔


📈 全球 AI 資料中心用電量統計:


根據 IEA 2024 年報告

到 2026 年,全球資料中心耗電量將突破 1,000 TWh其中 AI 推論與訓練為主要成長來源

這數字是什麼概念?

  • 比日本一整年的住宅用電還多

  • 約佔全球總電力需求的 3.5%




💧 還有水?是的,AI 也大量耗水!


根據 Nature 2024 年專文報導:

為了冷卻 AI 資料中心中數萬個 GPU,每處推論約需 500 ml 水

以每日 1 億次推論計算:

每天耗水量 ≒ 5 千萬公升 = 可供 25 萬人一日生活用水


💧 為什麼 AI 需要「水」?不是電就夠了嗎?


答案是:為了冷卻伺服器與資料中心內的高性能晶片(例如 GPU)


📌 原因一:AI 模型需要大量算力,造成大量發熱


AI 推論與訓練都依賴數萬個 GPU(圖形處理器)並行運作,這些高效能運算會產生大量熱能。若不冷卻,系統將過熱、效率降低甚至當機。


📌 原因二:冷卻伺服器有兩種常見方式


1. 空氣冷卻(Air Cooling)


  • 使用空調與風扇降溫

  • 耗電較多但不需大量水

  • 常見於小型資料中心或傳統設施


2. 液體冷卻(Water Cooling)(最常見於 AI 大型資料中心)


  • 使用水冷管線直接接觸熱源降溫

  • 或利用外部冷卻塔與蒸發冷卻系統降溫(稱為 evaporative cooling)

  • 優點是冷卻效率高、較節能

  • 缺點是耗水量非常大



📉 舉例說明:ChatGPT 推論一次 = 500 毫升水 💧


根據 Nature 2024 年報導指出:

OpenAI 在美國愛荷華州的資料中心使用微軟 Azure 託管服務,每次 ChatGPT 推論的平均冷卻耗水量約為 500 毫升(約一瓶礦泉水)

換句話說:


  • 如果全球一天有 1 億次提問

  • 那麼就需耗水 5,000 萬公升/天

  • 相當於 25 萬人一整天生活所需用水(以每人 200L 計算)


⚠️ 問題在哪裡?


  • 水資源緊張地區(如加州、以色列、印度)設立大型資料中心會加劇乾旱風險

  • 電力耗能被注意到了,水資源耗損卻更容易被忽略

  • 資料中心用水通常無法重複利用,最後會被蒸發掉而非回收




🧩 與 Google Search 比較:你可能低估了 AI 的能耗差距


一項來自《MIT Tech Review》的資料指出:

問一次 ChatGPT ≒ 執行 50~100 次 Google 搜尋 所需能量這意味著,AI 產生文字比檢索現有資料更昂貴



🔧 解方與轉機:AI 能不能更節能?



✅ NVIDIA Blackwell 架構登場:高效能,低耗能的 AI 晶片新典範


2024 年春季,NVIDIA 發表了全新一代 AI GPU 架構——Blackwell,被譽為繼 H100 Hopper 架構後,AI 運算的新里程碑。其特點不只在於效能,更重要的是能耗比的大幅提升。


📌 為什麼 Blackwell 可以節能?


  • 2.5 倍的效能/功耗比(Performance per Watt)意即: 在相同的電力消耗下,Blackwell 可以執行更多推論任務,比前一代更省電。

  • 採用先進 4N 製程與 Chiplet 設計將多個晶片整合在單一封裝中,減少能量傳輸損失。

  • 專為 AI 加速器設計的 NVLink Switch 與 Transformer Engine大幅減少晶片之間的資料搬運需求,降低「通訊耗電」。


✅ Edge AI 與 TinyML:讓 AI 離電源更近、效率更高


傳統 AI 推論會把資料送到雲端資料中心處理,再回傳結果給使用者。這不但延遲高、資料傳輸慢、耗電多,也會造成伺服器端的壓力。


Edge AI(邊緣 AI)與 TinyML(微型機器學習) 正在翻轉這個模式。


📌 為什麼 Edge AI 更省電?


  • 運算就在設備端完成(如手機、感測器、攝影機)不需要把資料傳回雲端,可省下大量傳輸能耗(尤其是影像、聲音等大數據)

  • 利用低功耗晶片(如 ARM Cortex-M、NPU)運行模型這些晶片只需要幾毫瓦至幾百毫瓦的功率,遠低於伺服器級 AI 加速器。

  • 適合即時推論、不需雲端連線節省不必要的同步與伺服器輪詢電力浪費


技術

節能關鍵

Blackwell GPU

整合封裝 + 智能運算引擎 + 傳輸優化

Edge AI

就地運算 + 避免資料來回傳輸 + 使用低功耗晶片




✨ 結語:問 ChatGPT,也是一種環境選擇


在 AI 時代,我們的每一個提問都是在消耗電力、水與資源。我們是否能更有意識地使用這些科技工具?

「我們當然可以自由提問,但當我們知道 AI 並非零成本,也許會更珍惜每一次對話。」

—— 在智慧與資源之間,學會負責任地提問,就是現代人的基本素養。


點

Subscribe to AmiNext Newsletter

Thanks for submitting!

  • LinkedIn
  • Facebook

© 2024 by AmiNext 金融與科技筆記

bottom of page