︿
Top

未來五年AI電力將佔全球1.5%電力消耗,如今亟需解決AI時代的電力問題

瀏覽次數:1472| 歡迎推文: facebook twitter wechat Linked

科技產業資訊室 - 茋郁 發表於 2024年7月23日
facebook twitter wechat twitter
圖、未來五年AI電力將佔全球1.5%電力消耗,如今亟需解決AI時代的電力問題
 
生成式AI將承擔世界上更大的電力消耗,以滿足運行應用程式的巨大硬體要求。半導體研究公司TechInsights研究表示,AI晶片將佔未來五年用電量的 1.5%。

富國銀行預計,到2030年,AI電力需求將激增8050%,從2024年的 8TWh 增加到 2030 年的 652TWh。

AI電力功耗正以多種方式爆炸性成長,現今高階AI GPU(例如:輝達H100 AI GPU)的功耗不斷增加,其中SXM(Server PCI Express Module)介面卡的單一H100就使用700W的功率。一旦轉向輝達的下一代B200 AI GPU,每顆AI GPU將使用高達1200W的功率,一下子就增加超過70%的功耗。輝達即將推出的GB200 Superchip,該晶片具有2顆B200 GPU和1顆Grace CPU,其功耗將達到驚人的2700W。

至於超微的上一代Instinct MI250 AI加速器峰值功耗為560W,而該公司的新型MI300X AI加速器峰值功耗為750W,比上一代增加了50%。英特爾也沒有擺脫這一點,其Gaudi 2 AI加速器使用600W,其新的Gaudi 3 AI加速器峰值功率使用900W,也增加了50%。英特爾新一代 Falcon Shore 混合AI處理器的功耗更高,為業界最高,每晶片峰值功率高達 1500W。

從這些可怕的數字即可發現,隨著全球各地AI基礎設施不斷設立,生成式AI帶來的電力消耗將不斷快速增加。

根據麥肯錫AI調查顯示,65%的企業受訪者打算採用生成式AI。為了滿足需求,雲端供應商和超大規模供應商正在投資數十億美元來增加GPU容量。麥肯錫表示,微軟依靠輝達GPU來運行其AI基礎設施,而Meta將擁有相當於其武器庫中「近60萬顆H100」GPU 的運算環境。

根據TechInsights聲稱,輝達2023年GPU出貨量約為376萬顆,高於2022年約260萬顆GPU,更不用說2024年了。更何況​現在推測都僅僅計算晶片消耗的功耗,不包括儲存、記憶體、網路和用於產生AI的其他零組件,可見得未來電力的建設將成為關鍵。

AI競賽的特點是公司提供最快的基礎設施和更好的結果。在商業中急於實施AI已經擾亂了長期制定的企業永續發展計畫。

微軟、谷歌和亞馬遜正花費數十億美元建造配備GPU和AI晶片的大型數據中心,以訓練和服務更大的模型,這增加了電力負擔。所以不久將來,人們將需要到處都有核電站,或某種形式的下一代電力技術,因此一種使用「先進核技術」的零排放電力解決方案微型反應器(Micro-Reactor)就誕生了。總之,只要AI是趨勢,電力提升就成為下一個亟需解決的問題啊!(1073字;圖1)


參考資料:
Generative AI to Account for 1.5% of World’s Power Consumption by 2029. HPC wire, 2024/07/09.
Wells Fargo predicts AI power demand to skyrocket by 8050% by 2030. Tweak Town, 2024/07/09.


相關文章:

 

 
歡迎來粉絲團按讚!
--------------------------------------------------------------------------------------------------------------------------------------------
【聲明】
1.科技產業資訊室刊載此文不代表同意其說法或描述,僅為提供更多訊息,也不構成任何投資建議。
2.著作權所有,非經本網站書面授權同意不得將本文以任何形式修改、複製、儲存、傳播或轉載,本中心保留一切法律追訴權利。