AI晶片設計不再單純考慮性能 如何降低成本與提高效率將成為重點
科技產業資訊室 (iKnow) - Gloria 發表於 2021年10月26日
圖、AI晶片設計不再單純考慮性能 如何降低成本與提高效率將成為重點
由於數十億美元已投入AI新創公司,使得初期討論重點都放在性能上。但是,隨著AI訓練模型需要更多的運算資源,使得重點工作正在轉移到晶片的運算成本之上。也就是說,AI晶片的性價比反而變得更重要了。
AI晶片設計有不同的方法,如今的爭論是採取整合晶片還是解耦(Decoupled)的方法更為經濟。對於晶片製造商來說,這是一場熟悉的戰場:到底零組件應該整合在AI大型晶片中,或分佈在電路板或網絡上的網路處理單元上。
當今流行的AI系統是利用分佈在電腦中的數百個輝達繪圖處理器來完成。英特爾於2016年併購的Nervana Systems就是這種分佈式方法的支持者,其AI處理是分別由更便宜的晶片和零組件上運行,其中包括低成本DDR記憶體和 PCI-Express互連。建構大規模晶片的成本遠高於用於將多個晶片連接在一起的微型晶片。
Cerebras Systems認為,將一系列晶片串在一起作為AI群聚是會增加硬體和費用,非線性擴展並將它們聯繫在一起,甚至將所有其他基礎設施相結合,是會導致能源效率低下。
Cerebras於2021年8月出貨WSE-2 AI超級晶片以來,擁有850,000顆核心,是前一代的兩倍。透過將互連頻寬加快至220 Pb/s,使其比繪圖處理器之間提供的頻帶還要快45,000倍以上。即使Cerebras的設備很貴,但購買輝達12 DGX A100也是如此;而且Cerebras設備功率更少,也沒有其他隱藏成本。
不過,有專家表示,AI晶片開發是如此多樣化,以至於廠商不能採取一刀切的方法來評斷。軟體可以定義硬體,一些晶片可以在將相關數據輸入神經網絡之前,促進在邊緣運算的處理。
Deepvision認為,通常硬體平台的開發並沒有太多考慮軟體,以及它如何在平台之間擴展。因此,該公司才開發了一種軟體開發工具包,可將AI模型映射到各種硬體上。
未來,AI晶片設計也可能遵循Koomey定律,這是一個用來計算設備的耗電量每18個月就會下降一半的定律。在晶片製造商停止提高晶片頻率後,持續了數十年的CPU爭奪戰已經轉移到效率上。畢竟,AI應用變得越來越複雜,解決複雜問題的電量將必須受到限制。不能為了提高性能而犧牲效率,這也是AI晶片未來的挑戰。(787字)
參考資料:
Megachips or decoupled approach? AI chip design companies accounting for operating costs. The Register,2021/10/12
相關文章:
1. AI晶片將先進入四個主要領域
2. 邊緣AI晶片正進入架構創新且應用增加之新趨勢
3. 2025年邊緣AI晶片組將超越雲端AI晶片組市場規模
4. AI處理器於2020年成長58%,未來幾年年複合成長率亦高達42%
5. 2023年邊緣AI處理器單位出貨量可達15億
6. 邊緣AI架構正在不斷演進 多核心、三角架構與軟體值得關注
--------------------------------------------------------------------------------------------------------------------------------------------
【聲明】
1.科技產業資訊室刊載此文不代表同意其說法或描述,僅為提供更多訊息,也不構成任何投資建議。
2.著作權所有,非經本網站書面授權同意不得將本文以任何形式修改、複製、儲存、傳播或轉載,本中心保留一切法律追訴權利。
|