英特爾AI晶片NNP趕2017年底前出貨
科技產業資訊室 (iKnow) - May 發表於 2017年10月19日
圖、英特爾AI晶片NNP趕2017年底前出貨
英特爾2017年10月17日宣布,用於支援人工智慧(AI)應用的「Nervana神經網絡處理器」(Intel Nervana Neural Network Processor,NNP)晶片(以前稱:Lake Crest),將於今年(2017)底前開始出貨。
由於,英特爾去年(2016)收購晶片新創公司Nervana Systems,以加速AI晶片開發。之前,未能提供AI優化晶片,英特爾失掉了沃爾瑪等重要客戶,因需要能支援其內部數據中心深度學習任務的產品,所以只能轉向採用輝達(Nvidia) AI晶片。目前該市場幾乎是輝達的天下。
英特爾宣稱Nervana™神經網絡處理器(NNP)將重新定義AI 晶片(AI Silicon)。機器學習和深度學習正在迅速成為最重要的計算工作負載。可從客戶的數據中提取有意義的見解,並對英特爾的晶片組合進行更改,以提供卓越的機器學習性能。英特爾分享了神經網絡處理器也是深度學習(Deep Learning)新型晶片Nervana™NNP之背後動機和設計概念。
新記憶體架構旨在提高矽晶片最大運算的利用度(New memory architecture designed for maximizing utilization of silicon computation)
矩陣乘法(Matrix multiplication)和卷積(convolutions)是深度學習核心的一些重要原語。由於,不同的需求也將影響這些運算工作負載方式,因為操作和數據移動在很大程度上是先天知道的。因此,Intel Nervana NNP在晶片儲存器上並沒有標準的緩存層次結構,而是由軟體直接來管理。更好的記憶體內存管理使晶片能夠在每個裸片上實現大量計算的高水平利用,這意味著為深度學習模型需要更快的訓練時間來達成。
實現可擴展性AI模型的新水平 (Achieve new level of scalability AI models)
採用高速晶片和對外互連設計,Intel Nervana NNP可實現大量雙向數據傳輸。而且,設計目標是真正實現大量可並行處理的模型,其中神經網絡參數分佈在多個晶片上。這使得多個晶片就像一個大型虛擬晶片,允許客戶從其數據中獲取更多有價值的判斷力。
高度數值並行性:Flexpoint
在單一晶片上的神經網絡運算,可能受制於電力來源和記憶存儲器頻寬。為了實現神經網絡工作負載能有更高的吞吐量,除了上述記憶存儲創新之外,英特爾還發明了一種名為Flexpoint的新數字格式。Flexpoint允許將標量計算(scalar computations)放入為定點乘法和加法(fixed-point multiplications and additions),同時允許在較大動態範圍內使用共享指數(shared exponent)。由於,每個電路(circuit)是較小的,將導致了晶片的並行性(parallelism)大幅度增加,同時降低了每次計算的功率。(724字;圖1)
參考資料:
Intel® Nervana™ Neural Network Processors (NNP) Redefine AI Silicon. Intel Nervana, 2017/10/17.
本站相關文章:
1.英特爾揭露最新AI晶片,中國大陸不落人後
2.英特爾發佈人工智慧Nervana平台
3.全球人工智慧晶片市場預測2016~2022年成長率62.9%
4.輝達、英特爾與高通爭奪AI以及無人駕駛領域
5.未來 AI 發展八大新趨勢
--------------------------------------------------------------------------------------------------------------------------------------------
【聲明】
1.科技產業資訊室刊載此文不代表同意其說法或描述,僅為提供更多訊息,也不構成任何投資建議。
2.著作權所有,非經本網站書面授權同意不得將本文以任何形式修改、複製、儲存、傳播或轉載,本中心保留一切法律追訴權利。
|