英特爾Chipzilla未來計劃:AI ASIC晶片將於2019年出貨
科技產業資訊室 (iKnow) - May 發表於 2018年5月28日
圖、英特爾Chipzilla未來計劃:AI ASIC晶片將於2019年出貨
英特爾(Intel)公布Chipzilla的未來計劃。英特爾2018年5月23日在舊金山召開AI開發者大會(AIDevCon) 發布了一系列機器學習軟體工具,並暗示新晶片,其中包括其首款商用AI ASIC NNP-L1000,將於2019年推出。
該大會由英特爾人工智慧主管Naveen Rao啟動了Chipzilla的第一個AI開發者大會。2016年英特爾收購的深度學習初創公司Nervana及團隊,Rao是Nervana的首席執行官和共同創始人。
Rao認為,AI被過度炒作了且排擠了目前所有可用的數據和運算。實際上,AI革命就是一場計算革命。每個人都可以加入AI,而顯然需要的就是一堆CPU整合再一起。
英特爾的目標是AI所需的工具而不是切開CPU。相反地,解決方案將來自深度學習和更經典的計算方法(如:隨機森林或回歸分析)的混合。而這一切都可以藉由軟體和硬體的結合來順利完成。下面是AIDevCon討論的一些問題。
軟體方面:
- MKL-DNN:代表深度神經網絡的數學內核庫。它是神經網絡中常見組件的數學程序列表,包括矩陣乘法器、批量範數、歸一化和卷積。該庫的目的是針對英特爾CPU上部署模型進行優化。
- nGraph:提供開發人員選擇不同的AI框架,它們都有各自的優點和缺點。為使晶片變得靈活,後端編譯器必須能夠有效地適應所有這些晶片。nGraph是一款在英特爾晶片上實現這一功能的編譯器。開發人員可能希望在英特爾的至強處理器上訓練他們的模型,但隨後使用英特爾的神經網絡處理器(NNP)進行推理。
- BigDL類似Apache Spark,旨在使用分佈式學習在深度學習中處理更大的工作負載。應用程序可以用Scala或Python編寫,並在Spark集群上執行。
- OpenVINO是一款軟體工具包,用於部署處理“邊緣”視頻的模型,如於相機或行動電話等物聯網裝置。開發人員可以即時進行面部辨識的圖像分類等功能。預計今年(2018)底前開放下載。
硬體部分:
- Rao強調,以前Xeons不適合AI,但現在真的改變了。認為,GPU比CPU快100倍是錯誤的。
- Rao解釋GPU在深度學習方面有一個很好的開端,但受限於嚴重的內存限制。Xeon擁有更多的內存,可以大量擴展到市場。
- 他談到了FPGA的加速問題,並表示英特爾正在研究一種“離散加速器進行推理”(discrete accelerator for inference),但未分享任何細節。
- 同時,還有英特爾Movidius神經計算棒(Movidius Neural Compute Stick),是一個USB棒,可以運行使用TensorFlow和Caffe編寫的模型,耗電量約為1瓦。
- 神經網絡處理器(Neural Network Processor )是ASIC晶片也於去年(2017)發布,包含12個基於其Lake Crest架構的內核,內存有32GB,在未公開的精度下性能達到40 TFLOPS,對於低延遲互連,理論帶寬小於800納秒,每秒2.4 TB的高帶寬。NNP L1000將是第一個商用NNP模型,並將於2019年推出。它將基於新的Spring Crest架構,預計比以前的Lake Crest模型快3~4倍。(912字;圖1)
參考資料:
Intel's latest promise: Our first AI ASIC chips will arrive in 2019. The Register, 2018/5/23.
--------------------------------------------------------------------------------------------------------------------------------------------
【聲明】
1.科技產業資訊室刊載此文不代表同意其說法或描述,僅為提供更多訊息,也不構成任何投資建議。
2.著作權所有,非經本網站書面授權同意不得將本文以任何形式修改、複製、儲存、傳播或轉載,本中心保留一切法律追訴權利。
|