︿
Top

DRAM現在與未來

關鍵字:DRAM記憶體半導體人工智慧(AI)
瀏覽次數:17635| 歡迎推文: facebook twitter wechat twitter twitter

科技產業資訊室 - 林修民 發表於 2017年12月4日

圖、DRAM現在與未來
 
目前,市面上DRAM常見的主流可分為三種。首先是適用在PC、Server與顯示卡上的GDDR。多數的桌上型或是多數筆記型電腦都是使用DDR系列,目前使用世代為DDR4,而另一個使用DDR4記憶體的產品就是近來最紅的資料中心(Data Center),電商與社群網站、甚至未來人工智慧(AI)的風行,所使用的伺服器的記憶體也是用DDR4。目前伺服器上的DDR從早期使用同位元檢察(Parity Check)到現在使用更強大錯誤更正碼(Error Control Coding/ECC)在記憶體模組上。
 
DRAM另外一個主要潮流就是使用在行動裝置(如智慧型手機與平板電腦)的Low Power DRAM,也使用在穿戴式裝置上,如智慧手錶等。目前常見的種類為LPDDR3 或LPDDR4,根據產品定位不同而分。比較例外的筆記型電腦如Mac Book Air(MBA)也使用Low Power系列,LPDDR為因應行動世代的來臨而從DDR產品線延伸出來,主要目的為節省能源,故朝著降低電壓方向制訂,其也與DDR系列終端應用環境的不同,取消延遲鎖向迴路(Delay Loop Lock/DLL)以及增加封裝方式(Package on Package/PoP)等方式。另外一個在行動裝置的DRAM技術為Wide IO,只是目前開發的廠商不多。
 
最後一個與DDR與LPDDR不同的是圖形DDR(Graphic DDR/GDDR)系列產品,其只使用在與圖形處理器(Graphic Processing Unit/GPU)相關的使用環境上。圖形加速從早期二維到三維,最主要使用圖形處理效能的應用為電競遊戲。更高的解析度、更多的幀率(Frame Rate)與更高色彩深度(Color Depth)都需要更強的圖形處理能力以及更高的圖形記憶體的頻寬。目前應用在GPU的GDDR系列為GDDR5X。 GDDR系列為了增加頻寬,GDDR開發的發想環境為在印刷電路板(PCB)上周邊裝置,故對於資料傳輸的輸出入(I/O)的發展方式當然與上述的DDR與LPDDR不同。
 
除上述目前常見的DRAM種類以外,另外兩個比較少見主要為了未來應用環境的而發展的記憶體還有Hybrid Memory Cube(HMC)與Hugh Bandwidth Memory(HBM):
  • HBM原先主要提倡者為Hynix,但其把標準已經公開至JEDEC成為標準。
  • HMC主要提倡者為美光,目前仍為其專屬的技術,並未成為公開標準。
以上兩者在架構上的共通點都使用底層的邏輯晶片做為與DRAM控制器的連結,並使用矽穿孔(Through Silicon Via/TSV)技術連結DRAM Die,兩者也同時運用ECC等新一代技術,也因為如此納入目前最新的半導體技術,導致這兩種DRAM成本高居不下,目前仍少見於主流市場。
 
HMC主要應用於目的伺服器,故其將與DDR5競爭,因為伺服器環境需要大容量且快速可靠特性,HMC底下的邏輯晶片運作以主要交換(Switch)方式運作,運做類似有線以太(Ethernet)區域網路-交換器(Switch)與網路終端(NIC)等,透過此等方式可以降低使用越來越多記憶體模組的複雜性,能夠增加伺服器的最大記憶體容量,HMC本身除了以模組方式存在也可以以單位晶片個別存在。
 
而另一個HBM目前已經發展到HBM2第二代,在消費端已經可以接觸其量產實品。AMD推出的Radeon RX VEGA64顯示卡即捨棄傳統GDDR系列而採用HBM2做為其圖形存放的記憶體。HBM發展的原意就是為了滿足傳統DRAM throughput不足的窘境,透過Interposer與DRAM 控制器連封裝在同一個Die上面,再透過TSV與8通道的DRAM 相連,其相連的IO數可以達到傳統PCB很難達成的1024,充分達到高Throughput的目的。
 
DRAM的未來分合,如何?
DRAM除了目前現有的DDR、LPDDR、WIO、GDDR外還包括前所述的HBM與HMC,種類可說非常多種。一直以來國際記憶體業界都有一個疑問是否未來會有一個統一的記憶體標準? 因為上述其實很多DRAM其實或多或少都參考了其他種類記憶體的技術,至少電壓方面,目前桌上型DDR4所使用的電壓1.2v 甚至比當年的LPDDR 1.8v還要低,所以到底有沒有可能未來會統一? 或者如現在一樣根據新的應用產生了更多種不同的DRAM來對應新型的應用?
 
AI將使用何種記憶體呢?
AI目前全球科技業最紅的議題,也是最讓人期待的未來應用,而關於AI的演算法甚至硬體架構都有許多公司提出自己的看法,就如目前DRAM技術分歧相同,包括CPU、GPU、FPGA以及ASIC架構紛紛提出來對應相關AI架構,而上述的DRAM也紛紛對應到AI晶片當中,目前應用主流在Server的AI晶片對DRAM最大需要是吞吐量(Throughput),Google在2015年提出的TPU使用DDR3晶片,但最新Nvidia(2017年)所提出的記憶體P40就採用HBM2記憶體。未來至少在Server端所使用的訓練與推論的AI晶片,估計依成本而分會以HBM與GDDR爲主流。(1650字;圖1)


本站相關文章:
1.市場動態與技術變遷正傷害DRAM位元數量成長
2.DRAM 大廠必須發展其他事業脫離虧損
3.McClean預測:2017年DRAM、NAND驅動IC整體市場
4.半導體設備資本支出2017年估達809億美元、晶圓代工28%、快閃記憶體24%
5. 全球半導體設備支出轉趨樂觀

 
歡迎來粉絲團按讚!
--------------------------------------------------------------------------------------------------------------------------------------------
【聲明】
1. 科技產業資訊室刊載此文不代表同意其說法或描述,僅為提供更多訊息,也不構成任何投資建議。
2. 著作權所有,非經本網站書面授權同意不得將本文以任何形式修改、複製、儲存、傳播或轉載,本中心保留一切法律追訴權利。