BULL

Loading

正在加載中..

  • 主頁
  • 國際
  • ChatGPT呼喚高性能內存芯片 HBM報價飛漲 三星、海力士接單量大增

ChatGPT呼喚高性能內存芯片 HBM報價飛漲 三星、海力士接單量大增

2023-02-16 20:20

  CHATGPT等新興AI產品對高性能存儲芯片的需求與日俱增。據韓國經濟日報報道,受惠於ChatGPT,三星、SK海力士高帶寬內存(high bandwidth memory,HBM)接單量大增。

  HBM是一種基於3D堆疊工藝的DRAM內存芯片,它就像摩天大廈中的樓層一樣可以垂直堆疊。基於這種設計,信息交換的時間將會縮短。這些堆疊的數顆DRAM芯片通過稱為“中介層(Interposer)”的超快速互聯方式連接至CPU或GPU,最後可將組裝好的模塊連接至電路板。

  HBM的架構 圖源:AMD

  HBM重新調整了內存的功耗效率,能大幅提高數據處理速度,是當下速度最快的DRAM產品,其每瓦帶寬比GDDR5高出3倍還多,且HBM比GDDR5節省了94%的錶面積。

  目前,HBM主要被安裝在GPU、網絡交換及轉發設備(如路由器、交換器)、AI加速器、超級計算機及高效能服務器上。

  首爾業界消息稱,SK海力士為英偉達供應第三代HBM,搭配英偉達的A100 GPU供ChatGPT使用。另外,英偉達已經將SK海力士的第四代HBM安裝至H100,而H100已開始供應ChatGPT服務器所需。

  另一方面,三星已開發出具運算能力的HBM,不但能儲存數據、還能運算數據。三星已在2022年10月向AMD供應該產品,用於AI加速器。

  首爾業界透露,如今第三代HBM報價飛漲,已是效能最高的DRAM產品的五倍之多,其市場成長率是三星、SK海力士原本預測的兩倍以上。

  ▌高算力AI應用呼喚高性能內存芯片

  ChatGPT等高算力AI應用的火爆將基礎設施端逐漸推向前臺。

  三星內存副總裁Kim Jae-joon曾說,ChatGPT等基於自然語言技術的交互式AI應用的發展有利於提升內存需求。高效且大量的運算能力、高容量的內存,是AI學習與推論模型的根基。

  目前,搭載於新興AI應用的內存芯片亟待升級。

  首先,ChatGPT這類生成式AI應用需要在海量的訓練數據中進行學習,才能實現高質量的生成輸出。為了實現關鍵詞識別、圖像識別等功能,AI模型需要存儲大量的圖片和音頻信息。

  其次,面向C端用戶的AI應用必須具備快速處理數據的能力,才能向用戶實時輸出AI計算結果,因此也對內存芯片的數據傳輸速度提出了更高要求。

  與此同時,隨著人工智能技術的進一步普及,越來越多的AI應用發生在移動設備和物聯網終端設備上,而這些設備大多採用電池供電或充電,對功耗十分敏感。

  如此一來,以HBM為代表的超高帶寬內存技術有望成為相關加速芯片的必然選擇,同時生成類模型也會加速HBM內存進一步增大容量和增大帶寬。

  除了HBM之外,CXL(計算快速鏈接)等新的存儲技術加上軟件的優化也有將在這類應用中增加本地存儲的容量和性能,估計會從生成類模型的崛起中獲得更多的工業界採用。

  據《科創板日報》不完全統計,A股已有瀾起科技(行情688008,診股)、國芯科技(行情688262,診股)、通富微電(行情002156,診股)等廠商有相關技術佈局。

Leave a comment

Your email address will not be published. Required fields are marked *