經濟日報 App
  • 會員中心
  • 訂閱管理
  • 常見問題
  • 登出

集邦估高頻寬記憶HBM3將加速產品驗證 將決定輝達明年的採購權重分配

本文共1240字

聯合報 記者簡永祥/台北即時報導

集邦科科今日發布最新高頻寬記憶(HBM)調查報告指出,為了更妥善且健全的供應鏈管理,全球AI晶片龍頭輝達(NVIDIA)也規劃加入更多的HBM供應商,其中,三星的HBM3(24GB)預定於今年12月在NVIDIA完成驗證。

至於HBM3e進度依據時間軸排列,美光已於今年7月底提供8層堆疊(8hi,24GB)NVIDIA樣品、SK海力士也於8月中提供8hi(24GB)樣品、三星則於10月初提供8hi(24GB)樣品。預估HBM4預計各廠規畫於2026年推出。

集邦指出,HBM驗證過程繁瑣,預計耗時兩個季度,因此最快在2023年底可望取得部分廠商的HBM3e驗證結果,而三大原廠均預計於2024年第1季完成驗證。值得注意的是,各原廠的HBM3e驗證結果,也將決定最終NVIDIA 2024年在HBM供應商的採購權重分配,然目前驗證皆尚未完成,因此2024年HBM整體採購量仍有待觀察。

展望2024年,NVIDIA 2023年的高階AI晶片(採用HBM)的既有產品為A100/A800以及H100/H800;2024年則將把產品組合(Product Portfolio)更細致的分類。除了原上述型號外,更再推出使用6顆HBM3e的H200以及8顆HBM3e的B100,並同步整合NVIDIA自家基於Arm架構的 CPU與GPU,推出GH200以及GB200。

相比同時期的AMD與Intel產品規劃,AMD 2024年出貨主流為MI300系列,採用HBM3,下一代MI350將採用HBM3e,預計2024下半年開始進行HBM驗證,實際看到較明顯的產品放量(Ramp Up)時間預估應為2025年第一季。

以Intel Habana來看,2022下半年推出的Gaudi 2採用6顆HBM2e,2024年中預期在新型號Gaudi 3持續採取HBM2e,但將用量升級至8顆。因此,TrendForce認為,NVIDIA在HBM規格、產品準備度(Readiness)及時間軸上,可望持續以領先的GPU規格,在AI晶片競局取得領先。

除了HBM3與HBM3e外,集邦預估HBM4各廠規畫將於2026年推出,目前包含NVIDIA以及其他CSP(雲端業者)在未來的產品應用上,規格和效能將更優化。受到規格更往高速發展帶動,將首次看到HBM最底層的Logic die(又名Base die)採用12奈米製程晶圓,該部分將由晶圓代工廠提供,使得單顆HBM產品需要結合晶圓代工廠與記憶體廠的合作。

再者,隨著客戶對運算效能要求的提升,HBM4在堆疊的層數上,除了現有的12hi (12層)外,也將再往16hi (16層)發展,更高層數也預估帶動新堆疊方式hybrid bonding的需求。HBM4 12hi產品將於2026年推出;而16hi產品則預計於2027年問世,但未來HBM產業將轉為更客製化的角度發展,相比其他DRAM產品,在定價及設計上,更加擺脫Commodity DRAM的框架,呈現特定化的生產。

美光推出8層堆疊的HBM3e產品已送樣給客戶,明年第1季出貨。記者簡永祥/攝影
美光推出8層堆疊的HBM3e產品已送樣給客戶,明年第1季出貨。記者簡永祥/攝影

※ 歡迎用「轉貼」或「分享」的方式轉傳文章連結;未經授權,請勿複製轉貼文章內容

延伸閱讀

上一篇
擴大投資台灣再添2企業 豐光電中科二林園區興建新廠
下一篇
AI 晶片交貨加快!技嘉、廣達伺服器業績2024首度超車 PC

相關

熱門

看更多

看更多

留言

完成

成功收藏,前往會員中心查看!