經濟日報 App
  • 會員中心
  • 訂閱管理
  • 常見問題
  • 登出

集邦:AI伺服器需求帶動 海力士市占率將逾五成

本文共911字

經濟日報 記者林思宇/台北即時報導

集邦(TrendForce)今(18)日表示,AI伺服器出貨動能強勁帶動HBM需求提升,高階深度學習AI GPU的規格也刺激HBM產品更迭,下半年伴隨NVIDIA H100與AMD MI300的搭載,SK海力士作為目前唯一量產新世代HBM3產品的供應商,市占率可望提升至53%,而三星、美光則預計在今年底至明年初量產,市占率分別為38%及9%。

2022年三大原廠HBM(high bandwidth memory)市占率分別為SK海力士(SK hynix)50%、三星(Samsung)約40%、美光(Micron)約10%。

集邦表示,目前NVIDIA所定義的DL/ ML型AI伺服器平均每台均搭載4張或8張高階顯卡,搭配兩顆主流型號的x86 伺服器CPU,而主要拉貨力道來自於美系雲端業者Google、AWS、Meta與Microsoft。

據TrendForce統計,2022年高階搭載GPGPU的伺服器出貨量年增約9%,其中近80%的出貨量均集中在中、美系八大雲端業者。展望2023年,Microsoft、Meta、Baidu與ByteDance相繼推出基於生成式AI衍生的產品服務而積極加單,預估今年AI伺服器出貨量年增率可望達15.4%,2023~2027年AI 伺服器出貨量年複合成長率約12.2%。

根據TrendForce調查,AI伺服器可望帶動記憶體需求成長,以現階段而言, Server DRAM普遍配置約為500~600GB左右,而AI伺服器在單條模組上則多採64~128GB,平均容量可達1.2~1.7TB之間。以Enterprise SSD而言,由於AI伺服器追求的速度更高,其要求優先往DRAM或HBM滿足,在SSD的容量提升上則呈現非必要擴大容量的態勢,但在傳輸介面上,則會為了高速運算的需求而優先採用PCIe 5.0。

集邦表示,相較於一般伺服器而言,AI伺服器多增加GPGPU的使用,因此以NVIDIA A100 80GB配置4或8張採計,HBM用量約為320~640GB。未來在AI模型逐漸複雜化的趨勢下,將刺激更多的記憶體用量,並同步帶動Server DRAM、SSD以及HBM的需求成長。

※ 歡迎用「轉貼」或「分享」的方式轉傳文章連結;未經授權,請勿複製轉貼文章內容

延伸閱讀

上一篇
仁寶、英業達、緯穎啟動世代交替 為何都不是太子接班?
下一篇
新政府力挺、面板雙虎鎖定車用顯示商機 Micro LED 鏈前景亮

相關

熱門

看更多

看更多

留言

完成

成功收藏,前往會員中心查看!