打開 App

  • 會員中心
  • 訂閱管理
  • 常見問題
  • 登出
bell icon

AI 記憶體下一代黑馬來了?法人點名兩家台廠可望受惠

隨人工智慧(AI)模型規模與推論上下文快速擴張,除HBM已成為AI加速器標準配備外,法人預期,HBF將是AI Memory Wall的新一代解決方案。路透
隨人工智慧(AI)模型規模與推論上下文快速擴張,除HBM已成為AI加速器標準配備外,法人預期,HBF將是AI Memory Wall的新一代解決方案。路透

本文共732字

經濟日報 記者盧宏奇/台北即時報導

隨人工智慧(AI)模型規模與推論上下文快速擴張,除HBM已成為AI加速器標準配備外,法人預期,HBF將是AI Memory Wall的新一代解決方案,約莫2027年可進入量產,台廠中以群聯(8299)、宜鼎(5289)等兩家最有機會受惠。

金控旗下投顧法人分析,HBF首波鎖定AI inference工作負載,目標在特定推論場景中提供可比HBM的有效頻寬,同時單一裝置容量可達HBM的8至16倍,並具備明顯較低的cost per bit與非揮發性優勢,適合模型常駐、系統啟動等應用。

SanDisk、SK海力士已合作推動 HBF 標準,預期下半年提供samples、2027年初出現首批系統,但包括PCIe/memory extension等不同實作路線仍並行發展,顯示HBF尚處於架構探索與標準收斂階段。

鑒於目前傳統SRAM、HBM與SSD架構已難以同時滿足AI模型的頻寬、容量與成本需求,法人預期HBF與HBM更可能呈現互補關係,例如HBM持續承擔低延遲、動態工作負載,HBF負責模型權重、推論階段KV cache等容量導向資料層,使HBM專注於延遲敏感計算,未來亦可能採混合式記憶體架構。

HBF以inference-first 導入,透過可預測、以讀取為主的存取型態與軟硬體協同設計,彌補NAND在延遲與壽命上的限制;最後能否進入主流平台,將取決於標準化進展、生態系採用度,以及AI工作負載是否持續朝容量受限方向演進。

法人表示,若HBF技術順利成熟,記憶體架構將進一步走向多層化,新增一個兼顧容量與頻寬的near-memory層,並帶動控制器、韌體與系統整合的重要性提升,未來落地量產並被AI系統採用後,具備控制器與模組整合能力的記憶體相關業者受惠程度相對較高。

※ 歡迎用「轉貼」或「分享」的方式轉傳文章連結;未經授權,請勿複製轉貼文章內容

猜你喜歡

上一篇
國泰證券3月投資觀點:債市正向、AI 動能延續、黃金主導地位回升
下一篇
台股外資十天賣5,549億 內資積極作價中小題材股

相關

熱門

看更多

看更多

留言

前往頁面