打開 App

  • 會員中心
  • 訂閱管理
  • 常見問題
  • 登出
bell icon

仁寶於2025 OCP 全球高峰會展示 CXL 與液冷創新技術

本文共1226字

經濟日報 記者蕭君暉/台北即時報導

隨著AI運算需求持續攀升、資料中心的能源消耗亦屢創新高,如何在效能、成本與永續發展之間取得平衡,已成為雲端服務供應商與企業面臨的重大挑戰。身為高效能AI伺服器平台的供應商,仁寶(2324)將於2025 OCP全球高峰會(OCP Global Summit 2025)中,發表其最新資料中心技術藍圖,展示涵蓋AI策略合作、CXL架構記憶體解決方案,以及先進液冷技術等多項創新成果,全面展現仁寶對未來資料中心基礎架構的前瞻願景。

近年來,伺服器市場的焦點已從單純追求運算效能,轉向更重視能源效率與系統可擴充性。仁寶持續深化與 NVIDIA 的合作,致力於滿足企業對高效能、彈性與能源效益的多重需求,協助加速 AI 工廠與推論平台的部署,縮短產品上市時程。

仁寶電腦基礎架構事業群(Compal Infrastructure Solutions Business Group)副總張耀文表示:「AI 已從概念驗證階段邁入企業數位轉型的核心。我們與NVIDIA的合作聚焦於運算、網路與散熱技術的整合,協助客戶打造具備可擴充性與永續性的 AI 基礎架構。我們誠摯邀請各界蒞臨OCP25的仁寶攤位,親身體驗以NVIDIA加速的最新AI平台展示。」

現場亦將展示基於CXL (Compute Express Link,運算快速連結)與RDMA (Remote Direct Memory Access,遠端直接記憶體存取)架構下的PCIe 記憶體池化技術,展現新一代資料中心在記憶體擴充、動態資源配置與低延遲互連方面的創新突破。

透過PCIe Gen5 (Peripheral Component Interconnect Express,第五代匯流排標準)、NVMe-oF (Non-Volatile Memory Express over Fabrics,跨網路非揮發性記憶體傳輸協定)與CXL Fabric等先進互連技術,實現伺服器節點間的高速資料互通與共享資源池化,進一步整合記憶體與儲存層級,推動儲存記憶體化概念的落實,使資料能以近似主記憶體的速度被即時存取,同時提升系統整體運算效率與可擴展性。展示現場將強調多TB 級記憶體池化能力與快取一致性技術,讓與會者能親身體驗這些技術如何實現更高效、具彈性且能源優化的 AI 資料中心運算環境。

同時,為因應高效能GPU所帶來的散熱挑戰,仁寶將於本次高峰會發表兩款創新液冷伺服器: OG720-2A-L2 ORv3 7OU 8x AMD Instinct GPU 直接晶片液冷AI伺服器。 SG223-2A-I 2U 8x GPU浸沒式液冷伺服器。

這兩款創新解決方案將展現仁寶在高負載運算環境中,如何同時兼顧最佳效能與能源效率,協助資料中心實現pPUE (partial Power Usage Effectiveness)低於1.1的卓越能效表現,為新世代高密度AI與高效能運算(HPC)應用提供可擴充且高效的運算基礎。

※ 歡迎用「轉貼」或「分享」的方式轉傳文章連結;未經授權,請勿複製轉貼文章內容

猜你喜歡

上一篇
嘉聯益法說會/卡位 AI 機器人、智慧眼鏡 2026年營運結構可望轉佳
下一篇
英特爾前 CEO:台灣能源韌性不足 建議增加在美半導體產能

相關

熱門

看更多

看更多

留言

完成

成功收藏,前往會員中心查看!