打開 App

  • 會員中心
  • 訂閱管理
  • 常見問題
  • 登出
bell icon

仁寶於 GTC 2026發表 NVIDIA HGX™ Rubin NVL8 高密度 AI 伺服器方案

本文共1231字

經濟日報 記者秦鈺翔/台北即時報導

隨著生成式AI與Agentic AI應用快速擴展,AI訓練與推論工作負載正推動資料中心架構邁向更高運算密度與更高頻寬互連。仁寶(2324)於輝達(NVIDIA)GTC 2026展會中,展示其基於NVIDIA HGX™ Rubin NVL8平台打造的高密度AI伺服器解決方案,並與NVIDIA提出的「六款全新晶片、一部出色的AI超級電腦」NVIDIA Vera Rubin架構願景相呼應,展現仁寶在新世代AI超級運算基礎設施上的工程整備能力。

此次仁寶推出的 SG231-2-L1 系統即基於NVIDIA HGX™ Rubin NVL8平台設計,其核心技術亮點包括 於 2U 機箱中整合 8 顆 NVIDIA Rubin GPUs,在有限機櫃空間內最大化運算密度與部署效率的高密度加速架構,系統最高可提供 400 petaFLOPS(NVFP4)運算性能,可支援大型語言模型(LLM)訓練與推論、生成式 AI 與 HPC 應用場景。

互連技術部分,採用 NVIDIA NVLink™ 6 技術,提供最高 28.8 TB/s GPU-to-GPU 互連頻寬,大幅提升多 GPU 協同運算與擴展效率。同時支援最高 2.3TB GPU 記憶體容量與 176TB/s 記憶體頻寬,可滿足記憶體密集型 AI 應用需求。

隨著運作功率提高,仁寶透過優化的直接液冷設計,系統可穩定支援約 24kW 功耗運作,確保高負載 AI 工作負載下的穩定效能。並且系統設計可無縫整合至高密度 AI 機櫃架構,支援從單節點到資料中心規模的彈性部署與擴展。

在展位現場,仁寶亦展示基於NVIDIA HGX™系統架構的NVIDIA Vera CPU HPM模組,展現其在 NVIDIA Vera CPU與 NVIDIA Rubin GPU平台上的工程整備與製造能力。隨著運算架構持續演進,CPU與GPU的協同設計正逐步成為資料中心架構優化的重要關鍵。

此外,仁寶亦展示對NVIDIA RTX PRO™ 4500 Blackwell Server Edition的支援。該GPU配備32GB GDDR7記憶體與最高800 GB/s記憶體頻寬,可為AI推論、資料處理與視覺運算工作負載提供高效能加速能力。

仁寶電腦基礎架構事業群副總經理張耀文表示:「AI基礎設施的競爭焦點,已從單一節點效能的比較,轉向整體部署效率與長期可擴展性的能力。隨著NVIDIA HGX™ Rubin NVL8平台在運算效能與功率密度上的持續提升,資料中心架構也必須同步演進。我們不僅強化運算能力,也持續提升整體基礎設施在承載能力與擴展性上的設計,使客戶能建立面向下一世代AI工作負載的可持續部署架構。」

隨著AI工作負載持續規模化,資料中心競爭力正逐漸由 生態系協同與整體架構整合能力所決定。透過此次GTC 2026展示,仁寶展現其在高密度GPU系統設計與液冷散熱技術上的工程實力,並進一步深化其在NVIDIA技術生態系中的長期策略合作。

※ 歡迎用「轉貼」或「分享」的方式轉傳文章連結;未經授權,請勿複製轉貼文章內容

猜你喜歡

上一篇
台電擴大節能診斷 去年助300家企業節電逾6700萬度
下一篇
台積電催供應鏈在地化 日半導體材料商 JSR 在台投資 CMP 材料研發中心

相關

熱門

看更多

看更多

留言

前往頁面