本文共912字
全球IT雲基礎設施解決方案領導者鴻海(2317)旗下鴻佰科技,今日出席在美國加州聖約瑟會議中心所舉行的2024年開放運算計畫全球峰會(OCP),展示其全面集成的AI產品線,為未來AI資料中心賦能,參與全球科技業對硬體和軟體開源的突破性進展,鴻海旗下工業富聯董事長兼CEO鄭弘孟亦受邀在活動中發表公開演說。
作為新一代液冷解決方案先驅,鴻佰提供從伺服器到機櫃乃至資料中心集成的全面創新,以提升現代資料中心的能源效率和服務效能。鴻佰展示的NVIDIA HGX B200液冷AI加速器提供強大AI訓練效能,可無縫完美整合至OCP ORv3機架中,並部署於客戶的資料中心。
活動期間,鴻佰還展出NVIDIA GB200 NVL72與水對水CDU解決方案。GB200 NVL72是專為兆級參數大語言模型(LLM, Large Language Model)訓練和即時推論設計的液冷機櫃,相當於擁有72個NVLink連接的Blackwell Tensor 核心 GPU的巨型GPU。此設計幫助企業及組織得以充分發揮AI潛能,推動各領域創新應用。而高效能水對水CDU解決方案則提供卓越冷卻能力,可支援多達10台GB200 NVL72,為下一代AI資料中心的發展奠定堅實基礎。
此外,在現場還可以看到鴻佰的最新超級運算中心模型,展望未來AI基礎設施的發展趨勢。該設施實際部署以GB200 NVL72叢集為主,規劃總計超過1000個GPU,旨在應對未來最嚴苛的AI工作負載。這個中心專注於AI效能調校及最佳化,充分彰顯鴻佰在推動AI尖端創新方面的堅定承諾。
鴻海董事長劉揚偉之前表示,基於輝達Blackwell架構伺服器(GB200)需求強勁,以及地緣政治因素之下,鴻海正在墨西哥打造全球最大的GB200伺服器生產基地,這是個非常特別的工廠,他不便透露相關細節,但該廠產能「非常巨大」,他只能用「巨大」這樣定性的方式來描述,但定量的描述還是需要輝達來說明。
由於輝達執行長黃仁勳近期表示「Blackwell需求很瘋狂」,劉揚偉則回應說,就像他所說的,目前demand crazy,但後續也要看輝達的供需要如何怎麼進行,我們就要相應調整產能來支應其需求。
※ 歡迎用「轉貼」或「分享」的方式轉傳文章連結;未經授權,請勿複製轉貼文章內容
留言