本文共693字
輝達持續擴大產品陣線,於13日宣布推出HGX H200,強調可為全球領先的AI運算平台帶來強大動力,伺服器廠與雲端服務供應商採用H200的系統預計將於明年第2季開始出貨。
目前輝達在AI晶片市場占據優勢地位,陸續推出A100、H100、L40S等產品來搶攻AI市場,H200則是最新力作。該公司表示,HGX H200配備H200 Tensor Core GPU,並具有先進的記憶體,可為生成式AI與高效能運算(HPC)的工作負載處理大量資料。
輝達指出,其伺服器生態系合作夥伴,包括華碩(2357)、技嘉、雲達、緯創、緯穎、美超微、永擎電子、慧與、戴爾、聯想、鴻佰、Eviden等,都可使用基於H200的直接替換方式來更新其基於H100的系統。
同時,亞馬遜網路服務、Google Cloud、微軟Azure和Oracle Cloud Infrastructure也將成為第一批部署基於H200執行個體的雲端服務供應商。
輝達提到,H200軟硬體皆與HGX 100系統相容,也可與今年8月推出、採用HBM3e的GH200 Grace Hopper超級晶片模組搭配使用。
輝達強調,H200是首款提供HBM3e規格的GPU,可加速生成式AI和大型語言模型,並能推進HPC工作負載的科學運算,以每秒4.8 TB速度提供141GB記憶體,與前一代產品A100 相比,容量幾乎翻倍,頻寬增加2.4倍,可部署在各種類型的資料中心中,包括本地、雲端、混合雲和邊緣環境等。同時,H200的推出將帶來更進一步的效能躍進,如相對於H100,在Llama 2這樣擁有700億參數大型語言模型上的推論速度將近翻倍提升。
※ 歡迎用「轉貼」或「分享」的方式轉傳文章連結;未經授權,請勿複製轉貼文章內容
留言