本文共768字
輝達宣布,在MLPerf Training v5.1中橫掃全部7項測試,於大型語言模型(LLM)、圖像生成、推薦系統、電腦視覺與圖像神經網路等領域均創下最快的訓練速度。
輝達提到,MLPerf Training v5.1為持續多年舉辦的AI訓練效能業界基準測試中最新一輪。該公司是唯一在所有測試項目中都提交結果的平台,顯出其GPU強大的可程式化特性,以及其CUDA軟體堆疊的成熟度和通用性。基於Blackwell Ultra GPU架構的GB300 NVL72機架級系統,在這一輪MLPerf Training測試中首次亮相,在此之前該系統已在最新一輪MLPerf Inference測試中創下紀錄。
同時,輝達指出,與上一代Hopper架構相比,基於Blackwell Ultra的GB300 NVL72在相同數量的GPU下,Llama 3.1 405B預訓練的效能提升4倍以上,Llama 2 70B LoRa微調效能增加近5倍。
輝達強調,該公司的產品是迄今為止唯一在滿足基準測試嚴格精度要求的同時,使用 FP4 精度進行計算,並提交 MLPerf 訓練結果的平台。憑藉逾5,000顆Blackwell GPU的高效協同運作,在Llama 3.1 405B測試中創下僅需10分鐘訓練時間的全新紀錄。這項成績較上一輪基於Blackwell的最佳成績高出2.7倍,歸功於GPU數量增加至原先2倍以上的高效擴展,以及採用NVFP4精度大幅提升每顆Blackwell GPU的有效效能。
輝達也說,相關生態系在這一輪測試中展現積極參與度,共計15個機構提交令人矚目的成果,其中包括華碩、戴爾、技鋼科技、HPE、Krai、Lambda、聯想、Nebius、雲達科技、Supermicro、佛羅里達大學、Verda(原DataCrunch)與緯穎等。
※ 歡迎用「轉貼」或「分享」的方式轉傳文章連結;未經授權,請勿複製轉貼文章內容

留言