打開 App

  • 會員中心
  • 訂閱管理
  • 常見問題
  • 登出
bell icon

輝達 Blackwell 效能大躍進 AI 訓練所需資源大幅降低

輝達(Nvidia)最新款晶片Blackwell訓練AI系統的效能有所進步,而且訓練大型語言模型(LLM)所需要的晶片數量也大幅減少。 歐新社
輝達(Nvidia)最新款晶片Blackwell訓練AI系統的效能有所進步,而且訓練大型語言模型(LLM)所需要的晶片數量也大幅減少。 歐新社

本文共389字

經濟日報 編譯簡國帆/綜合外電

最新測試數據顯示顯示,美國人工智慧(AI)晶片巨擘輝達(NVIDIA)最新款晶片Blackwell訓練AI系統的效能有所進步,而且訓練大型語言模型(LLM)所需要的晶片數量也大幅減少。

發布AI系統基準效能測試的非營利組織MLCommons,釋出以輝達和超微(AMD)新晶片訓練AI系統的結果,這也是該組織首度釋出各款晶片在訓練Llama 3.1 405B等LLM時的表現。Llama 3.1 405B是Meta釋出的開源碼模型,參數夠大,能讓外界窺見這些晶片在處理伊些最複雜訓練任務時的表現。

輝達及其夥伴迄今是唯一提交訓練這類模型的數據業者,顯示輝達每組Blackwell的處理速度最多比上一代的Hopper晶片快一倍。在輝達Blackwell表現最快的測試中,2,496組Blackwell只花27分鐘就完成訓練測試,而輝達上一代晶片若要達成相同時間,需要三倍以上的晶片數量。

※ 歡迎用「轉貼」或「分享」的方式轉傳文章連結;未經授權,請勿複製轉貼文章內容

猜你喜歡

上一篇
專家:美越卡關為中國開大門 越南仍警覺對北京依賴
下一篇
美資料中心延宕追不上 AI 可能拖累科技公司推出人工智慧進度

相關

熱門

看更多

看更多

留言

前往頁面