本文共881字
亞馬遜(Amazon)旗下 Amazon Web Services(AWS)與 NVIDIA 於 AWS re:Invent 全球盛會上宣布擴大策略合作,將聯手打造最新超級電腦基礎設施、軟體及服務,滿足客戶在生成式AI(Generative AI)創新業務上所需算力。AWS 成為第一家將配備 NVIDIA 的多節點 NVLink 技術的 NVIDIA GH200 Grace Hopper Superchip 超級晶片導入雲端環境的雲端服務供應商。
NVIDIA 與 AWS 合作的 Project Ceiba,將設計全球最快以 GPU 驅動的AI超級電腦,配備 GH200 NVL32與Amazon EFA 互連技術的大規模系統由 AWS 代管,為 NVIDIA 研發團隊提供服務。這部開創先河的超級電腦配置16,384顆 NVIDIA GH200超級晶片,能處理65 exaflops 速度等級的AI運算,將推動 NVIDIA 進行全新生成式AI的創新。
NVIDIA 與 AWS 將結合包含 NVIDIA 新一代 GPU、CPU 與AI軟體的最新多節點系統,以及 AWS 的 Nitro System 先進虛擬化與安全平台、Elastic Fabric Adapter(EFA)互連介面和 UltraCluster 擴充服務,以提供理想的環境來訓練基礎模型與打造生成式AI應用。
AWS的AI伺服器已經採用 NVIDIA 產品,此次擴大合作主要為使用機器學習(ML)的產業提供所需的運算效能,協助發展最尖端的技術。
NVIDIA 與 AWS 將聯手在 AWS 上推出 NVIDIA DGX Cloud 這項AI訓練即服務(AI-training-as-a-service)方案。此方案將是首個配置G H200 NVL32的DGX Cloud 方案,為開發者提供單一執行個體中最多的共用記憶體。AWS 雲端上運行的 DGX Cloud 將可加速含有超過1兆參數的尖端生成式AI與大型語言模型的訓練。
延伸閱讀
※ 歡迎用「轉貼」或「分享」的方式轉傳文章連結;未經授權,請勿複製轉貼文章內容
留言