打開 App

  • 會員中心
  • 訂閱管理
  • 常見問題
  • 登出
bell icon
notice-title img

封面故事連發 聚焦台美關稅秘辛

【台美關稅談判虛實】談判不只看數字

半導體、投資與制度走向牽動全局

《經濟日報》訂戶限定專文 🔓限時解鎖

搶快分享|半導體談判背後的盤算


不再提醒

AMD助攻Zyphra 開發ZAYA1 MoE模型

本文共786字

經濟日報 彭子豪

超微AMD日前宣布合作夥伴Zyphra在大規模AI模型訓練方面達成重大里程碑,成功開發出ZAYA1,為首個完全採用AMD Instinct MI300X GPU、AMD Pensando網路技術與ROCm開放軟體堆疊訓練的大規模混合專家(Mixture-of-Experts, MoE)基礎模型。此成果展現AMD在高效能運算與AI領域的領導地位,並為產業提供更具效率與可擴展性的解決方案。

AMD Instinct MI300X GPU。擷取超微官網
AMD Instinct MI300X GPU。擷取超微官網

Zyphra測試結果顯示,ZAYA1在推理、數學與編碼等基準測試中,效能超越Llama-3-8B與OLMoE,並與Qwen3-4B及Gemma3-12B相媲美。AMD Instinct MI300X GPU的192GB高頻寬記憶體,讓Zyphra能以更簡化的資源配置完成大規模訓練,無須仰賴昂貴的專家或張量分片技術,並透過最佳化分散式I/O,將模型儲存時間加快逾10倍,顯著提升訓練效率與可靠性。

AMD人工智慧事業群人工智慧與工程全球副總裁Emad Barsoum表示,AMD在加速運算領域的領導地位,正為Zyphra等創新者挹注動能,持續突破AI的極限。這項里程碑展示了AMD Instinct GPU與Pensando網路技術在訓練複雜大規模模型方面的強大能力與靈活性。

Zyphra執行長Krithik Puthalath則指出,ZAYA1體現這項理念,很高興成為首家在AMD平台上展示大規模訓練的公司。這個成果彰顯模型架構與晶片系統共同設計的力量,期待在建構下一代多模態基礎模型的進程中,深化與AMD及IBM的合作。

基於既有合作基礎,Zyphra與AMD及IBM緊密合作,設計並部署搭載AMD Instinct GPU與Pensando網路互連技術的大規模訓練叢集。該系統結合IBM Cloud的高效能網路與儲存架構,為ZAYA1的大規模預訓練奠定基礎,展現跨企業協作的成果。

※ 歡迎用「轉貼」或「分享」的方式轉傳文章連結;未經授權,請勿複製轉貼文章內容


上一篇
羅德史瓦茲Rohde & Schwarz併購ZES ZIMMER 深化高精度功率量測布局
下一篇
夏普攜台灣大 購SHARP AQUOS R10送燒烤微波爐

相關

熱門

看更多

看更多

留言

前往頁面