打開 App

  • 會員中心
  • 訂閱管理
  • 常見問題
  • 登出

螞蟻集團傳用陸製晶片訓練 AI 模型 效果媲美輝達H800 省20%成本

螞蟻集團傳出採用大陸製的半導體來開發訓練AI模型的技術,可節省20%的成本。路透
螞蟻集團傳出採用大陸製的半導體來開發訓練AI模型的技術,可節省20%的成本。路透

本文共1031字

經濟日報 編譯葉亭均/綜合外電

知情人士透露,阿里巴巴集團創辦人馬雲所支持的螞蟻集團已採用大陸製的半導體來開發訓練AI模型的技術,可節省20%的成本。

彭博資訊引述的知情人士表示,螞蟻集團使用包括來自關聯企業阿里巴巴集團以及華為公司在內的大陸製晶片賴訓練AI模型,而且是採用「專家混合(Mixture of Experts,MoE)」的機器學習架構,取得了類似於使用輝達H800這類晶片的訓練結果。由於相關資訊未公開,知情人士要求匿名。

雖然螞蟻集團仍在使用輝達的晶片進行AI開發,但一名知情人士透露,現在該公司主要依賴包括來自超微(AMD)和大陸晶片在內的晶片,來訓練最新的AI模型。

美中企業AI競賽升溫

這些AI模型代表著螞蟻集團進入美中企業的一場競賽,此前這場競賽已經加溫,因為大陸AI新創公司DeepSeek展現出如何以遠低於OpenAI和Alphabet投入的數十億美元成本,訓練出高效能模型。這也凸顯出中國大陸企業如何嘗試利用本土晶片替代輝達最先進的半導體。雖然H800晶片並非最先進,但仍為相對強大的處理器,目前已遭美禁止出口到中國。

螞蟻集團在本月發表一篇研究論文,宣稱其AI模型在特定指標的表現有時優於臉書母公司Meta,但彭博新聞未獨立查證這一說法。不過,如果其性能果真如其所說,那麼螞蟻集團的平台可能代表大陸業者降低推理成本、支援AI服務的AI發展又向前跨進一步。

隨著企業把大量資金投入AI,MoE模型已逐漸成為受歡迎的選項,由於這種模型受到Google和DeepSeek等才用,因而獲得關注。這種技術是把任務劃分為較小的數據集,就像是由分別聚焦於一項工作中一小部分的專家所組成團隊,讓過程更具效率。

螞蟻集團在電子郵件聲明中不願對此置評。

目標:不使用高階GPU來擴充AI模型

然而,要訓練MoE模型,通常要依賴像是輝達的GPU等高效能晶片,而高昂的成本限制了許多小企業採行,也且也限制廣泛應用。螞蟻集團一直在研究以更有效率的方式來訓練大型語言模型(LLM),以消除上述侷限。螞蟻的研究論文就表明,該公司的目標是在不使用高階GPU的情況下來擴充AI模型。

螞蟻集團表示,利用高性能硬體訓練1兆個AI運算單元(token)成本約人民幣635萬元(約88萬美元),但透過該公司優化方法並採用較低規格的硬體,可將成本降至人民幣510萬元幣。

據知情人士透露,螞蟻集團計劃利用其最新開發的大型語言模型Ling-Plus和Ling-Lite的突破,為包括醫療保健和金融領域在內產業推出AI解決方案。

※ 歡迎用「轉貼」或「分享」的方式轉傳文章連結;未經授權,請勿複製轉貼文章內容

延伸閱讀

上一篇
去年918砍殺深圳日本男童 陸籍男兇嫌已被執行死刑
下一篇
上海車展登場 聯發科出擊

相關

熱門

看更多

看更多

留言

完成

成功收藏,前往會員中心查看!