經濟日報 App
  • 會員中心
  • 訂閱管理
  • 常見問題
  • 登出

聯發科傳奪 Google AI 大單

提要

攜手打造最新伺服器晶片 將投片台積5奈米生產 力拚明年初量產 公司:不回應

聯發科。圖/歐新社
聯發科。圖/歐新社

本文共1055字

經濟日報 記者李孟珊/台北報導

Google衝刺AI,傳找聯發科(2454)合作,攜手打造最新AI伺服器晶片,並將以台積電5奈米製程生產,力拚明年初量產,象徵聯發科正式跨足當紅的AI伺服器相關晶片領域。

對於相關消息,聯發科不回應市場傳言。消息人士透露,這次Google與聯發科的跨國合作,由聯發科提供串行器及解串器(SerDes)方案,協助整合Google自行開發的張量處理器(TPU),助力Google打造最新AI伺服器晶片,且性能比透過CPU或GPU為架構更強大。

聯發科AI能量相當豐沛,旗下各產品線都有AI功能強化。聯發科總經理陳冠州先前曾公開表示,不論是終端或雲端的AI,如何迎接大型語言模型(LLM)的發展趨勢,都是聯發科在思考的議題。

陳冠州認為,聯發科在AI運算技術領域投入很多,從幾年前就認為,未來的運算不只是CPU、GPU,還會有基於AI的APU趨勢會興起,所以也在其天璣5G晶片中導入APU架構。聯發科將於10月底推出天璣系列第三代晶片天璣9300,將具備基於LLM的AI運算技術。

業界解讀,如今Google上門找聯發科攜手開發最新AI伺服器晶片,意味聯發科在AI的實力深獲肯定,也是聯發科跨足當紅的AI伺服器領域一大里程碑。

業界指出,Google多項服務都與AI有關,多年前投入深度學習技術後,發現運用GPU衍生出的運算成本十分昂貴,因此Google決定自行開發深度學習專用的處理器晶片TPU,並於2015年亮相第一代TPU處理器,部署到自家資料中心。

回顧Google當年在開發者大會首次揭露其TPU,與當時的CPU與GPU相比,其TPU能提供高出30至100倍的每秒浮點運算性能,在整體運算效能表現有多達15到30倍的提升,甚至在效能、功耗比上,更是獲得近30至80倍的改善,如今Google的TPU晶片已經來到第四代。

消息人士透露,聯發科自行研發的Serdes已經有多款產品量產,技術成熟,此次協助Google打造的AI伺服器晶片將採台積電5奈米製程生產,預計今年底前送交給晶圓廠製造(tape out),力拚明年初量產。

業界人士說明,高速SerDes是兩個獨立的設備,即發送器(串行器)和接收器(解串器),是雲端數據流量和分析的重要關卡,主因隨著大規模資料中心增加,這種資料中心通常需要各種不同形式的網絡,從伺服器到機架路由器的頂端、從機架到機架,以及從各地或全世界的資料中心進行遠距離運輸,而透過高速SerDes晶片,將可解決超高速傳輸的問題。


延伸閱讀

三關鍵...Google找上聯發科

聯發科與輝達 強強聯手攻車用

※ 歡迎用「轉貼」或「分享」的方式轉傳文章連結;未經授權,請勿複製轉貼文章內容

上一篇
祥翊簽下美國銷售合約 瞄準24億美元肺纖維化藥物商機
下一篇
泰碩大股東申報轉讓所有持股 公司:理財行為不影響營運

相關

熱門

看更多

看更多

留言

完成

成功收藏,前往會員中心查看!