周末精選1/輝達、超微攻自研 AI 晶片 雲端服務四雄搶市激戰 台積電有望成最大贏家
AI熱潮席捲全球,四大雲端服務業者(CSP)亞馬遜(Amazon)、微軟、Google、Meta積極建置AI伺服器之際,也大力投入自研AI晶片領域,這些自研AI晶片不對外販售,卻成為各大CSP廠在這場激烈的AI賽局中勝出的祕密武器之一,也讓全球AI大戰更加激烈。
值得注意的是,各大CSP都開始自行研發晶片,由於AI晶片需要先進製程量產,台積電(2330)具備技術與產能優勢,幾乎通吃相關訂單,大啖AI商機。
亞馬遜的AWS稱霸雲端服務市場,也是最早開始自行設計晶片的CSP業者,以加強自家雲端伺服器的運算能力。Amazon AWS在2023年12月年度開發者大會上宣布,推出新一代自研晶片Graviton4晶片和AI晶片Trainium2,同時攜手輝達開發超級電腦,展現CSP龍頭氣勢。
AWS指出,新型Graviton4晶片運算效能較前代Graviton3增加高達30%、內核增加50%、記憶體頻寬提升75%,在亞馬遜彈性雲端運算(Amazon Elastic Compute Cloud,Amazon EC2)上提供最高性價比與能源利用效果,應用Graviton4的電腦將在未來數個月內上市。
AWS推出的另一款新品為新一代AI晶片Trainium2,速度較前代Trainium1快四倍,將能在EC2 UltraCluster中部署多達10萬個晶片,讓用戶在短時間內訓練上兆參數的基礎模型(PM)和大型語言模型(LLM)。
微軟、Google、Meta在雲端服務市占率雖然不及AWS,但在生成式AI工具和大語言模型彎道超車,更追上自研晶片趨勢。Meta攜手微軟推出免費商用大型語言模型Llama 2,雙方於人工智慧領域擴大合作,Meta並釋放出多個語言模式供業界、學界免費使用,配合Llama 2。
2023年5月,Meta公開首款自研AI晶片「MTIA」(Meta Training and Inference Accelerator),最快2025年推出。MTIA針對推論、演算法等工作設計,過去Meta資料中心的晶片也是以採用輝達(NVIDIA)產品為主,但為了自家AI功能更強、成本因素,決定推出自己的晶片。
Google持續打造專為AI設計打造的Google Tensor晶片,內含CPU、GPU,尤其著重在有AI運算能力的TPU(Tensor Processing)。Tensor晶片被用來執行公司九成以上的AI訓練作業,並將其用於公司內部逾90%的AI訓練工作,目前已發展到第四代。Google以自研晶片打造自家資料中心以外,也搭載手機產品,實現從軟體搭配硬體實踐Google AI軟體服務的理念。
生成式AI的風潮,也讓微軟從軟體業者變成系統業者,微軟去年在Ignite大會上,公布為AI服務而設計的Maia 100 AI加速器,以及用來執行Azure上通用型運算作業的Arm架構處理器Cobalt 100CPU,微軟從晶片、軟體與伺服器到機架、冷卻系統100%標榜全自製,晶片完整了微軟硬體的「最後一哩」,相關產品預計今年初應用於微軟資料中心,主要執行Copilot(Bing Chat)AI及Azure OpenAI Service。
延伸閱讀
推薦文章
-
宏益纖維重訊公告 董座施振榮過世
-
美超微大單來了台鏈振奮 明年出貨估逾1萬櫃
-
台積電1.6奈米棄High NA曝光,反而讓英特爾和三星壓力更大?
-
英業達法說會/輝達GB200出貨延後?財務長:產線未 Ready 談量產仍太早
-
水泥業利多!官方允鬆綁法規 公共工程採用低碳水泥...有影
-
廣達「員工分紅」金額曝光 10月入袋...較去年增逾29%
留言