本文共4270字
隨著生成式AI與大型語言模型迅速擴張,市場對高效能運算晶片的需求大增,過去一面倒依賴輝達GPU的格局,正逐漸被Google自研TPU等ASIC專用晶片改寫。TPU主打更高能效與更低成本,並結合雲端服務與自家生態系,成為科技巨頭角力的新戰場。對此,《經濟日報》整理相關資訊,從TPU技術特色、與GPU的差異,到台廠供應鏈與概念股布局,協助投資人掌握AI運算版圖變化及後續產業機會。
堪比輝達GPU!Google的利器TPU是什麼?
TPU(Tensor Processing Unit)是由 Google 自行設計的專用積體電路(ASIC, Application-Specific Integrated Circuit),Google 表示,為了處理其服務(如語音辨識、影像處理、大規模推薦系統)中的機器學習運算需求,傳統 CPU/GPU 架構效率不敷使用,因此從 2015 年起內部開始部署 TPU,專門用於加速機器學習(ML)/深度學習模型的訓練與推論。
Google 在 2025 年公佈第七代TPU,名為 TPU v7 Ironwood,這一代設計特別針對「推論」(inference)場景,而非僅訓練。其中,亮點在於,可串接至 9,216 顆晶片一個 Pod(集群),顯示極大規模運算能力,且每片晶片配備高頻寬記憶體(HBM3e或類似)與進階互連技術,以支援巨量運算/資料搬移。
此外,TPU又屬於自研晶片中的的一環,特殊應用積體電路(Application-Specific Integrated Circuit;ASIC)就是「為特定用途量身打造的晶片」,不像 CPU 或 GPU 那樣什麼都能跑,而是把某種固定任務寫死在硬體裡。
而TPU在專門的環境下最大的優勢在於,他不僅跑得更快、更省電、成本更低,以及效率也更高。對比GPU擅長重複、並行的大量計算,ASI就像是為某一件事打造的「專業機械」,只做那件事,但做得極快、極省電。
目前除了 Google,包含亞馬遜雲端(Amazon Web Services ;AWS)、Meta等大型科技公司,也在積極布局或已經推出類似專用 AI 加速、ASIC晶片。
TPU、GPU成深度運算「兩塊寶 」差異在哪?

首先,TPU 作為Google 的自研晶片,主要運作的模組範圍為Google Cloud,根據數據,但特定情況下, TPU相較於同時代GPU在推論上,最高可達15至 30倍以上的性能/功耗優勢。
不過,也是因為這樣,TPU的生態系統較為「集中」,主要是在Google的雲端服務中提供,並且與TensorFlow/JAX深度整合。
而GPU在軟體生態、開發者支援、模型種類與雲端/本地部署的可選擇性上,較 TPU 廣泛,且包含輝達(NVIDIA)超微(AMD)都積極搶攻,若需求較為「多樣化」、「不同模型框架(如:PyTorch)」、「需要靈活調整」或「設備自有/非雲端專用」的情境,GPU較具優勢。
⚙️ TPU 與 GPU 差異比較(用途、架構、優缺點一次看)
項目
| TPU(Google)
| GPU(NVIDIA 等)
|
|---|---|---|
| 設計目的 | 專為 AI 訓練、推論打造 | 原本做影像運算,後來支援 AI |
| 擅長的工作 | 大規模、重複的矩陣運算(如大型模型訓練) | 多元用途,含 AI、繪圖、科學計算等 |
| 架構特性 | 以專用矩陣乘法單元提升效率 | 大量並行核心,通用性高 |
| 開發彈性 | 較侷限,最佳搭配 TensorFlow / JAX | 彈性高,支援 PyTorch、TensorFlow 等各種框架 |
| 部署方式 | 主要在 Google Cloud 使用 | 雲端、本地都可部署,硬體選擇多 |
| 優勢 | AI 訓練效能強,能耗比優於 GPU | 生態成熟、用途多、相容性好 |
| 限制 | 需依賴 Google 生態、彈性較低 | 能耗較高、成本較貴(高階 GPU) |
註:TPU 與 GPU 的選擇取決於應用需求。若為大規模深度學習訓練,TPU 具效率優勢;需兼顧彈性與相容性時,GPU 較為通用。
| ||
自研晶片崛起!TPU能扳倒輝達GPU霸主之位?

大型模型(LLM)從百億、千億參數跨向兆級,運算需求倍數成長,而GPU 雖通用,但無法持續以同樣速度提升效能/瓦(performance per watt),對此,在資料中心耗電與散熱成本暴增的壓力下,市場需要更高能效、更高密度 的運算晶片,讓ASIC逐步受到重視,晶片需求也跟著漸增。
此外,也多虧AI規模擴張效果顯著,在演算法趨於穩定的情況下,「把固定運算寫死在硬體中」的ASIC就變得值得投資。再加上,目前市場中的GPU霸主輝達 高階晶片如H100、H200、GB200、GB300價格昂貴且供應吃緊,同時,為了降低對輝達的依賴,也使TPU等自研晶片成為相對較好的選擇,進而成為各大科技廠、雲端廠角逐的新戰場。
至於,是否能夠因此撼動輝達在AI伺服器,以及GPU上的地位?這個答案可能要再過個幾年再來討論,其中,最大的原因在於,輝達靠著自家的CUDA生態系打遍天下無敵手,加上晶片、伺服器綁定生態系的「標配」,形成「綁定效應」。(延伸閱讀:AI 霸主不保?輝達火速回應:樂見Google 成功 但我們在業界「領先一代」)
為此,亞馬遜推出Trainium、Inferentia,Google自研TPU晶片+自家生態系,Meta也有MTIA平台系統,以及像是Microsoft則有自研 AI 加速器(Athena)
尤其,除了減少自家在AI上的訓練成本外,也藉由資料中心基礎設施工程,TPU + 網路架構 + 整合式軟體,讓TPU 成為 Google 在雲端 AI 基礎建設的「底層砲台」。不過,儘管TPU技術強,但TPU不是市場商品,而是Google自用硬體,因此,輝達在「商業市場」仍穩居壟斷式地位,但未來發展仍可期。
Google TPU成新教主 供應鏈有哪些?

Google TPU技術持續推進,帶動台系供應鏈關注度升高,相關概念股涵蓋晶圓代工、材料、載板、測試設備到伺服器組裝等多個環節。其中,台積電(2330)為Google TPU核心晶片的主要先進製程代工廠,居於概念股名單首位;聯亞(3081)則是Google TPU v7平台驗證階段的重要供應商。
在材料端,金像電(2368)提供TPU v7 30至40層的高階板材,台光電(2383)負責TPU所需的高階CCL材料M8。組裝與系統端部分,英業達(2356)是TPU 6的第二大供貨台廠,欣興(3037)則供應 Google伺服器所需的載板。
測試與驗證相關廠商包含精測(6510)與旺矽(6223),皆為TPU v7的供應商;另外,精成科(6191)透過併購日商Lincstech,間接切入Google TPU供應鏈。IC設計端則由創意(3443)承接Google Axion CPU製程設計服務,聯發科(2454)也與Google合作參與TPU v7與v8的開發。
此外,光聖(6442)提供TPU所需的高速傳輸元件,完整串聯台灣在高效能運算與AI加速晶片供應鏈的角色。
Google TPU 概念股清單
| 股號 | 公司名稱 | 與 Google TPU 相關說明 |
|---|---|---|
| 2330 | 台積電 | 關鍵核心皆採用台積電的先進製程 |
| 3081 | 聯亞 | Google TPU v7 平台驗測階段主要供應商 |
| 2368 | 金像電 | TPU v7 30~40 層高階供應商 |
| 2356 | 英業達 | 英業達為 TPU 6 第二大供貨台廠 |
| 2383 | 台光電 | TPU 高階 CCL 材料 M8 供應廠 |
| 3443 | 創意 | Google Axion CPU 製程設計服務合作商 |
| 6510 | 精測 | TPU v7 供應商 |
| 3037 | 欣興 | Google 伺服器載板 |
| 6223 | 旺矽 | TPU v7 供應商 |
| 2454 | 聯發科 | 與 Google 合作開發 TPU v7、v8 |
| 6442 | 光聖 | TPU 高速傳輸供應商 |
| 6191 | 精成科 | 精成科併購日商 Lincstech,間接切入 Google |
資料來源:統一投顧;AI協助製表
(資料來源:編譯葉亭均、劉忠勇;AI協助製稿)
延伸閱讀
「Gemini 3震撼」要搶輝達10%營收!Google TPU有多神?台積仍是贏家
Google 的 TPU 挑戰輝達霸權 為什麼在 AI 概念股中掀起了兩樣情?
※ 歡迎用「轉貼」或「分享」的方式轉傳文章連結;未經授權,請勿複製轉貼文章內容
留言