打開 App

  • 會員中心
  • 訂閱管理
  • 常見問題
  • 登出
bell icon

水與熱之爭 千瓦級技術上場

本文共1522字

經濟日報 簡恆傑

AI、雲端與高效能運算(HPC)的熱潮持續推升晶片功耗上限。十年前,伺服器處理器的散熱設計功率(TDP)多在200至300W,如今最新一代的AI加速器與高階GPU,單顆功耗動輒超過700W,新世代晶片甚至逼近1,400W。散熱,已從輔助角色變成「運算性能瓶頸的決定因素」。傳統氣冷技術雖然成本低,但受限於空間與效率,已難以應付千瓦級晶片的高熱需求。隨著算力不斷提升,液冷逐漸取代氣冷,成為新一輪資料中心競爭的核心技術。

液冷主要分為冷板與浸沒式兩種。市場研究機構MarketsandMarkets預估,全球資料中心液冷市場將從2025年的28.4億美元,成長到2032年的211.4億美元,年複合成長率(CAGR)達33.2%。其中,冷板液冷滲透率最高,預計2026年將應用於超過一半的新建高效能資料中心;浸沒式雖然比例較低,但在高密度部署中被視為有效解決方案。業界普遍認為,2025年至2027年將是液冷技術從驗證走向大規模商用的關鍵轉折期。

看準這股趨勢,經濟部產業技術司支持工研院及國內業者,展開冷板與浸沒式液冷的研發與實測,讓台灣能與國際同步接軌,並逐步進入國際供應鏈。其中,冷板技術已是液冷散熱的主流,透過冷卻液直接引導到晶片正上方的金屬腔微流道,藉此把熱帶走。若是單相冷板(Single-Phase Cold Plate),冷卻液在吸熱的過程中始終保持液態,系統穩定、控制容易,適合大規模部署。至於雙相冷板(Two-Phase Cold Plate),則是利用液體受熱後汽化的特性,能吸收更多能量,散熱效率比單相再提升,但設計和壓力控制的要求更高。

目前在NVIDIA合作的新一代AI伺服器方案中,Blackwell晶片已導入單相冷板系統,搭配高效熱交換器,實現單晶片千瓦級散熱。而AMD的Instinct MI300系列加速器晶片,也已針對液冷環境進行優化。

浸沒式冷卻是一種把整台設備直接泡在絕緣冷卻液裡的方式,能大幅減少風扇使用,非常適合空間緊湊、耗電量又高的運算環境。單相浸沒式的做法是讓冷卻液保持液態,靠循環泵(幫浦)把熱帶走,系統設計相對簡單;雙相浸沒式則是讓冷卻液在高溫下沸騰吸熱,蒸氣上升後再被冷凝器降溫成液體回流,散熱效率更高,甚至能處理單顆超過1.5kW的晶片。2024年時,日本NTT就在千葉縣建立「Data Center Trial Field」測試場域,同時驗證浸沒式與液冷系統,並在既有機房試行雙相液冷,尋找既能有效降溫又能節能的解決方案。

除技術突破,散熱的另一個重點在於能源效率與永續。晶片散熱不僅關乎性能,更攸關整體能耗。空冷機房的能源使用效率(Power Usage Effectiveness,PUE)通常在1.6以上,而液冷系統可將PUE壓低到1.3以下,代表在同樣的晶片算力下,冷卻所需的電力支出會明顯減少。隨著全球推動碳中和與用電限制,液冷已不再是高性能運算的「錦上添花」,而是邁向千瓦級晶片的必然選擇。

因應高功耗晶片的散熱挑戰,技術司已藉由科技專案,支持工研院針對超高發熱晶片與高密度伺服器的應用情境,展開冷板液冷與浸沒式冷卻的全方位技術部署。千瓦級晶片的時代已經來臨,但過去令人頭痛的散熱難題,正在透過冷板與浸沒式等新技術逐步化解,未來AI伺服器與HPC系統發展將不再受限晶片散熱瓶頸。

冷板技術將成為大規模AI叢集的標配,而浸沒式則在超高密度伺服器與極端功耗場景中大放異彩。下一步產業將迎來液冷標準化、模組化與餘熱利用的新戰場,換言之,晶片性能的比拚,不再只是奈米製程與架構設計的競賽,也是一場關於「水」與「熱」的戰爭。千瓦級晶片散熱時代,已經來臨。(作者是工研院電光系統所正工程師暨專案經理)

※ 歡迎用「轉貼」或「分享」的方式轉傳文章連結;未經授權,請勿複製轉貼文章內容

猜你喜歡

上一篇
記憶體熱翻 旺宏、鈺創轉盈 群聯、十銓年營收創高
下一篇
AI 催動 磷化銦磊晶價喊漲 IET、全新、聯亞搭上漲價列車

相關

熱門

看更多

看更多

留言

前往頁面