2024 Computex Taipei 於台灣時間 6 月 4 日展開,包括 Nvidia、AMD、Supermicro、高通、Intel 等 CEO 都親自到場分享最新 AI 趨勢。相較過去幾年多以電競為主題,本次展會重點圍繞著 AI 展開,並聚焦在 AI 伺服器及 AI PC 上。富果研究團隊也親自到場看展、聽講座,並將亮點內容整理於本報告。看完這篇文章,你將會了解以下幾件事:
- AI PC 正式商用化,各大廠都推出了哪些亮點?
- AI 伺服器概覽,對散熱、電源等零組件會有什麼改變?
- 從本次展會中,看 AI 從雲端往邊緣端的發展趨勢
AI PC 元年:各大品牌廠商皆推出自家 AI PC
微軟在上次的發佈會中正式以 Copilot+ PC 定義了 AI PC,並對硬體規格提出標準,需搭載至少擁有 40 TOPS 的 NPU,以及 16GB 的 DRAM 和 256GB 的儲存空間(能順暢運算 AI 之最低標準)。(微軟 Copilot+ PC 發佈會)
品牌廠相繼推出自家的 Copilot+ PC,並於本次 Computex 展出。以下,將分別從處理器晶片及 AI PC 應用本身來切入分享此次展會亮點,並分別討論。
處理器晶片:此次除了 x86 架構的 Intel 及 AMD,最大的亮點便是有多款搭載高通 Snapdragon X Elite 的 ARM 架構 AI PC 推出。意味著過往由 x86 主宰 PC 市場的局面,已經逐漸改變。
Snapdragon X Elite 為高通於 2024/04/20 推出專門用於 AI PC 的晶片。
- 架構創新:為微軟時隔數年再度合作推出之 WoA(Windows on ARM)PC 處理器晶片
- OEM 廠合作:目前推出搭載 Snapdragon X Elite 的 PC 廠商已有六家,包含微軟、Dell、HP、Acer、ASUS 及 Lenovo
- 軟體兼容性高:目前已適配超過 1200 款遊戲
宏碁新推出搭載高通 Snapdragon X Elite 處理器的 AI PC
Source:Computex
而同時,Intel 也發布了採用台積電 3nm 製程的 Lunar Lake 處理器晶片,以下是這次新處理器的四大亮點:
- 引進新技術:參考蘋果 M 系列晶片,首度採用統一記憶體存取架構、整合式 PMIC 供電等技術
- 採用新架構:大小核皆為全新架構,大核為 Lion Cove,IPC 較上代提升 14%,小核為 Skymont,整數/浮點 IPC 較上代提升 38%/68%
- 採用新製程:CPU 晶片首度委外生產,採台積電 N3B 及 N6 製程(計算模塊採 N3B、平台控制器模塊採 N6)
- 功耗降低:整體 Lunar Lake SoC 功耗較上代 Meteor Lake 可降低 40%
註:
統一記憶體存取架構:整合記憶體讓 CPU 和 GPU 使用同塊記憶體,以提升速度及能效
整合式 PMIC 供電:透過 4 顆 PMIC 對 SoC 上各區域進行精準調壓及供電,改善低負載及待機下的功耗
IPC(instructions per cycle)每周期指令:為衡量處理器效能的一個指標,此指標乘上時脈頻率就可作為衡量 CPU 性能的標準(CPU 性能 = IPC × 時脈頻率)
從此次的 Computex,可以看出大家都在積極推出搭載 AI PC 的處理器。
此次 Computex Intel 也宣布了全新一代處理器 Lunar Lake
資料來源:Computex
高通、微軟與 OEM 廠合作將推出首款 Copilot+ PC
Source:Computex、富果研究部
在 AI 應用的部分,微軟也針對 Copilot+ PC 推出內建於 windows 系統中的全新應用,包含即時離線翻譯(Live Captions)、生成式圖片 AI(Cocreator)、使用者紀錄(Recall)等功能,其中較過去比較創新的應用為使用者紀錄,會透過截圖及 AI 辨識的方式紀錄使用者歷程,影響的將是 PC 儲存空間需求的提升。此外,未來隨各種 AI 應用逐漸下放到邊緣端,讓 PC 可以離線使用 AI 功能,將使 PC 對處理器晶片、散熱、記憶體等需求提高。
(註:以下所提及之新應用目前僅限於搭載高通處理器之 Copilot+ PC,AMD 及 Intel 之 AI PC 仍未支援)
未來隨各種 AI 新功能的推出,對 NPU 算力的需求將會持續提升
Source:ASUS 官網、富果研究部
AI PC 未來展望:PC 處理器晶片競爭將可能加劇,並且對資料存儲的需求將大幅提升
綜合以上 AI PC 的內容後,富果認為此次 AI PC 將帶來兩大趨勢,分別是 PC 處理器晶片競爭加劇及存儲需求爆發:
隨著微軟發展方向往 ARM 架構靠近,windows 作業系統的處理器晶片將從過去 x86 的寡占市場走向 ARM 架構處理器的多元競爭市場。
一旦 ARM 架構處理器晶片能解決與 windows 系統軟硬整合的問題,富果判斷未來各大以 ARM 架構為主設計處理器晶片之廠商如聯發科(市:2454)、三星、華為等 IC 設計廠商就可能進入 PC 領域,也因此可以注意到此次 Intel 重心放一大部分在下代 PC 處理器晶片上,除了參考許多 ARM 架構的設計,甚至不惜將重要的處理器晶片晶圓代工外包給對手台積電,期望能提升競爭力。
存儲需求爆發的部分,富果判斷將是 AI PC 帶動的一大趨勢,從現在的情況來看,光是使用者紀錄就會吃掉一大部分的儲存空間(訪問 ASUS 及 Acer 現場人員得知,紀錄 3 個月的紀錄約需 25GB 的儲存空間),若未來 AI 模型落地到 PC 端,不管是何種應用,只要是「生成」式 AI,所需存儲需求勢必會大幅上升。
AI Server GB200 供應商勝出的關鍵會是客戶關係、自製能力、售後服務
NVidia 在 2024/3/19的 GTC 大會上正式發表了 AI 超級晶片 GB200,合作的廠商包括緯穎、英業達、廣達(雲達)、技嘉、華碩、華擎等,本次 Computex 皆展出了 GB200 NVL72 整機櫃。
然而在 GB200 機櫃上, NVIDIA 有給供應鏈廠商指定的設計,因此各家廠商的機櫃結構相似,可以自行調整的地方不多,因此 GB200 機櫃供應商要勝出的關鍵會是客戶關係(是否可以接到 CSP 廠的訂單) 、自製能力(硬體是否可以透過自製來提高毛利)、售後服務(是否可以提供完整的售後服務),推測供應商要在這三個面向上做出差異化,才能夠勝出。
各家廠商 GB200 NV72 結構相似
各家廠商 GB200 晶片設計也大同小異
AI Server 的另一大看點為液冷散熱。隨晶片熱功耗不斷上升,GB200 的熱功耗(TDP)高達 1,500 瓦 ,各家大廠所推出的新一代伺服器架構也逐漸超出氣冷解熱極限,NVIDIA 也宣布 2024 下半年即將出貨的 GB200 系列機櫃將全面採用液冷散熱,整體伺服器功耗不斷向上提升,使伺服器大廠開始採用新的液冷架構。
此次 Computex 多家廠商也展示了自家的液冷方案,判斷未來各伺服器平台也都將走向液冷架構,目前正處於氣冷走向液冷的關鍵節點,隨各國法規對於 PUE 的要求趨嚴,預期液冷需求將於 2024 下半年加速成長。
隨各國法規對於 PUE 要求趨嚴,預期液冷需求將於 2024 下半年加速成長
Source:whitecase.com、富果研究部
散熱供應鏈競爭加劇,掌握彈性解方與技術門檻為領先關鍵
此次展會中,伺服器品牌與代工廠主要聚焦於與 GB200 機櫃整合的液冷解決方案,以 NVIDIA 的 GB 系列而言,目前對於 AI Server 的合作模式是由 NVIDIA 自行找散熱模組廠驗證,驗證完畢後再交由代工廠(如台達電、技嘉、廣達、緯穎、鴻佰)組裝,AI Server 組裝廠皆展示自家的氣冷、液冷、及浸沒式三種解方,而要採用何種散熱架構則取決於客戶端的成本效益。
以這次台達電展出的氣冷及液冷技術,可看出 B200 的 3D VCs 層數明顯高於 H100,未來隨著算力需求提升,氣冷將受限於解熱及機櫃空間限制,預期各廠將逐漸走向液冷架構。
擁有多樣散熱及客製化解方、一條龍組裝能力,將成為代工廠競爭利基
Source:Computex、富果研究部
雖整體散熱的 TAM 隨伺服器算力提升而擴大,預期各家零組件廠商將持續受惠此大趨勢,然因多家廠商皆有跨足散熱相關零組件,整體供應鏈競爭加劇。
富果判斷未來除少數掌握關鍵技術門檻的廠商較具競爭優勢,其餘護城河較低的零組件廠將陷入激烈的競爭,而對於 AI Server 的代工廠而言,擁有多項散熱與客製化解決方案,與一條龍組裝能力將是其競爭關鍵。
散熱零組件供應鏈競爭激烈,掌握關鍵技術門檻將具競爭優勢
Source:Super Micro、雙鴻、富果研究部
AI Server: AI 往邊緣端發展,預期在自動駕駛、工業自動化及醫療保健等領域,將最先看到應用
除了較大型的伺服器機櫃,這次展會中也可以看到幾乎各家伺服器廠商都有推出邊緣端的 AI 伺服器產品,除了在本次 Computex 外,相信讀者在生活中,不管是在旅館入住、語音問答或是其他工作領域等,也越來越常看到 AI 的身影。
當未來 AI 大量應用到生活之中會遇到三個問題,分別是
- 低延遲需求:邊緣計算能夠將數據處理放在更接近數據源的地方,因此可以顯著減少延遲。對於需要即時反應的應用(如自動駕駛車輛、工業自動化),低延遲是必要的。
- 數據隱私與安全:隨著隱私和數據安全的關注日益增加,在邊緣進行數據處理可以減少數據在傳輸過程中暴露的風險,特別是在醫療產業、及企業會有這樣的需求。
- 頻寬限制:隨著 IoT 設備數量的增長,若要將所有數據都傳輸到中心雲端進行處理會對網絡頻寬造成巨大壓力。邊緣計算可以減少需要傳輸的數據量,減輕頻寬壓力。
這三個問題,由邊緣運算來處理都可得到一定的解決。從此次的 Computex 中各家廠商的展出也可看出 AI 往邊緣端發展的趨勢。例如下圖是本次 Computex 有展示出邊緣端 AI Server 的部分廠商及相關應用:
多家廠商有推出邊緣端的 AI 解決方案
會場中可以看到邊緣端 AI 的應用已經越來越多元
可以看到,現階段大多應用皆以智慧工廠、醫療等為主,但也開始往零售、娛樂等方面發展,在 AI 技術的發展越趨成熟下,富果判斷未來將可看到更多的應用。AI 將會改變我們未來的大小生活,而我們有幸站載著個時代見證這個時刻。
以上就是本次 Computex 的幾個亮點,再來富果研究團隊也將就本篇提到的幾個趨勢,進行更深入的研究分析。
自我揭露與聲明:
本人/本撰寫相關團體( 以下簡稱我 )目前有持有本文提到之股票的多方部位,但預計不會在未來 72 小時內增加持股。我與本文所提到的公司沒有商業關係,撰寫本文僅為分享,並無收取任何報酬。本文之資訊僅供分析參考,不保證內容之完整性與正確性,也不構成任何買賣有價證券之要約或宣傳。
責任編輯:林旻毅(CFA, 持有高業、投信投顧證照)
一、 未經合法授權,請勿翻載,本站內容僅供參考,本公司不負任何法律責任。
二、 投資人若依此以為買賣依據,須自負盈虧之責。
三、 與本網站有關一切糾紛與法律問題,均依中華民國相關法令解釋及適用之。