隨著 ChatGPT 爆紅,各家科技巨頭陸續加入 AI 戰爭,NVIDIA CEO 黃仁勳更在不久前提出「現在是 AI 的 iPhone 時刻」。本篇報告將分析 AI 發展現況,以及哪些產業將受惠。
富果觀點
1.AI 產業已從胚胎期過渡到成長期且開始商用化,產業未來將呈指數型成長
2.AI 伺服器搭載之 GPU 價量齊升,NVIDIA 是產業前期最直接受惠者。然判斷中後期廠商將加大採用/自研客製程度高、效率更好的 ASIC,終端軟體商將掌握主動權
3.AI 記憶體短期對整體產業貢獻不大,但未來將加速成長。台積電因掌握 3D 封裝技術將受惠
4.AI 產業態勢大者恆大,目前微軟、Google 掌握先發優勢,中國廠商則因晶片禁令,判斷落後會逐漸顯現
AI 產業已從胚胎期過渡到成長期且開始商用化,產業未來將呈指數型成長
AI(Artificial Intelligence,人工智慧)話題在市場已盛行多年,但過去大多侷限在諸如語音助理、人臉識別、Alpha Go 下圍棋、政府系統、工廠等分析工具等特定場合的應用,功能較為侷限。直到 2022 年底 ChatGPT 出現後,AI 已進展到可應對各領域、各形式內容的通才,也讓其應用場景更為多元。
隨 Open AI 開第一槍,各家科技巨頭皆相繼推出自家 AI 產品,並高調宣佈砸下重本發展。
應用端除聊天機器人外,更延伸到搜尋、辦公、金融、教育、娛樂等各種應用,例如微軟的 Bing 與搜尋引擎結合、Copilot 結合辦公軟體 Office;阿里巴巴將 AI 接入其旗下淘寶、天貓、餓了嗎等消費端應用;Bloomberg 將 AI 與金融結合,可以自動生成財務分析、建議報告等;Adobe 的 Firefly 可自動將文字指令轉換為圖片、影片等內容;又例如 Tesla 發布的 Optimus 人型機器人等。從企業端到客戶端都已有越來越具象的應用出現。
Source:TESLA、富果研究部
此外,廠商亦開始就 AI 服務收費,代表產業已從過往僅有概念、小眾應用的胚胎期正式邁向了有實際產品、商業模式、用戶基數的成長期。
若以 AI 領域的融資金額來看,2022 年約 26.5 億美元,2023Q1 就高達 170 億美元,其中光 Open AI 就獲得微軟 100 億美元投資,在科技巨頭入局及資本推波助瀾下,AI 大戰已正式開打。
Source:CBINSIGHTS、富果研究部
根據 Grand View Research 研究,AI 產業產值(包含軟硬體)將在 2030 年達 1.73 兆美金,未來 7 年以 37.3% CAGR 成長,目前仍是一片藍海市場,產業背後有許多投資機會。
AI 伺服器產業鏈可簡單理解為加強版的伺服器
AI 的運作邏輯分為訓練(Training)及推理(Inference)兩塊,其中訓練是藉由投入大量數據資料讓模型學習,而推理則是 AI 透過參考學到的資料,產生判斷結果。由於訓練過程需消耗大量運算資源,算力是其發展的關鍵。
故可將 AI 伺服器產業鏈理解為算力更強的伺服器,一樣分成上游的半導體、電子元件、機殼等零組件,中游的 ODM、品牌商,以及下游的客戶。關於伺服器產業在 <雲端服務商機!白話文解構「伺服器產業」>已有詳盡介紹,讀者可先行參考。
根據 TrendForce 數據,AI 伺服器在 2022 年出貨量約 85.5 萬台,僅占整體伺服器出貨量 6.3%。但預計 2026 年將增加至 237 萬台,以 4 年 22% 的 CAGR 成長。且因規格更高,既有產業鏈或多或少都將受惠。若順著「提高算力」邏輯想,其中用量及規格要求會有更明顯增加的,判斷有 GPU、FPGA/ASIC 及記憶體。
以下將就這幾個領域探討其投資機會及代表廠商。
Source:富果研究部
AI 伺服器搭載之 GPU 價量齊升,NVIDIA 是產業前期最直接受惠者
AI 訓練需要重複運算大量的數據,例如 GPT 2 僅使用 15 億個參數,但到 GPT 3 就使用高達 1,750 億個參數,隨著應用場景的增加,每一代的新模型數據量呈指數增加。
因此適合做簡單重複、大量運算的 GPU 就是現階段 AI 運算最關鍵的元件。例如 ChatGPT 背後就用了約 1~2 萬個 NVIDIA 的 A100 GPU。
AI 伺服器平均每台需搭載 4~8 顆高階 GPU 及 2 顆 CPU(目前 AI 伺服器中,約有 60~70% 是搭載 Nvidia 的 GPU,其餘則包含 FPGA、ASIC)。,成本也高於一般繪圖遊戲 GPU,以 NVIDIA 專門用於 AI 的 GPU H100 來看 ,其單價約 2 萬美金(前一代 A100 的售價為 1~1.5 萬美金),比一般遊戲 GPU 高出 10~20 倍。
Source:技嘉型號 G293-S45
根據調查,NVIDIA 今年約下訂約 90~120 萬片的 H100 訂單,以單顆 H100 GPU 售價 2 萬美元計算,推估今年光 H100 的 AI GPU 產值可達 180~240 億美元,較 2022 年翻倍成長 2 倍。
在價量齊升下,作為軍火彈藥庫的 GPU 供應商無疑是最大受惠者,目前 NVIDIA 就佔據全球超 85% 的份額,剩下 15% 則由 AMD 掌握。然而 AMD 的產品主要是以 APU 為主(CPU+GPU),若單看目前市面上的 AI GPU,NVIDIA 幾乎壟斷整個市場。
Source:公司網站、TECHPowerUP、富果研究部
NVIDIA 除了 GPU 領先外,在軟體整合、生態圈的創建更是其競爭關鍵,包括推出的 GPU 運算架構 CUDA、模擬空間 Omniverse,及近期推出的 DGX Cloud 能開放給一些資源不足以建置伺服器的客戶直接使用其雲端 AI 運算等,幾乎涵蓋了整個場景應用,是目前最直接受惠 AI 趨勢的公司。
產業發展中後期客戶將加大採用客製程度、效率更高的 FPGA、ASIC
在軍備競賽的前期大多會使用通用型的 GPU,但到中後期各家廠商的基礎設施建立後,富果判斷對更客製化、效率更高的 FPGA、ASIC(特殊應用晶片)的需求將明顯增加。目前 FPGA 主要供應商有 AMD 併購的 Xilinx 以及 Intel,兩者合計掌握全球 80% 以上市場。
而 ASIC 則是由各家科技廠商與 ASIC 設計業者共同研發,目前包括微軟、META、Google 等公司都宣布自行研發 AI 相關的 ASIC,不過預估皆要 2~3 年後才有機會量產。