fbpx
Generic selectors
Exact matches only
Search in title
Search in content
Post Type Selectors
Filter by Categories
軟體
其他
生醫
投資入門
民生消費
投資心法
其他
金融知識
個股分析
量化分析
半導體
消費性電子
IC 設計
法說會備忘錄
IC 製造
IC 封測
材料設備
記憶體
電子零件
產業分析
民生消費
AI
生醫
車用
能源
消費性電子
軟體
時事短評
未分類
test

ARK 的研究指出,根據 Wright’s Law(見註),隨 AI 運算硬體生產流程持續改進、升級,將減少晶片生產成本,加上持續優化演算法,至 2030 年前每年 AI 訓練成本將較上一年下降 75%。訓練成本大幅下降,有助於科技巨頭外的企業投入 AI 模型研發,促進 AI 模型需求多樣化,由於 AI 模型訓練完要跑應用就會到終端進行推論,故模型種類越多,對應的推論需求也就越多。

註:Wright’s Law 又稱經驗曲線效應,也就是隨著生產產量(經驗)增加,生產成本也會隨累積產量的增加而下降。

資料來源:ARK 2024 年度展望報告

隨推論需求多元化加上成本降低,將加速各種推論應用的發展,如語言模型、生成式 AI、自駕、數位孿生等,不同於訓練對算力有高需求,推論更講求在「低功耗」基礎上提升算力,故用低功耗 RISC-V 架構設計之 ASIC 會較 GPU 在推論市場更具優勢及潛力。

而 AI 推論晶片依照應用可分為兩類:核心端及邊緣端。核心端多以外插在伺服器上的加速卡為主,代表晶片除了通用的 GPU,還有 CSP 大廠自研的 ASIC,例如 Meta MTIA(Meta Training and Inference Accelerator)、Amazon Inferentia 等;邊緣端種類及應用則較為廣泛,各種行動、邊緣裝置中所含有 AI 推論功能的晶片幾乎都算,如 AI MCU、NPU 等。

以下將分別分析晶心科在核心端和邊緣端的優勢。

 

核心端 AI 推論:晶心科將藉 RISC-V 低成本、客製化程度高的特性,拓展伺服器加速領域市場

在推論階段,廠商會更加傾向採用更客製化、更彈性的 ASIC,一是可以分散掉僅用 NVIDIA GPU 的風險,二是 ASIC 能提供較低的成本及功耗,目前四大 CSP 廠商都有自研推論晶片的計劃,其中 Meta 便是採 RISC-V IP 來設計推論晶片 MTIA。

 

MTIA 推論晶片量產後性能若優於預期,除了能持續獲得 Meta 專案,也有機會打進其他 CSP、社群廠商

目前 Meta 公布的資料,MTIA v1 採用晶心科 AX25-V100 的 CPU IP 進行運算,V100 是指在 AX25 基礎上增加為 Meta 客製化的指令,一顆 MTIA v1 會搭載 128 顆晶心科 CPU 核心、一台伺服器會插上 12 顆 MTIA v1 晶片進行加速。

MTIA 全名為 Meta Training and Inference Accelerator,為 Meta 針對 AI 訓練及推論研發的 ASIC,目前較為簡單的推論晶片 MTIA v1 已被 Meta 少量部署,預計 2024 下半年量產,MTIA v2 預估將繼續採用晶心科 IP

資料來源:MTIA 論文

目前 Meta 採 NPU 架構設計的 RISC-V AI 推論晶片 MTIA 擁低功耗、低成本特性,性能在中低複雜度模型的運算上也不輸 GPU,晶心科將有機會憑藉 MTIA 的成功打進其他大廠,推估有 AI 推論需求的 CSP 大廠微軟、擁資料中心且有推薦需求的社群廠商騰訊(Wechat)、字節跳動(Tiktok、抖音)等公司將有機會成為潛在客戶。

 

邊緣端 AI 推論,晶心科將藉 RISC-V 體積小、低功耗的特性,拓展有極端特性需求的邊緣端市場

隨各種 AI 應用(AI 助理、生成式 AI)增加,數據若要轉移至邊緣端運算,勢必將推進邊緣端硬體升級以支應推論運算需求,而 RISC-V 體積小、低功耗的優勢,將有機會被普及採用在邊緣端應用。雖然目前多數 MCU 廠(奇景、英飛凌、新唐)推出之 AI MCU 皆採 ARM 架構,但同時多已著手研發基於 RISC-V 架構之 MCU,晶心科的 RISC-V IP 便已打入 MCU 廠瑞薩做佈局

資料來源:富果研究部

 

憑藉 AI 新產品和即將進入量產的客戶,晶心科將能在邊緣 AI 推論市場擴大影響力

AI 應用高速成長的背景下,僅靠 CPU 在邊緣端運算已越來越難,故晶心科在 2023 年推出針對邊緣 AI 推論的 AndesAIRE 產品線,讓客戶可額外加購設計套件,當中包含了 AI 加速器 I350 IP、NN SDK 神經網路軟體開發套件、ACE 擴充指令集等,從原本只授權處理器 IP,到連周圍的 AI 加速功能也授權,為客戶提供了完整的 AI 邊緣運算解決方案,將可提升每客戶的合約價值。

此外,公司客戶 Tetramem、Rain.ai 都將量產邊緣端 AI 晶片,Tetramem 採用的是 NX27V IP,用於製作其基於憶阻器(見註)架構的記憶體運算晶片;Rain.ai 採用的則是 AX45MP,用於數位記憶體運算的 AI 晶片,且 Tetramem 已找晶心科研發下一代晶片,量產後性能優秀將有機會強化晶心科在邊緣 AI 推論市場的影響力。

註:憶阻器,又稱記憶電阻,和電阻器一樣是被動元件,但不同於電阻的是在斷電後能「記憶」先前通過的電荷量

 

在中美競爭加劇,且 AI 推論需求提升的情況下,推估 2024 年將能轉虧為盈,2025 年開始迎來高速成長

最後來看財測的部分。

營收方面,2024-2025 年主要動能將來自 AI 推論需求增加,帶動廠商購買相關 IP 以開發 AI 推論晶片,以及中國客戶開始尋求非 x86 及 ARM 體系的第三處理器 IP 供應,基於以上動能,預估 2025 年 AI 方面合約數將較 2023 年翻倍,高階 AX60 系列產品授權合約數未來兩年也將成長,預估 2024 / 2025 年營收達 14.8 / 22.2 億元新台幣(以下同),YoY+40% / +50%。此外,由於 V3 架構已較少再授權,因此未來營收貢獻將來自現有產品的量產權利金,預估 2024 / 2025 年 V3 產品營收僅隨半導體產業回溫成長,金額各約 2.3 / 2.9 億元。

營業利益率方面,隨公司研發人員擴編期已結束,預計研發費用為主體的營業費用成長將趨緩,帶動營業利益率逐步回升,預估 2024 / 2025 年營業利益率為 -4.9% / 23.1%,YoY +20.5ppts / +28ppts。

業外收支方面,由於 2025 年公司新辦公室將完工,屆時將支付房屋尾款約 9 億元,故帳上能產生利息收入的現金將大幅減少,預估 2024 / 2025 年業外收支將達 2.17 / 1.07 億元。

最後在 EPS 的部分,預估 2024 年底至 2025 年初可能會再有募資計劃,故股本將略為膨脹,預估2024 / 2025 年 EPS 將達 2.62 / 10.41 元,YoY +4.73 元 / +7.79 元。

資料來源:晶心科、富果研究部

由於公司研發 IP 產生的攤銷費用高,帳上現金產生的利息收入也高,故採企業價值倍數估值法(EV/EBITDA)會更合適,以目前晶心科約 389.5 元股價和預估之 2025 年獲利來看,2025 年 Forward EV/EBITDA 為 21.1 倍,相較 IP 同業平均 30 倍低,讀者可再持續關注。

註:SiFive 由於是未上市公司所以無法比較

資料來源:晶心科、富果研究部

 

結論

簡單以兩大重點作結

1.經過 NVIDIA 併購 ARM 及中美科技戰的事件後,廠商更重視了分散風險的課題,故 RISC-V 將憑開源、彈性等優勢,成為 CPU 設計上 ARM 及 x86 之外的最好選擇,其中又將以中國市場為主要發展重心,原因來自美國持續對中施加禁令,故中國若要晶片自主化,RISC-V 將會是設計晶片上的一個不受限的選擇。

2.各種新 AI 模型的落地,將帶動 AI 推論運算需求的提升,公司目前已佈局 Meta 的核心端推論晶片及邊緣端新產品線 AndesAIRE。且許多 AI 客戶之產品都將在 2024-2025 年間量產,屆時除了將獲得量產的權利金收入,也將有機會為公司在推論晶片市場打開知名度。

 

自我揭露與聲明:

本人/本撰寫相關團體( 以下簡稱我 )目前有持有本文提到之股票的多方部位,且預計會在未來 72 小時內增加持股。我與本文所提到的公司沒有商業關係,撰寫本文僅為分享,並無收取任何報酬。本文之資訊僅供分析參考,不保證內容之完整性與正確性,也不構成任何買賣有價證券之要約或宣傳。

責任編輯:林旻毅, CFA

一、 未經合法授權,請勿翻載,本站內容僅供參考,本公司不負任何法律責任。

二、 投資人若依此以為買賣依據,須自負盈虧之責。

三、 與本網站有關一切糾紛與法律問題,均依中華民國相關法令解釋及適用之。

以下內容僅限 富果帳戶 閱讀

搭配高價值的內容和好用投資研究工具

160
Author

Fugle 富果研究團隊 / 師大企管系
熱愛接觸新興科技,持續累積商業洞察的實力
努力朝財富自由之路邁進