從HBM4到321層NAND:SK海力士在AI記憶體戰局中的「技術槓桿」與投資想像

從HBM4到321層NAND:SK海力士在AI記憶體戰局中的「技術槓桿」與投資想像

AI 貪吃資料,記憶體成為下一個「戰略礦產」

生成式 AI 帶動的,不只是 GPU 的軍備競賽,更是記憶體與儲存的結構性重定價。當模型參數以兆為單位成長、推理場景從雲端擴展到終端裝置,誰能提供更高頻寬、更大容量、同時更省電的記憶體,誰就掌握了 AI 基礎設施的「水與電」。在 CES 2026 上,SK 海力士主打的 16 層 48GB HBM4、HBM3E GPU 模組、LPDDR6 以及 321 層 QLC NAND,其實是一張完整的 AI 記憶體版圖,也是投資人理解下一輪半導體景氣的關鍵線索。

16 層 48GB HBM4:AI 算力的「渦輪增壓器」

HBM 從小眾高階產品,變成 AI GPU 標配,背後原因很簡單:頻寬與容量不足,GPU 再強也餓肚子。SK 海力士這次預告的 16 層 48GB HBM4,在先前 12 層 36GB、11.7Gbps 版本之上再往上堆疊,釋放兩個訊號:一是 AI 訓練與推理對單顆 GPU 的記憶體需求,正突破 48GB 門檻;二是堆疊層數與製程難度提高,將進一步強化少數玩家的技術與供應壟斷。對市場來說,HBM4 不只是規格升級,而是 AI 晶片設計邏輯的改寫——更多運算與控制功能開始往 HBM 內部整合,記憶體從「配角元件」變成「半算力晶片」,毛利與議價能力自然水漲船高。

從 HBM3E 到 LPDDR6:雲到端的一條龍記憶體戰略

如果說 HBM4 是 AI 雲端算力的旗艦產品,那 HBM3E 與 LPDDR6 則構成了 SK 海力士的「雲到端」一條龍佈局。HBM3E 12 層 36GB 搭載在全球客戶的 AI 伺服器 GPU 模組上,顯示 2026 年 HBM 市場仍將以 3E 為主流、4 代為前瞻卡位。另一方面,LPDDR6 則鎖定手機、PC、車載等端側 AI,強調在頻寬與能效上的跨代提升。當推理逐步下放到終端裝置,本機模型執行不再是實驗,而是產品賣點。從資料中心的 HBM,到邊緣與手機的 LPDDR6,SK 海力士不只是賣晶片,更是在卡位「AI 流量通道」的每一個節點。

321 層 QLC NAND:AI 資料中心的「冷熱並存」新基礎

AI 模型訓練一次可能用掉數百 PB 資料,推理階段也要長期存放向量、用戶記錄與各種快照。這些資料不一定天天被讀取,卻必須隨時待命——超高密度、低功耗的大容量 SSD 因此變成關鍵。SK 海力士此次展示的 321 層 2Tb QLC NAND,正是往這個方向押注:透過高度堆疊與每單元四位元儲存,換取每 TB 成本下探,同時標榜針對 AI 資料中心優化功耗與效能。QLC 過去常被質疑壽命與穩定性,如今在控制器與韌體演進下,已從「冷資料」走向更廣泛的 AI 儲存場景。對投資人而言,這代表 NAND 也可能重演 HBM 的 ASP 反轉,只是節奏較溫和、受景氣循環影響更明顯。

產品類別代表規格主要應用場景潛在投資意涵
HBM416 層 / 48GB旗艦級 AI GPU、訓練伺服器高門檻、高毛利,景氣反轉時反彈力道強
HBM3E12 層 / 36GB2026 年主流 AI 伺服器量體最大,價格波動對營收影響顯著
LPDDR6新一代低功耗 DRAM手機、PC、車載端側 AI押注 AI 終端普及節奏,受消費景氣影響較大
321 層 QLC2Tb NANDAI 資料中心 SSD成本優勢推升位元出貨,適合長線布局

定制化 HBM 與 PIM:記憶體正走向「會算的儲存」

SK 海力士在 CES 設立的 AI 系統演示區,展示了定制化 HBM、PIM 架構 AiMX、支援存內計算的 CuD、以及在 CXL 記憶體上融合運算的 CMM‑Ax 等方案,這些名詞背後是一個共同趨勢:算力從 CPU / GPU,開始向記憶體與儲存外溢。當 AI 模型日益龐大,將資料搬來搬去變得極度低效,於是部分運算被推進 HBM 或 CXL 記憶體中直接處理。這不僅優化延遲與功耗,也改變了價值分配——未來的高階記憶體,不再只是比速度與容量,而是比「可編程性」與「與客戶協同設計的深度」。對投資人來說,理解這個方向,比分辨 HBM3E 與 HBM4 的 MHz 差距更重要,因為這決定了誰有能力與超級客戶共同定義下一代架構。

投資心法與旅行行動:在波動中抓住 AI 基礎設施長牛

從 SK 海力士在 CES 2026 的布局,可以看到 AI 基礎設施仍處在長線上升軌道,但記憶體本質依然是高循環產業:短期會受庫存調整、報價波動左右,長期則由技術門檻與需求趨勢決定。投資這類標的時,幾個實用原則包括:一、把 HBM / AI 產品占營收比重視為重要指標,而非只看總營收;二、留意資本支出與產能擴張節奏,避免在行業集體擴產高峰追價;三、用 3–5 年視角看待 AI 記憶體,接受中途 30–40% 的價格修正。若你計畫在未來一兩年造訪美國、韓國或拉斯維加斯,不妨將科技展與產業考察納入行程,在展館親眼看到 HBM 模組、AI 伺服器與資料中心方案,會比閱讀財報更直觀地感受產業脈動。把旅行變成理解科技與投資的「實地研究」,也許正是下一輪決策優勢的來源。

更多推薦:

Share