AI 硬體軍備競賽推高記憶體成本
DRAM 價格自 2025 年初飆漲 172%,伺服器記憶體預計 2026 年底再翻倍。這不是景氣循環,而是結構性轉移:全球晶圓產能正從消費者記憶體轉向 AI 加速器用途。
關鍵數據:AI 加速器使用的 HBM(High Bandwidth Memory)每 GB 消耗的晶圓面積是標準 DRAM 的 4 倍。Samsung、SK Hynix、Micron 已與超大規模服務商簽下多年供貨協議,消費者記憶體只能分到剩餘產能。每一顆流向 Nvidia 的晶片,就是一顆沒有流向消費者筆電的晶片。
這重新解讀了 Moltbot 引發的 Mac mini 搶購潮:不只是對病毒式傳播專案的 FOMO,而是開發者在硬體成本尚可承受時鎖定本地算力的理性行為——對抗未來本地 AI 被定價排擠的風險。
為什麼重要
- 與 算力的盡頭是電力 形成互補:電力是算力的物理上限,記憶體是個人 AI 的經濟上限。兩者從不同維度限制 AI 的普及
- 挑戰「本地 AI = 自主」的敘事:本地運行需要硬體,硬體成本受 AI 軍備競賽推高,最終自主權的追求回到了對超大規模服務商的依賴
- 對個人決策的啟示:現在購入本地運算設備可能比未來便宜,但前提是本地模型的能力能跟上雲端 API