為因應 AI 推論階段的功耗與容量挑戰,SanDisk 與 SK 海力士透過開放運算計畫推動高頻寬快閃記憶體 HBF 標準化,搶占下一波 AI 邊緣運算商機。
伴隨著AI技術從早期的大型語言模型 (LLM)「訓練」階段,逐漸大步跨入為千萬終端用戶提供實際服務的「推論」 (Inference)階段,硬體底層的架構也正迎來巨大的典範轉移。
就在SanDisk與SK海力士 (SK hynix)正式宣布,將透過開放運算計畫 (Open Compute Project, OCP)成立專屬工作小組,共同推動新一代記憶體解決方案——HBF高頻寬快閃記憶體 (High Bandwidth Flash)的全球標準化。這項舉措不僅是兩家大廠的技術結盟,更是針對當前AI硬體發展瓶頸所提出解決方案。
AI主導下的市場痛點:記憶體短缺與「又快又省電」的矛盾需求
過去幾年,AI產業的爆發性成長直接導致全球高階記憶體供應的嚴重短缺。在AI訓練階段,系統需要吞吐海量數據,這促使具備極高資料傳輸頻寬的HBM (High Bandwidth Memory)成為市場當紅炸子雞。然而,當市場的重心逐漸向「推論」傾斜時,遊戲規則便發生了改變。
推論工作負載的特性在於「持續性」與「無所不在」。當AI模型在數以百萬計的裝置上全天候運作、不斷生成答案與預測時,系統不僅需要極高的資料傳輸頻寬來確保反應速度,更面臨了殘酷的現實挑戰:功耗限制與熱能管理。
傳統的揮發性記憶體 (DRAM)架構在維持龐大容量以供推論使用的同時,會消耗巨量電力並產生高溫;這不僅增加了資料中心的營運成本,更成為邊緣運算設備難以跨越的門檻。業界迫切需要一種既能提供高頻寬,又能實現大容量、低耗電的新型態記憶體。
從HBM到HBF:補足AI推論最後一哩路的戰略佈局
如果說HBM是為了解決AI「大腦」在集中訓練時的運算極限,那麼HBF的出現,就是為了支撐AI「神經網絡」在廣泛推論時的持久耐力。從目前的HBM走向HBF設計,我們可以看出幾個明顯的優勢與技術邏輯:
• 非揮發性與大容量的本質優勢:HBF基於NAND Flash架構,天生具備大容量儲存優勢。比起HBM (DRAM架構),HBF能在相同甚至更低的成本下,提供業界領先的記憶體容量,這對於需要載入龐大AI模型的推論任務來說至關重要。
• 低功耗與熱穩定性:快閃記憶體的非揮發特性 (Persistence)意味著其無需像DRAM那樣持續通電來維持資料,這大幅度降低整體的功耗。同時,更好的熱穩定性 (Thermal stability)讓它更適合大規模、高密度的AI伺服器部署,減少了冷卻系統的龐大負擔。
• 專為推論打造的高頻寬:過去NAND Flash的痛點在於傳輸速度遠不及DRAM。但HBF顧名思義,正是透過全新的介面標準與封裝技術 (例如SoC與先進封裝的整合),打破了傳統快閃記憶體的頻寬天花板,使其足以應付AI推論的即時資料吞吐需求。
強強聯手背後的市場競爭考量
從市場競爭的角度來看,SK海力士目前已經在HBM市場佔據了領先地位,而SanDisk則在NAND Flash設計擁有深厚底蘊。這兩家廠商的結合,顯然是為了在下一波AI推論商機中搶得話語權。
正如SanDisk技術長Alper Ilkbahar所言,他們不只是在制定新標準,而是在為下一個AI運算時代設定門檻。透過OCP開放運算計畫來推動HBF標準化,目的在於快速拉攏伺服器業者與晶片設計商 (如NVIDIA、AMD、Intel等)加入這個生態系。一旦HBF成為業界公認的「推論專用記憶體標準」,將能有效防堵競爭對手 (如三星、美光)在該領域自立門戶,確保兩家公司在未來幾年內囊括AI邊緣運算與大規模推論伺服器的龐大紅利。
總結來說,HBF的誕生與標準化,象徵著AI硬體發展已經從「不計代價追求極致算力」的粗放期,正式邁入「兼顧能效、容量與成本」的精細化落地階段。


