ChatGPT效應下人工智能話題火熱,帶動HBM(高帶寬存儲器)持續受到關注。全球市場研究機構TrendForce集邦咨詢預估2023年HBM需求量將年增58%,2024年有望再成長約30%。
HBM具備高帶寬、高容量、低延時與低功耗等優勢,可以加快AI數據處理速度,更適用于ChatGPT等高性能計算場景。基于HBM獨特優勢,今年以來存儲大廠持續發力HBM。
最新消息顯示,三星計劃投資1萬億韓元擴大其HBM產能,以滿足英偉達和AMD等公司的客戶需求。韓國ET News指出,三星的目標是到2024年底將HBM產能翻一番,并且已經下了主要設備的訂單。據悉,WSS(晶圓承載系統)的供應商包括東京電子和蘇斯微技術。
HBM由多個DRAM垂直連接而成,廠商需要增加更多后端工藝設備來提高HBM出貨量。因此,報道指出三星計劃在其半導體后端工藝的生產基地韓國天安工廠安裝WSS設備,以提升HBM出貨量。
資料顯示,三星對HBM的布局從HBM2開始,目前,三星已經向客戶提供了HBM2和HBM2E產品。2022年三星表示HBM3已量產。另據媒體報道,三星已于今年4月26日向韓國專利信息搜索服務提交“Snowbolt”商標申請,預估該商標將于今年下半年應用于DRAM HBM3P產品。
作為新一代內存解決方案,HBM市場被三大DRAM原廠牢牢占據。集邦咨詢調查顯示,2022年三大原廠HBM市占率分別為SK海力士50%、三星約40%、美光約10%。
集邦咨詢指出,2023下半年伴隨NVIDIA H100與AMD MI300的搭載,三大原廠也已規劃相對應規格HBM3的量產。其中,在今年將有更多客戶導入HBM3的預期下,SK海力士作為目前唯一量產新世代HBM3產品的供應商,其整體HBM市占率可望藉此提升至53%,而三星、美光則預計陸續在今年底至明年初量產,HBM市占率分別為38%及9%。
來源:集微網