Feb. 13, 2026 ---- 根據(jù)TrendForce集邦咨詢最新HBM產(chǎn)業(yè)研究,隨著AI基礎建設擴張,對應的GPU需求也不斷成長,預期NVIDIA(英偉達) Rubin平臺量產(chǎn)后,將帶動HBM4需求。目前三大存儲器原廠的HBM4驗證程序已進展至尾聲,預計將在2026年第二季陸續(xù)完成。其中,Samsung(三星)憑借最佳的產(chǎn)品穩(wěn)定性,預期將率先通過驗證,SK hynix(SK海力士)、Micron(美光)隨后跟上,可望形成三大廠供應NVIDIA HBM4的格局。
Jan. 8, 2026 ---- 根據(jù)TrendForce集邦咨詢最新調查,NVIDIA(英偉達)于2025年第三季調整Rubin平臺的HBM4規(guī)格,上修對Speed per Pin的要求至高于11Gbps,致使三大HBM供應商需修正設計。此外,AI熱潮刺激NVIDIA前一代Blackwell產(chǎn)品需求優(yōu)于預期,Rubin平臺量產(chǎn)時程順勢調整。兩項因素皆導致HBM4放量時間點延后,預期最快于2026年第一季末進入量產(chǎn)。
May 22, 2025 ---- 根據(jù)TrendForce集邦咨詢最新研究,HBM技術發(fā)展受AI Server需求帶動,三大原廠積極推進HBM4產(chǎn)品進度。由于HBM4的I/O(輸入/輸出接口)數(shù)增加,復雜的芯片設計使得晶圓面積增加,且部分供應商產(chǎn)品改采邏輯芯片架構以提高性能,皆推升了成本。鑒于HBM3e剛推出時的溢價比例約為20%,預計制造難度更高的HBM4溢價幅度將突破30%。
作為“AI加速年”,2024年AI進展迅猛。得益于GPU、TPU等硬件計算能力的持續(xù)提升、算法優(yōu)化的深化以及數(shù)據(jù)收集規(guī)模的擴大,AI模型在自然語言處理、計算機視覺、自動駕駛等多個領域取得了顯著突破。例如,OpenAI、Google和Meta等公司推出的超大規(guī)模模型推動了AI技術的前沿發(fā)展,且模型訓練的規(guī)模不斷創(chuàng)下新紀錄。