SK海力士3月19日在一份声明中表示,公司已开始量产高带宽内存产品HBM3E,将从本月下旬起向客户供货。此外,近日,花旗发布报告称,预计美光科技将在2024年3月20日公布的第二财季(F2Q24)财报数据超出市场共识预期,主要是由于DRAM(动态随机存取内存)价格上涨以及与Nvidia AI系统配套的高带宽内存(HBM)出货量增加。花旗将美光目标价从95美元大幅调高至150美元。
AI大模型的兴起催生了海量算力需求,而数据处理量和传输速率大幅提升,使AI服务器对芯片内存容量和传输带宽提出了更高的要求,而HBM作为一种专为高性能计算设计的存储器,其市场需求激增。华福证券杨钟表示,HBM是AI芯片最强辅助,正进入黄金时代。与GDDR相比,HBM在单体可扩展容量、带宽、功耗上整体更有优势,相同功耗下其带宽是DDR5的三倍以上。因此,HBM突破了内存瓶颈,成为当前AIGPU存储单元的理想方案和关键部件。TrendForce认为,高端AI服务器GPU搭载HBM芯片已成主流,2023年全球搭载HBM总容量将达2.9亿GB,同比增长近60%,2024年将再增长30%。
据财联社主题库显示,相关上市公司中:
江波龙的内存条业务(包括DDR4\DDR5等)正常开展当中,公司具备晶圆高堆叠封装(即HBM技术的一部分)的量产能力。
华海诚科颗粒状环氧塑封料(GMC)可以用于HBM的封装,相关产品已通过客户验证。
(财联社)
结论:随着人工智能的快速发展,AI大模型的需求日益增长,这为内存产品的升级提供了机会。特别是高性能计算所需的HBM,市场规模巨大。同时,HBM在性能、容量和功耗上的优势使其成为当前AIGPU存储单元的理想方案和关键部件。
基于以上的分析,我建议:对于科技企业来说,应积极研发新的内存技术,以满足市场需求。如华为、浪潮等科技巨头都在投入大量资源进行内存技术研发。另外,我们也可以看到更多的芯片厂商开始尝试采用HBM来提升自身的性能。总的来说,虽然HBM的发展面临一些挑战,但考虑到其巨大的市场潜力和竞争优势,我认为我们应该继续关注并积极跟进这一趋势。