在ai大模型爆火的当下,gpu被疯抢,连带hbm内存芯片也在一片寒冬的存储市场脱颖而出,成为三大原厂积极扩产的目标,并持续在该领域发力。
hbm是什么?
hbm(高带宽存储器, high bandwidth memory) 是一款新型的 cpu/gpu 内存芯片,是由 amd 和 sk hynix 发起的基于 3d 堆栈工艺的高性能 dram,适用于高存储器带宽需求的应用场合。hbm 以位元计算,通过增加带宽,扩展内存容量,让更大的模型、更多的参数留在离核心计算更近的地方,从而减少内存和存储解决方案带来的延迟,目的实现大容量,高位宽的 ddr 组合阵列,目前hbm 占整个dram 市场比重约 1.5%,为新型高性能存储产品。
由于ai 大模型处理数据的吞吐量呈指数级增长,需要应用并行处理数据的 gpu 作为核心处理器,gpu搭载的内存芯片带宽关联 gpu 数据处理能力,高带宽的内存芯片可以为 gpu 提供更快的并行数据处理速度,对gpu的性能起到了决定性作用,hbm也顺势迎来发展机遇。
一系列配套性能自然决定了hbm的需求正不断飙升,三大存储原厂也看到了机遇,陆续决定扩产。
三大原厂积极扩产
据trendforce集邦咨询研究显示,2022年三大原厂hbm市占率分别为sk海力士50%、三星约40%、美光约10%。此外,高阶深度学习ai gpu的规格也刺激hbm产品更迭,2023下半年伴随英伟达 h100与amd mi300的搭载,三大原厂也已规划相对应规格hbm3的量产。
sk海力士方面,正在扩建hbm产线,计划将hbm产能翻倍,扩产焦点在于hbm3。据韩媒消息,sk海力士正在准备投资后段工艺设备,扩建封装hbm3的利川工厂,预计到今年年末,后段工艺设备规模将增加近一倍。值得一提的是,sk海力士在去年6月已率先量产了dram hbm3,且已供货英伟达的h100。另据business korea报道显示,英伟达已要求sk 海力士提供hbm3e样品,后者正在准备出货样品。
hbm3e是dram hbm3的下一代产品,目前sk海力士正在开发,目标明年上半年量产。
三星方面,据韩国et news消息,三星电子将投资1万亿韩元(约合7.66亿美元)扩大hbm产能,目标是到2024年底将hbm产能翻一番,并且已经下了主要设备的订单。
美光方面,3月份的时候就宣布旗下第二代高带宽存储器(hbm2)即将开始出货。hbm2主要用于高性能显卡、服务器处理器以及各种高端处理器中。
价格是传统dram的2~3倍
价格方面,目前hbm的价格比较昂贵,原本就是传统dram的2~3倍。而在2023年开年后,随着三星、sk海力士的hbm订单快速增加,之前另有消息称hbm3较dram价格上涨5倍。需求方面,由于谷歌、苹果、微软等科技巨头都在筹划扩大ai服务,hbm需求自然水涨船高。
业内预计,明年三星与sk海力士都将进一步扩大投资规模。,“但若想满足未来需求,三星、sk海力士都必须将产能提高10倍以上。
trendforce表示,从高阶gpu搭载的hbm来看,英伟达高阶gpu h100、a100主要采用hbm2e、hbm3。随着英伟达的a100/h100、amd的mi200/mi300、谷歌自研的tpu等需求逐步提升,预估2023年hbm需求量将同比增长58%,2024年有望再增长约30%。
国盛证券指出,hbm最适用于ai训练、推理的存储芯片。受ai服务器增长拉动,hbm需求有望在2027年增长至超过6000万片。广发证券也补充,hbm方案目前已演进为高性能计算领域扩展高带宽的主流方案,并逐渐成为主流ai训练芯片的标配。
omdia则预计,2025年hbm市场规模可达25亿美元。
来源:中自网
以上是网络信息转载,信息真实性自行斟酌。