近片存储成就高带宽,有限空间依赖堆叠封装。近存计算的HBM需要通过2.5D/3D封装纵向延伸,通过TSV将多个DDR颗粒、逻辑Die连接。单颗HBM颗粒的位宽已达1024-bit,为GDDR5的32倍。以H100为例,其内部拥有6个HBM堆栈,单堆栈为8个堆叠,一个堆叠为2GB。总容量为96GB(6*8*2),考虑内存损耗,表观容量为80GB。HBM的价格约为DDR5的五倍,对应每GB约15美元,因此一张H100中HBM价值量约1500美元。
供给测算:产能持续紧缺,24/25年有望进入放量期。三星/海力士份额领先,合计份额约为95%。美光则跳过HBM3,直接专注开发HBM3E产品。三大原厂均在加码提升HBM产能,竭力弥补产能空缺。三大原厂均表示,公司24年的HBM供应能力已全部耗尽,而25年产能亦基本售罄。(1)海力士预计24年HBM产能同比增加一倍以上,预计其30年HBM出货量将达到每年1亿颗。(2)三星预计公司24/25年产能同比增加2.9/2倍,28年出货年比2023年高23.1倍。(3)美光预计24财年有望从HBM获得数亿美元的收入,HBM份额将在2025年的某个时点与公司的整体DRAM份额相等(约20%)。24年末原厂HBM产能有望增至250K/m,占DRAM总产能(约1800K/m)的14%。根据我们测算,我们认为HBM供给产能将在24、25年进入扩产时期,25年供给量有望达23.7亿GB,整体市场规模有望达到355亿美元,一定程度缓解HBM供给紧张状况。
需求测算:多维因素叠加,HBM产能制约GPU出货。从需求上看,HBM在代次、容量、带宽上均持续提升。英伟达A100芯片采用HBM2e,其显存带宽与显存容量分别为2039GB/s、80GB,而迭代至H200,显存带宽与显存容量均提升至4915 GB/s、141GB。对比英伟达H100与H200,在算力能力相同的情况下,优化HBM能够使得H200在GPT-3的推理性能为H100的1.6倍,其训练性能亦较H100提升约10%。英伟达H100和A100在23Q4出货预计超50万张。24年训练卡出货有望达300-400万张,GPU出货带动HBM成长。HBM未来的三个迭代趋势亦共同驱动HBM量价齐升:(1)HBM3E成高端GPU标配。(2)HBM3E从8层逐渐升级至12层。(3)单GPU中HBM容量提升。根据我们的测算,我们认为HBM需求量在24、25年亦将翻倍增长,25年需求量有望达20.8亿GB,整体市场规模有望达311亿美元。考虑HBM与GPU出货的时间差与GPU厂商的HBM库存建立,我们认为即使原厂大规模扩产,HBM在未来仍将长期处于供不应求态势。也正基于此,今年Q2原厂已针对25年HBM进行议价,价格初步调涨5~10%。
行业重点公司:
HBM设备建议关注:赛腾股份、精智达、芯源微、拓荆科技等
HBM材料建议关注:华海诚科、联瑞新材、强力新材、飞凯材料等
HBM封测建议关注:通富微电、长电科技、深科技等
海力士分销建议关注:香农芯创等
风险提示
AI需求不及预期风险、技术迭代不及预期、行业竞争加剧。