异动
登录注册
原厂倾力扩产,HBM会过剩吗?
戈壁淘金
只买龙头的老司机
2024-06-12 18:32:01

近片存储成就高带宽,有限空间依赖堆叠封装。近存计算的HBM需要通过2.5D/3D封装纵向延伸,通过TSV将多个DDR颗粒、逻辑Die连接。单颗HBM颗粒的位宽已达1024-bit,为GDDR5的32倍。以H100为例,其内部拥有6个HBM堆栈,单堆栈为8个堆叠,一个堆叠为2GB。总容量为96GB(6*8*2),考虑内存损耗,表观容量为80GB。HBM的价格约为DDR5的五倍,对应每GB约15美元,因此一张H100中HBM价值量约1500美元。

供给测算:产能持续紧缺,24/25年有望进入放量期。三星/海力士份额领先,合计份额约为95%。美光则跳过HBM3,直接专注开发HBM3E产品。三大原厂均在加码提升HBM产能,竭力弥补产能空缺。三大原厂均表示,公司24年的HBM供应能力已全部耗尽,而25年产能亦基本售罄。(1)海力士预计24年HBM产能同比增加一倍以上,预计其30年HBM出货量将达到每年1亿颗。(2)三星预计公司24/25年产能同比增加2.9/2倍,28年出货年比2023年高23.1倍。(3)美光预计24财年有望从HBM获得数亿美元的收入,HBM份额将在2025年的某个时点与公司的整体DRAM份额相等(约20%)。24年末原厂HBM产能有望增至250K/m,占DRAM总产能(约1800K/m)的14%。根据我们测算,我们认为HBM供给产能将在24、25年进入扩产时期,25年供给量有望达23.7亿GB,整体市场规模有望达到355亿美元,一定程度缓解HBM供给紧张状况。

需求测算:多维因素叠加,HBM产能制约GPU出货。从需求上看,HBM在代次、容量、带宽上均持续提升。英伟达A100芯片采用HBM2e,其显存带宽与显存容量分别为2039GB/s、80GB,而迭代至H200,显存带宽与显存容量均提升至4915 GB/s、141GB。对比英伟达H100与H200,在算力能力相同的情况下,优化HBM能够使得H200在GPT-3的推理性能为H100的1.6倍,其训练性能亦较H100提升约10%。英伟达H100和A100在23Q4出货预计超50万张。24年训练卡出货有望达300-400万张,GPU出货带动HBM成长。HBM未来的三个迭代趋势亦共同驱动HBM量价齐升:(1)HBM3E成高端GPU标配。(2)HBM3E从8层逐渐升级至12层。(3)单GPU中HBM容量提升。根据我们的测算,我们认为HBM需求量在24、25年亦将翻倍增长,25年需求量有望达20.8亿GB,整体市场规模有望达311亿美元。考虑HBM与GPU出货的时间差与GPU厂商的HBM库存建立,我们认为即使原厂大规模扩产,HBM在未来仍将长期处于供不应求态势。也正基于此,今年Q2原厂已针对25年HBM进行议价,价格初步调涨5~10%。

行业重点公司:

HBM设备建议关注:赛腾股份、精智达、芯源微、拓荆科技等

HBM材料建议关注:华海诚科、联瑞新材、强力新材、飞凯材料等

HBM封测建议关注:通富微电、长电科技、深科技等

海力士分销建议关注:香农芯创等

风险提示
AI需求不及预期风险、技术迭代不及预期、行业竞争加剧。

作者利益披露:转载,不作为证券推荐或投资建议,旨在提供更多信息,作者不保证其内容准确性。
声明:文章观点来自网友,仅为作者个人研究意见,不代表韭研公社观点及立场,站内所有文章均不构成投资建议,请投资者注意风险,独立审慎决策。
S
赛腾股份
S
深科技
S
强力新材
工分
51.95
转发
收藏
投诉
复制链接
分享到微信
有用 48
打赏作者
无用
真知无价,用钱说话
1个人打赏
同时转发
评论(27)
只看楼主
热度排序
最新发布
最新互动
  • 1
  • 2
  • 3
前往