重点推荐关注HBM,算力➟AI服务器带动存储增量
思考一:存储行业周期,库存高位,还没见底,行业大打价格战,厂商减产停产。
思考二:AI拉动服务器存储需求,一个典型的人工智能服务器的DRAM容量是普通服务器的8倍,NAND容量是普通服务器的3倍
思考三:AI拉动服务器存储需求,这需求增量在哪?
思考四: 英伟达的选择
➢HBM 突破技术瓶颈
HBM 有两个核心特征:
1)DRAM 颗粒以 3D封装方式垂直摆放。
2)3D DRAM 与 GPU/CPU 通过 interposer 合封,实现直接连接。
这两个技术特征,目的是解决传统 DRAM 与 CPU/GPU 通过主(Motherboard)连接的信号延迟与电磁干扰。
➢A100 计算核心两侧共有 6 个 HBM内存放置空间
在 SXM4 A100 GPU 发布时,NVIDIA 实际上仅使用了其中 5 个 HBM 内存放置空间,提供 40GB HBM2E 内存容量,这意味着每个 HBM2E 内存上堆叠了 8 个1GB DRAM Die。对于升级版的 80GB SXM4 A100 GPU,每个 HBM2E 内存上则采用了 8个 2GB DRAM Die 进行堆叠。