作为当前最火的AI应用,ChatGPT已经成为各大科技巨头必争之地,陆续都会推出类似的产品,而这也带火了硬件行业,受益最大的是GPU显卡,但HBM内存吃到了流量,正在发愁内存跌价的韩国厂商天降惊喜,找到赚钱的地方了。
在AI算力中,除了GPU性能,内存也非常重要,NVIDIA的高端加速卡也上了HBM2/2e之类的内存,其带宽及延迟性能远高于GDDR内存,A100加速显卡上最高配备了80GB HBM2内存。
随着ChatGPT受宠,三星、SK海力士两家内存厂商接到了越来越多的HBM订单,NVIDIA已经要求SK海力士生产最新的HBM3内存,业内人士指出相比当前最好的DDR内存,HBM3的价格已经涨了5倍。
目前HBM内存市场上SK海力士公司占据最大的优势,该公司早在2013年就跟AMD合作开发了HBM内存,整体市场份额在60-70%之间。
三星近年来也加大了HBM内存的投入,还跟AMD合作首发了HBM-PIM技术,将HBM内存与AI处理器集成在一起,大幅提高性能。
首尔业界消息称,SK 海力士为英伟达供应第三代 HBM,搭配英伟达的 A100 GPU 供 ChatGPT 使用。另外,英伟达已经将 SK 海力士的第四代 HBM 安装至 H100,而 H100 已开始供应 ChatGPT 服务器所需。
太极实业---SK海力士---英伟达
服务器又一重磅硬件产品,内存,低位。