美东时间2月22日美股盘后,科技巨头英伟达股价大涨超8%。
在财报发布后的电话会上,英伟达CEO黄仁勋表示,从初创公司到大型企业对生成式Al的兴趣越来越浓厚。AI的应用开始展示出这项新兴技术的潜力,AI技术已经到达了一个拐点:
“技术突破的累积已经将AI带到一个拐点,生成式AI引发了采用AI战略的紧迫感。英伟达本质上是当今AI系统的操作系统,这个软件体系完全加速了。”
其表示,为了帮助企业进入AI领域,英伟达还推出了旗下AI云服务产品,目前英伟达已与甲骨文云达成合作,用户可通过甲骨文云基础设施上的英伟达DGX云对英伟达DGX AI超级计算机的访问。
AI浪潮带动GPU需求爆发
据中信建投研报数据,此前用于AI训练的算力增长符合摩尔定律,大约每20个月翻一番;深度学习的出现加速了性能的扩展,用于AI训练的算力大约每6个月翻一番;而目前ChatGPT等大规模模型出现,其训练算力是原来的10到100倍。
而算力的背后,核心是以数据中心的建设、GPU、CPU芯片、存储等硬件的性能优化为基础。其中,据民生证券研报,当前用于AI模型训练与推理的主流高算力芯片主要为英伟达的V100/A100/H100等。
据申港证券测算,ChatGPT的模型训练成本约480万美元,而保证日常稳定运营所需的GPU资源数可能超过3万个(以英伟达A100GPU为例),基础硬件成本投入超过7亿美元。
申港证券同时表示,随着ChatGPT带来的鲶鱼效应,国内外科技巨头加快生成式AI布局,未来对于算力资源的需求将飞速增长,而作为“卖铲人”的底层基础硬件供应商将持续受益。
增量空间有多少?
据中信证券研报,单个大模型可带来2万GPU销售量,搜索引擎则带来成倍空间。
其表示,参考OpenAI算法,假设每日1亿用户,每人进行10条交互,每个问题的回答长度为50词,算力利用率30%,则单个大语言模型(LLM)的日常需求有望带来2.13万片A100的增量,对应市场规模2.13亿美元。假设有5家大企业推出此类LLM,则总增量为10.7片A100,对应市场规模10.7亿美元。
并且长期来看,参考谷歌,若每日搜访问30亿次,需要106.74万张A100,对应13.3万台服务器DGX A100,带来市场空间200亿美元。
不仅仅是量的方面,浙商证券还提到,AIGC带来的全新场景+原场景流量大幅提高,对高端芯片的需求或还将拉动芯片均价。其指出,采购一片英伟达顶级GPU成本为8万元,GPU服务器成本通常超过40万元。对于ChatGPT而言,支撑其算力基础设施至少需要上万颗英伟达GPU A100,一次模型训练成本超过1200万美元,从芯片市场角度出发,芯片需求的快速增加会进一步拉高芯片均价。
国内厂商布局情况
据中信证券研报,按功能划分,GPU主要分为侧重图形图像的渲染GPU和侧重通用计算的GPGPU。目前国内图形渲染GPU企业包括景嘉微、芯动科技、摩尔线程、格兰菲等;GPGPU公司包括壁仞、沐曦、天数智芯、红山微电子等。
但中信证券认为,虽然目前国内产品的计算性能和软件生态与国际厂商还有较大差距,但国内厂商依然在奋起直追,其中包括龙芯中科、海光信息、壁仞科技、寒武纪、天数智芯等厂商均在研发或推出用于AI计算的GPGPU、ASIC等AI芯片。