在当下算力规划膨胀的时代,优质高效的GPU算力却很难增加,进入溢价时期,英伟达DGX 服务器是世界公认的AI算力首选,作为英伟达国内唯一DGX AI算力,利通电子稀缺性凸显,另外叠加海外算力预期,对标国外560亿人民币估值英伟达算力黄牛Core Weave,目前还处于非常低估的阶段,年内120-200亿可能是其合理市值。
1.优质高效的GPU算力供给受限,进入溢价时期。
当前国内算力建设如火如荼,但真正稀缺的高质量GPU算力却供给受限,这让高质量GPU算力租赁进入高溢价时代。算力分为以CPU为主的通用算力和以GPU为主的AI算力,AI的算力需求主要是指GPU算力,GPU算力又可以分为国产算力和英伟达算力两种。这里优质高效的GPU算力主要是指英伟达的算力显卡,AI的训练不只是算力硬件卡的堆叠,更多的是生态构建,包括调动数千乃至数万的GPU进行并行计算,这也是目前国产算力在AI训练方面的短板之一。
以完全采用国产算力的科大讯飞为例,华为进驻了大量人员团队帮助完善相关算力生态,优化计算平台,但相关进度仍然缓慢,模型效果和国外存在相当大的差距。尽管如此,但也不是每一个使用国产算力卡的厂商都可以得到科大这样的待遇。尤其是对于商业性至上的算力租赁业务来说,便捷可用,高效灵活才是真正的杀手锏。
之前市场一直对英伟达的GPU给与了非常多的关注,而忽略了其在AI训练生态上的统治力,英伟达的算力壁垒是由GPU(图形处理器)+ CUDA(统一计算设备架构)所组成的。
如果AI算力只是单纯比谁算力多,芯片大厂AMD,英特尔肯定有话要说,年出货上亿台电脑的联想可能也会是AI算力大厂,但实际上只有英伟达独占这个市场。除了高性能GPU外,AI训练更大的难点在于CUDA(统一计算设备架构),也就是并行计算,通过CUDA控制上千乃至上万块GPU同时计算训练一个模型。
以上这些同步到GPU算力租赁行业也构成了真正的壁垒,客户需要这样生态完善,便捷高效的GPU算力租用服务,而非自己从头再去搭建算力调用系统,并且也很难具有从头搭建的能力。所以目前以英伟达为主高质量GPU算力在算力租赁行业具备了相当高的溢价,拥有英伟达GPU的算力租赁公司进入黄金时代。
2.英伟达DGX 服务器为什么是AI算力首选,买越多赚越多的成本优势。
DGX是英伟达推出的一系列专为AI训练和推理而设计的服务器和工作站产品,集成了英伟达最先进的GPU、NVLink、NVSwitch、NVIDIA Mellanox InfiniBand 等硬件技术,以及 CUDA、TensorRT、NVIDIA Jarvis、NVIDIA Merlin 等软件技术,提供了一站式的 AI 解决方案,可以帮助企业和研究机构快速构建和部署大规模的AI应用程序。
DGX服务器是目前所有AI企业,尤其是初创公司的首选。原因很简单,同样的系统成本下,所获得的训练速度,整体效能都是最高的。对于许多AI创新公司来说,AI模型的开发、训练和优化速度是跑赢竞争对手的关键。
下面以几个方面的例子具体加以说明:
时间:根据英伟达官方数据,使用8块英伟达A100 GPU 的 DGX A100服务器可以在1.5小时内完成 GPT-3 模型(1750亿参数)的训练,而使用512核心CPU 的服务器则需要3.8年。
能源:根据英伟达官方数据,使用8块英伟达A100 GPU 的DGX A100服务器可以在每秒 6.22 千瓦时的能耗下完成 GPT-3 模型(1750 亿参数)的训练,而使用512核心CPU的服务器则需要每秒130.51千瓦时。
硬件成本:使用英伟达的GPU的AI服务器可以在更少的硬件数量下完成 AI 运算和大模型训练,从而节省硬件采购和维护的成本。例如,根据英伟达官方数据,使用8块英伟达A100 GPU的DGX A100服务器可以替代600台CPU 服务器来完成GPT-3模型(1750亿参数的训练,从而节省99%的硬件成本。
软件成本:使用英伟达的GPU的AI服务器可以利用英伟达提供的丰富的软件平台和工具来加速和简化AI应用程序的开发和部署,从而节省软件开发和优化的成本。例如,使用英伟达的CUDA平台和编程模型,开发者可以轻松地利用GPU 的强大计算能力来加速各种类型的应用程序,无需修改大量的代码或者学习复杂的新技术。使用英伟达的TensorRT平台和工具,开发者可以轻松地将深度学习模型优化和部署到各种设备上,无需担心兼容性或者性能损失。使用英伟达的Jarvis平台和工具,开发者可以轻松地构建和部署多模态(语音、视觉、自然语言)的 AI
应用程序,无需从头开始搭建复杂的流程或者训练大量的数据。
人力成本:使用英伟达的GPU的AI服务器可以借助英伟达提供的丰富的培训和支持资源来提升AI开发者和用户的技能和知识,从而节省人力招聘和培训的成本。例如,使用英伟达的DLI(Deep Learning Institute)平台和课程,开发者和用户可以在线学习各种
AI 相关的技术和应用,从基础到进阶,从理论到实践,从图像到语音到自然语言等。使用英伟达的NGC(NVIDIA GPU Cloud)平台和资源,开发者和用户可以获取各种预训练好的深度学习模型、容器化的软件应用、优化过的代码示例等,从而快速启动和验证自己的AI项目。
3.利通电子作为国内唯一英伟达DGX AI算力服务商,稀缺性凸显。
在英伟达官网合作伙伴界面,选择中国地区,云服务提供商,DGX AI算力系统,只有利通电子是唯一合作伙伴,稀缺性显著。
根据上文的数据,同为AI算力租赁厂商,使用不同的算力卡所获得的利润和客户数量可能天差地别,在算力扩容时代,利通电子作为国内唯一英伟达DGX AI算力服务商,可以预见其算力租赁业务一定拥有国内最高的利润水平和最好的客户资源。
4.估值参考英伟达算力黄牛Core Weave,年内120-200亿估值较为合理。
Core Weave于2017年成立,是一家专业的云提供商,在业界最快,最灵活的基础架构之上提供大规模的GPU计算资源,它自己定位于一家专门为企业规模的GPU加速工作负载提供云服务的提供商。它的业务模式是基础设施即服务,按小时出租GPU,客户只需要按使用时间和计算资源量来支付费用。
今年4月,Core Weave完成2.21亿美元的B轮融资,由Magnetar Capital领投,英伟达、前GitHub CEO Nat Friedman和前苹果高管Daniel Gross参投。8月,CoreWeave完成了由Magnetar Capital和黑石(Blackstone)牵头的23亿美元债务融资,顶级机构Coatue和资管巨头贝莱德(BlackRock)纷纷押注,使得这家公司的估值直接飙升至80亿美元(560亿人民币)。
对标Core Weave,考虑到利通电子在国内的DGX唯一性,以及后期亚太地区英伟达算力建设的预期,个人认为年内120-200亿估值较为合理。