借着ChatGPT的热度,AI最重要的硬件支持之一,算力硬件也在不自觉中再度上了科技类热搜。
然而,在热闹的市场背后,却少于朋友知道,藏着这背后的炒作逻辑。
今天,就让我们来搞清一个,朋友们问我最多的问题之一:为什么算力支持现在在炒GPU,而不是CPU?
GPU,英文全称是Graphics Processing Unit,即图形处理器,也就是我们所说的显卡。真正用来作为人工智能算力支持的GPU,不是普通的显卡,而是GPGPU。
GPU前面加一个“GP”,就变为General-Purpose Computing on Graphics Processing Units,即通用计算图形处理器。我们去术语化,可以直接说这是一种用于处理非特定需求(通用类型)计算目的的算力单元(芯片)。通常,它们也被简称为通用GPU。
如果朋友们还有记忆的话,肯定记得国内电子货币“挖矿”一度盛行时,带起了显卡的市场价格。这些显卡中有不少,就是目前主流被用于提升算力的通用GPU。
对比GPU和CPU:虽然两者本质都是算力芯片(最早的GPU,也就是显卡概念,也是有通用CPU演化而出),但最后在构架上的区别,导致了GPU在面对AI大数据流算力时,能够做的更好。
简单来说,CPU更擅长复杂逻辑的运算,而GPU构架相对简单,但运算核心多,适用于大量逻辑简单但高并发量的高密度计算。(CPU最多也就十几个核心,GPU动辄几百上千个核心)成本方面,虽然FPGA和ASIC芯片也被用于AI领域,但由于它们是针对其中某些需求的半定制和全定制芯片(主要是模拟人脑神经元结构),在通用领域的性价比完全无法和较为成熟的GPU相比。
(FPGA和ASIC芯片也是市场概念,但这里不多累述,以后有机会会跟大家盘一盘)
详细一点可以这样认为,并行计算一般有2种类型:基于任务的并行处理和基于数据的并行处理。前者主要指的是把算力任务拆分成若干个小的但不同的任务,然后再根据算力芯片内的不同核心做不同的计算分,从而形成一条算力流水线。后者主要指的是将数据分解为多个部分,让多个运算单元分别去计算这些小块的数据,形成一个计算网格,最后再把这些网格完成的任务汇总起来。
我们常说的CPU多线程编程偏向于前者,GPU的并行编程模式则偏向于后者。后者对庞大但逻辑简单的算力需求,有明显更强更高效的支持能力。
或者我们也可以这么认为:AI领域的大数据流运算本来就是一个模糊概率问题,并没有多少很精准的计算需求,也就不要那么多的算力“牛人”(CPU),需要的是很多能够干一般活的“工人”(通用GPU)。
从发展的时间线来看,通用GPU是一个近年来才产生,并在短期内高热度计算机芯片概念。它的出现,是一个与人工智能相互成就的过程。
最早提出GPU概念的是英伟达(NVIDIA)。早期英伟达提出GPU概念,是为了把电脑显示芯片独立出来,减少影像处理输出过程对CPU的依赖,且可以部分分担CPU的工作。
2012年发生的一件事,让人工智能领域研究者认识到了,GPU在算力支持领域的发掘潜力。
2012年,前谷歌计算机科学家Alex Krizhevsky利用深度学习+GPU的方案,赢得Image Net LSVRC-2010图像识别大赛,并奇迹般地将识别成功率从74%提升到85%。事件发生后,NVIDIA洞察到了这一趋势,耗费巨资对自家的传统GPU做改造。
3年后,NVIDIA提出了基于自家GPU的CUDA深度学习生态系统的算力GPU,将GPU的性能直接提升了65倍。
此外,为了建立自己的通用GPU生态,NVIDIA还开放了基于自己GPU的从后端模型训练到前端推理应用的全套深度学习解决方案,让全球范围的内一般开发人员都可以非常容易地使用GPU进行深度学习开发或高性能运算,最后奠定了自己在GPU算力领域的老大地位。
作为目前AI服务器最主流的算力选择,2021年通用GPU服务器销售额占据我国AI加速服务器市场的88.4%,其中80%以上的国内市场被NVIDIA占据。
回到我们开头说的。ChatGPT的正式推出,一方面可以说是“启动了人工智能革命”,另一方面也可以说是“拉开了新一轮的硬件竞赛”。截止最新的市场报,ChatGPT在微软Azure AI云服务器上完成训练,总算力消耗为3640PF-days,已经导入超1万颗英伟达高端GPU。Citi Bank(花旗)等预测ChatGPT能促使NVIDIA 12个月营收增加30亿美金。
另据相关市场机构测算,ChatGPT模型进入线上运营阶段后,每亿活跃用户将带来13.5Eflops的算力需求,需要6.9万台NVIDIADGXA10080G服务器支撑。根据中国信通院数据,2021年全球计算设备算力总规模达到615EFlops,其中超算算力规模为14EFlops。换言之,在每个用户每天收到1500字回答的情况下,以2021年全球超算算力的规模,仅能支撑Chatgpt最多拥有1亿日均上线人数。那么假设未来最后全球有5-6家科技巨头能够在3年内各自拥有一款活跃人数2亿的ChatGPT类应用,则会带来至少162EFlops超算算力需求——是目前的10倍以上。
参考招商证券以商汤AIDC计算的市场估值:每新建1Eflops算力需要投资15亿元,其中ICT硬件投资占比72%。活跃人数每增加1亿人需要新增投资203亿元,其中ICT硬件投资146亿元。依旧是未来5-6家科技巨头有这类产品,3年后ICT硬件投资将新增需求1,755亿元。叠加未来AIGC技术向音频、视频等领域蔓延,算力硬件的市场需求会更大。
只不过,根据一份去年8月底9月初的“GPU产业专家交流要点纪要”显示,虽然我国在该领域的市场前景很大,但是主要生产企业却面临“比较尴尬”的情况。其中最重要的一点是,仅仅是做GPGPU的公司数量不少,但是整体产品层次不高。看起来有这个市场需求,但是很多订单国内厂商抢不下来。
如果要做高端的产品,去年美国在这块也开始卡我们,直接加大了国内大厂想要在这个领域发力的门槛。比如重要的芯片IP(一般也被成为IP核,指的是芯片中具有独立功能的电路模块的成熟设计)供应商都是美国公司。
设计工具EDA方面,全球3大EDA占据了绝大多数的市场。30年前,我们曾尝试过使用制度性优势做EDA,但最后3巨头把产品免费送给高校,导致国产EDA不仅失去了市场(销售供养研发),更失去了建立生态的机会。到了今天,我们的数字电路设计EDA缺乏全流程工具。即使是去年炒作过的华大九天等公司有模拟电力设计EDA,但仅仅是有流程平台,工艺支持等能力还亟待加强。
回到二级市场本身,盘了一下“GPGPU”和“AI领域数据芯片”的关键词,发现能在一定程度上有关注价值的并不多。文章最后给大家简单整理了一下,如果大家有更好的观点和意见,也欢迎讨论和补充!
P.S., 我个人目前的芯片半导体持有(包括近期会做交易)的标的是万业企业、彤程新材等,当然也有寻找“硬件卡脖子”领域有没有更好的替代品。