随着房地产的低迷,人们都在寻找下一个投资标的,如果不知道未来投资什么,看看资本市场就知道了,市场上永远不缺乏机会,尽管有些概念是昙花一现,基本兑现不了,但依然存在无数风口最终会实现。
比如这一波 ChatGPT 和 AIGC,正在快速迭代和拓展应用场景,尽管现在还不太成熟,如果还是仅仅把它当玩具看待的话,可能又会错过下一波发展的机会。
当然,无论人工智能如何强大,都要建立在算力这一重要基础之上。什么是算力呢?专家给出的概念是:数据中心通过服务器对数据进行处理后实现结果输出的能力。
也就是说越是复杂的系统,对算力的需求也就越高,事实上我们每个人具备一定的算力,比如出去买菜使用的心算就是算力,只是算力不高,不能运行太复杂的系统,只够买菜用的。
如果我们借助计算器,算力就会提升不少,而如果我们使用带有数字芯片的电子设备(因为数字芯片基本都带有算力),比如手机电脑等,能做的事就会更多,比如各种手机 APP 或者打游戏什么的。
而人工智能需要的算力就更加海量,随着对算力的需求越来越高,算力已经成了类似水、电、能源一样的重要基础设施。
算力目前主要分为四部分,通用算力、智能算力、超算算力、边缘算力。
通用算力主要依靠 CPU 输出计算能力;智能算力则是以 GPU、FPGA、AI 芯片等输出的人工智能算力为主;超算算力以超级计算机输出的计算能力为主。
而边缘算力主要是就近为用户提供实时算力,只为解决网络延迟问题,是前三种的组合,所以事实上只有三种算力。
算力的提高对于人们生活的方方面面都能起到积极作用,也能拉动数字经济和 GDP 的增长,因此各地都在加速打造算力网络,全国的算力也将会保持高速增长,跟算力有关的领域自然就会受益。
01 运营商
电信运营商主要受益于算力网络建设的布局和云业务的快速发展。
目前数字经济在经济中的重要性越来越强,除了信息产业,还有越来越多传统产业开始应用数字技术提升效率,数据的重要性也越来越强,形成了依托网络为载体的新经济形态。
国家云是数字经济重要基础设施,为数据要素流通提供基础云环境,主要由政务云、央国企行业云和大数据平台等组成。
多省具有国资背景的“数字 xx”平台公司负责政务云的建设与运营,运营商作为核心网络与云服务商深度参与其中。
而行业云采用主导企业运营加建设的模式,由国资委直接或间接控股的企业负责,这是多地国资委推动央国企云建设时选择的路径之一。
国家云建设高度重视包括软件和硬件在内的安全可控,保障供应链的安全与数据安全,很多时候进口产品都不能参与招标活动,因此运营商在国家云的建设中扮演了非常重要的角色。
AIGC 是孕育数字经济新业态的关键技术。
所谓的 AIGC 就是 AI 生产内容,最开始是 PGC(专业生产内容),典型代表就是网站,之后是 UGC(用户生产内容),典型代表是抖音快手,未来变成 AIGC,可以预见未来内容的产生会比现在还要丰富。
因为 AI 不仅能低成本、高效率地挖掘信息,复刻编辑,还能创新内容生产的流程和模式,提升内容生产力和创造力。并与其他产业多维互动、融合渗透从而孕育数字经济的新业态新模式,打造经济新增长点。
AIGC 根据面向对象、实现功能的不同,分为智能数字内容孪生、智能数字内容编辑和智能数字内容创作三个层次,共同构成 AIGC 的能力闭环。
而随着深度学习不断发展,ChatGPT 等大模型以及多模态模型极大地拓展了 AI 应用可能边界,推动 AIGC 应用加速渗透,以及算力、通信及存储需求的进一步提升,带来云业务发展。
运营商作为数字经济重要一环,通过落实“东数西算”布局层次化的算力网络体系,不仅要求有强大的算力和网络资源支撑,也要求算力资源的互通和智能调度。
因此运营商都在积极强化算力网络感知和调度能力,实现算网资源的高效应用。
除了布局算力网络体系带来的业务增长,在国家大安全政策和 AIGC 带来的行业需求背景下,三大运营商的云业务也在快速增长,贡献了主营业务增长的主要部分,使其整体业绩获得提升和并向数字化转型,估值中枢也有提高趋势。
02 算力中心
算力中心作为提升算力的基础设施,一定是本次受益的主要环节,因为没有算力中心,AIGC 这些都无从谈起。而且 AIGC 的发展对于算力的需求是指数级的,算力中心主要分三种:超算中心、智算中心、数据中心。
超级计算是利用并行工作的多台超级计算机集中式计算资源,处理极端复杂或数据密集型问题,超算能力是衡量一个国家或地区科技核心竞争力和综合国力的重要标志,一般以 Petaflops(PFlops)为度量单位。
目前国家非常重视超算中心的建设,很多项目正在快速推进。2016-2021 年中国超算服务市场规模 CAGR 为 24.7%,预计 2021-2025 年 CAGR 为 24.1%,2025 年中国超算服务市场规模将达到 466 亿元。
智算中心是提供 AI 算力服务的公共基础设施,主要面向政企等多用户群体提供人工智能所需的算力、数据、算法服务,可以为算法研发提供大规模数据处理能力,为产业应用提供计算资源。
智算中心可以推动产业创新升级,促进产业集群化,带来经济效益和社会效益,目前我国政府主导的智算中心供应商以华为为主。
据 IDC 统计,2021 年中国 AI 服务器市场规模为 53.9 亿美元,预计 2025 年达到 103.4 亿美元,2021-2025 年 CAGR 达 17.7%。
2021 年中国智能算力规模为 155.2 EFLOPS,预计 2025 年达 922.8 EFLOPS,2021-2025 年 CAGR 达 56.15%。
最后是数据中心 IDC,数据中心是重要数据中枢和算力载体,具有四层架构,按标准机架数量规模可分为中小型、大型、超大型。
从机架数来看,2017 年来我国数据中心机架数量保持稳健增长,其中大型规模以上机架数量占比不断提升,2022 年我国数据中心机架规模能达到 670 万架,其中大型规模以上机架数量 540 万架。
从市场规模看,2021 年我国数据中心市场规模突破 1500 亿元,2019-2021 年 CAGR 为 30.69%,预计 2022-2025 年有望保持 CAGR 24.67%的复合增速,预计 2025 年我国数据中心市场规模有望突破 3600 亿元。
IDC 也是个比较庞大的产业链,值得关注的环节有几个,一个是第三方 IDC,龙头公司如万国数据、奥飞数据;一个是光模块环节弹性比较大,如天孚通信、光库科技、中际旭创;还有 ICT 设备公司如紫光股份、浪潮信息。
03 AI 服务器
AI 服务器是算力中心的核心环节,主要硬件包括处理器、内存、芯片组、I/O (RAID 卡、网卡、HBA 卡) 、硬盘、机箱 (电源、风扇)。
服务器其实就相当于一台远程的电脑,只不过自己家的电脑有开关机,而服务器是 24 小时运转的。而且由于需要提供高性能计算,因此在处理能力、稳定性、可靠性、安全性、可扩展性、可管理性等方面要求较高。
服务器逻辑架构中,最重要的部分是 CPU 和内存,CPU 对数据进行逻辑运算,内存进行数据存储管理。CPU 及芯片组大致占比 50% 左右,内存大致占比 15% 左右,外部存储大致占比 10%左右,其他硬件占比 25%左右。
服务器市场整体规模持续增长。2022 年,全球服务器出货量将同比增长 6%,达到 1380 万台。收入同比增长 17%,达到 1117 亿美元。
我国服务器市场规模由 2019 年的 182 亿美元增长至 2022 年的 273.4 亿美元,复合年均增长率达 14.5%,预计 2023 年我国服务器市场规模将增至 308 亿美元。
AIGC 给 AI 服务器带来的增量市场是不容小觑的。
首先 AIGC 产业分为三层,上游技术基础层是由预训练模型为基础搭建的,中间层是垂直化、场景化、个性化的模型和应用工具,下游应用层是面向 C 端用户的文字、图片、音视频等内容生成服务。
ChatGPT 是 AIGC 目前最大的知名语言模型之一,国内也有很多大模型,比如百度的文心一言、阿里的通义千问,科大讯飞的星火大模型等等。
这些大模型都需要海量算力进行训练和推理,而且每次训练数据量迭代升级,对算力的需求都是指数级增长。
大模型的训练就相当于一个学习的过程,推理就相当于把学到的内容应用于实践的过程。因此训练的过程才是消耗算力的主要过程,就跟人一样,学习时就会犯错,经过一次次循环尝试和反复调整之后,才能得出正确答案。
AI 训练往往采用的是 GPU 的异构计算服务器,啥叫异构计算?因为不同芯片处理器存在不同的指令集架构,主要包括 GPU 云服务器、FPGA 云服务器和弹性加速计算实例 EAIS 等。
不同架构各有各的优势,异构计算能让最适合的专用硬件去服务最适合的业务场景。
那为啥 AI 服务器多采用 GPU 而不是 CPU 呢?我们知道 CPU 就是中央处理器,而 GPU 是图形处理器,也就是显卡,CPU 更擅长串行运算,GPU 由于主要处理图形,更擅长并行运算,能够处理越来越多的应用程序。
要想训练 ChatGPT-3.5 需要多少服务器呢?有机构测算,训练一天需要 A100 服务器 3423 台,或者性能更高的 H100 服务器 535 台。
而推理是大模型在与用户对话过程中消耗算力,这取决于用户的访问量,目前访问量还在快速增长,机构推算 ChatGPT-3.5 每日对话实际需要搭载 16 片 V100 GPU 的英伟达 DGX2 服务器 1789 台。
GPT-4 的参数量对比 GPT-3 还有倍数级增长,据说有 10 倍之多,因此所需 AI 服务器数量将进一步增长。而国内目前是百模大战的局面,假设有十个大模型正在训练,对于服务器的需求就是非常可观的了。
因此这一波英伟达的 GPU 已经卖疯了,创始人兼首席执行官黄仁勋表示,一季度 PC 端的 GPU 实现业绩增长主要来源于数据中心业务。
原因就是使用基于 Hopper 和 Ampere 架构 GPU 的生成式 AI 和大语言模型带动需求不断增长。
英伟达还表示,由于互联网公司、云计算提供商和企业客户都迫切地希望将生成式 AI 应用到自身业务中,二季度数据中心客户的销售额或将翻番。
而目前搭载 GPU 的 AI 服务器占整体服务器的比重仅有近 1%,在 AI 相关领域的推动下,预估出货量年成长可达 8%,2022~2026 年复合成长率将持续维持双位数增长。
IDC 统计,中国 AI 服务器 2021 年的市场规模为 57 亿美元,同比增长 61.6%,到 2025 年市场规模将增长到 109 亿美元,CAGR 为 17.5%。
而且 AI 服务器是异构服务器,可以根据应用范围采用不同的组合方式,对不同类型的芯片如 CPU、GPU、TPU 以及其他加速卡等的需求都有带动作用。
AI 服务器核心组件包括 GPU 图形处理器、DRAM 动态随机存取存储器、SSD 固态硬盘和 RAID 卡、CPU 中央处理器、网卡、PCB、高速互联芯片和散热模组等。
CPU 主要供货厂商为 Intel、GPU 目前领先厂商为国际巨头英伟达,以及国内厂商如寒武纪、海光信息等;内存主要为三星、美光、海力士等厂商,国内包括兆易创新等;SSD 厂商包括三星、美光、海力士等,以及国内江波龙等厂商。
PCB 厂商海外主要包括金像电子,国内包括沪电股份、鹏鼎控股等;主板厂商包括工业富联,服务器品牌厂商包括浪潮信息、紫光股份、中科曙光、中兴通讯等。
随着 GPU 性能提升,功耗也在明显提升。目前发展的散热冷却技术主要有风冷和液冷两大类,其中风冷包括自然风冷和强制风冷,适用的机柜功率密度较低的情况。
传统风冷最高可冷却 30 kW/r 的机柜,对于 30 kW/r 以上功率密度的机柜无法做到产热与移热速率匹配,会使机柜温度不断升高导致算力下降甚至损害设备。
液冷分为间接液冷、直接单相液冷和直接两相液冷,主要根据液体与 IT 设备接触状态来区分。
采用 A100 后服务器功率大幅提升,单机柜的功率将超过 30kW,更适宜应用液冷的冷却方案。因此液冷将在行业内开始推广,国内服务器厂商浪潮信息也开始推动液冷的布局。
竞争格局方面,服务器主要厂商包括:工业富联、浪潮信息、超聚变、紫光股份(新华三)、中兴通讯、中科曙光。
AI 服务器目前领先厂商为工业富联和浪潮信息,浪潮信息在阿里、腾讯、百度 AI 服务器占比高达 90%。
紫光股份在 GPU 服务器市场处于领先地位,有各种类型的 GPU 服务器满足各种 AI 场景应用。
特别是针对 GPT 场景而优化的 GPU 服务器已经完成开发,并取得 31 个世界领先的测试指标,该新一代系列 GPU 服务器将在今年二季度全面上市。
中兴通讯近年服务器发展较快,年初推出 AI 服务器 G5 服务器,此外在布局新一代 AI 加速芯片、模型轻量化技术,大幅降低大模型推理成本。
04 电子元器件
前面提到 AI 服务器受益于生成式 AI 获得了良好的发展,那么 AI 服务器当中使用的各种电子元器件当然也会跟着收益,其中主要受益方向为 GPU、存储、PCB、电源及部分电源管理类模拟芯片等。
先说芯片环节,AI 服务器采用异构形式,而 GPU 更擅长并行计算,FPGA 具有半定制特点,ASIC 具有全定制特点,因此采用 CPU 与这三种芯片混合使用的模式。
GPU 除了正常的图形处理器,还延伸出了 GPGPU,这种减弱了图形处理的能力,更强调深度计算。
海光信息还设计出了基于 GPGPU 架构的芯片 DCU,这种芯片不仅具备全精度数据算力,还可提供优异的数据并行处理能力,而且能兼容主流生态。
除了海光信息外,国内的寒武纪、景嘉微、阿里平头哥、华为昇腾、天数智芯、燧原科技、摩尔线程、壁仞科技等国产 GPU 也都具备很强的竞争力。
除了算力芯片外,AI 服务器这一波也带动了存储器芯片的需求增长,之前的文章里我们写过,存储器芯片现在正处于降价清库存阶段,也就是周期低谷,而库存依旧处于比较高的位置,各大巨头都削减了资本开支。
DRAM 和 NAND 是最大的存储市场,合计占存储市场的 97%,AI 服务器中也会用到 DRAM,还有里边的 SSD 用的就是 NAND 闪存。
AI 服务器带来的价值增量主要在 DRAM 上,AI 服务器所需 DRAM 容量相比普通服务器具有明显提升。
据券商测算,单个普通服务器所需 DRAM 价格约 1.24 万元,单个训练型 AI 服务器和推理型 AI 服务器所需 DRAM 价格均约 2.48 万元。
预计 27 年 AI 服务器用 DRAM市场约 27.82 亿美元,2023~2027 年市场规模 CAGR 约 29.89%。
存储器芯片还提到一个 HBM,HBM 的高带宽更能满足 AI 服务器短时间处理大量数据的需求,目前已成为高端性能 GPU 服务器的标配,是 AI 服务器所带来的全新增量。
根据 yole,HBM 单 GB 价格约 10 美元。因此券商测算,预计 27 年 AI 服务器用 HBM 市场约 45.28 亿美元,2023~2027 CAGR 约 35.04%。
现在 DRAM 的价格已经从高点下跌了 60%以上,超过了历史最大跌幅,价格已经开始有反弹趋势。
三星、美光、SK 海力士是存储器市场上的三巨头,由于海外存储器芯片容易存在数据安全隐患,美光已经被禁止国内企业采购了。
还有拜登送上神助攻,不允许三星和海力士填补市场空缺,等于是打算将市场拱手让给国内的长江存储等企业了。
AI 服务器还会给 PCB 带来市场增量,PCB 就是印制电路板,作为服务器芯片的基座,主要负责数据传输和连接各部件,利用板基绝缘材料隔绝表面的铜箔导电层,代替复杂的布线。
随着 PCB 的升级,生产工艺也在变化,主要材料覆铜板的层数正在不断增加,在高速高频的 5G 时代和 AI 浪潮下,通信频率和传输速率大幅提升,PCB 需要高频高速工作、性能稳定、可承担更复杂的功能。
服务器中 PCB 板主要应用于主板、背板和网卡,承担数据传输和连接各部件功能,对服务器性能提升至关重要,并随着服务器性能的提升而不断升级。
由于目前服务器的传输速度越来越高,对于布线的 PCB 也提出了更高的工艺要求。一方面是 PCB 的层数越来越多,能够对电路起到更好地抗阻作用。
另一方面是,PCB 的材料从低损耗材料升级为超低损耗材料,以满足高速高频传输,减少信号在传输过程中的介质损耗,制作工艺难度的提升导致 PCB 单价显著提升,而 AI 服务器又会带动 PCB 的需求增长。
中国逐步成为全球 PCB 产业中心,产值占比过半,但行业集中度不高,头部效应不明显。而且高端产品依然主要由欧美日韩供给,我国 PCB 供给大多集中于低端多层板。
经过长时间的积累与投入,目前国内各大 PCB 厂商都取得了一定的技术成果,并在各细分领域形成了自身的竞争优势。
沪电股份、深南电路、生益电子等厂商供给产品的最高层数可达到 40 层,深南电路背板样品采用材料混压、局部混压等工艺,最高层数可达 120 层,批量生产层数可达 68 层,目前处于行业领先地位。
在高端服务器领域,鹏鼎控股研发的新技术已包含云端高性能计算及 AI 服务器主板技术等,崇达技术和胜宏科技针对高端服务器的相关产品也都已陆续出货应用。
覆铜板是 PCB 主要成本结构,随着 PCB 板的层数不断增加,覆铜板的用量随之增长,对覆铜板的材料性能也提出了更高水平的需求,生益科技作为覆铜板龙头企业,目前已有一系列高频高速覆铜板产品。
兴森科技与生益科技已达成战略合作,建立了稳定上游供应。生益电子是生益科技分拆上市的子公司,并且定位中高端通信设备和服务器应用领域,未来具有稳定高水平覆铜板产品合作伙伴的厂商可能会形成优势。