一.从AI芯片启航到算力:
本部分主要讲一下各类芯片及一些AI炒作中遇到的概念。
算力的分类,根据《中国算力发展指数白皮书》,算力可分为:
1. 供给端:通用算力、专用算力、超算算力
2. 需求端:NPU、ASIC、FPGA、GPU、SoC、DSP、CPU等。
这里面首先要用到的各类芯片半导体相关概念,我们需要首先搞清楚。
先讲一下Ai芯片,广义上所有面向人工智能(Artificial Intelligence,AI),包括Training(训练)和Inference(推理)应用的芯片都可以被称为AI芯片。
这里要先讲一下主要的一些PU芯片(process unit),按其智能划分。
l APU:A为Accelerate,处理加速器,CPU与GPU间的协同计算。
l BPU:B为Brain,自动驾驶AI芯片,国内的地平线公司主力。
l CPU:中央处理器。
l DPU:D为Deep-learning,最早由深鉴科技提出,FPGA处理单元,拥有较为领先的机器学习能力。
l EPU:E为Emotion,目的是达到AI与人工智能、机器人、消费电子设备中产生认知过程和真正的情绪反应(机器情绪)。
l FPU:浮点运算板块。
l GPU:图像和图形处理。
l HPU:H为Holographic,微软发布的全息处理芯片。
l IPU:I为intelligence,智能处理器(感觉没啥特别的地方)。
l KPU:K为Knowledge,嘉楠耘智开发的RISC-V架构下的协同处理器。
l MPU:微处理器与CPU类似。
l NPU:N为Neural network,神经网络处理器,除GPU外算是第二流行的AI计算框架,平头哥的主力产品,以T-head19年发布的瀚光800为例支持人工智能推理,大概有820TOPS的峰值算力,按配比来算,当时已经指标很高了,华为、寒武纪等国内Ai芯片厂商也在用这个框架。
l PPU:物理运算处理器,用于物理模拟加速。
l QPU:面向量子计算的未来AI处理器。
l TPU:T为Tensor,张量处理器,谷歌主打的框架之一。
l VPU:V为Vector,矢量处理器,人工智能的芯片加速核心(矢量运算)。
除此之外的一些概念:ASIC、FPGA、SoC、HPC、DSP
l ASIC为专用集成电路,是针对特定用户要求和特定电子系统设计、制造的专有应用程序芯片,其计算能力和计算效率可根据算法需要进行定制,一种架构。
l FPGA为现场可编程门阵列,是在硅片上预先设计实现的具有可编程特性的集成电路,它能够按照设计人员的需求配置为指定的电路结构,相比ASIC灵活性更强。
l ASIC和FPGA均为定制化处理方案,提供专用算力,其基本逻辑单元设计流程和实用范围有所不同,因此各有不同侧重,用于设计各类定制芯片。
l SOC为系统级芯片,芯片领域的老熟人。
l 与之相对的是MCU,芯片级芯片,又叫微控制器。俗称单片机。
l 以上这两类都是芯片设计集成方案,用于集成集成功能,再加以指令集就可以运行代码了。
l DSP,数字信号处理芯片,光模块的重要组成部分,用于数字信号的加工分类等。
:
二.算力网络的海洋:
将芯片集成,我们就得到了集成电路,用集成电路整合就形成了算力设备即服务器,算力设备彼此联通构成的节点就是算力中心,算力中心彼此相连并向用户延伸就构成了算力网络。
这里还需要补充下云和边端。
传统云计算,在指的远程的数据中心里,成千上万台计算机和服务器联结成一片计算云。各行各业、个人,都通过网络接入云计算数据中心,按自己的需求进行数据存储和数据计算。
在计算要求增大的背景下,过高的集中度会降低计算的效率,同时减缓信息传递的有效性。
因此就需要边缘计算的场景,在许多需要大数据计算但实时性比较高的场景下,用云中心来计算会减缓该场景的计算效率,同时提高整体算力要求,这些特殊的场景下就需要用到边缘计算。
总结而言,云的场景更宽泛的应用于高性能要求下低特有度(特殊场景运用)的计算,如AI大模型等,而边端算力则是更靠近用户,即AI各类应用的场景下。
当然,前文讲过了算力,按照其职能的一些划分。
本部分在前部分的基础上延展,我们来讲一下有了服务器,算力网络的得到,这里就需要IDC和DCN两个概念。
l IDC:Internet Data Center,即互联网数据中心,简称IDC机房,广义上包括我们平时说的算力中心,就是存放服务器的地方,是云和CDN技术的基础。
——当然这里面可能既有算力节点也有数据节点,平时我们把算力中心和数据中心分开讲来区别其职能和性能上的区别。
在数据中心里,也对算力任务进行了对应划分,分为基础通用计算,以及HPC高性能计算(High-performance computing),AI相关显然在后者范围。
l CDN:Content Delivery Network,内容分发网络,面向用户的分发节点,将信息传递给用户。
可以预见,在未来AI真正从模型走向to b和to c端的过程中,必然会带来IDC和CDN的大幅上涨。
三.算力租赁:
故名思意,就是对云计算节点进行出租的业务。
可以理解为拥有IDC的公司对其IDC进行转租的业务,这里面可能不仅包括AI专用算力。
6月5日,由工业和信息化部主办,中国信通院等承办的“算力创新发展高峰论坛”在京顺利召开。 会上,中国信通院联合中国电信共同发布我国首个实现多元异构算力调度的全国性平台——“全国一体化算力算网调度平台(1.0版)”。
这标志着我国算力发展进入了新时代,同时也标志着地方承办建设的云算力中心真正进入飞速发展的时代。
孟晚舟在归国后的华为业绩会上曾发言,未来几年我国的算力规模将增长十倍,而人工智能计算规模将增长500倍,这就是近期市场对算力炒作的基本预期。
前段时间的妖龙鸿博股份、亚康股份正在此列,近期的城地香江、美丽云、云赛智联等股票也在此范畴。
四、推荐关注领域:
1. 边缘计算芯片及其服务器、节点等。
2. IDC和CDN业务的承包商,ps. IDC和CDN是线性关系,没法厚此薄彼。
———风险提示———
本文仅为投资逻辑参考,
不构成直接投资意见!
有兴趣研究提出问题的可以在评论区发问!
—————————————
更多有关半导体、芯片、消费电子等TMT板块分析,
关注gzh:云里浮生记