至于为什么是它,没耐心的其实看看K线图和筹码就懂了,有耐心的准备拿大波段的则要细细把下面的测算看完整。
现在开始,AI时代,算力就是生产力。AI大模型的训练和推理都离不开强大算力支持,否则AI发展将受到生产力瓶颈的制约。
据中国信通院数据,2021年全球计算设备算力规模达到615EFLOPS,同比增长44%;华为GIV预测,2030年人类有望迎来YB数据时代,全球算力规模达到56 ZFLOPS,十年CAGR达到65%。
之所以这么说,是因为光模块是数据中心内部互连和数据中心相互连接的核心部件。100G 和 400G 是主流产品,800G 过去主要用在超算等领域。根据 LightCounting 预计, 2023 年 800G 全球普及率仅 0.62%。以 ChatGPT 为代表的 AI 大模型,对数据中心内外的数据流量都提出了新要求,有望推动光模块加速向800G甚至是1.6T升级
根据 LightCounting 于 2022 年 4 月发布的预测,2022~2024 年全球 800G 以太网光模块出货量有望达 11、39、119 万只。
这还是在2022年的预测,如今遇到ChatGPT这个划时代的产品出来,这个数量可能会增至数倍以上,因为根据最新的测算,基于英伟达 AI 网络架构硬件需求比例,服务器:光模块=1:11.4,具体测算:
一个 SuperPOD 170 个交换机,每个交换机有 40 个端口,最简单方式上下个 70 台服务器,依次端口互联(上下 1:1 连接)对应的线缆需求为 40×170/2=3400 根,但是由于实际网络拓扑结构交换价不是该情况,连接情况更加复杂且会分为三层结构,因此线缆数需 求有所提升,我们假设上升至 4000 根线缆需求。
线缆的需求分为三种,第一种用在机柜内部,互联距离 5m以内,常用需求为铜缆,不需要光模块;第二类互联距离为 10m 以内,可以采用 AOC(有源光纤)连接,也不需要光模块;第三类,带光模块的光纤,单根需求为 2 个光模块。
考虑到 10m 以内的连接占据多数,我们假设铜缆:AOC:光模块光纤比例=4:4:2,光模块需求=4000*0.2*2=1600 个。
即对于一个 SuperPod,服务器:光模块的用量比例=140:1600=1:11.4
......
对于未来,我想对于算力的需求只会越来越大,以GPT大模型为例,经过3年迭代,GPT模型参数量从初代的1.17亿个提升至2020年GPT-3的1750亿个,OpenAI的论文数据显示,训练参数完整的GPT-3模型会消耗算力3640 PFLOPS-dav,也就是说,以一万亿次/秒的速度进行计算,一次训练需要3640天来完成。
而2023年3月的GPT-4新增多模态输入功能,参数量只会有增无减。
这就意味着,仅一个ChatGPT在不断迭代的过程中就有巨量的算力需求,参数数量已经是呈指数级增长了,何况国外还有谷歌、Meta、亚马逊,国内更是华为、百度、阿里巴巴、腾讯等一众大厂要被迫跟上时代的步伐,否则就是逆水行舟、不进则退,被别人蚕食了,也就意味着之后对于光模块的需求是极大的!
在本次切换周期的前期,中际旭创、新易盛等光模块头部大厂有望率先拿到市场的大部分份额和价值量的提升,器件厂商中,太辰光、天孚通信等厂商有望率先受益。
......
然后!这里的重点就来了!
AI数据中心里的服务器最受益的光模块上,还需要同样降本增效的高密度光纤连接器(简称MPO)跟高通量的光模块协同合作!
用文字可能不好讲明白,我直接搜了一张图,把东西标注给大家看,立马就能理解了。
每一个光模块上都要配套着一个高密度光纤连接器,才能真正使得光模块发挥最大的作用,配合着上面给大家测算的,服务器:光模块=1:11.4。
现在就变成了服务器:光模块:高密度光纤连接器(简称MPO)=1:11.4:11.4。
在2021年的赛道大行情里,有大批量的百亿以内的细分逻辑龙头,随着行情的演变完成了5倍以上的涨幅,甚至更多,而如今在底部找到一个太辰光这种涨幅不大、真正受益,但是热度尚且不高的百亿以内小市值标的,真是十分难得的事情了。
这里还有一个保底,就是如果国内大模型推进不及预期,国外遥遥领先我们,那太辰光也是高度受益的,因为它直接供货给北美云厂商,国外的收入占其总收入83.72%,直接供货给META等云巨头。而外销收入占比也一直是光模块的一条暗线,如剑桥科技80.36%,中际旭创85.63%
人工智能的行情还远远没有结束,ChatGPT是人工智能的奇点,可能回头一看,我们当下正处于新一轮的大变革的起点!
随着行情的延展,后面可挖的细分会越来越多,争取后面为大家带来更多的人工智能最受益系列!