美国市场大模型生态创业景象如火如荼,大洋彼岸,中国科技行业也闻风而动。前有百度推出的文心一言,紧接着华为宣布将发布盘古系列大模型,3月底阿里达摩院上线了“文本生成视频大模型”,一时之间国内AI大模型风起云涌。
微软用ChatGPT震惊了世界,也佐证了英伟达的行业地位。OpenAI ChatGPT大模型能有今日风光,英伟达的A100功不可没。业内人士指出,大模型的训练需要庞大的算力资源,GPU是大模型的最佳算力发动机。截至目前,英伟达的GPU芯片正在为全球绝大多数的人工智能系统提供最基础的算力支持。ChatGPT母公司OpenAI,便是凭借着10000片英伟达的GPU芯片,成功训练出了GPT-3大语言模型。
大秀肌肉的英伟达在AI领域称王
时值全球范围内掀起AI热潮之际,今年前三个月英伟达市值翻了一番。在这个ChatGPT的出圈元年,作为全球算力硬件当之无愧的龙头公司英伟达近日不负众望,推出了适用于ChatGPT的专用GPU,可以将推理速度提升10倍。
国内云计算相关专家认为,做好AI大模型的算力最低门槛是1万枚英伟达A100芯片。TrendForce研究则显示,以A100的算力为基础,GPT-3.5大模型需要高达2万枚GPU,未来商业化后可能需要超过3万枚。
谁能突破算力封锁?火种初现的GPU中国厂商
从长远来看,未来大模型的研发和部署是必然趋势,而每个大模型训练和部署的背后,都有几万个GPU芯片在支持。因此,通用GPU市场需求将会迎来爆发式增长。据VerifiedMarketResearch数据,2020年中国大陆的独立GPU市场规模为47.39亿美元,预计2027年将超过345.57亿美元。
据台湾电子时报报道,微软等客户对英伟达的A100/H100芯片需求强烈,目前英伟达订单能见度已至2024年,高端芯片非常紧缺。而国内拥有的超高算力芯片并不多,据相关媒体报道,国内云厂商主要采用的是英伟达的中低端性能产品,拥有超过1万枚GPU的企业不超过5家,其中,拥有1万枚英伟达A100芯片的最多只有一家。
从算力需求端来看,人工智能模型的参数量随换代呈现着指数型增长的态势。2022年8月,美国监管机构以国家安全为由,对A100、H100两款GPU实施禁令,不得销售给中国企业。而中国能获得的最佳替代品,则是英伟达专供中国的A800芯片,而其传输速度只有A100的70%。业内人士指出,作为大模型的主要入局者,国内互联网大厂拥有天然的数据优势,自然不希望因算力被卡在大模型能带来的广阔世界和商机之外。
但也正是在算力需求激增、硬件供给被切断、难以真正“市场化”的背景下,国内才涌现了一批GPU的“火种”企业。而对于中国企业来说,以景嘉微、海光信息为代表的的中国高算企业,也必将在层层封锁中杀出,以卓越的产品,推动中国滚滚的数字化大潮。
国产巨无霸引领“中国芯” 创业公司百花齐放 谁能分一杯羹?
多个中国新一代初创型GPU研发公司相继成立,正逐渐走上历史舞台。A股国产GPU上市公司表现同样强势,景嘉微、海光信息、龙芯中科本周股价皆创下历史新高,年初至今累计最大涨幅翻倍;寒武纪2023年开年以来股价累计最大涨幅高达327%;中兴通讯周五涨停,公司称年底推出支持ChatGPT的GPU服务器。
这些新兴的企业中,核心团队基本都是业内顶尖专家,许多技术专家来自英伟达、AMD等国际龙头企业。初创企业们接连完成新融资,并陆续推出新品加速商业化。首先,是借军工信息化之风迈向全面本土替代的GPU企业——景嘉微。
景嘉微为国产GPU龙头,浙商证券表示,公司是国内首家成功研制国产GPU芯片并实现大规模工程应用的企业。先后推出JM5系列、JM7系列、JM9系列等高性能GPU芯片,联合国内主要CPU、整机、操作系统、行业应用等厂商开展适配与调试工作,共同构建国产化计算机应用生态。JM9系列可满足高性能显示需求和人工智能计算需求,未来有望在AI大模型及云计算等高端领域进一步得到应用。
海光信息基于通用GPGPU架构,推出深度计算处理器DCU。海光信息目前的系列产品“深算一号”已经实现商业化应用,主要应用于大数据处理、人工智能、商业计算等应用领域。龙芯中科于2017年开始研发GPU,第一款GPU IP核已经在龙芯72000桥片样片中流片成功。
中兴通讯在2022年度业绩说明会上表示,公司内部研判ChatGPT是人工智能技术重大跨越式突破,公司已经结合自身优势开始重点投入,计划今年底推出会支持大带宽的ChatGPT的GPU服务器。中兴通讯希望使用ChatGPT技术来提升公司内部的研发效率,至少在比较短的时间内可能有五个点(效率)提升。
3月17日,李彦宏也在亚布力中国企业家论坛上分享,昆仑芯片现在很适合做大模型的推理,将来会适合做训练。此外,获融的初创公司如芯瞳半导体、芯动科技、摩尔线程、天数智芯、壁仞科技均已陆续推出产品,甚至已进入一些整机。