近一个月以来,AIGC现象级产品ChatGPT聊天机器人点燃市场热情、成就了一场资本狂欢。
AIGC推动AI产业化由软件向硬件切换,半导体+AI生态逐渐清晰,AI芯片产品将实现大规模落地。
可以说,ChatGPT的火爆,开辟了AI产业化的新路径-以大模型敲开通用人工智能的大门。为了满足大模型应用的巨大算力需求,大厂们纷纷加大了相关基础设施方面的投资。作为算力基础设施中的核心硬件,AI芯片由此进入人们的视野。
ChatGPT的“背后英雄”系GPU或CPU+FPGA等算力支撑,该应用对于高端芯片的需求增加会拉动芯片均价,量价齐升将导致芯片需求暴涨。信达证券也表示,AIGC推动AI产业化由软件向硬件切换,半导体+AI生态逐渐清晰,AI芯片产品将实现大规模落地。
ChatGPT的技术底座是“大型语言模型(Large Language Models)”,简称LLMs,中文习惯称为“大模型”。算法是大模型成功的首要条件,然后要喂给算法海量的数据(数据量级跃升,能带来更多能力的涌现),再搭配强大的发动机--大算力,才能获得最基础的大模型。
一个ChatGPT应用的算力消耗已经让人瞠目。其大模型GPT经历了三次迭代,GPT、GPT-2和GPT-3(当前开放的版本为GPT-3.5)的参数量从1.17亿增加到1750亿,预训练数据量从5GB增加到45TB,其中GPT-3训练单次的成本就已经高达460万美元。最新的GPT3.5在训练中使用了微软专门建设的AI计算系统,由1万个V100 GPU组成的高性能网络集群,总算力消耗约3640PF-days,即假如每秒计算一千万亿次,需要计算3640天。
同样,国产自研的源1.0、悟道和文心等AI模型,不仅在参数量上达到了千亿级别,而且数据集规模也高达TB级别。想要搞定这些“庞然大物”的训练,就至少需要投入超过1000PetaFlop/s-day(PD)的计算资源。
一言以蔽之,大模型为代表的AI新时代,芯片算力便是核心竞争力。
而AI 芯片是针对人工智能算法做了特殊加速设计的芯片,也被称为AI加速器或计算卡,是AI的算力基础。要知道,ChatGPT有着大量复杂计算需求的AI模型,GPU、FPGA、ASIC等AI芯片专门用于处理这些计算任务,是不可或缺的底层硬件。
据了解,采购一片英伟达顶级GPU成本大概为8万元,GPU服务器成本通常超过40万元。对于ChatGPT而言,支撑其算力基础设施至少需要上万颗英伟达GPU A100,一次模型训练成本超过1200万美元。
ChatGPT对于高端芯片的需求增加将会拉动芯片均价,量价齐升将导致芯片需求暴涨,“目前OpenAI已推出20美元/月订阅模式,初步构建了优质的订阅商业模型,未来继续扩容的能力将会大幅提升。”
不过,在名为“AI芯片”的大篮子里,细分品类众多。目前英伟达主导的GPU凭借高算力成为主流选择,其他AI芯片如ASIC、DPU、FPGA也蕴含潜力。ASIC/DPU等专用芯片在特定使用场景下高算力/低功耗/小面积的优势仍吸引国内外厂商积极布局,如TPU、类脑芯片等;FPGA由于可编程而更具灵活性,相比于CPU/GPU/ASIC具有更高的速度和极低的计算能耗,常年来被用作专用芯片的小批量替代品。
近期景嘉微、寒武纪、龙芯中科等多只芯片股大涨。
分享一只还在低位的国资芯片股:欧比特。
欧比特为我国首家登陆中国创业板的 IC 设计公司。公司产品(嵌入式 SOC 芯片、立体封装 SIP 模块/系统、人工智能模块/芯片/系统等)服务于航空航天、卫星大数据、地理信息等多个领域。
2022年欧比特凭借玉龙410人工智能芯片再次入选优秀产品榜单!成功获选“中国芯”优秀技术创新产品。欧比特连续两年获得“中国芯”奖项、获得行业内的实力认可,源自公司一直以来在人工智能芯片领域中不断突破核心技术难关、成功完成芯片项目攻坚,整体呈现积极的发展态势。欧比特本次斩获2022年“中国芯”优秀技术创新产品这一荣誉,将有利于发挥示范引领作用,进一步加强企业之间的合作交流,力争加速打造“中国芯”产业,共同推动“中国芯”在各个应用领域产业的高质量发展。
“中国芯”奖项是目前国内最具影响力和权威性的奖项之一,获奖名单基本涵盖国内最具实力的集成电路企业和最具代表性的产品,是国内集成电路产品和技术发展的风向标和大检阅。“优秀技术创新产品”则主要面向近两年内研发成功,技术创新性强、有自主知识产权、对完善自主供应链产生效益的单款新品产品。欧比特此次获奖的玉龙Yulong410人工智能芯片是欧比特公司推出的新一代嵌入式处理器芯片,芯片聚焦于图像处理、信号处理和智能控制。
注:以上内容来源于网络公开资料,仅做信息分享;据此交易,风险自负。