AIGC游戏专家交流 游戏各环节应用:大公司每年5款,中型公司1-2款,目前由于产品版号,目前没有像之前发的多。AIGC能结合市场数据表现判断是否能够成功以及是否要做,因为有些品类可能已经比较饱和或市场较大,但目前不会去做,因为现在立项较少。主要作用包括:(1)文本生成:包含文生文(角色陪聊及辅助),目前游戏是写死的,但AIGC能够丰富对话场景,让NPC角色有灵魂、游动行走,即使没有玩家在里面,NPC也可以自己行走互动,能够有千人千面的帮助;剧情生成:部分剧情内容撰写,AIGC能帮忙给予更多可能性,每个游戏产品都有自己的世界观,AIGC可以用来做大世界和文本生成。(2)角色和道具的生成:做角色的时候目前大部分由策划发起,美术不知道如何去绘画,画3D需要1-2周,试错成本非常高,有可能和预期偏差大。AIGC可以帮忙生成角色和动图,3D也可,但3D算力需求及成本较高,工作量大,因此大部分美术和原画会先生成100张2D图,选择其中几张风格去画,试错成本较低,提升工作效率。(3)数值方面:每个角色在游戏公司数值体系有评分,可以让AIGC生成战斗数值、能力数值,团队把关数值体系是否在能力框架内,然后进行部分修正。(4)角色周边:周边实物售卖激发更多灵感(5)音效:过去调音师从demo开始,不断调整,目前AIGC快速生成多种风格的demo,加速创作过程。之前调音师在密闭环境缺乏灵感,AIGC可能可以生成十分钟demo做前奏、副歌、编曲,再编成完成bgm嵌入游戏;角色方面,二次元游戏中声优很重要,但是声优可能档期冲突,如果某个角色为人气角色且游戏中数值高、三观正,声优出问题公司会受影响很大(6)场景生成:原神做三张图需要三个月,AIGC目前可以生成部分地图场景,但还需要调整才能应用,之后如果一个月生成一张图,就能快速提升产值。AIGC可以生成很多地图使得游戏玩家有更多时间探索,提升留存客户及客户游戏时长。(7)宣发运营:素材制作中游戏本地化翻译(防止游戏delay,错过预约的资源位时间,不改变发行节奏)、素材制作中笔面当地文化雷区(付费方式在游戏中商业化设计不同、客户倾向付费的时间影响游戏投放时间、欧美更倾向宏大的世界观和场景,东亚地区更倾向于宅文化等等,如果踩雷就会非常影响投放成本)、优化买量平台投放分配(各个平台投放的资源分配,根据ROI做分配),AIGC可以帮忙告知在买到某个阈值的时候停止投放,保障整体ROI。(8)社区运营:降低UGC内容创作难度,加大内容讨论度,自动发言AIbot带动社区活跃(百度贴吧中发帖怎么过,AIGC可以回复怎么过或去哪里看攻略,有互动氛围)。提升社群活跃和留存。(9)商业化:帮助游戏内设置更合理的付费机制(付费机制需要合理的商业化平衡点,未来AIGC可以优化这一套数值体系,公司只需要做最终审核和拍板,敲定上下限),未来大模型和怪物反馈机制调优功能可能卖给其他游戏厂商使用。(模型自研,并不是所有公司都有能力做大模型,未来可以进行售卖,米哈游规划26年);怪物反馈机制:之前角色被攻击后角色树都是既定的,反馈机制是会有闪避或回避和反击,会更拟人化,使得用户体验提升。腾讯做的比较好是因为王者荣耀和吃鸡都很吃这个功能 降本增效量化分析:1.文字:目前节约25%人力,终局节约70-80%人力、70%左右时间2.道具角色:目前节约20%人力,终局节约60-70%人力、50-70%时间3.场景生成(技术难度较高):目前10-20%时间,终局60%人力,50-70%时间终局定义是盘点所有人力需要的工作和时间、决定什么可以被AI替代,以及AI所需要的时间,主要替代生成时间,而非验收4.宣发端:未来3-5年(保守)替换50%左右人力成本,提高20%左右ROI 各大厂商布局:目前做游戏AIGC的游戏公司只关注腾讯、网易、米哈游即可,做游戏是有创意的(羊了个羊没有技术壁垒但是有创意),但AIGC为纯技术领域的研发交流,考究的是团队人力成本、平均能力及技术能力。米哈游200多人团队平均年薪120w,和后面二线厂商差距较大,8亿投入AIGC,中小型厂商投入没有结果。Netflix:专注AIGC视频生成,让更多KOL等做内容创作迪士尼:专注IP角色自动生成;可以生成大电影进行售卖(游戏公司也有诉求,主线情节告知讲述的是什么故事)Minimax:首款产品Glow主打社交AI聊天,基本原理与chatgpt相似,更多聚焦情感服务。米哈游去年做过两次虚拟偶像直播(很多游戏背后是有终端控制的真人),米哈游捕捉、生成动作,AI生成声音,当时实时语音不够流畅,而minimax围绕文本、绘画、语音去做,可以补齐短板,所以做了投资二线厂商包括完美、巨人、游族、灵犀、吉比特,都在做研发端AIGC;三七主要做海外发行、投放,不以研发著称,卷研发对他来说可能没有意义,海外发行是top级别,在东南亚、欧美建立了独特的方法论,因此主要在国外发行强势领域做AIGC,拉开差距。其他游戏相关AIGC技术:RCT、超参数相对领先,和大厂比较接近,但大厂模型自研且没商业化,所以会需要找大厂合作,需要用大厂模型部署在本地,把自己的数据和内容投喂生成适合自己的模型,但RCT、超参数希望中小型公司把数据给他们去生成完善(老板是之前王者荣耀总经理,目前做AIGC游戏研发);启元(莉莉丝等投资)、商汤(可能是和完美合作,做角色生成)、元象唯思(老板是之前腾讯AI学院院长,腾讯也投资了) AI解决方案专家交流 ChatGPT引爆全世界:进一步应用,偏创意场景,例如图片场景生成等。100w用户耗时五天,到1亿用户耗时两个月,科技界认为ChatGPT为AI的iPhone时刻,模型发展较大后形成量变到质变,推理、逻辑能力有较高增长。ChatGPT发布后国内互联网、科技大公司开始建立自己的AI大模型。ChatGPT引领第四次产业革命:OpenAI产品能很好实现人际交流,影响范围涵盖普通大众日常工作及生活工作过程:以用户的输入及之前的对话作为context,向后续写文本,每次输出1个token(1token≈0.75word)。有人分析国内数据质量较差,无法反馈较好的数据,数据重要性固然较高,但发展到今天,数据依然重要但算法和技术能力是更重要的。ChatGPT工作原理为例,一开始有预训练阶段,此后经历有监督学习(人工生成高质量问题和答案)、评价模型(部分需要数据,不同人回答及打分)、强化学习(让模型学会大概如何评价,再有问题和答案时有网络进行自动评价)、上下文处理等。预训练阶段会输入很多数据,300 billion tokens,预测下一个token然后迭代学习。主要能力浓缩在transformer网络结构(12-16层),富含了海量参数,包含矩阵乘法、指数运算等。GPT-3效果:在数据量合适及算法能力能使数据运用的情况下越大的模型效果越好。GPT-3对比版本有很多,训练过程及数据量一样,效果对比方面175B的模型问答表现明显高于其他。 推理成本:AWS 1000token/次,A100推理成本=2*参数量FLOPS/token*token生产数量*$/flop(峰值性能下)/实际flop利用率10000 V100 GPU耗时14.8天,inhouse训练一次74w美元(没考虑其他成本)自建 $74wAWS $12M 搜索推荐领域收益:Bing已引入ChatGPTGoogle每秒请求量很大,每年需要35B cost,当前不会启用 底层软硬件需求:ChatGPT大概需要3640 PF days,1750亿参数,占用45TB数据量,datacenter 1200w/次,此外需要多卡互联集群能力、通讯能力,智能革命最底层的支撑是大的算力系统,且算力为通用的,通用编程框架也很重要。 大模型还在持续迭代,每年参数的提升量在10-20倍。在模型迭代情况下,目前英伟达领军发布的产品(V100-A100-H100)架构升级,H100引入了新的技术能力,此外,卡间互联能力也持续增长。 影视行业专家交流 目前AI在影视行业作为工具使用,纯靠AI生成的产品还在试验阶段,没有直接商用,但是具备前景。AI、ChatGPT在影视行业作用主要包括智能推荐、自动剪辑、智能字幕、艺术创作、语言学习及情感分析,总体来说目前chatgpt会回复比较general的事情。目前AI艺术创作只能提供部分灵感和创意,广告行业关注洞察痛点,甲方提出很多要求时,AI工具能够解决一些困境,按照要求做部分模拟,贴合每天更新的要求。智能推荐:ChatGPT可以分析观众的观影历史、兴趣爱好、评分等信息利用机器学习算法进行推荐,使观众更容易找到自己感兴趣的影视作品自动剪辑:ChatGPT可以通过分析不同的视频片段,自动生成剪染,债得制作人员可以更快速地完成剪辑工作,提高制作效率智能字幕:ChatGPT可以通过语音识别技术将视频中的对话转换为文字然后使用自然语言处理技术生成高质量的字幕,提高观众的观形体验。·艺术创作:ChatGPT可以为编剧、导演等创作人员提供灵感和创意,通过分析大量的影视作品,生成新的剧本、角色、情节等元素,帮助创作者更好地发挥自己的想象力。语言学习:ChatGPT能够自动翻译、解释和概括影视剧的内容,这对于学习和研究不同语言和文化的人来说是非常有用的。情感分析:ChatGPT可以分析观众对于某部影视作品的情感反应,从而帮助制作人员更好地了解观众的需求和心理,为他们提供更好的体验。 Chiplet先进封装专家交流 目前AI能力越来越通用,模型变大,算力要求增长,底层要求模型框架及算力,周边需要配套更多CPU等算力单元。整体超大规模模型对半导体带来四大挑战:1.算力需求持续翻倍,过去工艺制程进步难以继续,如何支撑算力增长2.算力功耗成为核心问题,目前计算在全世界耗电量2-3%3.存储访问功耗比重攀升,存储与连接对算力网络的进步带来了更大的挑战与瓶颈,功耗比重攀升的问题可以通过存算一体或chiplet解决4.互联系统效率成为瓶颈 以同构和板卡级互联为特点的数据中心架构无法支撑未来持续陡峭的算力需求,Nvidia对所有的板卡级互联用了NVlink网络,对大模型单个集群训练,片间互联或用infiniband。但不是所有东西都能做并行计算,不同运用需要用不同方式调动计算卡,Nv把Grace CPU和A100放在一起做异构计算中枢,提升效率;Intel在去年推出3D GPGPU chiplet芯片,规模在原本5倍,3X+性能提升。做大芯片良率较低,算力持续上升成本上升,Intel在把不同的单元做拆分,做大芯片同时各个单元更小,功能灵活同时成本更低。AMD GEN系列基于chiplet架构,在今年ces发布MI300,除了基于chiplet技术,还在数据中心芯片中实现异构,在同一个chip里集成了6颗gpu和3颗cpu,已经实现走向异构。突破关键:基于chiplet的超大规模异构计算平台Chiplet为异构计算的核心关键。之前更多与chiplet相关的概念为先进封装,但是chiplet实际上是架构开始的产业革命,软件层面需要统一编程模型和库堆栈,此外,异构计算单元芯粒化(cpu、gpu等,非计算单元也成为芯粒),需要连接系统(超高速大规模传输网络),物理上需要先进封装技术进行连接,die之间还需要die to die接口,之前接口是不通用的,通用化在当时不成立,目前发生变化,去年3月成立UCIe,目前国内也在做不同的标准和产业认同,可以达到高速高性能、低功耗。高效调动die还需要高效连接网络。什么是chiplet:基于原本soc架构进行拆分重组,把主要功能单元变成芯粒,通过先进封装和die to die接口连接到chiplet互联网络中。优势:持续扩大芯片面积,大幅提升性能;功能芯粒无需重复设计,降低研发成本;减小单颗芯粒面积,大幅提升良率,降本;海量芯粒组成各种芯片,加快上市周期。在此情况下,chiplet能够把单一芯片做更小,同构扩展优化成本,进行模块化拆分。未来方向为异构组合。奇异摩尔致力于打造高性能异构计算平台基石,让客户在公司互联、连接、存储基础上实现更高性能端到端服务,转向chiplet设计。公司以数据与传输为核心,通过fabric连接和调度不同类型的计算单元,成为超大规模分布式异构计算平台的基石。 新华三:AI大模型促算力和网络架构升级 AIGC简要回顾AIGC带来生产力再次跃迁。主要算法技术脉络,关键技术思想1,大预言模型LLM文本生成,文字接龙,对下一个字出现概率的预测,有问题,所以需要引导纠偏;思想2,生成对抗网络(图像视频生成);思想3,扩散模型,类似拆楼建楼的过程。要一步步分解并反复。 AIGC对算力和网络的需求AIGC训练需要大规模GPU算力的承载。算力墙,GPT3所需的GPU算力:1000个A800需要34天。才有存储墙,需要大量GPU显存的要求。AIGC典型系统架构,一个是GPU训练集群,另一个是分布式存储,还有GPU调度作业,另外训练完之后需要推理服务器集群。大模型需要采用分布式训练方式,训练方式有模型并行(张量并行和流水线并行),数据并行。分布式训练GPU间需要不同通信方式,对网络带宽有大量需求。张量并行水平切分模型流量,计算每一层参数需要从其他服务器拿数据,张量并行会产生大量数据,对网络带宽要求最大。流水线并行,层切分,层与层之间计算量小,需要交付,有问题,可能会有GPU利用率低的问题。数据量很大。混合并行需要搭配高性能网络。公司实验室两台服务器(8卡A800)实测单台服务器流量对外流量近50G,带宽流量很大。总结大模型训练队算力和通信的需求,成本张量并行大于流水大于数据,单机内并行用张量,多机间用张量和数据。 新华三AIGC解决方案及实践H3C算网解决方案;H3C AIGC基础设施产品,训练场景、推理场景和数据中心交换机,训练平台实践,不同客户有部署,服务器基本都是A800,网卡200G居多,存储内存CPU选择多。大型和中小型推理平台。通信网络采用RDMA技术。RoCE网络和IB网络对比,带宽100G一下IB好,以后是RoCE。成本上IB低,时延IB低,RoCE不差多少。IP网络发展速度大幅领先IB,100G是分水岭。大模型训练区设计。互联网B客户大模型基础设施方案实践,16000张GPU卡,三级架构,每个服务器160卡20台服务器的规模。 英伟达:NVDIA智能网络加速金融计算算法核心来自OpenAI和OPT175模型,OpenAI3000个GPU规模全部放入微软云,现在最大规模是32000片GPUA100,还有H100。Meta1 6000自建,还有16000片放在微软里。Azure是第五大算力中心,算力中心部署全部英伟达的GPU加上英伟达的网络方案。InfiniBand。 Facebook Meta AI RSC:16k GPU在金融领域的应用:算力转化成生产力。风控,量化计算需要大模型把交易信息提炼出特征值,自动化生成交易推荐。数字孪生,元宇宙对话。风控与欺诈预警:通过数据中心的算力,把识别风险交易从几小时缩短到几分钟。量化:用模型计算替代人做决策,基于大量数据的挖掘。Raw data,特征,大模型分析,生成策略组合,算法执行,交易。前面的部分都需要算力中心和GPU完成。英伟达的领先是生态圈建设的领先。Infiniband最新的NDR技术400G,Sharp可拓展分层次的聚合协议。效果:延迟、存储量。数据包大小不影响时延,不开sharp,all reduce从5微秒到30微秒,7倍提升。带宽,不启用sharp带宽只能到70多GB,sharp启用可以达到2.5倍的加速效果。算力中心一定是基于IB。优势:原生无损网络;单作业万节点案例多,稳定运行多年;计算和通信全栈式优化;网络自愈技术SHIELD,应用软件透明无感,支持云原生高级性能隔离。 华工:AI驱动下光模块展望数据中心对光模块需求的变化:通讯市场发展趋势:全球光模块市场2023年150亿灭源,到2027年225亿,数据中心市场规模占约50%,并持续提高。光模块发展趋势:数据中心演进,到400G到800G。 AI技术发展对光模块的要求三个阶段:1是人工智能诞生,2是人工智能技术高速发展,3是深度学习加速商业化。AI时代,A100、H100等的推出,数据中心算力大大提升,存储分布式结构,以前机械硬盘、固态硬盘等提升效率。关键是联接。光模块必然到800G,1.6T,核心技术包括高密度光学、相干调制、高带宽强度调制等。光模块技术,电芯片封装、信号完整性检测、高密度光学封装、信号调制技术、散热技术、液冷散热技术。核心元器件:硅光,公司有三年投入经验。,核心优势:自研硅光半导体离子注入工艺,光电协同设计,硅材料热稳定性高。薄膜铌酸锂。CPO,解决产品成本和功耗问题。 博创科技:AIGC与光模块 光模块功能:光纤通信核心器件,实现光电信号的互相转换。光模块市场:电信市场:国产化在光电芯片可行性很高,中国光模块厂商占主导地位,国内证券牵引渗透,需求增长显著,海外提升空间大。数通市场:需求受海外运昌盛市场驱动迭代快,国内需求跟进;800G商用在望,高端光电芯片依赖国外进口;中国光模块厂商占重要地位。AIGC对光模块需求影响:增量、提速、高性能。AICG依赖算力支撑,国内外AI大布局拉动光模块增量,AIGC算力催生低功耗低延时大带宽网络需求,推动光模块技术演进。光模块机遇与挑战:产品快速迭代,考研研发能力;价格快速下降,产业协同发展;细分市场:短距高速线缆迎来需求增长点;LPO、CPO及硅光子集成技术契合新需求,大有可为。光模块技术演进:AI服务器对传输速率和时延等要求,800G及以上光模块预计成为LPO/CPO切入点,共同点,LPO/CPO均契合目前AI算力大带宽低功耗低时延的数据链接需求。差异:LPO在可插拔模块上降功耗,CPO在系统级降功耗。总结:可插拔模块、OBO与CPO共存,CPO硅光集成技术路径已趋于明确。国内外市场信息:CPO市场5年达到8亿美元市场规模;22年下半年Broadcom推出基于5nm的芯片,23年到25年CPO技术有望得到实际应用。51.2T交换机时代CPO将成为重要技术流派;腾讯与博通合作,加速25.6T商用;光模块方面,中国光模块厂商已占据全球主要份额,800G光模块及CPO相关产品有望继续领先。博创科技:高速硅光/CPO平台。超过15年硅光封装工艺经验,19年20年分别推出25G硅光模块和数通400G硅光模块,800G硅光模块正在开发;高速互联线缆平台; MaaS 大模型和人工智能发展趋势:模型军备竞赛,大模型一定是头部公司的天下。现在的AI2.0,降低了AI应用的门槛,和五年前的AI的区别,需要垂直、特定行业喂给AI,导致AI在应用的时候有门槛,标的样本数据。小样本训练法,是AI追求的方向。2023年1月,ChatGPT月活跃用户数预计已达1亿,成为史上用户增长最快的消费应用。订阅制收费,收费版Plus拥有广泛市场空间,预计年收费能达到72亿美元,未来如果ChatGPT作为能够对标Office的生产工具,付费用户数突破10亿人,市场将能达到2000亿美元以上。仅仅按20美元一个月计算。国内:ChatGPT对搜索领域冲击大,百度率先卡位发布文心一言,有压力,投入更大。ChatGPT预计训练成本500万美元一次。模型层面:科大讯飞,商汤,云从,360;算力芯片:寒武纪、景嘉微、海光信息服务器:浪潮信息,中科曙光生态:金山办公,海康威视,大华股份,软通动力,博彦科技IDC:宝信软件,润泽科技。 全年计算机行情确认性高,每年4月份中下旬是计算机板块最脆弱的时候,1季报集中披露,不像技术驱动逻辑驱动,4月中下旬如果很坚挺,整体全年TMT基调基本奠定。去年一直强调,今年上半年利润弹性,下半年营收弹性。去年和诺政策在今年落地,很多公司一季度在弱恢复阶段,下半年营收端在恢复。还有计算机板块持仓和估值角度:持仓去年在历史最低,去年1季度2.3%最低,2季度2.0%击穿,四季度3.4%。18到20年结构性行情,计算机行情在5到6%。孕育了今年大行情。现在估值在70倍左右,对于65%-70%左右,离泡沫化还很远,看好后面板块的原因。细分:AI、算力模型场景;数据要素,下周是数字中国峰会,在福州召开。永久会址在福州,18年第一届,每年有常委去致辞,现在是疫情后第一次线下,同时新一届领导班子的第一次,此外与领导的职位升迁相挂钩。数据要素,今年扩散从底层深桑达、易华录做国资云,到中间平台品高,到上层应用的数字政通、南威软件、新点软件等。第三个是信创,今年较为疲软。后面还有智能制造,报表不错,赛意、汉得、鼎捷等,公司业务在21年和22年年中强韧性,1季度不明显,但大家要有耐心。人口红利逐渐丧失,工业软件的需求迫切。 微软:AI大模型的发展和未来 人工智能发展历程,1950年兴起(MCP模型,统计模式识别)、1970低谷,1980第二波爆发,1990热点转移,2010AI产业。GPT家族进化史:OpenAI15年成立,transformer(google2017年推出),GPT1、2、3,微软合作。认为未来ChatGPT5.0不会停止,会继续研发大模型等产品。4.0两三年后会变成什么,难以预料。ChatGPT:第四次工业革命。超强能力:通用的人工智能能力,Alphago只在专一领域,界限清晰,难拓展到别的行业;强大语义理解能力,传统主要是关键字匹配。 怎么训练出来:预训练+微调。先(用高质量数据)训练通用大模型;接着用人工标注的问题答案数据(几万个)教大模型;再人工打分;大模型给自己打分;生成可用聊天工具。国外大模型:OpenAI ChatGPT,领导者,没有接近4.0的竞争对手。Google的Bard;Facebook的LLaMA,接近3.5;其他,一些大模型初创公司。国内大模型:自主可控大模型很重要,开源项目可以缩短追赶时间。国内大多数公司不一定非要研发自己的大模型,更多的机会是大模型和产业的结合。百度(文心一言),华为(盘古),阿里(通义千问),腾讯(混元),商汤(商量),360智脑。华为阿里更多的精力可以放在垂直行业的大模型结合。 微软+ChatGPT:微软和OpenAI关系较为复杂,微软先发优势大,现有产品集成ChatGPT,NewBing,云计算、Office365等。New Bing主要是要打击Google。有说三星手机有考虑把google换成必应搜索,体现了微软投入的回报,市场份额,Bing 3%,Google 90%+。Bing mobile端数据差。Bing DAU超过1个亿。Bing上的页面访问增加15.8%,Google search下降1%。ChatGPT落地中国:需要合规。用户数据不出国境,数据中心及服务器位于中国,搜索结果必须合规。影响因素:现在没有对中国开放,国际竞争,数据安全、服务合规等。产业结构:云计算:算力、超级计算中心,头部云计算厂家占据有利位置;大模型,投资巨大,人力资金数据等,国外还有一些从OpenAI离职创业的公司;Prompt优化;行业应用,训练行业的大模型,每个行业有自己私域的数据。商业模式:ToB降本;ToC增效。ChatGPT插件:超级人工智能生态系统的雏形,ChatGPT主导。人工智能的安全问题:大模型是黑盒子;需要监管和管理。
作者利益披露:转载,不作为证券推荐或投资建议,旨在提供更多信息,作者不保证其内容准确性。
声明:文章观点来自网友,仅为作者个人研究意见,不代表韭研公社观点及立场,站内所有文章均不构成投资建议,请投资者注意风险,独立审慎决策。