计算机
传统AI落地困难,最大的问题在于小模型,对于不同场景不同细分的运用,需要人为进行大量的二次校准调参。耗费的人力太大,又太过于琐碎,形成高昂的成本。CHATGPT大模型针对这个问题,把参数量加到足够大之后(GPT3参数量达到1750亿个)发现模型样本量和参数量足够大了,在很多大的泛化的场景里,不需要做人为太多的调试,就可以得到非常好的效果。技术基于2017年的 Transformer模型,可以与整个句子或段落的其他语句形成关联,捕捉全局信息。
另用 transformer和大模型比较多的领域是自动驾驶。用的比较多的就是bev transformer,最早是特斯拉在AIZ里面引入,后面的国内的毫末这些公司也相继的引进了,仍然用传统的残差去提取图像的特征,同时大模型在数据标注领域也是提升了效率。
中国AI非常的领先,更多的还是在CV,但是在NLP领域,尤其是在语义的理解领域,确实跟openai、Google存在比较大的差距。传统的机器视觉,例如海康、大华,选取的路线还是小模型,压缩成本,提升模型的复用率。另外一类是用大模型,实现不同场景之间的复现,未来两种技术的区分度会更大。在大模型算法领域做得比较好的公司,只能是头部的互联网公司和AI公司,因为训练成本、研发成本都是非常高的。
国内大模型的发展情况,在语言领域确实跟CHATGPT有差距,很多互联网公司都有布局,包括像百度文心大模型,里面也提供了跨模态的工具包;华为的盘古云在工业领域,比如气象、矿山、声音生成,都有应用。
A股公司,商汤科技,有自己的AIGC的大数据的中心,可以提供大量的算力基础,也有自己的AI大装置,并且自研了训练框架。云从科技,之前做的是全栈 Al,所以在NLP领域也有一些项目,之前也披露了他在这个视觉、语音nop领域都有类似GPT的预训练模型加反馈调优的技术路线。科大讯飞,在语音是国内领先,其他比如拓尔斯,也都值得关注。
传媒
web3的生产力工具,强调创作者经济,就是每人都能够借助一些工具自由的去创作出足够多的内容, aigc正好满足了这样的需求。在内容领域的应用更多是在内容的分发环节,最典型的就是算法推荐,Facebook信息流广告,国内的短视频、电商的千人千面的推荐。目前应用最多的还是文本音频、图片这几个领域,原因是相对简单,游戏视频复杂度比较高,相关应用比较少一些。
aigc影响内容行业来讲,分为两阶段,第一是作为辅助的工具,对信息挖掘、素材调用、复课编辑比较机械的环节形成有效替代,解放创作者的生产力,把更多
的精力放在创意环节。第二个是基于AI直接生成内容,会对现有的内容产品产生比较强的颠覆。目前主要还是在第一阶段,作为助手工具。
这一轮与之前AIGC炒作不同,因为微软做了很大的投资,意味着巨头入场,之前A股主题投资,尤其是移动互联网领域,在19年之前重点是3G4G,大家看趋势是腾讯、字节跳动的布局,19年大家就已经开始讨论下一代互联网的形态,原因就是移动互联网的渗透率到了比较高的位置,大家更期待一些颠覆性的创新。比如谷歌的云游戏的能不能给5g的应用带来一些新的一些尝试,在20-22年的时候,大家看的是以Facebook为代表的对于 ARVR的布局,23年大家重点关注苹果的MR,微软通过AI做一些新的探索,所以巨头入场是很重要的事情。
第二就是open AI跟微软合作,可以跟微软现有的产品结合,提升产品本身的效率,和对用户的吸引力。
传媒相关标的,文本、音频、图像落地更快,文本相关是中文在线、掌阅科技,图片相关是视觉中国、汉仪股份。