¶ ChatGPT 的运作机制、技术原理ChatGPT 是一个基于语言模型 gpt 模型的一个聊天机器人,它是用我们人工智能的强化学习来进行训练的。
它的突破性主要是在于它用了人类的反馈来去训练语言模型a 通过增加人类的反馈来不断迭代人类的普通的标注,比如人类会对他所有的给出的答案做出标注,哪些答案他的回答是比较好的,就给这样的答案以排名,把这样的排名再给我们的语言模型去进一步学习b 通过上万次的人类反馈的迭代,就是通过不同的语言内容来去使语言模型去不断训练,直到语言模型回答的内容跟人类想要的内容是保持一致的。
这样就形成了 ChatGPT。
ChatGPT 它因为是基于 GPT 模型的一个语言模型。
我们就要大概的先讲一下 GPT 模型的一个一个来由GPT 模型是一个生成的预训练的 transformer 的模型。
transformer 模型是深度学习语言模型的一个基础的框架,是在 2018 年 6 月的时候开始有第一个gpt 模型a 从 2018 年 6 月份 OpenAi 提出了第一个 gpt 模型,得出了关键结论就是我们说的 transformer 架构跟预训练模型的结合,就能够产生这种非常强大的语言模型b 可以实现强大的自然语言理解。
也就是从 2018 年的 6 月份开始,这种强大的自然语言理解的模型的这个技术范式开始被确立起来。
接着在 2019 年 2 月到2020 年 5 月分别openAI 分别发布了 gpt2 和 GPT3c 到 GPT3 的时候已经比 GPT2 大一百倍,它拥有大概 1,750 亿个参数。
但是它跟原始的 GBT 模型并没有特别本质的不同,基本原理是大概一致的。
但是它的 性能比较是它发展的一个瓶颈,因为它的模型特别大d 在 2020 年 5 月份提到了GPT3 以后,其实一直以来它大规模的预训练模型已经基本上确立了,直到我们 2022 年 11 月底出来了。
ChatGPT 的模型。
这一次进行了一个新的更新,特别是发布了它的对话模式的功能,可以放在网站上,让任何人来用对话的形式跟大模型进行交互使得它可以做到回答问题,而也能承认错误,或者是质疑不正确的一些问题,或者是拒绝不恰当的请求等等。
这样就形成了一个面向我们 c 端用戶去试用,非常好用的这么一个 ChatGPT 的一个机器人a 他的工作原理就是他就是用机器学习的算法来分析和理解我们文本输入的一个含义,根据文本输入去生成相应的响应b 这个模型它是在大量的文本数据上进行训练,并叠加了大量的我们的人类的一些标注的反馈,使得它能够去学习这种自然语言的模式和结构。
他是可以模拟对话或者是回答后续问题,承认错误等等c openAi 为了去创建这么一种强化学习的模型,它一定要去设立一些奖励模型d 奖励模型就是openAi 去收集的比较多的数据,招募了很多人类的训练师。
在训练的过程当中,人类训练师就扮演了我们用戶和人工智能助手去进行交互的这么一个⻆色通过人类训练师对于人工智能助手的交互的数据去标注回答问题好坏的排序,使得 ChatGPT 模型通过不断的跟人类训练师之间进行对话来去,通过对话来去生产数据生产答案。
通过对答案的好坏程度的一个排序标注a 使得这个模型就会根据学习的语料来去进一步的迭代他们。
他的回答的一个策略进行数字迭代以后,它的回答的训练的它的质量足以匹配人类的对话的风格b 所以它的这个技术的创新点主要是在于两大方面,一大方面就是超大规模的预训练模型transform 模型这么一个技术的一个技术范式,这是一个目前被学术界公认作为最前沿最优秀的一个技术的模式c 第二大创新点就是在于这种标注训练方式。
人类训练师通过不断的ChatGPT 模型进行对话,去标注,去排序,来使这个模型可以更好的学习到什么样的回答是人类认为比较合理的d 这两个创新点就使得模型在这一次发展当中有了一个里程碑式的跨越的进展,这是一个 ChatGPT 的运作机制¶ 目前它的制约因素有几个方面首先是成本过高,有两个方面的成本,一个方面是它的开发成本会比较高,另一方面是我们企业的使用成本会比较高a 它的开发成本是GPT 模型它的一个发展历程,从GPT2 到 GPT3,它的算法模型上、技术上没有太大改变,但是它主要改变了这个模型大小。
从 gpt2 的一个1.17 亿的个参数量,到 gpt3 的一个 1,750 亿的这个参数量,是增加了 1,000倍的参数量b 预训练的训练数据从我们一开始 gpt2 的 5 个 tb 的训练语料,增加到GPT3,需要 45 个 tb 这样一个存储量的训练语料。
GPT3 训练一次的费用大概是 460 万美元,这是他训练一次的费用c 它整个 GPT3 的模型的训练的总成本是大概 1,200 万美元。
1,200 万美元是GBD3 的一个总训练的成本。
所以开发的成本是它的一个主要的⻔槛。
它的开发成本非常高第二个方面就是这个模型被训练好之后,对于任何的一个企业来说,它有一个使用的成本。
使用成本主要是 ChatGPT 单轮的对话的平均费用大概是在0.01 美元到0.2 美元之间,根据用戶的使用的并发数不同,成本也不同a 其次是 ChatGPT 的技术局限性。
技术的局限性主要,一个 ChatGPT,它只依赖于它见过的这些训练数据。
它不会对一些实时的信息,比如新闻会网络上的一些实时信息来使得他的回答更加的精准b 所以目前我们在网上能够使用的 ChatGPT 模型, 它使用的主要数据是 2021 年之前的,对于这个时间点之后的这个世界的信息,ChatGPT 他了解是非常有限的c 所以在输出的准确性上也会有所降低。
这个第一个局限性就是它不能够与时俱进,很难与时俱进第二个局限性,他的认知也是建立在我们虚拟文本,没有跟我们实时的数据库或者是去信息的连接。
比如他很难去回答一些股票今天比如 a 股,它的指数大概是多少这样的非常实时的问题a 所以它会在这种实时性的问题上回答上会出现一些致命的错误,或者是非常不准确的答案 b 是目前这个 ChatGPT 直接使用来说会有的一些局限性。
如果是配合国内上一些专业的查询软件去进行二次开发,可能可以有效的解决这方面的一个问题第三方面的局限性就是 ChatGPT 目前的模型训练,它的优化方向是围绕着我们人类的标注去设计优化的,所以有可能会过度的朝着人类认知的方向去优化,这样也会影响chatGBT 回答的内容的风格这可能是跟相关的人类训练师的一个偏好有关的,有些人类训练师可能是有一些个人的偏好来使得 ChatGPT 的训练可能会朝着那些人类训练师的偏好去有一些偏移,这也是其中的一个局限性a 比如输入一个涉及 CEO 的提示,可能会得到一个这个人是白人男性的一个回复,目前因为很多人类训练是目前好像是假设这个人是白人男性,是 CEO 的一个概率会比较高b 所以会产生一些负面不准确的,甚至是有种族倾向,种族歧视倾向的一些内容出来,一些可能是政治敏感,或者是不恰当的一些答案出来c 这是 GBD 的一些局限性和成本的一个比较高的一个因素,会制约它的目前的发展¶ 未来的发展方向目前它的商业应用的场景是非常广泛的,只要它能够有效的克服以上提到那些制约因素,它在众多行业上都是可能会产生这种变革性的影响的,特别是在客戶服务、教育、家庭的陪护等等这些领域可能会率先落地 a 今年 2023 年可能是 ChatGPT 非常受关注的一年,也有可能是制约因素逐步被技术所迭代,后续克服的一年。
ChatGPT 模型的出现对于这种文字模态的AI 生成内容的应用也是有非常重要的意义的 b 未来可能会跟这种图像图形的 AI 生成内容的模型相结合,可以使得文字表述到图片生成的这种 AI 创作辅助工具来进行更多应用。
或者是能够接受这样使用成本的一些领域可能会率先的去使用c 根据我目前的了解,目前很多业内的从业者对于 ChatGPT 还是保持一个观望的态度,一方面还是在持续的考量模型的一个回复的准确性以及它在一些领域的适配程度。
另一方面很多企业讲应用 ChatGPT 也是会受制于它目前的一个高成本的使用成本,所以在商业化上还是一个比较谨慎的观望态度a 目前我觉我们觉得 ChatGPT 可能会构建一个新的技术生态,但他目前所学习的还是互联网上公开的知识,他可能还不能解决一些具体行业、企业这些个性化的问题b 所以还需要企业在这种相关的行业纵深行业细分垂直行业去进行二次的训练,这可能就涉及到很高的二次训练成本。
所以可能是需要很多优秀的公司去不断的优化c 能够提出一些更贴近我们客戶需求的和痛点的一些解决方案产品。
比如我们作为这种虚拟人的公司,可以针对政府、企业、医疗、银行等等某个行业当中的企业去单独形成一些垂直化的解决方案 d 利用 ChatGPT 这些技术去进行专业私有化知识的迭代,使得它具备这种解决实际问题的这种能力。
可能是 ChatGPT 后面的一个应用方向¶ 目前国内相比于我们海外的差距到底有多少?
是否有追赶的机会?
1 目前国内其实做这种 ChatGPT 类似的公司,也主要集中在大公司,或者是一些有国家政策资金支持的一些机构,学术机构,比如我们的百度,微软小冰 2 再包括阿里还有腾讯可能也在做。
主要是这几个大的玩家可能会有成本去训练这么一个 ChatGPT 这样的超大模型,这样的玩家相比于海外的差距,目前还是有一定差距的目前的差距主要集中在我们的预训练模型,它的回复能力确实自然程度上,还有包括回复的专业度上,以及内容的表述方面,相比于国外的 ChatGPT 模型相比还是有一定差距的a 人主观去体验,还是感觉机器人的感觉会比较强,然后直接体验 ChatGPT 会感觉回答的内容很自然。
这是从主观体验上的一个差距b 从参数量的差距应该是没有什么差距了,目前我们都是千亿规模参数量的这样一个大规模的模型,不管是国外的 ChatGPT 还是国内的百度,还是阿里提出的超大规模预训练模型还是我们清华提出的超大规模的预训练模型,他们的参数量上的差距已经是接近差不多了。
所以我们都国内外,国内和国外都具备训练这种超大规模模型参数量模型的能力a 但是训练方法上可能还有一些技术,我们跟别人还是有一定差距的,所以后面可能主要在于训练方法,还有语料的标注上,可能是可以有更多的这样的语料b 国外这种英语的语料或者是英语的训练的训练的方法可能跟国内的中文的训练方法不太一样,所以导致我们现在训练的方法,这方面的技术上还是有一定的差距c 但我认为是有追赶的机会的。
只要我们在这个成本足够低,足够可以大规模商业化之前,可以把这些差距给抹平我们在这个成本可以拉到可以降低到可以大规模使用的个时间点的时候,我们也是可以跟海外的这些竞争对手去PK 的一个机会。
目前使用成本还是比较高,所以导致还有一个可以追赶的时间可以让我们国内的这些公司去追赶¶ 什么样的契机会推动我们国内的发展?
主要的参与方是什么?
其实我个人觉得目前我们的一些垂直领域的应用,或者是首先是在一些能够接受如此高昂的使用成本的一些领域,比如我们的金融是不是可以接受或者是在一些政府有相应的预算的情况下,可以让应用可以先落地。
落地以后就会产生大量的交互的数据,交互的文本就可以有大量的数据去迭代我们大规模的训练模型,使得它技术可以变得更强a 同时我们的工程师也可以通过技术的手段去优化迭代它使用的成本,使得使用成本降得足够低以后我们可以大规模的 ToC 商业化b 这样可能是我们比较好的一个契机。
所以是否能够找到一个领域或者一个行业愿意接受如此高的使用成本,可以对他来说是收益高于使用成本的。
如果它的收益高于使用成本,它就会大规模的铺开使用当它的收益已经大于它的使用成本的这么一种场景。
这样它就会可以大规模的去使用起来,就会有足够多的这样的一个资金或者是训练语料,可以有效的迭代模型a 目前主要的参与方还是几个大公司,百度、腾讯,阿里,还有微软小冰,还有科大讯飞可能也是一家比较大的一个参与方b 这几家是可以有预训练模型能力的一些参与方。
还有一些研究机构,比如清华的研究院,或者清华的相关的人工智能研究所,还有清华智源等等c 还有一些国内新出现的一些创业公司,他可能会在一些非常垂直的方向去做一些非常垂直落地应用。
有可能是创业公司先找到了一些应用使用价值d 可以覆盖它的使用成本的这么一些垂直领域。
可以在这些垂直领域先得到应 用,先赚到第一桶金,后续可以逐步的复制到其他领域,这也是非常有可能的