异动
登录注册
ChatGPT加速登陆手机端,继续看好边缘计算
牛🐮🐮🐮
2023-04-18 19:16:21

OpenAI创始人阿尔特曼(Sam Altman)确认,现阶段并没有在训练GPT-5,“只是在GPT-4的基础上进行更多的工作”。

“更多的工作”有哪些?布局移动端或是重要一环。

其公司招聘页显示,OpenAI正招募ChatGPT移动终端工程经理,“我们正在寻找一位经验丰富的工程师来帮助建立和领导ChatGPT移动团队。”该领导岗位的年薪在30万美元至50万美元间,还包括“慷慨”的股权赠与和员工福利。OpenAI的移动端布局跨iOS和安卓,将招募安卓软件工程师和iOS软件工程师等。
此前,ChatGPT已经试水移动端。微软于2月份宣布,iOS和安卓端的必应搜索和Edge浏览器均已接入ChatGPT。

ChatGPT登陆移动端无疑有利于触达更多用户。正如微软所说,“如今有64%的搜索都发生在手机上。” 据调研机构Gartner统计,2022年全球电脑出货2.862亿台,手机出货12.8亿部。

另一方面,移动设备厂商也有意引入AI应用为硬件产品增加亮点。据纽约时报消息,三星电子考虑将其设备上的默认搜索引擎由谷歌改为必应。三星是目前全球出货量第一的手机厂商,据估计,谷歌与三星的合同关系到前者近30亿美元的年收入。

不过,以ChatGPT为代表的大模型应用登陆移动端将面临计算资源、网络资源、电量、储存空间和信息安全受限等技术问题。

以大模型的计算需求为例,GPT等模型庞大且计算资源要求高,而手机上没有用来加速AI运算的专业GPU,计算速度远不及电脑,且在移动端运行AI模型需要的大量计算也会迅速耗尽设备电量。

产业端已着手解决这些技术难题,高通、华为致力于实现 AI 大模型在终端的轻量化部署,谷歌、腾讯、百度等已将模型压缩技术紧密结合移动端模型部署框架/工具。

3月2日,高通在MWC2023大会发布全球首个运行在安卓手机上的Stable Diffusion终端侧演示,Stable Diffusion模型参数超过10亿,高通利用其AI软件栈对模型进行量化、编译和硬件加速优化,使其成功在搭载第二代骁龙8移动平台的手机上运行。

华为新一代P60系列手机将于5月上线智慧搜图功能,该功能通过对模型进行小型化处理,实现其在端侧轻量化应用。

谷歌在2018年推出MLKit,核心功能Learn2Compress模型压缩技术结合网络剪枝、量化以及知识蒸馏三项技术,可实现在CIFAR-10图像分类测试任务中生成较NASNet尺寸缩小94倍的轻量化模型,且仍保持90%以上精度。

2018年腾讯推出全球首款自动化深度学习模型压缩框架PocketFlow,2022年百度开源的文心ERNIE-Tiny在线蒸馏方案可得到参数规模仅为原模型0.02%且效果相当的轻量级模型。

华泰证券分析师黄乐平认为,模型压缩技术可在保有大模型原有性能和精度基本不变前提下降低对推理算力的需求,是实现AI大模型在边/端部署的核心技术。伴随模型压缩技术发展,AI将加速与终端设备融合应用。

作者利益披露:转载,不作为证券推荐或投资建议,旨在提供更多信息,作者不保证其内容准确性。
声明:文章观点来自网友,仅为作者个人研究意见,不代表韭研公社观点及立场,站内所有文章均不构成投资建议,请投资者注意风险,独立审慎决策。
S
美格智能
S
移远通信
S
广和通
工分
2.15
转发
收藏
投诉
复制链接
分享到微信
有用 4
打赏作者
无用
真知无价,用钱说话
0个人打赏
同时转发
评论(4)
只看楼主
热度排序
最新发布
最新互动
  • fjnhzqh
    只买龙头的龙头选手
    只看TA
    2023-04-19 20:19
    感谢分享
    0
    0
    打赏
    回复
    投诉
  • 只看TA
    2023-04-18 23:37
    谢谢分享
    0
    0
    打赏
    回复
    投诉
  • 只看TA
    2023-04-18 21:27
    都不错
    0
    0
    打赏
    回复
    投诉
  • 只看TA
    2023-04-18 20:27
    挺好
    0
    0
    打赏
    回复
    投诉
  • 1
前往