之前3月9日发过关于凌云光具身智能的主体文章,补充一些信息更新
一、具身智能
3月8日Google 发布了一款拥有 5620 亿参数的大模型 PaLM-E
为机器人感知世界建立的“基础模型”,跨越不同环境大量数据集,视觉、文本、语音多模态输入让机器人能够执行复杂任务,有个专门的分类 EAI(Embodied Artificial Intelligence)也就是“具身智能”
简单理解就像是chatgpt能够连续结合上下文回复沟通,具身智能可以结合周围环境和指令完成连续复杂的任务。想更深入了解可以看上海交大教授最新的演讲。为什么说具身智能是通往AGI值得探索的方向?上海交大教授卢策吾深度解读
具身智能是跨智能科学多个方向,相较于OpenAI重点增加的是具身实体和具身感知,具身实体就大概是我们熟知的机器人,例如特斯拉在做的人形机器人;具身感知就是输入端,也是Google大模型PaLM-E处理的部分。
具身感知相对于Chatgpt主要增量在于计算机视觉,如下图具身智能的跨智能科学介绍——
计算机视觉标的:
凌云光——公司愿景是为机器植入眼睛和大脑,面向未来千行百业快速迈向人工智能与智能生产
机器视觉+数据采集/管理/标注/训练一体化AI计算平台
目前公司机器视觉算法平台,依托模式识别、深度学习与知识图谱等多项AI技术融合,采用多模态融合技术解决客户多场景的智能制造需求,属于向具身智能方向发展的必经环节。
完美切合具身智能特点
二、AIGC+影视文娱
公司基于“视觉+AI”技术,服务文娱传媒领域的智能内容生产
公司在数字人建模、虚拟拍摄与服务等积累了众多成熟的解决方案,在光场成像、智能AI算法和智能处理等底层关键技术基础上,自主研发了FZMotion光学运动捕捉系统、AIMotion无标记点运动捕捉系统等多项运动捕捉产品和三维人脸建模系统。