Google 发布了一款拥有 5620 亿参数的大模型 PaLM-E
为机器人感知世界建立的“基础模型”,跨越不同环境大量数据集,视觉、文本、语音多模态输入让机器人能够执行复杂任务,有个专门的分类 EAI(Embodied Artificial Intelligence)也就是“具身智能”
简单理解就像是chatgpt能够连续结合上下文回复沟通,具身智能可以结合周围环境和指令完成连续复杂的任务。想更深入了解可以看上海交大教授最新的演讲。为什么说具身智能是通往AGI值得探索的方向?上海交大教授卢策吾深度解读
具身智能是跨智能科学多个方向,相较于OpenAI重点增加的是具身实体和具身感知,具身实体就大概是我们熟知的机器人,例如特斯拉在做的人形机器人;具身感知就是输入端,也是Google大模型PaLM-E处理的部分。
具身感知相对于Chatgpt主要增量在于计算机视觉,如下图具身智能的跨智能科学介绍——
计算机视觉标的:
凌云光——公司愿景是为机器植入眼睛和大脑,面向未来千行百业快速迈向人工智能与智能生产
机器视觉+数据采集/管理/标注/训练一体化AI计算平台
完美切合具身智能特点