财联社4月16日讯(编辑 旭日)AI视觉领域迎来新模型“炸场”,图像识别门槛大幅降低。据财联社报道,Meta周三发布了一个人工智能模型,可以从图像中挑选出单个对象,以及一个图像注释数据集。该模型名为Segment Anything Model(SAM),Meta官方表示这是有史以来最大的分割数据集。同时Meta将该模型及数据集在GitHub上开源,以促进机器视觉通用基础大模型的进一步研究。
SAM是计算机视觉领域发布第一个用于图像分割的、可通过提示(prompt)方式应用的通用大模型,类似自然语言领域(NLP)中的大模型ChatGPT。英伟达人工智能科学家Jim Fan将Meta的这项研究称作计算机视觉领域的“GPT-3时刻”之一——其分割方法可以通用,可对不熟悉的物体和图像进行零样本泛化,初步验证了多模态技术路径及其泛化能力。
国盛证券刘高畅4月8日研报中表示,预计1-5年内,多模态发展将带来AI泛化能力提升,通用视觉、通用机械臂、通用物流搬运机器人、行业服务机器人、真正的智能家居会进入生活;5-10年内,结合复杂多模态方案的大模型有望具备完备的与世界交互的能力,在通用机器人、虚拟现实等领域得到应用。
首创证券翟炜4月11日研报中指出,本周META发布了视觉大模型SAM,紧接着智源研究院视觉团队也推出通用分割模型SegGPT,通用视觉大模型之战也打响。视觉大模型能把任意图像从像素阵列解析为视觉结构单元,像人类视觉那样理解各类场景,这对自动驾驶、安防、智能家居、工业视觉等众多行业都将带来飞跃式提升。
公开资料显示,计算机视觉模拟大脑完成对图像的处理和解释,实现对相应场景的多维理解。以图像、视频为代表的视觉数据是互联网时代信息的主要载体之一,赋以人工智能模型感知并理解这些海量的视觉数据的能力,有助于提高人工智能自主适应环境的能力。
作为人工智能(AI)和深度学习的子领域,计算机视觉可训练卷积神经网络(CNN),以便针对各种应用场合开发仿人类视觉功能,利用图像和视频进行数据分割、分类和检测。