中国领先的工业平台

返回贤集网 返回微头条
贤集网技术微头条APP获取

多模态AI大模型“认识”物体的概念与人类相似

 老刘说科技

下载贤集网APP入驻自媒体

近日,中国科学院自动化研究所神经计算与脑机交互(NeuBCI)课题组与中国科学院脑科学与智能技术卓越创新中心的联合团队结合行为实验与神经影像分析,首次证实多模态大语言模型(MLLMs)能够自发形成与人类高度相似的物体概念表征系统。

团队从认知神经科学经典理论出发,设计了一套融合计算建模、行为实验与脑科学的创新范式。研究采用认知心理学经典的“三选一异类识别任务”(triplet odd-one-out),要求大模型与人类从物体概念三元组(来自1854种日常概念的任意组合)中选出最不相似的选项。通过分析470万次行为判断数据,团队首次构建了AI大模型的“概念地图”。

研究还对比了多个模型在行为选择模式上与人类的一致性(Human consistency)。结果显示,多模态大模型(如 Gemini_Pro_Vision、Qwen2_VL)在一致性方面表现更优。此外,研究还揭示了人类在做决策时更倾向于结合视觉特征和语义信息进行判断,而大模型则倾向于依赖语义标签和抽象概念。

最新回复
发布回复
回复老刘说科技:多模态大语言模型竟能形成和人类超像的物体概念系统,以后 AI 理解咱们可就更轻松啦。
回复老刘说科技:从 1854 种日常概念组合里做判断,还构建出 “概念地图”,科研团队这研究思路太绝。
回复老刘说科技:人类靠视觉加语义判断,大模型依赖语义标签和抽象概念,这差异真有意思,以后能改进不?

为您推荐

热门交流