当我们看到“玫瑰”时,大脑只是单纯地在“看”吗?近日,北京大学联合北京师范大学、山西医科大学第一医院的研究团队发现,语言不仅塑造我们的思维,也可能在潜移默化中改变我们“看世界”的方式。这项成果以《结合人工神经网络与人类脑损伤模型证据揭示语言调节人类视觉感知》为题,发表于国际顶级期刊《自然·人类行为》(Nature Human Behaviour)。研究结合了人工智能模型与健康人群和脑卒中患者的脑影像数据,为“语言是否影响感知”这一百年未解的心理学核心问题提供了新的证据,也展示了人工智能与脑科学相互启发的研究范式。
“语言会不会影响感知?”这是心理学、语言学乃至哲学中长期争论的问题,也是人对自身研究的核心问题之一。支持者认为,语言为人类划定了理解世界的边界——“有什么词,就看见什么差别”;反对者则认为,视觉、听觉等感知系统独立于语言而运行,不受其影响。这一问题之所以难解,是因为在人类发展中,语言与视觉经验几乎总是同时出现,难以在实验中加以区分。
人工智能的发展为解开这一经典难题带来了新的契机。论文通讯作者之一、北京大学心理与认知科学学院与人工智能研究院助理教授朱毅鑫介绍:“AI模型就像一个可控的‘数字实验室’,我们可以人为决定它是否学习语言,再观察不同学习经历是否导致‘看世界’方式的差异。”研究团队比较了两类AI模型:一类只学习过图像(纯视觉模型),另一类同时学习过图像和文字(视觉—语言模型)。随后,将这两类模型的内部表征,与人类大脑视觉皮层在四组健康人群中的活动模式进行比对。
结果显示,视觉—语言模型与人脑视觉皮层的活动模式更为相似,尤其集中在“左半球”,即人类语言加工的主导区域。更令人惊讶的是,这一模式在使用手语的聋人中同样存在,说明语言经验——无论是口语还是手语——都在视觉加工中留下系统性的印记。论文共同第一作者、北京大学博士生陈昊扬指出:“简单来说,被语言‘指导’过的AI视觉模型,看世界的方式更接近人脑。”
然而,AI模型与人脑的相似性,并不能直接证明语言在其中起了因果作用。为此,团队将目光转向了一个特殊群体——脑卒中患者。脑卒中常会损伤连接语言区与视觉区的白质纤维通路,为科学家提供了一个“天然对照实验”。研究结果表明:患者语言—视觉通路受损越严重,其视觉脑区活动越像“纯视觉模型”,而越不像“视觉—语言模型”。当语言—视觉通路被破坏,语言对视觉的调节作用随之消失,成为“语言调节视觉”的直接证据。这一现象提示语言与视觉之间的功能联系具有方向性,而非仅仅反映共激活。论文共同第一作者刘擘表示:“脑损伤患者的数据是无价的——他们让我们看到了人脑中语言通过与视觉皮层连接的神经通路调控视觉功能的必要性。”
这一跨学科研究体现了我国科研团队在语言、认知与智能交叉领域的持续探索,为推动人工智能与脑科学融合发展提供了新的方向。朱毅鑫表示,这项研究的意义不仅在于AI帮助我们理解大脑,更在于大脑反过来为未来AI的前沿探索与发展提供了方向。“我们发现,语言在大脑视觉系统中扮演了组织和调节的角色。这启发我们思考:真正的智能,也许需要像人脑一样——让语言去统筹感知、记忆和推理,而不是简单地并列处理多种模态。”
论文通讯作者、北京大学心理与认知科学学院及人工智能研究院教授毕彦超认为:“脑科学与人工智能不是两条平行线,而是一面镜子。我们借助AI理解人脑,也让人脑的认知实验研究为AI发展拓展新的方向。”



