人们善于学习新概念,并将它们与已有概念进行系统组合。这就是「举一反三」的能力,即学习一个新概念后立即就能用它来理解相关用法。例如,当小朋友知道如何「跳」,他们就会明白「在房间里跳两次」是什么意思。
这种将新老概念结合的能力被称为系统泛化(systematic generalization)。20 世纪 80 年代末,哲学家和认知科学家 Jerry Fodor 和 Zenon Pylyshyn 认为人工神经网络缺乏系统组合的能力。几十年来,领域内的研究人员一直在努力让神经网络具备一些泛化能力,但能力很有限。因此,关于 Jerry Fodor 和 Zenon Pylyshyn 的观点的争论也一直存在。
纽约大学等机构的研究人员在Nature刊登了人工智能领域的最新突破,证明神经网络具有类似人类语言的泛化性能。
在该研究中,纽约大学心理学和数据科学助理教授 Brenden Lake 和西班牙加泰罗尼亚研究所(ICREA)教授 Marco Baroni 提出了一个具有类似人类系统泛化能力的神经网络:组合性元学习 (Meta-learning for Compositionality,MLC) 」的新方法。
实验结果表明,MLC 方法不仅优于现有方法,还表现出人类水平的系统泛化(systematic generalization,SG)能力,在某些情况下甚至优于人类。组合泛化能力也是大型语言模型(LLM)有望实现通用人工智能(AGI)的基础。这项研究表明 AI 模型可以具备较强的组合泛化能力,具有里程碑意义。
2023-11-07 08:16:50
海森大数据