未来的人工智能算法有可能像人类一样学习 新研究衡量机器学习方法的有效性

记忆对于机器来说和对于人类一样棘手。为了帮助理解为什么人工智能体在自己的认知过程中会出现漏洞,俄亥俄州立大学的电子工程师分析了被称为“持续学习”的过程对其整体表现的影响程度。


持续学习是指计算机经过训练,可以不断地学习一系列任务,利用从旧任务中积累的知识更好地学习新任务。


然而,要达到这样的高度,科学家仍然需要克服的一个主要障碍是学习如何规避机器学习中相当于记忆丧失的过程——在人工智能代理中,这个过程被称为“灾难性遗忘”。俄亥俄州著名学者、俄亥俄州立大学计算机科学与工程教授Ness Shroff表示,由于人工神经网络在一个接一个的新任务上进行训练,它们往往会失去从以前的任务中获得的信息,随着社会越来越依赖人工智能系统,这一问题可能会成为问题。


“当自动驾驶应用程序或其他机器人系统学习新东西时,重要的是他们不要忘记他们已经学到的教训,这对我们和他们的安全都很重要,”史罗夫说。“我们的研究深入研究了这些人工神经网络中持续学习的复杂性,我们发现了一些见解,开始弥合机器学习和人类学习之间的差距。”


Shroff说,研究人员发现,人们可能很难回忆起关于相似场景的对比事实,但却能轻松地记住本质上不同的情况,同理,当面对连续的不同任务时,人工神经网络可以更好地回忆起信息,而不是那些具有相似特征的任务。


该团队包括俄亥俄州立大学博士后研究员林森(Sen Lin)和裴忠(pezhong Ju)以及梁英斌(Yingbin Liang)和Shroff教授,他们将于本月在夏威夷檀香山举行的第40届机器学习国际年会(International Conference on Machine Learning)上展示他们的研究成果,这是机器学习领域的旗舰会议。


虽然教自主系统展示这种动态的、终身的学习可能是具有挑战性的,但拥有这种能力将允许科学家以更快的速度扩展机器学习算法,并轻松地使它们适应不断变化的环境和意外情况。本质上,这些系统的目标是有一天能模仿人类的学习能力。


传统的机器学习算法是一次性在所有数据上进行训练的,但该团队的发现表明,任务相似性、负相关和正相关,甚至算法学习任务的顺序等因素,在人工网络保留某些知识的时间长度中都很重要。


Shroff说,例如,为了优化算法的记忆,不同的任务应该在持续学习过程的早期教授。这种方法扩展了网络获取新信息的能力,并提高了其随后学习更多类似任务的能力。


史罗夫表示,他们的工作尤其重要,因为了解机器和人类大脑之间的相似性可以为更深入地理解人工智能铺平道路。


“我们的工作预示着一个智能机器的新时代,它们可以像人类一样学习和适应,”他说。


这项研究得到了美国国家科学基金会和陆军研究办公室的支持。


来源:


俄亥俄州立大学


https://www.sciencedaily.com/releases/2023/07/230720124956.htm


著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。


声明:海森大数据刊发或者转载此文只是出于传递、分享更多信息之目的,并不意味认同其观点或证实其描述。若有来源标注错误或侵犯了您的合法权益,请作者与本网联系,我们将及时更正、删除,谢谢。电话:15264513609,邮箱:1027830374@qq.com