Alexa和Siri等对话代理(ca)的设计目的是回答问题、提供建议,甚至表现出同理心。然而,新的研究发现,与人类相比,它们在解释和探索用户体验方面做得很差。
ca由大型语言模型(llm)提供支持,这些模型摄取大量人工生成的数据,因此可能容易产生与获取信息的人类相同的偏见。
康奈尔大学(Cornell University)、奥林学院(Olin College)和斯坦福大学(Stanford University)的研究人员对这一理论进行了验证,他们促使人工智能在与65种不同身份的人交谈时表现出同理心。
研究小组发现,人工智能对某些身份(如同性恋和穆斯林)做出价值判断,并可能鼓励与有害意识形态(包括纳粹主义)相关的身份。
“我认为自动移情可能会产生巨大的影响和巨大的积极潜力,例如在教育或医疗保健领域,”主要作者安德里亚·夸德拉说,他现在是斯坦福大学的博士后研究员。
她说:“它(自动同理心)不发生的可能性非常小,所以当它发生时,我们有批判性的观点很重要,这样我们就可以更有意识地减轻潜在的伤害。”
夸德拉将呈现“同理心的幻觉?”人机交互中情感表现的注释”,CHI '24,计算机械协会关于计算系统中人类因素的会议,5月11日至18日在檀香山举行。康奈尔大学的研究合著者包括副教授尼古拉·戴尔、计算机科学教授黛博拉·埃斯特林和信息科学副教授马尔特·荣格。
研究人员发现,总体而言,法学硕士在情绪反应方面得分较高,但在解释和探索方面得分较低。换句话说,法学硕士能够根据他们的训练对查询做出回应,但无法深入挖掘。
戴尔、埃斯特林和荣格说,当夸德拉研究老年人使用早期ca时,他们受到了启发,开始思考这项工作。
埃斯特林说:“她目睹了这项技术在交易目的上的有趣应用,比如虚弱的健康评估,以及开放式的回忆体验。”“在这个过程中,她清楚地看到了令人信服和令人不安的‘同理心’之间的紧张关系。”
作者:康奈尔大学
链接:https://www.sciencedaily.com/releases/2024/05/240508121209.htm
著作权归作者所有。
声明:海森大数据刊发或者转载此文只是出于传递、分享更多信息之目的,并不意味认同其观点或证实其描述。若有来源标注错误或侵犯了您的合法权益,请作者与本网联系,我们将及时更正、删除,谢谢。电话:152 6451 3609,邮箱:1027830374@qq.com
2024-05-13 09:03:39
康奈尔大学