机器人,你会说“奶酪”吗?

如果你走到一个长着人形脑袋的机器人面前,它首先对你微笑,你会怎么做?你可能会回以微笑,也许会觉得你们俩在真诚地互动。但是机器人是怎么知道怎么做的呢?或者换个更好的问题,它怎么知道让你对它微笑呢?

由于ChatGPT等大型语言模型的进步,我们已经习惯了擅长语言交流的机器人,但它们的非语言交流技能,尤其是面部表情,还远远落后。设计一个不仅能做出各种各样的面部表情,而且知道何时使用它们的机器人是一项艰巨的任务。

应对挑战

哥伦比亚大学工程学院的创新机器实验室已经为这项挑战工作了五年多。在今天发表在《科学机器人》(Science Robotics)杂志上的一项新研究中,该团队推出了Emo,一种能够预测面部表情并与人类同时执行面部表情的机器人。它甚至学会了在人微笑前840毫秒预测即将到来的微笑,并与人同时共同表达微笑。

该团队由人工智能(AI)和机器人领域的首席研究员Hod Lipson领导,面临着两个挑战:如何机械地设计一个表情丰富的机器人面部,这涉及复杂的硬件和驱动机制,以及知道要生成哪种表情,使它们看起来自然、及时和真实。该团队建议训练一个机器人来预测人类未来的面部表情,并与人同时执行这些表情。这些表情的时机是至关重要的——延迟的面部模仿看起来不诚实,但面部共同表情感觉更真实,因为它需要正确推断人类的情绪状态,以便及时执行。

Emo和你有什么联系

Emo是一个类似人类的头部,它的脸配备了26个致动器,可以做出各种细微的面部表情。头部覆盖着柔软的硅胶皮肤,带有磁性附着系统,可以轻松定制和快速维护。为了更逼真的互动,研究人员在每只眼睛的瞳孔内集成了高分辨率摄像头,使Emo能够进行眼神交流,这对非语言交流至关重要。

该团队开发了两种人工智能模型,一种是通过分析目标面部的细微变化来预测人类的面部表情,另一种是利用相应的面部表情生成运动命令。

为了训练机器人如何做出面部表情,研究人员把Emo放在镜头前,让它做随机的动作。几个小时后,机器人学会了他们的面部表情和运动命令之间的关系——就像人类通过照镜子来练习面部表情一样。这就是该团队所说的“自我建模”——类似于我们人类在做出某些表情时想象自己是什么样子的能力。

然后,研究小组播放了人类面部表情的视频,让Emo逐帧观察。经过几个小时的训练,Emo可以通过观察人们脸上的微小变化来预测他们的面部表情,因为他们开始形成微笑的意图。

“我认为准确预测人类面部表情是人力资源研究所的一场革命。传统上,机器人的设计并没有考虑到人类在互动过程中的表情。现在,机器人可以整合人类的面部表情作为反馈,”该研究的主要作者胡宇航(Yuhang Hu)说,他是利普森实验室哥伦比亚工程学院的博士生。“当机器人实时与人进行共同表达时,不仅可以提高交互质量,还有助于建立人与机器人之间的信任。未来,当与机器人互动时,它会像真人一样观察并解读你的面部表情。”

接下来是什么

研究人员现在正致力于将语言交流整合起来,将ChatGPT这样的大型语言模型应用到Emo中。随着机器人的行为能力越来越像人类,利普森很清楚与这项新技术相关的伦理问题。

“虽然这种能力预示着大量的积极应用,从家庭助理到教育辅助,但开发者和用户有责任谨慎和道德考虑,”利普森说,他是哥伦比亚大学工程学院机械工程系的创新教授,哥伦比亚大学创客空间的联合主任,也是数据科学研究所的成员。“但这也非常令人兴奋——通过推进能够准确解读和模仿人类表情的机器人,我们正在接近机器人无缝融入我们日常生活的未来,它们可以提供陪伴、帮助,甚至是同理心。”想象一下这样一个世界:与机器人互动就像与朋友交谈一样自然舒适。”

作者:哥伦比亚大学工程与应用科学学院

链接:https://www.sciencedaily.com/releases/2024/03/240327154854.htm

著作权归作者所有。

声明:海森大数据刊发或者转载此文只是出于传递、分享更多信息之目的,并不意味认同其观点或证实其描述。若有来源标注错误或侵犯了您的合法权益,请作者与本网联系,我们将及时更正、删除,谢谢。电话:152 6451 3609,邮箱:1027830374@qq.com

 

栏目

行业新闻

公司动态


相关

MIT推出Boltz-1

AI设计抗体笼药物:诺奖

Meta推出OMat24

AI有望改变“试错法”研

探索人工智能在3D医学图


时间

2024-04-11 08:35:25


作者

哥伦比亚大学工程与应用科学学院