迅维网

看几小时视频就能模仿人类聊天的机器人

zjmanager 2017-9-28 09:53


  人形机器人的相似度与人类的好感度不成正比。根据日本机器人专家森政弘1970年提出的恐怖谷理论,随着物体拟人程度增加,人类的反应呈增-减-增曲线。当拟人度达到某一程度时,人类好感度会大幅下降,甚至还会觉得拟人物惊悚可怕。


看几小时视频就能模仿人类聊天?Facebook机器人表情丰富着呢

恐怖谷理论/维基百科
  Facebook正在努力让自己的机器人尽快跨过恐怖谷。

  近日,Facebook人工智能实验室(FAIR)的研究人员就开发出一个善于表达情绪的机器人。这是由一个由AI算法操控的虚拟动画机器人,在观察几小时人类Skype聊天视频能模仿人的表情。

68个面部标记区块


  为了更好模拟人类的情感表达方式,研究人员将动画中的人脸分成68个区块,在Skype对话中重点观察这些部位的变化。在交谈中,人类的点头、眨眼和嘴部的动作变化都会反应出来,机器人会学会这些面部变化。


上图为捕捉到的人类对话中的面部表情,下图为系统对面部表情的追踪

  观察一段时间后,动画机器人可以实时预测可能出现的面部表情。如果视频中人在笑,机器人也可能张开嘴,或者歪着头。

测验结果


  随后,Facebook研究人员进行了一组测验。志愿者们观看了人和人对话的原版视频,以及训练后的机器人模拟的反应,他们认为机器人表现得自然且真实。

看几小时视频就能模仿人类聊天?Facebook机器人表情丰富着呢


看几小时视频就能模仿人类聊天?Facebook机器人表情丰富着呢

图片中线条高低表示嘴部(左)及眼部(右)的张合度,可以看出用户(上)和智能体预测(下)的表情基本一致

  因为现在算法还只能表现在动画中,尚不清楚算法支持的人形机器人的反应如何。

  学习面部交流的基本规则不够以创造真正的对话伙伴,以色列特拉维夫大学的博士生Goren Gordon说,“真正的面部表情是要基于所思所感的。”

  “在这种情况下,Facebook系统会创造出一种平均性格”,卡内基梅隆大学语言技术学院副教授louis-Philippe Morency说。在未来,机器人的性格可能更复杂,或能根据谈话对象调整自己的性格。

  机器人不擅长人类之间互动的这些微妙元素,Gordon说。他同时表达了对机器人的期望:“在某一时刻,我们终会走出恐怖谷,走到另一边。”


日本大阪大学智能机器人研究所规划的人形机器人女播音员Otonaroid

  Facebook将在本月24号温哥华召开的IROS 2017上展示这项技术,现在已将这项技术的论文《Learn2Smile: Learning Non-Verbal Interaction Through Observation》公开。

论文摘要


  在这篇论文中,我们研究了人类和智能体面对面交流中的非语言面部暗示,提出了基于用户表情自动学习并升级智能体面部情感表达的方式。我们用数百个视频训练神经网络,包含人类相互对话的视频,这其中没有加入外部的人为监督。

  实验结果显示,我们的智能体面部标记模型可以长时间预测人类的表情;对比结果也表明,模型显著优于基线方式。最后,我们进行了更深入的研究以更好地理解模型性能。

本文转载目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责。如涉及作品内容、版权和其它问题,请在30日内与本网联系,我们将在第一时间删除内容! [声明] 本站文章版权归原作者所有,内容为作者个人观点,本站只提供参考并不构成任何投资及应用建议。本站拥有对此声明的最终解释权!

雷人

握手

鲜花

鸡蛋

路过
收藏
来自: 今日头条

相关阅读

最新评论

发表评论

登录 后可参与评论
关闭

站长提醒 上一条 /1 下一条

返回顶部
附近
店铺
微信扫码查看附近店铺
维修
报价
扫码查看手机版报价
信号元
件查询
点位图


芯片搜索