首页 >热门资讯> H5制作 > 看几小时视频就能模仿人类聊天?Facebook机器人表情丰富着呢 >

看几小时视频就能模仿人类聊天?Facebook机器人表情丰富着呢

转载时间:2021.12.27(原文发布时间:2017.09.06)
85
转载作者:36氪企服点评小编
阅读次数:85次

编者按:本文来自微信公众号“量子位”(ID:QbitAI),36氪经授权发布。

人形机器人的相似度与人类的好感度不成正比。根据日本机器人专家森政弘1970年提出的恐怖谷理论,随着物体拟人程度增加,人类的反应呈增-减-增曲线。当拟人度达到某一程度时,人类好感度会大幅下降,甚至还会觉得拟人物惊悚可怕。

看几小时视频就能模仿人类聊天?Facebook机器人表情丰富着呢

恐怖谷理论/维基百科

Facebook正在努力让自己的机器人尽快跨过恐怖谷。

近日,Facebook人工智能实验室(FAIR)的研究人员就开发出一个善于表达情绪的机器人。这是由一个由AI算法操控的虚拟动画机器人,在观察几小时人类Skype聊天视频能模仿人的表情。

68个面部标记区块

为了更好模拟人类的情感表达方式,研究人员将动画中的人脸分成68个区块,在Skype对话中重点观察这些部位的变化。在交谈中,人类的点头、眨眼和嘴部的动作变化都会反应出来,机器人会学会这些面部变化。

看几小时视频就能模仿人类聊天?Facebook机器人表情丰富着呢

上图为捕捉到的人类对话中的面部表情,下图为系统对面部表情的追踪

观察一段时间后,动画机器人可以实时预测可能出现的面部表情。如果视频中人在笑,机器人也可能张开嘴,或者歪着头。

测试结果

随后,Facebook研究人员进行了一组测试。志愿者们观看了人和人对话的原版视频,以及训练后的机器人模拟的反应,他们认为机器人表现得自然且真实。

看几小时视频就能模仿人类聊天?Facebook机器人表情丰富着呢看几小时视频就能模仿人类聊天?Facebook机器人表情丰富着呢

图片中线条高低表示嘴部(左)及眼部(右)的张合度,可以看出用户(上)和智能体预测(下)的表情基本一致

因为目前算法还只能表现在动画中,尚不清楚算法支持的人形机器人的反应如何。

学习面部交流的基本规则不足以创造真正的对话伙伴,以色列特拉维夫大学的博士生Goren Gordon说,“真正的面部表情是要基于所思所感的。”

“在这种情况下,Facebook系统会创造出一种平均性格”,卡内基梅隆大学语言技术学院副教授louis-Philippe Morency说。在未来,机器人的性格可能更复杂,或能根据谈话对象调整自己的性格。

机器人不擅长人类之间互动的这些微妙元素,Gordon说。他同时表达了对机器人的期望:“在某一时刻,我们终会走出恐怖谷,走到另一边。”

看几小时视频就能模仿人类聊天?Facebook机器人表情丰富着呢

日本大阪大学智能机器人研究所设计的人形机器人女播音员Otonaroid

Facebook将在本月24号温哥华召开的IROS 2017上展示这项技术,目前已将这项技术的论文《Learn2Smile: Learning Non-Verbal Interaction Through Observation》公开。

论文摘要

在这篇论文中,我们研究了人类和智能体面对面交流中的非语言面部暗示,提出了基于用户表情自动学习并升级智能体面部情感表达的方法。我们用数百个视频训练神经网络,包含人类相互对话的视频,这其中没有加入外部的人为监督。

实验结果显示,我们的智能体面部标记模型可以长时间预测人类的表情;对比结果也表明,模型明显优于基线方法。最后,我们进行了更深入的研究以更好地理解模型性能。

本项研究的数据集已经开放,方便领域内的其他研究者使用。

论文下载地址

[免责声明]

资讯标题: 看几小时视频就能模仿人类聊天?Facebook机器人表情丰富着呢

资讯来源: 36氪官网

36氪企服点评

H5制作相关的软件

查看更多软件

行业专家共同推荐的软件

限时免费的H5制作软件

新锐产品推荐

消息通知
咨询入驻
商务合作