
我们一直以拥有人类的情感而自豪,这是我们与机器之间的根本区别。随着计算机的发展,我们期待着人与机器之间的交流,尤其是一种情感交流。计算机的情感培养也与我们每个人的相似——观察和识别情感是最终自然、亲密、生动互动的开始。
说到情感识别,就不得不提一个在这个领域做出巨大贡献的人——埃及科学家拉纳·卡利乌比。和许多成功的“程序员”一样,她不仅在编码方面一手好牌,在人际关系上也一手好牌,智商和情商并重。她与她的导师 Rosalind Picard 一起创立了 Affectiva,一家开发情绪分析软件的公司。Affectiva 也被一些商业媒体列为增长最快的初创公司。事实也证明,这个领域确实是非常赚钱的。
要弄清楚它是如何工作的,首先我们需要了解情绪识别的理论基础。Paul Ekman(心理学家)提出了每个人,无论性别或年龄,都会在其中成长的六种基本情绪:愤怒、厌恶、恐惧、快乐、悲伤和惊讶。然后他开始解读这些情绪表达,并开发了“面部动作组织系统”(FACS),将每个人的表情分解成许多面部动作单元(Action Units),单独不代表任何情绪,但利用它们的组合特征我们可以做一些面部表情识别,是的,比如对我说谎。如果一个人对你微笑时只影响到颧骨大肌,那么这八项成就是真正的假笑,
Rosalind Picard 早早在 MIT 的媒体实验室做一些图像压缩方面的技术开发,但她很快遇到了瓶颈,因为她开发的方法(虽然后来很流行)完全独立于被处理的对象:例如压缩,同样的方法用于大运河的照片和总统的肖像。她认为如果计算机能够知道它们在处理什么,这个过程就可以得到改进。直到她读了一本关于联觉的书《尝过形状的人》,她才意识到情感与理性之间的联系。与我们传统认为的“冷酷无情”不同哪项是错误的情绪识别,太少的情绪,就像太多的情绪一样,都会对我们的理性思维产生不良影响。实际上,一些影响情绪的脑损伤也会剥夺人们的判断力。以及做决定的能力,这正是我们希望计算机做的事情。
回到计算机情感识别,其实方法就是提取人脸的一些关键点,用那些相对不变的“锚点”,比如鼻尖,作为最固定的参考点,然后用点喜欢用嘴角来判断你是否做表情。但是在 1990 年代,要制造一个能够准确地增长这些离散的面部动作单元的系统太难了。仅将视频数字化就需要 25 秒。一位早期研究人员说:“无论你做什么,总会有一点偏差,而且随着结构的不断扩大,错误也会越来越多,需要每十秒重新启动一次。
就这样,研究陷入了瓶颈,卡利乌比带着遗憾去剑桥继续攻读博士学位。巧合的是,在一次演讲之后,一位听众告诉她,她训练计算机阅读面孔与他患有自闭症的兄弟的问题相似。当时,剑桥的自闭症研究中心正在做一个对面部表情进行分类的大项目。不像埃克曼将表情划分为小的动作单元,然后通过动作单元的组合来判断情绪,他们对表情的分类是不同的。更自然、更容易理解,对表情进行更详细的分类,然后整体学习特定表情的特征。比如“思考”部分,有担忧、犹豫、幻想、判断等等。他们让六名演员在镜头前展示他们的表情,并在他们几乎全部通过后才给他们贴上标签。所以他们有足够的材料来开发MindReader哪项是错误的情绪识别,一个几乎可以在任何环境中检测复杂情绪的软件,也是Affdex的原型。提出 FACS 的心理学家 Ekman 与他人共同创立了 Emotient,它也是一款情绪识别软件。它还使用机器学习方法,通过海量数据学习构建准确的表情识别框架。这也是一个情绪识别软件。它还使用机器学习方法,通过海量数据学习构建准确的表情识别框架。这也是一个情绪识别软件。它还使用机器学习方法,通过海量数据学习构建准确的表情识别框架。
尽管有人质疑仅基于表情而脱离真实情况的筛选方法的准确性,但实验表明,计算机不仅可以捕捉到那些虚假的表情,而且还可以捕捉到一些人类无法识别的微表情。 ,电脑也可以漏接。加州大学研究员玛丽安·巴特利特发现,当她的女儿看到戏剧中的暴力场景时,她会吸收一闪而过的愤怒,然后伪装成惊讶,然后大笑——但这一切都被电脑捕捉到了。通过“微表情”测试,研究人员能够捕捉到人们拒绝经济援助之前闪现的厌恶情绪,这是普通人用肉眼难以做到的。
这些软件自然具有广阔的应用前景。就在 2012 年总统大选期间,Kaliouby 的团队使用 Affdex 检查了 200 多人观看奥巴马和罗姆尼辩论的镜头,并以 73% 的准确率预测投票结果。目前,情感识别已经在商业中得到广泛应用,未来将会有更加多样化的应用前景。
请登录后发表评论
注册
社交帐号登录