AI 能否识别人类感情?原则上来说,AI 可以通过语音识别、视觉识别、文字识别、表情识别等数据,结合深度学习,再加上人工的标记,从而具备识别情绪的能力。这就意味着 AI 机器人可以通过一个人的表情就知道他的感受。
为了实现这一目标,微软、IBM 和亚马逊等巨头都开始出售所谓的“情绪识别”算法,基于人脸的分析来推测人类的心情。比如说, 如果有人皱眉、噘嘴,就意味着他们生气了;如果他们眼睛变大、眉毛抬起、嘴巴大开,这意味着他们会害怕,等等。
在面试中,这一技术可以帮助招聘人员追踪求职者的情绪,破译求职者热情、无聊、诚恳的心情。在超市,这一技术可以用来识别顾客年龄、性别和心情,配合精准营销。
但是,单单靠表情来推断心情一直备受争议。为此,在美国心理科学协会的委托下,五位来自该领域的杰出科学家展开了数据收集和科学证明。每一位评论家都代表了情感科学的不同理论阵营。最终的研究论文显示,情绪的表达方式多种多样,很难从一组简单的面部运动中可靠地推断出一个人的感受,表情与心情之间没有坚实的科学依据证明有直接关联。
该论文的作者之一,马萨诸塞州的东北大学心理学教授 Lisa Feldman Barrett 在接受媒体采访时表示:“公司可以想说什么就说什么,但是数据是真实的。他们能检测到一张愤怒的脸,但这与察觉到愤怒的情绪是两码事。”
当然,这篇论文并没有否认常见的典型面部表情是存在的,面部表情在社交中的巨大作用也是显而易见的。在情绪研究领域有各种各样的信念,论文反对的正是心理学家 Paul Ekman 在十九世纪六十年代提出并在后来发展起来的“情绪指纹”理论。
论文认为,“情绪指纹”理论在方法论上存在缺陷。例如,他们用演员夸张的表情作为情感起始点。当被试者要求为这些表情贴标签的时候,他们常被要求在有限的选择内作出决定,这促使他们达成某种共识。
Barrett 说:“数据显示,人们在生气时,平均只有不到30%的时间会皱眉。所以愁眉苦脸不是愤怒的表现,而只是众多愤怒表达之一。这意味着超过70%的情况下,人们在生气的时候不会皱眉。最重要的是,他们在不生气的时候经常会皱眉。”
多年来,Barrett 及一些人一直在警告公司的感情识别模型过于简单。而销售算法的公司回应称,他们的分析基于很多信号,而不仅仅是面部表情。问题就在于,如果真的收集了很多信号的话,他们如何使之平衡。
但 Barrett 坚信,在未来人工智能可以更精准地“测量”情绪。另一方面,如果情绪识别开始普及,我们就可能接受它并改变我们的行为来适应它的失败。我们可能会有夸张的面部表情,因为我们知道他们会被机器理解。
这篇论文最想要强调的是,我们要以一种更复杂的方式来思考情感。就像达尔文认为的,“一个物种的生物学范畴没有本质,它是由高度可变的个体组成的范畴。”“情感类别也是如此。”Barrett 认为。