AI面试官也太好骗了!用书架图片做视频背景,能提高15%好感度

  • 时间: 2021-03-01 06:49:51

  萧箫发自凹非寺

  量子位报道公众号 QbitAI

  当坐在你面前的是一位 AI 面试官,如何提升它的好感度?

  给自己加个(虚拟的)书架背景就行。像这样:

  没错,不需要其他任何改变,单纯改改背景。

  AI 面试官对你的好感度,一下子就提升了15%

  怎么回事?

  AI 面试官喜欢什么?

  这个 AI 面试官,来自德国慕尼黑的一家初创公司。

  据开发者称,它能通过分析应聘者的声音、语言、手势和面部表情,来快速得出一种名为“大五人格测试”(OCEAN)的结果,包括:

  • 开放/求新性O(Openness to experience)

  • 尽责性C(Conscientiousness)

  • 外向性E(Extroversion)

  • 亲和性A(Agreeableness)

  • 情绪性N(Neuroticism)

  其中,前 4 项得分越越好,第 5 项的得分则是越越好(更不容易情绪化)。

  调查者们先是找来了一位女士,用她的自我介绍视频来“测试”这个 AI 面试官。

  下面这些数据,是这位女士直接面试的结果:

  那么,如果她戴上眼镜呢?

  神奇的事情出现了,AI 面试官认为,她戴上眼镜后,尽责性就会降低 10 分!

  那么,试试戴上帽子?

  看来 AI 很喜欢戴上帽子的她。现在,这位女士在 AI 面试官眼里,看起来更开放、更有责任感、更不容易情绪化了。

  有点意思。

  接下来,调查者们又让另一个“应聘者”去测试 AI 面试官。

  先是加个书架:

  AI 面试官立即“好感大增”,给出了几乎高出 15% 的分数。

  测试人员又在自己背后放了一张照片。

  AI 面试官似乎也很喜欢有背景的图片,也“因此”给出了更高的应聘分数。

  不仅如此,就连光线的亮暗,都会影响到 AI 面试官的心情。

  如果视频亮度更低,AI 面试官还会给出更低的分数。

  在面部表情、说话语音、语言乃至手势都没有改变的情况下,仅仅是着装、光线、甚至背景,就能改变 AI 面试官的判断结果。

  这是来自德国巴伐利亚广播公司(Bavarian Broadcasting)的记者们,对这家初创公司进行调查的结果。目前,这家公司“不愿意透露姓名”。

  相关的软件开发者表示,他们参照了 Retorio 公司的 AI 模型训练方法。

Retorio 公司的 AI 系统,采用了超过 12000 个不同年龄、性别和种族背景的人的视频进行训练。此外,还有 2500 人在 OCEAN 评估的基础上,根据自己的性格对结果进行了评价。据 Retorio 声称,这个 AI 模型评估准确率,能达到人类观察员的评估准确率的90%

  不过,现在的调查结果,显然不符合这家初创公司提倡的“公平、公正”的面试。

  对此,这家初创公司声称,应聘者可以录制很多次面试视频,并最终决定应用哪个版本,其中视频质量也应该被考虑进去。

  所有这些过程,面试者都可以在“无压力”的情况下完成。

  需要相应约束制度

  事实上,目前已经有类似的 AI 产品,在美国被投入使用。

  例如,来自美国犹他州的 Hirevue 公司(主打视频面试软件),就声称有 700 家公司都是它的客户。

  但它的产品,却受到了来自 AI 专家的质疑。他们认为,Hirevue 生产的软件,算法和面试结果并不透明。

  例如,美国新闻工作室 The Markup 的负责人 Julia Angwin 就认为,“面部特征会影响工作表现”这一说法毫无科学依据。

  最近,Hirevue 也确实从他们的产品中移除了“面部表情分析”这个功能。

  他们内部评估发现,“视觉分析结果”与“工作表现”,真的没啥关系……

  这家公司,现在计划将更多精力投入到“语音分析”这一功能中去。

  而且,“AI 面试官”面临的,不止技术上的质疑。

  有人力资源部门经理担心,如果公司应用了 AI 面试官,可能会导致应聘人数下降(大家都不愿意申请了)、以及公司数据保护等问题。

  对此,图宾根大学的计算机科学教授 Katharina Zweig 认为,整体来说,AI 是一个很好的工具,值得被应用,但如果用 AI 来评判人类行为,绝对会遇到困难。

  如果 AI 的需求量确实非常大,至少也需要对相应的服装、环境等诸多无关条件作出约束,以免这些因素误导 AI 的判断。

  网友评论

  对于这次 AI 的评判结果,有网友觉得非常可笑。

  他在自己的背景和脸上P了一堆书,并调侃:好,现在我已经入选了!

  但也有网友表示,现实世界里,“书架”确实是个印象加分项。

  甚至真的有这种工作:替那些装成“知识分子”的富人们搭配书架,在上面摆放书籍……

  此外,也有网友认为,对于 AI 模型而言,数据偏见和算法不足,都会导致不可靠的结果。

  在达到“真正的 AI”之前,“AI”只是个营销术语而已。

  不过,Retorio 公司的 AI 模型,其实也是根据人类面试官的视频面试结果,训练得出的。

  AI 面试官的“偏见”从何而来?确实不好说。

  参考链接:

  https://web.br.de/interaktiv/ki-bewerbung/en/

  https://twitter.com/hatr/status/1361756449802768387