被人工智能拒绝了?比较求职者在人员选拔中对人工智能和人类的公平性认知
《Frontiers in Artificial Intelligence》:Rejected by an AI? Comparing job applicants’ fairness perceptions of artificial intelligence and humans in personnel selection
【字体:
大
中
小
】
时间:2025年11月05日
来源:Frontiers in Artificial Intelligence 4.7
编辑推荐:
人工智能招聘中的解释效应研究:摘要与关键字
摘要:本研究通过对比AI与人类招聘者的四类公平维度(结果、流程、人际对待、推荐意愿),发现提供解释能显著提升AI决策的公平感知,部分指标(如人际对待和推荐意愿)的AI解释效果甚至优于人类无解释场景。研究验证了可解释AI在缓解算法厌恶中的作用,并提出组织应优先考虑解释性设计。
人工智能(AI)在人员选拔领域的应用正在迅速扩展,为组织带来了效率和客观性的优势。然而,这一技术的广泛应用也引发了一系列关于公平性和接受度的争议。尽管一些研究指出,提供解释有助于提高申请人对AI决策的公平性感知,但目前对于AI在人员选拔中的具体影响仍缺乏深入理解。本文旨在探讨AI在人员选拔过程中,通过提供解释如何影响申请人对公平性的看法,并评估这种影响是否与人类决策相似。
人员选拔是组织获取合适人才的关键环节,通常涉及复杂的判断过程。传统上,这一过程依赖于人力资源专家的主观判断、面对面的面试以及经验积累。然而,随着AI技术的发展,越来越多的组织开始采用自动化工具,如简历筛选、能力测试、语音和面部表情分析,以及聊天机器人,以提高效率并减少人为偏见。尽管AI系统能够处理大量数据并快速做出决策,但它们的“黑箱”特性使得申请人难以理解其决策逻辑,从而对AI产生不信任和抵触情绪。这种现象被称为“算法抵触”,并被认为是AI在人员选拔中受到质疑的主要原因之一。
研究显示,AI的决策往往被申请人认为缺乏人情味和主观判断能力,导致他们对AI的公平性产生负面看法。例如,一些申请人认为AI无法识别个人的独特才能,或者无法理解面试中的微妙互动。此外,AI可能在某些情况下无意中强化现有的社会不平等,如通过偏倚的数据训练或不均衡的评估标准。这些因素共同构成了AI在人员选拔中面临的公平性挑战。
为了缓解这些担忧,研究者们提出了“可解释AI”(Explainable AI, XAI)的概念,旨在提高AI决策的透明度和可理解性。XAI技术通过提供清晰的解释,帮助用户理解AI的决策过程,从而提升其对AI的信任和公平性感知。已有研究表明,解释可以显著提高申请人对AI决策的公平性评价,但具体到人员选拔场景,其效果仍有待验证。
本文采用问卷实验方法,通过四个不同的场景(AI无解释、AI有解释、人类无解释、人类有解释)来探讨解释对申请人公平性感知的影响。研究对象为奥地利的成年人群,样本量为921人,涵盖了性别、年龄、居住地和教育水平等多个变量。实验结果显示,无论决策是由AI还是人类做出,提供解释都能显著提升申请人对结果公平性、过程公平性、人际互动和推荐意愿的评价。这表明,解释在AI决策中具有重要作用,能够有效减少申请人的抵触情绪,增强他们对AI系统的信任。
在结果分析中,我们发现AI与人类在公平性感知上存在差异。尽管AI在提供解释的情况下,其公平性评价与人类决策相近,但某些维度如人际互动和推荐意愿,AI的评价甚至超过了人类决策。这一发现与以往的研究结果存在一定的矛盾,表明AI在某些方面可能具有与人类相似甚至更优的公平性表现。此外,年龄、性别和教育水平等社会人口学因素也对公平性感知产生了影响,特别是教育水平较高的申请人,对AI的公平性评价更低,而对歧视的感知则与公平性感知呈正相关。
从理论贡献来看,本文扩展了已有研究对AI公平性感知的理解,强调了解释在提升公平性评价中的作用。同时,我们验证了Gilliland等人的研究框架在AI环境下的适用性,指出AI系统的公平性评估应基于多维度的测量,而不仅仅是单一的指标。此外,我们还发现,AI的公平性感知受到具体任务性质的影响,例如在需要主观判断或人际互动的场景中,AI的公平性评价往往较低。
从实践角度来看,本文的结果为组织在设计和应用AI系统时提供了重要指导。提供清晰的解释不仅有助于提高申请人的公平性感知,还能增强他们对AI的信任,从而促进AI在人员选拔中的接受度。同时,组织应关注不同社会人口学群体对AI的反应差异,以确保公平性评估的广泛适用性。此外,本文还指出,未来的研究应进一步探讨不同类型的解释对公平性感知的影响,以及在真实工作场景中AI系统的实际应用效果。
总的来说,AI在人员选拔中的应用正在改变传统的招聘方式,但其公平性仍然是一个关键议题。通过提供解释,组织可以有效缓解申请人的抵触情绪,提升他们对AI的信任和接受度。本文的研究结果表明,解释在AI决策中具有重要作用,能够显著改善公平性感知,从而为AI在人力资源管理中的成功应用奠定基础。未来的研究应进一步探索如何优化AI系统的解释机制,以确保其在各类人员选拔场景中都能获得公平性认可。
生物通微信公众号
生物通新浪微博
今日动态 |
人才市场 |
新技术专栏 |
中国科学人 |
云展台 |
BioHot |
云讲堂直播 |
会展中心 |
特价专栏 |
技术快讯 |
免费试用
版权所有 生物通
Copyright© eBiotrade.com, All Rights Reserved
联系信箱:
粤ICP备09063491号