在人工智能(AI)广泛应用的当下,为探究人类对 AI 和人类的歧视行为差异,研究人员开展 “Comparing discriminatory behavior against AI and humans” 的研究。通过实验发现,参与者对 AI 和人类的歧视行为相似,受选择一致性影响更大。这一成果有助于理解人与 AI 互动的行为模式。
在科技飞速发展的时代,人工智能(AI)已深度融入人们的生活。从智能语音助手到医疗影像诊断辅助,AI 的身影无处不在。然而,随着 AI 的广泛应用,一个问题逐渐浮现:人们在与 AI 互动时,是否会像对人类一样存在歧视行为?过去的研究表明,歧视通常被认为源于种族、残疾、性别等明确的类别,但研究发现,在缺乏这些类别的最小条件下,歧视依然存在 。比如,参与者会基于看似随意的共同特征(如点估计选择)来分配资源。同时,人们对算法存在偏见,即算法厌恶(algorithm aversion),这是否会导致对 AI 的歧视行为更严重呢?这一系列问题引发了研究人员的思考,为了深入探究这些现象,来自澳大利亚墨尔本大学(The University of Melbourne)、悉尼大学(The University of Sydney)以及瑞士苏黎世联邦理工学院(ETH Zürich)的研究人员开展了一项名为 “Comparing discriminatory behavior against AI and humans” 的研究 。该研究成果发表在《Scientific Reports》上,为理解人机互动行为提供了重要依据。
在研究方法上,研究人员在在线众包平台 Prolific 上招募性别均衡的参与者。设置了严格的入选标准,如无心理健康问题、使用 Chrome 浏览器、居住在美国、未参与过之前的相关实验等,同时利用注意力检查确保数据质量 。参与者被随机分配到 AI 或人类条件组,完成点估计任务和资源分配后,填写关于对 AI 的熟悉度、态度和信任等方面的调查问卷 。数据分析采用多水平贝叶斯估计方法,使用 R 编程语言和 brms R 包进行回归分析。
研究结果显示,贝叶斯回归模型表明,在人类和 AI 条件下,三个 “pull scores” 的估计值均高于零,这意味着参与者对 AI 和人类都采用了歧视性策略,即更倾向于给在点估计任务中选择相同结果的对象分配更多资源 。进一步分析发现,AI 和人类条件下的 “pull score” 预测因子相似,没有显著的条件和 “pull scores” 的交互效应,说明对 AI 和人类的歧视程度没有差异 。此外,研究中使用的多项目量表显示,参与者对 AI 的态度(如信任和熟悉度)与歧视行为之间没有显著相关性 。
在讨论部分,研究人员分析了为何算法厌恶没有导致对 AI 更严重的歧视行为。一方面,实验设计可能弱化了对象身份的影响,参与者处于匿名状态,对 AI 和人类对象的信息了解极少,且实验流程在两种条件下差异极小,这使得参与者可能将 AI 视为与人类相似的对象 。另一方面,调查项目可能未捕捉到参与者的隐性偏见,因为偏见往往是隐性的 。此外,研究样本为在线参与者,他们可能对技术更为熟悉和接受,这也可能影响实验结果 。
这项研究意义重大。它挑战了人们对算法厌恶会导致对 AI 更多歧视行为的认知,表明在最小条件下,人类的歧视行为更多地受决策不一致的影响,而非对象的身份 。这一结论为理解人机互动提供了新视角,有助于未来更好地设计 AI 系统,促进人机和谐共处。同时,研究也为后续研究指明了方向,如探索不同任务和情境下的歧视行为,以及采用隐性测量方法深入研究偏见对歧视行为的影响等 。
总的来说,该研究通过精心设计的实验和严谨的数据分析,揭示了人类在与 AI 和人类互动时歧视行为的相似性,为人工智能领域的研究和应用提供了有价值的参考,推动了对人机交互行为的深入理解和进一步研究 。