-
生物通官微
陪你抓住生命科技
跳动的脉搏
专家敦促采用复杂系统的方法来评估人工智能的风险
【字体: 大 中 小 】 时间:2024年11月14日 来源:AAAS
编辑推荐:
科学家们在英国皇家学会的期刊上指出,要理解人工智能带来的威胁,仍然很难找到一个连贯的方法。他们呼吁从复杂系统的角度来更好地评估和减轻这些风险,特别是考虑到长期的不确定性和人工智能与社会之间复杂的相互作用。
随着人工智能日益渗透到我们生活的方方面面,专家们越来越担心它的危险。在某些情况下,风险是紧迫的,在另一些情况下,它们要到几个月甚至几年以后才会出现。科学家们在英国皇家学会的期刊上指出,理解这些威胁的连贯方法仍然难以捉摸。他们呼吁从复杂系统的角度来更好地评估和减轻这些风险,特别是考虑到长期的不确定性和人工智能与社会之间复杂的相互作用。
“理解人工智能的风险需要认识到技术与社会之间错综复杂的相互作用。这篇文章的合著者法里巴·卡里米说:“这是关于如何驾驭复杂的、共同进化的系统,这些系统塑造了我们的决策和行为。”Karimi是复杂性科学中心(CSH)算法公平性研究团队的负责人,也是格拉茨工业大学社会数据科学教授。
“我们不仅应该讨论部署什么技术以及如何部署,还应该讨论如何适应社会环境,以利用积极的可能性。例如,在有关经济政策的辩论中,可能应该考虑到人工智能的可能性和风险,”CSH科学家Dániel Kondor补充道,他是这项研究的第一作者。
更广泛和长期的风险
发表在《哲学学报a》上的这篇文章的作者表示,目前的风险评估框架往往侧重于直接的、具体的危害,比如偏见和安全问题。Kondor说:“这些框架往往忽视了人工智能技术的广泛部署以及它们与所使用的社会环境的相互作用可能带来的更广泛、长期的系统性风险。”
“在本文中,我们试图平衡算法的短期观点和这些技术如何影响社会的长期观点。这是关于理解人工智能的直接和系统性后果,”Kondor补充道。
现实生活中会发生什么
作为说明人工智能技术潜在风险的案例研究,科学家们讨论了在英国Covid-19大流行期间如何将预测算法用于学校考试。根据这项研究,新的解决方案“被认为(比要求教师预测学生的表现)更客观,因此更公平,因为它依赖于对往年学生表现的统计分析”。
然而,当该算法投入实践时,出现了几个问题。“一旦应用了评分算法,不公平就变得非常明显,”独立研究员、该研究的合著者瓦莱丽·哈菲兹(Valerie Hafez)说。“来自弱势社区的学生在对抗分数膨胀的徒劳努力中首当其冲,但即使总体而言,40%的学生得到的分数低于他们合理预期的分数。”
Hafez报告说,咨询报告中的许多回应表明,教师认为的重大风险——评分低于应得的长期影响——与算法设计者认为的风险不同。后者关注的是分数膨胀,由此给高等教育带来的压力,以及对学生实际能力缺乏信任。
规模和范围
科学家强调,这个案例展示了部署大规模算法解决方案时出现的几个重要问题。“我们认为人们应该注意的一件事是规模和范围,因为算法是可扩展的:它们可以很好地从一个环境传播到另一个环境,即使这些环境可能截然不同。创造的原始背景并没有简单地消失,而是叠加在所有这些其他背景上,”哈菲兹解释说。
“长期风险不是短期风险的线性组合。随着时间的推移,它们会呈指数级上升。然而,通过计算模型和模拟,我们可以提供实用的见解,以更好地评估这些动态风险,”Karimi补充说。
计算模型与公众参与
这是科学家们提出的理解和评估与人工智能技术相关的短期和长期风险的方向之一。Kondor解释说:“计算模型——比如那些评估人工智能对社交网络中少数群体代表的影响的模型——可以证明人工智能系统中的偏见是如何导致反馈循环的,从而加剧了社会不平等。”这样的模型可以用来模拟潜在的风险,提供难以从传统评估方法中收集到的见解。
此外,该研究的作者强调了在风险评估过程中让外行和各个领域的专家参与的重要性。能力小组——汇集了不同观点的小型异质团队——可以成为促进民主参与和确保受人工智能技术影响最大的人了解风险评估的关键工具。
一个更普遍的问题是促进社会弹性,这将有助于与人工智能相关的辩论和决策更好地发挥作用,避免陷阱。反过来,社会弹性可能取决于许多与人工智能无关(或至少不直接相关)的问题,”Kondor沉思道。增加参与性决策形式可以成为提高复原力的一个重要组成部分。
“我认为,一旦你开始将人工智能系统视为社会技术,你就无法将受人工智能系统影响的人与‘技术’方面区分开来。哈菲兹是奥地利联邦总理府的人工智能政策官员,他说:“把他们从人工智能系统中分离出来,剥夺了他们塑造强加给他们的分类基础设施的可能性,剥夺了受影响的人分享创造满足他们需求的世界的权力。”
知名企业招聘