编辑推荐:
为解决生成式人工智能(GenAI)发展中用户隐私保护问题,研究人员构建三方博弈模型,结合进化博弈与系统动力学展开研究。结果表明政府声誉等因素影响三方策略选择,补贴政策对隐私保护更有效。该研究为隐私保护提供理论与决策支持。
在科技飞速发展的当下,生成式人工智能(Generative Artificial Intelligence,GenAI)如同一把双刃剑,为人们的生活和工作带来了极大便利,在文本生成、声音合成、图像创作等领域大放异彩,创造了显著的经济和社会价值。但它也引发了诸多令人担忧的问题,其中用户隐私泄露风险尤为突出。在 GenAI 收集、存储用户数据以及模型训练等关键环节,隐私泄露隐患无处不在,就像一颗颗隐藏的 “定时炸弹”,随时可能威胁用户的隐私安全。尽管已有不少研究聚焦于 GenAI 隐私问题,但目前仍缺乏能有效平衡 GenAI 技术创新与用户隐私保护的系统性解决方案。在这样的背景下,为了探寻切实可行的隐私保护策略,湖北中医药大学信息工程学院、湖北时珍实验室的 Lan Yao,湖南工学院安全与管理工程学院的 Shuai Deng 等研究人员开展了相关研究,研究成果发表在《Scientific Reports》上。
研究人员采用进化博弈与系统动力学相结合的方法,构建了一个涉及政府、GenAI 公司和用户的三方博弈模型。在这个模型中,政府负责制定和监管隐私保护政策,通过建立法律法规以及实施激励和惩罚机制,推动社会技术进步,促使 GenAI 公司加强用户隐私保护;GenAI 公司则需要在优化隐私保护技术以降低风险和控制成本之间权衡,其决策会受到政府政策的影响,也会反过来影响用户的选择;用户作为 GenAI 服务的使用者,有权决定是否披露个人信息,他们的决策既受到 GenAI 公司技术水平和政府监管力度的影响,也会对 GenAI 公司的发展和政府的监管策略产生作用。
为了深入分析各方策略选择的动态变化,研究人员进行了系统动力学模拟和敏感性分析。他们将进化博弈论模型中的复制动态方程与系统动力学模型的状态变化方程相结合,利用 Vensim PLE.7.5b 软件构建了系统动力学模型。在模拟过程中,对政府、GenAI 公司、用户以及激励机制这四类因素进行了敏感性分析,以揭示这些因素如何影响三方的策略选择。
在政府敏感性分析方面,研究发现政府的声誉价值(G)对其监管策略影响显著。随着G值增加,政府采取严格监管策略的概率大幅上升,这表明政府为维护和提升自身在公众中的正面形象,在高声誉价值的激励下,更倾向于严格监管。而搭便车收益(M)对政府监管策略影响有限,因为政府更看重长期声誉积累。此外,严格监管成本(ΔCA)增加时,政府采取严格监管策略的概率下降,说明监管成本会约束政府决策,促使其重新评估监管策略的成本效益比。
GenAI 公司敏感性分析显示,优化策略带来的收益(RBH)对公司决策影响重大。RBH值增加时,公司采用优化策略的概率显著上升,表明公司对优化带来的直接经济收益和品牌价值提升十分敏感,在高回报激励下,更愿意采用优化策略以实现长期利益最大化。然而,优化的额外成本(ΔCB)增加会使公司采用优化策略的概率降低,因为成本投入会让公司重新评估优化的成本效益。当风险事件发生时公司的损失(LB)增加,公司采用优化策略的概率趋近于 0,这意味着风险事件的损失对公司策略选择有重要影响。
用户敏感性分析表明,披露带来的收益(RCH)增加会显著提高用户披露隐私的概率,说明在高收益激励下,用户更愿意披露隐私以换取奖励或服务。而披露的额外成本(ΔCC)增加时,用户披露隐私的概率下降,因为成本上升会让用户重新评估披露的成本效益。当风险事件发生时用户的损失(LC)降低到一定程度,用户也会选择不披露,这体现了用户在使用 GenAI 时对个人隐私和安全的高度关注。
激励机制敏感性分析结果显示,罚款(FAB)增加时,政府采取严格监管策略的概率上升,当FAB达到一定阈值,GenAI 公司采用优化策略的概率也会显著增加,表明高额罚款能有效促使 GenAI 公司采取隐私保护措施。政府补贴(S)在一定范围内能激励 GenAI 公司优化,但过高的补贴会导致政府和公司决策波动。积分奖励(T)增加会显著提高用户披露隐私的概率,直接激发了用户披露隐私的积极性。
研究结论表明,政府的监管决策受其对声誉的重视程度影响深远,GenAI 公司的投资决策和用户的信息披露行为分别受成本效益比和直接收益的显著影响。政府的补贴和惩罚政策对隐私保护具有促进作用,且补贴政策比惩罚政策更有效。这一研究为理解人机交互中的隐私保护问题提供了全新视角,为制定有效的隐私保护政策提供了理论支持和实践指导,对推动 GenAI 技术的规范有序发展具有重要意义。
在研究局限性方面,模型存在一些与现实条件不符的简化假设。例如,政府监管被简化为严格和宽松两种二元选择,未能体现现实中多层次的动态调整;企业优化成本的静态设定无法反映技术迭代和风险事件的动态耦合效应;固定的风险概率假设也未能考虑技术不确定性导致的概率漂移。未来研究可从引入响应性监管框架、考虑动态成本机制和基于阈值切换的动态风险建模等方向展开。
从实践建议来看,政府应注重声誉建设,实施动态监管评估系统,警惕搭便车行为,提高监管效率;GenAI 公司应关注优化带来的长期利益,降低优化成本,加强风险管理,合理应对政府奖励;用户要关注披露带来的长期利益,合理评估成本和风险,加强隐私保护意识;政府还应实施合理的惩罚和补贴政策,GenAI 公司要实现用户披露和优化反馈的闭环,根据用户需求调整策略。
这项研究通过构建三方博弈模型,运用进化博弈和系统动力学方法,深入剖析了 GenAI 环境下政府、GenAI 公司和用户在隐私保护方面的策略互动,为解决 GenAI 发展中的隐私保护难题提供了重要的理论依据和实践指导,对推动 GenAI 技术在保障用户隐私的前提下健康发展具有不可忽视的价值。