基于贝叶斯个性化排序的严格差分隐私隐式推荐方案DPBPRMF研究

【字体: 时间:2025年10月26日 来源:Neurocomputing 6.5

编辑推荐:

  本文提出了一种针对隐式反馈数据的严格差分隐私(DP)矩阵分解(MF)推荐算法DPBPRMF。该研究创新性地将贝叶斯个性化排序(BPR)框架与采样技术相结合,有效提升了隐式数据利用率,并首次对BPR-MF框架进行了严谨的隐私损失计算。通过梯度扰动策略实现(ε)-差分隐私保护,在满足用户高隐私需求的同时保持了推荐质量,为医疗健康、电子商务等敏感领域的隐私保护推荐系统提供了理论支撑和实践方案。

  
亮点
  • 提出了一种基于梯度扰动的隐式数据差分隐私矩阵分解模型DPBPRMF,在高度隐私保护需求下实现了严格的差分隐私保护。该模型结合BPR框架提升了矩阵分解对隐式数据的利用效率,并采用采样技术优化训练集,确保训练过程中的收敛性。
  • 从理论上解决了基于BPR的矩阵分解的敏感度计算问题,为差分隐私在隐式数据BPR系列矩阵分解中的应用奠定了理论基础。为确保隐私性,DPBPRMF在不放宽条件的情况下满足差分隐私定义,并提供了严格的数学证明。
  • 在三个公共数据集上进行了广泛的实验评估,结果表明所提出的算法在提供差分隐私保护的同时,保持了较高水平的推荐准确性。
安全场景
本研究考虑本地推荐系统的可信场景。这些系统可以收集用户的隐式数据并提供个性化推荐,而不会滥用个人信息。对于推荐系统而言,与其他推荐者交换某些特征信息可以显著提高性能。然而,一旦本地的特征信息被发布,就不再由原始推荐系统管理,这不可避免地引发隐私泄露的担忧。即使在考虑隐私保护的矩阵分解模型中,当特征共享给外部方时,也存在隐私风险。
敏感度计算
敏感度分析是差分隐私应用的基础。以下部分严格讨论了DPBPRMF算法的敏感度。设D和D'是两个相邻数据集,仅相差一个三元组(u, i, j)。不失一般性,假设D包含三元组(u, i, j),而D'不包含,并分析在随机梯度下降的任何迭代中,关于项目特征向量的梯度敏感度。在数据集D中,对于不同用户,项目i可以是正反馈项或负反馈项...
数据集和评估指标
我们使用三个公开可用的推荐数据集测试所提出的算法。这些数据集的统计信息如表2所示。每个数据集中用户和项目之间的交互记为1,非交互记为0,从而形成隐式反馈数据集。采用广泛使用的留一法测试预测性能。推荐性能基于两个指标进行评估:命中率和...
结论与未来工作
频繁的隐私泄露事件凸显了保护敏感用户数据的紧迫性。尽管推荐系统缓解了信息过载问题,但其模型训练依赖于大量用户数据,引发了重大的隐私担忧。现有方法主要保护显式推荐算法的数据隐私,而隐式数据的隐私问题也亟待解决。为此,本研究在BPR框架下提出了一种针对隐式数据的DPBPRMF算法...
相关新闻
生物通微信公众号
微信
新浪微博
  • 急聘职位
  • 高薪职位

知名企业招聘

热点排行

    今日动态 | 人才市场 | 新技术专栏 | 中国科学人 | 云展台 | BioHot | 云讲堂直播 | 会展中心 | 特价专栏 | 技术快讯 | 免费试用

    版权所有 生物通

    Copyright© eBiotrade.com, All Rights Reserved

    联系信箱:

    粤ICP备09063491号