
-
生物通官微
陪你抓住生命科技
跳动的脉搏
图神经网络的多目标解释框架
《IEEE Transactions on Knowledge and Data Engineering》:A Multi-Objective Explanation Framework for Graph Neural Networks
【字体: 大 中 小 】 时间:2025年11月18日 来源:IEEE Transactions on Knowledge and Data Engineering 10.4
编辑推荐:
针对图神经网络多目标解释需求,提出分层结构归因框架HM-Explainer,结合帕累托理论平衡冲突目标,并设计自注意力机制处理远程依赖,实验验证其有效性。
图神经网络(GNNs)在推荐系统[1]、[2]和分子研究[3]、[4]等应用领域表现出良好的性能。然而,其复杂的架构使得预测结果难以解释,从而限制了其在关键场景中的实际应用[1]、[5]、[6]。这种可解释性不足降低了用户信任度,并引发了严重的可靠性问题[1]。现有研究提出了一系列模型来解决GNN的可解释性问题[7]。这些解释模型采用了生成方法[8]、[9]、梯度分析[10]和贡献分解[11]等技术。然而,这些模型通常优先考虑特定的解释目标(如最小化互信息或模拟结果分布),在平衡和协调不同应用场景下的多样化且相互冲突的解释需求方面存在局限性[12],如图1所示。以硝基苯(一个苯环上连接了一个硝基)为例,不同用户对GNN预测其致癌性的解释有不同的需求:化学家关注硝基(NO2)作为官能团如何影响分子的电子结构和反应性;医学研究者则关注特定原子(如氮原子N和氧原子O)在分子代谢过程中与DNA的相互作用,以评估其整体毒性和致癌潜力。这种局限性可能显著降低用户满意度,削弱对模型决策的信任,并降低模型采用率。因此,该领域迫切需要开发能够有效处理多样化且可能相互冲突的解释目标的多目标解释方法。多目标解释需要根据不同用户群体的需求,定制多样化的解释视角和方法来阐明GNN的预测结果[13]。
以硝基苯为例,化学家和医学研究者对GNN预测的致癌性细节要求不同:化学家关注硝基的电子效应对分子反应性和致癌性的影响;医学研究者则研究特定原子(如氮和氧)与DNA的相互作用,以评估分子的毒性和致癌性。
生物通微信公众号
知名企业招聘