关于基于机器学习/深度学习的软件工程的可解释性的系统文献综述
《ACM Computing Surveys》:A Systematic Literature Review on Explainability for ML/DL-based Software Engineering
【字体:
大
中
小
】
时间:2025年11月07日
来源:ACM Computing Surveys
编辑推荐:
本文系统分析可解释人工智能(XAI)在软件工程中的应用现状,总结XAI技术在不同23个关键任务中的实施效果,探讨现有评估方法的局限性,并提出应对挑战的技术路径和未来研究方向。
摘要
人工智能(AI)算法,特别是在机器学习(ML)和深度学习(DL)领域的显著成就,推动了它们在多个领域的广泛应用,包括软件工程(SE)。然而,由于这些AI驱动的SE模型具有“黑箱”特性,它们在实践中的部署仍然面临诸多挑战。这种不可解释性为它们在关键任务中的应用带来了风险,例如漏洞检测,而在这些任务中,决策的透明度至关重要。本文旨在通过系统地回顾旨在提高SE领域中AI模型可解释性的方法来阐明这一跨学科领域。该回顾涵盖了在最重要的SE和AI会议及期刊上发表的论文,涉及23个不同SE任务的108篇文章。基于三个关键研究问题(RQs),我们的目标是:(1)总结迄今为止XAI技术在SE任务中取得成功的情况;(2)对不同的XAI技术进行分类和分析;(3)研究现有的评估方法。根据我们的发现,我们识别出现有研究中仍需解决的挑战,并提出了一套我们认为对未来工作具有潜在重要性的指导原则。
生物通微信公众号
生物通新浪微博
今日动态 |
人才市场 |
新技术专栏 |
中国科学人 |
云展台 |
BioHot |
云讲堂直播 |
会展中心 |
特价专栏 |
技术快讯 |
免费试用
版权所有 生物通
Copyright© eBiotrade.com, All Rights Reserved
联系信箱:
粤ICP备09063491号