编辑推荐:
胸部 X 线(CXR)解读依赖专家且耗时,深度学习分类性能高但可解释性不足。研究人员提出 CLN 多任务网络,在 ChestX-ray14 子集上实现分类平均 AUC 0.918、定位平均 IoU 0.855,优于现有方法,为辅助诊断提供新方案。
在医学影像领域,胸部 X 线(CXR)作为常用且经济的检查手段,广泛用于多种疾病的检测。然而,其准确解读需要专业放射科医生,过程耗时且易受主观因素影响,存在漏诊或误诊风险。同时,尽管深度学习方法在 CXR 图像分类中表现出色,但 “黑箱” 特性导致医生难以信任其决策,可解释性不足成为临床应用的主要障碍。如何提升模型的可解释性,让医生直观看到病变位置,成为推动 AI 在医学影像中落地的关键问题。此外,现有一些方法计算复杂度高,在资源有限的临床环境中推广困难。
为解决上述问题,国外研究机构的研究人员开展了胸部 X 线图像定位与分类的研究。他们提出了胸部 X 线定位网络(CLN),这是一种多任务深度神经网络,旨在实现 CXR 图像中病理的定位与分类。该研究成果发表在《Expert Systems with Applications》。
研究人员采用的主要关键技术方法包括:基于预训练的卷积神经网络(CNN)作为主干网络,在包含 14 种病理的大型 CXR 数据集上进行微调;主干网络后接两个并行分支,分别用于病理分类和通过回归预测边界框实现病理定位;在 NIH ChestX-ray14 数据集的子集上进行训练和评估,该子集包含标注了 8 种病理边界框的 CXR 图像。
研究结果
- 模型性能评估:通过对 CLN-ResNet50V2、CLN-EfficientNetB4 等六种变体的评估,发现 CLN-CheXNet 在定位和分类之间取得了最佳平衡。在分类任务中,八种病理的最大分类平均 AUC 分数达到 0.918;在定位任务中,最大定位平均 IoU(交并比)精度为 0.855。
- 与现有方法对比:CLN 在定位和分类任务上均优于最先进的方法。相比基于 CNN 和 Transformer 的方法,其优势显著,不仅在分类和定位精度上更优,而且随着 IoU 阈值的增加,性能下降更慢,同时架构更简单。
结论与讨论
CLN 的提出为 CXR 图像的计算机辅助诊断提供了一种可靠的解决方案。其核心价值在于:通过直接预测病变的边界框,实现了病理的可视化定位,显著提升了模型的可解释性,有助于医生理解和信任 AI 的诊断结果,缓解了 “黑箱” 模型的信任危机;在保证高性能的同时,采用相对简单的架构,避免了复杂网络带来的高计算资源需求和长训练时间,更适合临床环境的实际部署;在多个病理的分类和定位任务中表现出色,为辅助放射科医生提高诊断效率和准确性提供了有力支持,有望在临床筛查、远程诊断等场景中发挥重要作用,推动 AI 在医学影像领域的实际应用。该研究为后续 CXR 图像分析的研究提供了新的思路和方法,具有重要的学术和临床应用价值。