基于深度学习实时分析超声内镜视频对胆囊息肉样病变的诊断性能研究
《Scientific Reports》:Diagnostic performance of real-time artificial intelligence using deep learning analysis of endoscopic ultrasound videos for gallbladder polypoid lesions
【字体:
大
中
小
】
时间:2025年12月09日
来源:Scientific Reports 3.9
编辑推荐:
本研究针对超声内镜(EUS)诊断胆囊息肉存在主观性强、依赖操作者经验的问题,开发了基于深度学习实时分析EUS视频的人工智能系统。通过分割模型(Attention U-Net、DUCK Net)精准定位息肉区域,结合分类模型(EfficientNet-B2)区分肿瘤性与非肿瘤性息肉,在验证队列中准确率达87.9%、AUC为0.861。该研究首次实现EUS视频动态分析的AI应用,为胆囊息肉精准诊断提供新范式。
胆囊息肉是胆囊壁向腔内突出的隆起性病变,在普通人群中的患病率约为5%。虽然大多数胆囊息肉为良性非肿瘤性病变,但其中一部分可能为肿瘤性息肉,如腺瘤或腺癌,这类息肉具有恶变潜能,需要手术切除。因此,准确区分肿瘤性和非肿瘤性胆囊息肉对于临床决策至关重要。目前,临床上主要依靠影像学检查进行鉴别诊断,其中腹部超声最为常用,但其敏感性约为68%,特异性约为79%,诊断性能有限。与腹部超声相比,超声内镜(Endoscopic Ultrasound, EUS)能够更近距离地观察胆囊,并使用更高的超声频率,从而获得更高分辨率的图像,在鉴别胆囊息肉方面表现出更高的准确性。
尽管EUS具有优势,但其诊断准确性仍受到一些因素的限制。EUS特征的解读,如无蒂形态、低回声灶等,存在一定的主观性。更重要的是,诊断的准确性在很大程度上依赖于内镜医师的操作经验和判读水平。为了克服这些局限性,人工智能(Artificial Intelligence, AI)技术被引入到医学影像分析领域。此前的研究已经尝试利用AI分析胆囊息肉的静态EUS图像或腹部超声图像,并取得了一定的成果。然而,在临床实践中,内镜医师是通过观察实时的超声视频来动态评估息肉的,静态图像所包含的诊断信息远不如动态视频丰富。目前,尚未有研究利用EUS视频数据进行胆囊息肉的AI分析。因此,本研究探索性地开发了一种能够实时分析EUS视频的AI系统,旨在评估其在胆囊息肉检测和良恶性鉴别中的诊断性能。
本研究由Young Hoon Choi、Jun Young Park等研究人员完成,论文发表于《Scientific Reports》。研究团队从延世大学医学院江南Severance医院回顾性收集了2020年4月至2023年12月期间经病理学确诊的胆囊息肉患者的术前EUS视频。经过筛选,最终训练队列包含50名患者的96段视频(4328帧图像),验证队列包含17名患者的36段视频(1375帧图像)。所有视频均由经验丰富的内镜医师使用奥林巴斯或宾得公司的超声内镜设备采集。研究采用了两阶段深度学习分析流程。首先,使用三种分割模型(Attention U-Net、Residual U-Net和Deep Understanding Convolutional Kernel [DUCK] Net)在EUS视频帧中自动分割出息肉区域。然后,将分割出的息肉区域裁剪出来,使用三种分类模型(EfficientNet-B2、ResNet101和Vision Transformer [ViT])将其分类为肿瘤性或非肿瘤性息肉。模型训练采用了五折交叉验证,并设置了早停(EarlyStopping)和学习率动态调整(ReduceLROnPlateau)等机制以防止过拟合。最终的视频级预测基于帧级分类结果的多数投票原则。
研究回顾性收集了经病理证实的胆囊息肉患者的EUS视频数据。数据预处理包括帧提取、直方图均衡化、裁剪和缩放。由四位经验丰富的EUS专家对息肉区域进行手动标注作为金标准。研究采用分割模型(Attention U-Net等)定位息肉,再用分类模型(EfficientNet-B2等)进行良恶性鉴别,并通过五折交叉验证评估性能。
在息肉分割任务中,三种模型在训练队列中均表现出色。其中,Attention U-Net的准确度最高,达到0.998,其Dice相似系数(Dice Similarity Coefficient, DSC)为0.894,交并比(Intersection over Union, IoU)为0.818。Residual U-Net和DUCK Net的准确度分别为0.992和0.995。在最终的独立验证数据集上,三种模型保持了良好的性能,Attention U-Net和Residual U-Net的准确度均为0.941,DUCK Net的准确度为0.943。尽管DSC和IoU值因人工标注的主观性而相对较低,但可视化结果显示,Attention U-Net预测的息肉轮廓与真实边界非常接近。
在息肉分类任务中,EfficientNet-B2模型在训练队列中表现最佳,其准确度达到0.957,召回率(Recall)为0.954,F1分数(F1-score)为0.939,曲线下面积(Area Under the Curve, AUC)为0.991。ResNet101和ViT模型的准确度分别为0.907和0.853。梯度加权类激活图(Gradient-weighted Class Activation Map, Grad-CAM)可视化显示,EfficientNet-B2能够准确地聚焦于息肉区域进行判断,而ResNet101的注意力区域则分散在空白处。在最终验证队列中,EfficientNet-B2依然保持了强大的分类性能,准确度为0.879,召回率高达0.968,F1分数为0.917,AUC为0.861,其性能优于ResNet101和ViT模型。
本研究首次成功将人工智能应用于EUS视频分析,用于胆囊息肉的自动分割和良恶性分类。研究构建的AI模型,特别是Attention U-Net分割模型和EfficientNet-B2分类模型,在独立验证数据集上展现了高的诊断性能。与以往基于静态图像的研究相比,本研究利用动态的EUS视频数据,提供了更丰富的诊断信息,模型的分类准确度(87.9%)高于多数先前基于腹部超声静态图像的AI研究(报告准确度在83.63%-87.54%之间),也凸显了EUS模态和视频分析相结合的优势。
当然,本研究也存在一些局限性。首先,这是一项回顾性研究,样本量相对较小,且研究对象均为接受胆囊切除术的患者,可能存在选择偏倚。其次,目前尚无病理学之外的诊断金标准。未来需要纳入长期随访的非手术患者进行大规模前瞻性研究,以进一步验证该AI系统的泛化能力和临床实用价值。
综上所述,这项研究为胆囊息肉的精准、实时诊断提供了新的技术路径。基于深度学习的EUS视频AI分析系统显示出巨大的临床应用潜力,有望在未来成为内镜医师诊断胆囊息肉的有力辅助工具,提高诊断的客观性和准确性。
生物通微信公众号
生物通新浪微博
今日动态 |
人才市场 |
新技术专栏 |
中国科学人 |
云展台 |
BioHot |
云讲堂直播 |
会展中心 |
特价专栏 |
技术快讯 |
免费试用
版权所有 生物通
Copyright© eBiotrade.com, All Rights Reserved
联系信箱:
粤ICP备09063491号