EfficientPoseSegNet:基于弱监督注意力引导的毫米波背散射安检图像人体姿态估计、解剖分割与隐匿物品检测框架

《Scientific Reports》:EfficientPoseSegNet: a weakly supervised, attention-guided framework for human pose estimation, anatomical segmentation, and concealed object detection in backscatter millimeter-wave security screening

【字体: 时间:2025年12月06日 来源:Scientific Reports 3.9

编辑推荐:

  为解决机场安检中毫米波背散射图像质量差、标注稀缺和隐私保护等难题,研究人员提出EfficientPoseSegNet框架。该模型通过并联EfficientNet和DenseNet双骨干网络提取多尺度特征,结合卷积块注意力模块(CBAM)增强关键区域关注,采用热图预测和软最大值回归(soft-argmax)实现弱监督下的关键点定位,并基于U-Net++完成17个解剖区域的分割。实验显示其在TSA数据集上关键点准确率达99.79%,分割交并比(IoU)为97%,隐匿物品检测曲线下面积(AUC)达0.96,为实时安检提供了高效、隐私合规的解决方案。

  
在机场安检等公共场所,如何快速、准确地检测乘客随身携带的隐匿危险物品,是保障公共安全的重要环节。背散射毫米波成像技术因其能够穿透衣物显示人体轮廓和隐藏物体,已成为安检的主流手段之一。然而,这类图像通常分辨率低、对比度差,且缺乏纹理细节,给人工判读和自动化分析带来巨大挑战。此外,出于隐私保护考虑,难以获取精细的像素级标注,使得传统深度学习模型难以直接应用。现有方法多将人体姿态估计、身体部位分割和隐匿物品检测视为独立任务,缺乏统一高效的解决方案,尤其在实时性要求高的安检场景中表现不佳。
针对上述问题,来自美国密苏里大学、巴基斯坦国立科学技术大学等机构的研究团队在《Scientific Reports》上发表了题为“EfficientPoseSegNet: A Weakly Supervised, Attention-Guided Framework for Human Pose Estimation, Anatomical Segmentation, and Concealed Object Detection in Backscatter Millimeter-Wave Security Screening”的研究论文,提出了一种集成弱监督、注意力机制和多任务学习的新型框架EfficientPoseSegNet,旨在实现端到端的安检图像分析。
为开展研究,作者主要采用了以下关键技术方法:首先,使用并联的EfficientNet-B4和DenseNet-121双骨干网络进行多尺度特征提取,通过特征融合增强语义信息和空间细节;其次,引入卷积块注意力模块(CBAM)对特征图进行通道和空间重校准,提升对关键解剖区域的关注;第三,采用热图预测结合软最大值回归(soft-argmax)实现弱监督下的关键点定位,避免对精确标注的依赖;第四,基于U-Net++架构进行身体部位分割,利用嵌套跳跃连接细化边界;最后,通过马氏距离(Mahalanobis distance)和多层感知机(MLP)分类器对分割区域进行异常检测,识别隐匿物品。实验数据来源于美国运输安全管理局乘客筛查数据集(TSA-PSD),包含1845个训练扫描和790个测试扫描,每个扫描包含16帧不同角度的毫米波图像。

模型架构设计

EfficientPoseSegNet采用双骨干网络结构,分别利用EfficientNet的复合缩放策略和DenseNet的密集连接优势,提取全局上下文和局部细节特征。融合后的特征经CBAM模块加权,突出解剖关键区域,抑制背景噪声。该设计在关键点检测任务中达到99.79%的准确率(10像素容差),显著优于单一骨干网络(如仅使用EfficientNet时准确率降至91.80%)。

弱监督姿态估计

模型通过预测关键点热图而非直接回归坐标,实现弱监督学习。热图经soft-argmax操作转换为连续坐标,在测试集上平均绝对误差(MAE)低至1.433像素,且对遮挡和姿态变化具有鲁棒性。消融实验表明,移除soft-argmax会导致关键点准确率下降至93.70%。

注意力引导的分割网络

基于U-Net++的分割网络结合CBAM机制,通过嵌套跳跃连接恢复空间细节,实现17个解剖区域的精确分割(IoU达97%)。对比实验显示,移除CBAM或U-Net++嵌套结构会分别使IoU降低至91.90%和92.70%,证明注意力机制和网络结构对分割性能的关键作用。

隐匿物品检测

利用分割后的区域特征,分别采用无监督马氏距离和有监督MLP分类器进行异常检测。MLP分类器在测试集上达到AUC 0.96、F1分数0.95的优异性能,优于马氏距离方法(AUC 0.89)。实例分析显示,模型能准确定位隐匿物品所在区域(如左髋、左膝等),且在多帧扫描中保持一致性。

跨域泛化与效率分析

模型在RGB数据集(MPII)上微调后,关键点检测精度(PCKh@0.5)达99.1%,优于HRNet(89.1%)等主流方法,证明其强泛化能力。计算成本分析表明,单帧推理耗时约28毫秒(36 FPS),适用于实时安检场景。
EfficientPoseSegNet通过集成双骨干网络、注意力机制和弱监督学习,实现了毫米波安检图像中人体姿态估计、解剖分割和隐匿物品检测的高效协同。其关键创新在于利用热图预测和软最大值回归降低对标注数据的依赖,并通过注意力机制提升模型在低质量图像中的鲁棒性。实验结果表明,该框架在保持高精度(关键点准确率99.79%、分割IoU 97%)的同时,具备实时处理能力,为安检系统提供了可扩展、隐私合规的自动化解决方案。未来工作可进一步探索时序建模提升多帧一致性,并扩展至更多样的姿态和隐匿物品类型。
相关新闻
生物通微信公众号
微信
新浪微博
  • 急聘职位
  • 高薪职位

知名企业招聘

热点排行

    今日动态 | 人才市场 | 新技术专栏 | 中国科学人 | 云展台 | BioHot | 云讲堂直播 | 会展中心 | 特价专栏 | 技术快讯 | 免费试用

    版权所有 生物通

    Copyright© eBiotrade.com, All Rights Reserved

    联系信箱:

    粤ICP备09063491号