面部智能:利用CoreFace和Grad-CAM技术从面部特征中检测自闭症谱系障碍(ASD)

《Journal of Neurolinguistics》:Facial Intelligence: ASD Detection from Facial Cues Using CoreFace and Grad-CAM Interpretation

【字体: 时间:2025年11月16日 来源:Journal of Neurolinguistics 1.2

编辑推荐:

  自闭症谱系障碍(ASD)早期检测面临复杂行为症状和有限神经生物学指标挑战。本研究提出CoreFace模型,集成EfficientNet-B4主干网络、FPN特征金字塔网络和Mask R-CNN分类头部,结合SE Block和CBAM注意力机制,优化Grad-CAM可视化解释。通过CLAHE对比度增强、LoG滤波特征提取及数据增强(水平翻转、噪声添加),在9114张面部图像上实现98.2%准确率,超越ResNet50 V2、Xception等基线模型。实验表明注意力机制提升特征学习能力,Adabelief优化器增强模型稳定性,外部数据验证显示模型具备一定泛化能力。该研究为ASD自动化诊断提供高精度、可解释的解决方案。

  在当前的研究中,科学家Kambham Sravani和Kuppusamy Pothanaicker提出了一种基于深度学习的自动化模型,旨在通过儿童的面部图像来分类自闭症谱系障碍(Autism Spectrum Disorder, ASD)和非自闭症儿童。这一研究的主要目标是解决ASD诊断中的挑战,包括复杂的临床症状和有限的神经生物学指标。通过早期识别ASD,可以提高干预效果,从而改善患者的长期预后。

研究中采用了两种主要阶段:预处理和模型优化。在预处理阶段,研究人员使用了对比度受限自适应直方图均衡(Contrast Limited Adaptive Histogram Equalization, CLAHE)和拉普拉斯高斯滤波器来增强图像特征。随后,他们应用了数据增强技术,包括面部对齐、水平翻转和添加盐和胡椒噪声,以提高模型的泛化能力和鲁棒性。这些预处理步骤旨在改善图像质量,减少噪声,并确保面部特征在不同光照和背景条件下依然清晰可辨。

在模型优化方面,研究团队构建了一个名为CoreFace的模型框架。该模型采用EfficientNet-B4作为主干网络,Feature Pyramid Network(FPN)作为颈部结构,Mask R-CNN作为头部结构。为了提高特征学习的效率,研究者还整合了注意力机制,如Squeeze-and-Excitation(SE)块和Convolutional Block Attention Module(CBAM)。这些注意力模块帮助模型更有效地聚焦于面部特征中的关键区域,从而提高分类精度。此外,研究者还利用Gradient-weighted Class Activation Mapping(Grad-CAM)来可视化模型的决策过程,揭示出对ASD分类具有显著影响的面部区域,这为模型的可解释性提供了重要支持。

研究结果显示,CoreFace模型在分类任务中表现出色,其准确率达到98.2%,精确度为98.0%,召回率为98.7%,F1分数为98.3%。这些指标均优于传统的基线模型,如ResNet50 V2、Xception、MobileNet V2和DenseNet。这表明,CoreFace模型在识别ASD方面具有较高的准确性和可靠性,为ASD的自动化诊断提供了新的思路。

在模型构建过程中,研究者还对不同组件进行了详细的分析。例如,EfficientNet-B4被选为主干网络,因为它在提取高分辨率、细粒度的面部特征方面表现出色,同时保持较低的计算成本。FPN的引入进一步增强了模型的多尺度特征提取能力,有助于捕捉与ASD相关的细微面部特征。Mask R-CNN则被用于最终的分类任务,它能够对图像中的目标进行更精确的定位和分类,从而提高模型的整体性能。

为了验证模型的性能,研究者还进行了实验评估。在内部数据集和外部数据集上,CoreFace模型均表现出良好的分类能力。然而,外部数据集的性能略低于内部数据集,这可能是由于外部数据集的多样性较高,但样本数量相对较少。为了进一步提高模型的泛化能力,研究者建议在未来的工作中使用更大规模和更多样化的数据集,以确保模型在不同人群中的适用性。

此外,研究还探讨了不同优化技术对模型性能的影响。例如,研究者比较了AdamW和Adabelief优化器的效果。Adabelief优化器在所有性能指标上均优于AdamW,表明其在处理噪声环境中的优越性。这一发现强调了选择合适的优化技术对于提高深度学习模型性能的重要性。

在模型的可解释性方面,Grad-CAM被用于生成分类决策的热图,帮助研究人员和临床医生理解模型是如何做出判断的。这些热图揭示了在ASD分类过程中,模型主要关注的面部区域,如眼睛、鼻梁和嘴角。这些区域与ASD相关的社交行为和情绪表达密切相关,为模型的临床应用提供了依据。

尽管研究取得了显著成果,但研究者也指出了该模型的一些局限性。例如,数据集的规模和多样性有限,这可能影响模型在更广泛人群中的适用性。此外,研究仅基于静态面部图像,未能分析动态的面部运动模式,这在某些情况下可能限制模型的诊断能力。未来的研究可以考虑引入视频数据,以捕捉更全面的面部表达信息。

总的来说,这项研究为ASD的自动化诊断提供了一个高效的深度学习框架。通过结合先进的预处理技术、注意力机制和优化策略,CoreFace模型在分类任务中表现出色,同时保持了良好的可解释性。研究结果不仅有助于提高ASD的早期识别率,还为开发更可靠的自动化诊断工具提供了理论基础和技术支持。然而,为了确保模型在真实世界中的广泛适用性,还需要进一步的研究和优化。
相关新闻
生物通微信公众号
微信
新浪微博
  • 急聘职位
  • 高薪职位

知名企业招聘

热点排行

    今日动态 | 人才市场 | 新技术专栏 | 中国科学人 | 云展台 | BioHot | 云讲堂直播 | 会展中心 | 特价专栏 | 技术快讯 | 免费试用

    版权所有 生物通

    Copyright© eBiotrade.com, All Rights Reserved

    联系信箱:

    粤ICP备09063491号