CHMMConvScaleNet:基于多尺度特征融合与连续隐马尔可夫模型的睡眠姿势检测新方法

【字体: 时间:2025年04月11日 来源:Scientific Reports 3.8

编辑推荐:

  本研究针对家庭场景下睡眠姿势连续监测的难题,提出了一种结合多尺度卷积神经网络(CNN)与连续隐马尔可夫模型(CHMM)的混合算法CHMMConvScaleNet。通过32个压电陶瓷传感器采集生理信号,创新性地引入运动伪迹识别(MARI)模块处理体位翻转事件,融合时空特征实现93.41%的检测准确率,为便携式睡眠监测设备提供了高性价比解决方案。

  

睡眠质量与人体健康息息相关,而睡眠姿势作为影响睡眠质量的关键因素,近年来成为睡眠医学的研究热点。临床研究表明,仰卧位(supine posture)会增加阻塞性睡眠呼吸暂停(OSA)的发生风险,而侧卧位(lateral posture)则可能缓解症状。对于长期卧床患者,频繁调整睡姿更是预防压疮的重要措施。然而,传统多导睡眠监测(PSG)虽为金标准,却因成本高、操作复杂难以普及;现有家用睡眠监测(HST)设备又面临传感器数量庞大、无法处理运动伪迹、缺乏连续监测能力等瓶颈。

针对这些挑战,北京邮电大学联合新加坡科研团队开发了CHMMConvScaleNet系统。这项发表于《Scientific Reports》的研究,通过仅32个压电陶瓷传感器构成的柔性阵列(58×28 cm),创新性地融合了动态生理信号分析与静态压力分布特征。研究团队收集了22名OSA患者共8583分钟的连续睡眠数据,通过运动伪迹识别(MARI)模块有效区分干扰信号,采用六组不同时间尺度的子卷积网络提取多尺度时空特征,并引入连续隐马尔可夫模型(CHMM)优化体位转换的连续性建模。

关键技术方法包括:1) 基于压电陶瓷传感器阵列的信号采集系统设计;2) 采用Chebyshev I型FIR带通滤波器分离呼吸(0.1-0.8 Hz)与心搏(0.8-15 Hz)信号;3) 开发MARI模块通过能量熵、近似熵(ApEn)等16个参数识别体位翻转;4) 构建多尺度CNN架构处理1/3/5分钟时间窗的时空特征;5) 应用SE-Net模块优化特征通道权重;6) 设计六状态CHMM模型(结合体位与翻转事件)通过Baum-Welch算法优化路径预测。

硬件系统创新性地采用圆形压电元件与黄铜基板组合的传感器设计,形成4×8矩阵布局。信号处理电路包含模拟前端、低通滤波器和无线模块,有效捕获呼吸心跳等生理振动。通过正弦波近似法重构信号,呼吸信号仅需1个正弦波即可达到R2>0.8,而心搏信号(BCG)需要3-4个正弦波实现R2>0.75。

MARI模块通过设定13个通道的"干扰"阈值,在测试集上实现94.67%的翻转事件召回率。多尺度CNN架构中,MS-Conv1D处理心肺振幅-间隔(CRAI)特征,MS-Conv2D分析16×32分辨率的心肺活动(CR)分布图,经SE-Net加权后生成192×30特征矩阵。CHMM模型定义六种隐藏状态(三种体位×有无翻转),通过Viterbi算法优化状态序列,将体位转换次数从基线模型的350次降至98次,更接近真实记录的83次。

在22名受试者的留一法交叉验证中,系统整体准确率达93.41%(召回率92.91%,精确率91.87%),较作者前期S3CNN模型提升0.5%。特别在四分类(新增俯卧位)实验中,时空CNN组件仍保持86.08%的准确率。对比研究显示,该方法仅用传统方案1-5%的传感器数量,即达到96.9%准确率(需1728个传感器)方法的性能水平。

讨论部分指出,该研究的核心突破在于:1) 通过MARI模块将运动干扰转化为有效特征,而非简单丢弃异常数据;2) 多尺度特征融合策略显著提升短时干扰场景的鲁棒性;3) CHMM建模首次将体位转换与生理事件(如翻转)动态关联。局限性在于目前仅识别三种基本体位,且依赖手动信号处理。未来可探索图神经网络(GNN)自动提取传感器空间关系,并通过扩大数据集细化姿势分类。

这项研究为家庭睡眠监测提供了高性价比的技术路径,其薄型设计(1cm厚)与普通床垫(15cm)的兼容性,使其具备临床推广潜力。通过精准捕捉体位相关的生理变化,该系统不仅有助于OSA筛查,还能为卧床患者的护理质量提供客观评估工具,标志着智能睡眠监护向实用化迈进的重要一步。

相关新闻
生物通微信公众号
微信
新浪微博
  • 急聘职位
  • 高薪职位

知名企业招聘

热点排行

    今日动态 | 人才市场 | 新技术专栏 | 中国科学人 | 云展台 | BioHot | 云讲堂直播 | 会展中心 | 特价专栏 | 技术快讯 | 免费试用

    版权所有 生物通

    Copyright© eBiotrade.com, All Rights Reserved

    联系信箱:

    粤ICP备09063491号