-
生物通官微
陪你抓住生命科技
跳动的脉搏
基于注意力机制的Patched Brain Transformer模型:一种灵活高效的EEG解码新方法
《Scientific Reports》:Flexible Patched Brain Transformer model for EEG decoding
【字体: 大 中 小 】 时间:2025年03月30日 来源:Scientific Reports 3.8
编辑推荐:
编辑推荐:德国马格德堡大学团队针对EEG信号解码中存在的跨被试泛化性差、数据稀缺等挑战,提出创新的Patched Brain Transformer(PBT)模型。该研究通过线性嵌入和可学习位置编码处理原始EEG信号,结合监督预训练和时间偏移数据增强,在BCI Competition IV 2a/2b数据集上以仅88.4万参数实现78.13%准确率,为脑机接口提供高效灵活的解决方案。
针对这些挑战,德国马格德堡大学数学系的Timon Klein和Piotr Minakowski团队在《Scientific Reports》发表了创新性研究。他们受视觉Transformer(ViT)启发,开发了Patched Brain Transformer(PBT)模型,直接对原始EEG信号进行通道分块线性嵌入,通过可学习位置编码保留时空信息。研究整合了来自5个数据集、240名被试的42,256次试验进行监督预训练,在BCI Competition IV标准测试集上验证了模型的优越性。这项工作为EEG解码提供了参数效率更高、架构更简洁的新范式,对推动脑机接口(BCI)的临床应用具有重要意义。
关键技术方法包括:1)通道分块tokenizer将C×T维EEG信号转换为N×D维序列;2)线性投影层学习频率滤波器(D=64,dmodel=128);3)四头自注意力(MHSA)的Transformer编码器;4)8-45Hz带通滤波和通道Z-score标准化;5)时间偏移等数据增强策略;6)监督预训练与AdamW优化(lrmax=3×10-4)。
模型设计方面,PBT创新性地采用通道分块策略:将EEG信号矩阵X∈RC×T按通道划分为N=C?T/D?个D维patch,通过线性层投影到潜在空间。位置嵌入可视化显示,模型自主学习了与运动皮层对应的C3-C4电极对称模式(图4a),这与神经解剖学知识高度吻合。注意力滚降分析(图4b-e)进一步揭示模型主要关注运动皮层区域(C3、C4、Cz电极),印证了其在运动想象任务中的生物学合理性。
数据增强实验表明,时间偏移策略使模型在BCI IV 2b数据集上的准确率从54%提升至70%(表3)。与其他模型对比显示,PBT以1/6的参数量超越BIOT(3.3M参数)和LaBraM Base(5.8M参数),在四分类任务中达到53.96%准确率(表2)。特别值得注意的是,监督预训练版本相比无预训练模型提升2.53个百分点,证明跨数据集预训练的有效性。
在模型机理方面,线性投影层权重分析发现其自发学习了20-40Hz的beta/gamma波段滤波器(图3),与EEGNet的CNN滤波器功能相似但结构更简洁。位置编码的空间模式分析显示,模型不仅捕捉电极的空间邻近性,还发现了左右半球运动皮层的功能对称性,这种特性在传统CNN架构中难以自然涌现。
讨论部分指出,PBT的成功源于三个关键创新:1)摒弃CNN tokenizer直接处理原始EEG,减少超参数;2)灵活架构适应不同通道数和记录时长;3)监督预训练策略克服数据稀缺。相比需要FFT变换的BIOT,PBT的线性嵌入加速训练并保留时域信息。作者建议未来研究可探索:1)跨任务迁移学习(如情感识别);2)更大规模预训练;3)注意力机制与神经活动的关联分析。
这项研究的意义不仅在于技术指标的突破,更开创了EEG解码的新范式。其提出的"分块-线性嵌入-注意力"框架,为处理高维时序生物信号提供了普适性方案。模型对电极排列的灵活性,使其能够整合不同实验范式的EEG数据,有望解决脑机接口领域长期存在的数据碎片化问题。开源代码(GitHub: timonkl/PatchedBrainTransformer)和预训练模型将进一步促进该领域的可重复研究。
婵炴垶鎸搁鍫澝归崶顒€违濠电姴瀚惌搴ㄦ煠瀹曞洤浠滈柛鐐存尦閹藉倻鈧綆鍓氶銈夋偣閹扳晛濡虹紒銊у閹峰懎饪伴崘銊р偓濠氭煛鐎n偄濮堥柡宀€鍠庨埢鏃堝即閻樿櫕姣勯柣搴㈢⊕閸旀帡宕濋悢鐓幬ラ柨鐕傛嫹
知名企业招聘
今日动态 | 人才市场 | 新技术专栏 | 中国科学人 | 云展台 | BioHot | 云讲堂直播 | 会展中心 | 特价专栏 | 技术快讯 | 免费试用
版权所有 生物通
Copyright© eBiotrade.com, All Rights Reserved
联系信箱:
粤ICP备09063491号