
-
生物通官微
陪你抓住生命科技
跳动的脉搏
达尔顿(Dalton)——通过局部权重和替代导数传递实现SNNs中的深度局部学习
《IEEE Transactions on Emerging Topics in Computing》:DALTON - Deep Local Learning in SNNs via Local Weights and Surrogate-Derivative Transfer
【字体: 大 中 小 】 时间:2025年11月14日 来源:IEEE Transactions on Emerging Topics in Computing 5.4
编辑推荐:
针对尖峰神经网络(SNN)直接训练的挑战,本研究提出DALTON方法,结合局部权重传递和近似导数,有效利用深度结构提升特征学习,实验表明其优于传统TFR方法。
脉冲神经网络(SNNs)因其在多种应用中的潜力而逐渐受到人工智能社区的关注[1]、[2]、[3]、[4],尤其是在计算机视觉领域,关于脉冲卷积神经网络(Spiking-CNNs)的研究也非常丰富[5]、[6]、[7]、[8]、[9]。这主要是因为SNNs在神经形态计算硬件上具有出色的能效[5]、[10]、[11]、[12]、[13]、[14],同时它们在生物学上的合理性也很高[15]、[16]、[17]。与人工神经网络(ANNs)不同,SNNs中的神经元输出的是时间上的脉冲信号。构建SNNs并非易事,目前可用的方法数量有限。其中一种流行的方法是ANN到SNN的转换[5]、[18]、[19]、[20],即通过将训练好的深度神经网络(DNN)中的非脉冲神经元(例如ReLU神经元)替换为脉冲神经元(例如积分-发射(IF)神经元),并进行其他必要的网络参数调整[19]、[20]。值得注意的是,深度SNNs已经在复杂数据集上取得了最佳性能[8]、[9]、[19],因此非常受欢迎。尽管ANN到SNN的转换方法能够实现高精度,但由此构建的SNNs由于非脉冲神经元的行为近似导致高发射率[20]、[21],从而在神经形态硬件上无法实现最佳能效。此外,这种转换方法没有利用SNNs中脉冲信号的时间特性,导致延迟增加,进而增加了能量-延迟积(Energy-Delay-Product)[5]、[19]、[21]。另一种流行的方法是直接训练SNNs,但这需要研究人员解决SNNs中离散脉冲信号(通常用狄拉克δ函数表示)的不可微分性问题。脉冲信号的可微分性问题使得反向传播算法无法直接应用。然而,近年来通过使用替代导数/梯度来近似脉冲函数的导数,已经在缓解这一问题方面取得了显著进展[17]、[22]、[23];[24]中还使用了修改后的Sigmoid函数的导数(以及其他类型的替代导数)。这些基于替代导数的研究[14]、[17]、[22]、[23]、[25]属于替代梯度下降(SurrGD)方法范畴,该方法结合时间反向传播(BPTT)和替代导数来直接训练SNNs。通过直接训练,SurrGD能够有效利用脉冲信号的时间特性,从而实现低延迟的SNNs。
生物通微信公众号
知名企业招聘