-
基于可微分网络建模的加速流量工程学习新范式
在当今云计算时代,广域网(WAN)作为连接全球数据中心的动脉,其流量调度效率直接关系到亿万用户的网络体验。软件定义广域网(SDWAN)通过集中控制实现了流量工程的智能化管理,然而传统基于线性规划(LP)的优化方法面临严峻挑战:即便在中等规模拓扑(70节点)中,求解耗时已超过5秒,而面对2000节点的大型拓扑时,计算时间甚至长达2天——这完全无法满足现代TE系统每5分钟更新决策的实时性要求。为了突破这一瓶颈,研究者曾尝试引入深度强化学习(DRL)技术。但DRL依赖离散事件模拟器(如ns3)或不可微分算法来计算TE指标,导致训练过程极其缓慢(73节点拓扑训练100轮需70小时),且由于无法利用TE
来源:IEEE Transactions on Network Science and Engineering
时间:2025-11-28
-
WaCPro:打通纳米忆阻器交叉阵列编程“最后一公里”的开源波形利器
2000字论文解读当“摩尔列车”逼近物理终点,纳米忆阻器(memristor)凭借可编程电导、非易失、低功耗,被寄望成为后摩尔时代的“晶体管接班人”。然而,这颗“新星”在实验室里却常被一只“隐形拦路虎”绊住:如何 reproducible 地把精心设计的电压脉冲准确无误地送进尺寸仅数十纳米的器件?商用任意波形发生器(AWG)虽精度高,却价格高昂、固件封闭,不支持交叉阵列所需的行列同步脉冲;而自写MATLAB/Python脚本灵活却碎片化,换台仪器就要重写,学生换届即“失传”。缺乏统一、开源、硬件就绪的波形工具,已成为忆阻器从“论文”走向“芯片”的瓶颈。为打通这一“最后一公里”,Democrit
来源:IEEE Open Journal of Nanotechnology
时间:2025-11-28
-
电压斜坡速率对双极型忆阻器编程特性的影响及其在能耗优化中的权衡分析
在当今人工智能和神经形态计算飞速发展的时代,忆阻器(Memristor)作为实现突触功能的核心器件,其编程效率与能耗特性直接决定了计算系统的性能上限。然而,一个长期困扰研究人员的难题是:如何在保证编程速度的同时,有效控制器件的能量消耗和功率耗散?这就像试图让一辆赛车在极速奔驰时还能保持低油耗——看似矛盾的需求恰恰是技术突破的关键。传统研究多聚焦于稳态特性,而忽视了电压施加的动态过程对器件开关行为的深刻影响。正是这一空白,激发了IEEE Transactions on Nanotechnology上这项开创性研究。为解决这一挑战,研究团队融合了理论建模与电路仿真两大技术路径。其核心技术动态忆阻二
来源:IEEE Transactions on Nanotechnology
时间:2025-11-28
-
受大脑启发的去中心化卫星学习在太空计算网络中的应用
摘要:卫星网络利用先进的遥感技术能够收集大量空间信息,这对于实时应用(如自然灾害监测)至关重要。然而,传统的地面服务器集中式处理方式由于原始数据传输的瓶颈问题,存在严重的时效性问题。为了解决这一问题,空间计算能力网络(Space-CPN)应运而生,它能够协调卫星的计算能力并实现机载数据处理。然而,由于太阳能电池板的天然限制,卫星电力系统难以满足日益复杂的神经网络计算任务的能源需求。为了解决这个问题,我们提出采用脉冲神经网络(SNN)进行机载数据处理,该方案得到了神经形态计算架构的支持。SNN在计算上的极端稀疏性使其具有高能效。此外,为了有效训练这些机载模型,我们提出了一个去中心化的神经形态学习
来源:IEEE Journal on Miniaturization for Air and Space Systems
时间:2025-11-28
-
面向多比特存内计算电路的原位纠错仿真框架与设计探索
随着深度学习模型复杂度的不断提升,存内计算(CIM)架构因其能效优势成为边缘设备部署的关键技术。然而,模拟计算过程中存在的设备间差异、循环间波动、电压漂移等非理想因素会导致计算误差,尤其极端异常值对模型精度产生毁灭性影响。传统离线校准方法难以应对运行时快速变化,亟需开发原位纠错技术来平衡计算精度与硬件开销。为解决这一问题,台湾阳明交通大学的研究团队在《Integrated Circuits and Systems》上发表了针对多比特CIM电路的原位纠错仿真框架研究。该研究通过构建可配置误差模型的仿真环境,实现了从卷积操作到矩阵乘法的硬件对齐映射,并深入分析了钳位纠错策略在不同误差场景下的优化效
来源:Integrated Circuits and Systems
时间:2025-11-28
-
面向忆阻器存算一体系统的资源高效权重量化与映射方法研究
随着人工智能技术的快速发展,卷积神经网络(CNN)在图像识别、自然语言处理等领域的应用日益广泛。然而,传统冯·诺依曼架构存在内存墙问题,即数据在存储器和处理器间的频繁移动导致高延迟和高功耗。这严重制约了神经网络在资源受限的边缘设备上的部署效率。为解决这一难题,存内计算(CIM)架构应运而生。其中,电阻式随机存取存储器(ReRAM)交叉阵列因其高比特密度、非易失性以及能够高效执行乘积累加(MAC)运算的特性,成为CIM系统的理想载体。在理想的ReRAM交叉阵列中,忆阻器电导值被编程为神经网络权重,通过基尔霍夫电流定律实现模拟域的MAC运算。但随着神经网络规模扩大,交叉阵列的扩展面临IR压降、潜行
来源:Integrated Circuits and Systems
时间:2025-11-28
-
LArcNet:基于轻量级神经网络与知识蒸馏的串联交流电弧故障实时检测新方法
在现代家庭和工业用电环境中,电气安全始终是重中之重。其中,电弧故障,特别是串联交流电弧故障,因其隐蔽性和潜在的高温危害(可达5000°C以上),已成为引发电气火灾的主要原因之一。根据相关统计,在美国,超过36%的火灾隐患与电气问题相关,每年发生超过3万起电弧闪光事故,造成严重的人员伤亡和财产损失。因此,国际电工委员会(IEC)、美国国家电气规范(NEC)等权威机构均强制要求在家用电器中安装电弧故障检测装置,例如电弧故障断路器(AFCI)。然而,串联电弧故障的检测面临着巨大挑战:由于其电流特性不如并联电弧故障明显,且易受负载类型(如阻性负载、电机负载、电力电子开关电源负载、气体放电灯负载等)和背
来源:IEEE Open Journal of Industry Applications
时间:2025-11-28
-
AGSEI:基于长尾分布式隐式图的自适应图结构估计方法
摘要:得益于其显著的优势,图神经网络(GNN)成为嵌入图结构数据并在各个领域寻找应用的强大工具。在大多数GNN中,一个普遍的假设是底层图结构的可靠性。这一通常隐含的假设可能会无意中通过虚假链接等结构传播误导性信息。为应对这一挑战,已经开发了许多图结构学习(GSL)方法。在这些方法中,一种流行的方法是构建一个简单直观的K最近邻(KNN)图作为样本来推断真实的图结构。然而,遵循单点分布的KNN图很容易误导对真实图结构的估计。主要原因在于,从统计学角度来看,作为样本的KNN图遵循单点分布,而真实的图结构作为一个整体则主要遵循长尾分布。理论上,样本和总体应该具有相同的分布;否则,准确推断真实图结构将变
来源:IEEE Transactions on Emerging Topics in Computing
时间:2025-11-28
-
基于LUTNet储层计算的340微瓦超低功耗TinyML系统在低成本FPGA上的实现
随着物联网(IoT)设备和可穿戴传感器的普及,边缘机器学习(TinyML)的需求急剧增长。在医疗健康和异常检测等领域,这些嵌入式设备需要满足极其严格的功耗约束——系统总功耗必须低于340μW,才能在标准LR6电池(3000mWh)上实现连续一年以上的运行。然而,传统基于微控制器单元(MCU)和现场可编程门阵列(FPGA)的储层计算(RC)实现方案通常需要数毫瓦到数十毫瓦的功耗,难以满足这一严苛要求。此外,低成本制造也是嵌入式设备中TinyML部署的关键挑战。如何在保证性能的同时,兼顾低制造成本和严格功耗约束,成为当前研究的重点难点。储层计算(RC)作为一种低训练成本、高精度的循环神经网络(RN
来源:IEEE Embedded Systems Letters
时间:2025-11-28
-
面向多核系统的分解式神经网络最坏情况执行时间优化分区与分配策略
随着机器学习技术深度融入自动驾驶、工业控制等安全关键领域,现代嵌入式系统正面临日益严峻的计算压力。为满足持续增长的计算需求,多核架构凭借其并行处理能力成为主流选择。然而,复杂内存子系统的引入在提升效率的同时,也带来了时序可预测性的重大挑战——特别是当神经网络等计算密集型模型被部署到实时系统中时,其密集的数据依赖性和非局部内存访问会导致最坏情况执行时间(WCET)分析变得异常困难。传统单体神经网络虽然功能强大,但其层间紧密耦合的特性严重限制了并行化潜力。每当数据需要在不同核心间传输时,缓存未命中带来的延迟惩罚会显著增加WCET的不确定性。这种时序特性的波动对于安全关键系统而言是不可接受的,因为它
来源:IEEE Embedded Systems Letters
时间:2025-11-28
-
针对具有传感器攻击的随机非线性系统的神经网络自适应事件触发控制
摘要:本文研究了在遭受传感器攻击的随机非线性系统中,基于自适应神经网络(NN)的事件触发安全控制问题。神经网络用于识别未知的非线性动态,并建立了一个神经网络状态估计器来解决由于状态无法测量而产生的问题。同时提出了一个神经网络观测器来估计未知的传感器攻击信号。为了节省有限的通信资源并减少控制器更新次数,引入了事件触发控制(ETC)方案。然后,通过反向步进控制方法设计了一种自适应神经网络事件触发安全控制算法。实验结果表明,在传感器攻击下,该控制系统具有稳定性,并且跟踪误差能够持续收敛。最后,仿真验证了所研究理论的有效性。引言近年来,随机非线性系统在非线性系统领域中成为一个特殊且重要的研究方向。与确
来源:IEEE Transactions on Computational Social Systems
时间:2025-11-28
-
TDG-Mamba:一种基于双向信息传播的高级时空嵌入技术,用于时序动态图的学习
摘要:时间动态图(TDGs)用于表示实体及其关系随时间的动态演变,同时包含复杂的时间特征,在各种现实世界领域中得到广泛应用。现有方法通常依赖Transformer和图神经网络(GNNs)等主流技术来捕捉TDGs的时空信息。然而,尽管这些方法具有先进的功能,但它们往往面临较高的计算复杂性和有限的捕捉时间动态上下文关系的能力。最近,出现了一种名为mamba的新模型架构,该架构以其捕捉序列中复杂依赖关系的能力而著称,同时显著降低了计算复杂性。在此基础上,我们提出了一种名为TDG-mamba的新方法,该方法将mamba集成到TDG学习中。TDG-mamba通过专门设计的时空先验分词模块(SPTM)将深
来源:IEEE Transactions on Computational Social Systems
时间:2025-11-28
-
利用贝叶斯神经网络和贝叶斯优化技术进行碳纳米管互连结构优化
摘要:随着铜互连技术在物理极限附近的发展以及技术的持续进步,碳纳米管(CNT)互连因其优异的导电性能而成为一种有前景的替代方案。然而,由于制造工艺的不成熟,导致了实际性能与理想性能之间存在显著差异。本文提出了一种新的方法来优化考虑工艺变化的CNT互连。首先,我们开发了一个参数化的CNT互连模型,该模型能够考虑工艺变化。利用这个模型,我们提出了一个贝叶斯神经网络(BNN),通过利用其固有的不确定性来预测性能分布。然后,我们引入了一个贝叶斯优化框架,该框架利用BNN的后验概率来联合优化互连参数和缓冲区插入,目标是考虑工艺变化的面积-延迟积(ADP)。实验结果证明了我们方法的有效性。所提出的BNN模
来源:IEEE Transactions on Computer-Aided Design of Integrated Circuits and Systems
时间:2025-11-28
-
基于生成对抗网络数据增强的原始语音波形时间序列分类在帕金森病检测中的创新研究
在神经退行性疾病领域,帕金森病(Parkinson's Disease, PD)已成为仅次于阿尔茨海默病的第二大常见疾病,全球患者人数超过1000万。随着人口老龄化趋势加剧,PD的患病率持续攀升,但临床诊断仍面临重大挑战——目前缺乏可靠的生物标志物和标准化诊断工具,医生主要依靠临床症状观察和主观评估进行诊断,这个过程往往需要数月甚至数年时间,且容易受到主观判断影响。值得注意的是,约90%的PD患者会出现言语障碍症状,即使在疾病早期阶段也会表现出发声异常,这种症状统称为运动减少性构音障碍(hypokinetic dysarthria)。患者可能表现出音量降低、声音嘶哑、单调语音、发音不准确等特征
来源:IEEE Open Journal of the Computer Society
时间:2025-11-28
-
基于大规模忆阻器的交叉阵列的神经元电路设计与信号完整性分析
摘要:本文探讨了标准芯片在处理大规模数据集时的局限性,并利用神经形态架构(尤其是脉冲神经网络(SNN)来模拟生物大脑的脉冲信号,从而提高能效和性能。首先,我们基于“积分-触发”(IF)神经元模型开发了一种互补金属氧化物半导体(CMOS)电路,该电路能够生成具有神经元典型时空动态特性的脉冲信号。这种方法为神经形态芯片设计提供了新的视角。接下来,我们引入了部分元件等效电路(PEEC)方法,为忆阻器交叉阵列建立了单元电路模型,考虑了所有电阻-电感-电容(RLC)寄生耦合效应。这一模型使得信号完整性(SI)分析成为可能,有助于更深入地理解忆阻器交叉阵列内的信号传输机制,并为优化神经形态芯片性能奠定了基
来源:IEEE Transactions on Components, Packaging and Manufacturing Technology
时间:2025-11-28
-
三维异构集成神经形态芯片中神经元信号的信号完整性分析与辐射防护设计
摘要:基于脉冲神经网络(SNNs)的神经形态芯片与传统的人工神经网络芯片不同,它们将信息编码为脉冲序列。这些独特的脉冲信号在三维封装中引入了与信号完整性(SI)和电磁辐射相关的新挑战。在本文中,我们对三维封装中的硅通孔(TSVs)和重分布层(RDLs)的结构进行了建模,并分析了三维封装结构参数对脉冲信号传输特性的影响。研究结果表明,在适当的范围内,RDL的长度、硅基板的导电性以及TSV的半径和间距会增加脉冲信号的波形失真和信号损失。此外,高频结构仿真(HFSS)结果显示,当两个脉冲信号通过相邻的TSV-RDL路径传输时,它们之间的串扰非常小。然而,当脉冲信号和数字信号通过相邻的TSV-RDL路
来源:IEEE Transactions on Components, Packaging and Manufacturing Technology
时间:2025-11-28
-
NOMA:一种用于基于3D集成电路的神经形态系统的新型可靠性改进方法
摘要:硬件是所有实时应用程序信任的基础,在人工智能(AI)中尤为重要。随着AI在各种任务中的应用日益广泛,人们对硬件的可靠性产生了担忧。大量研究表明,由制造过程或设备差异引起的硬件故障会显著影响AI应用的精度和准确性。尽管基于三维集成电路(3D IC)的尖峰神经网络(SNN)具有抗噪声、低功耗和低内存占用等优点,但这一问题同样存在。这是因为除了上述硬件故障外,3D IC上的热量散发还可能对上层芯片上的内存产生负面影响。因此,本文提出了一种称为“内存网络架构”(NOMA)的方法,通过用低优先级的权重替换高优先级层中的有缺陷的关键突触权重来提高基于3D IC的SNN的可靠性。该方法在多种基于逻辑的
来源:IEEE Transactions on Components, Packaging and Manufacturing Technology
时间:2025-11-28
-
REE-TM:适用于多样化云工作负载的可靠且节能的流量管理模型
摘要:工作负载需求的多样性对云服务的资源高效分配和管理具有重要影响。现有文献要么对来自各种互联网服务用户的作业请求的异构特性考虑不足,要么完全忽略了这一特性。为了解决这一问题,提出了一种名为“可靠且节能的流量管理”(Reliable and Energy Efficient Traffic Management,REE-TM)的方法,该方法利用了互联网流量的多样性,包括资源需求的变化和预期的复杂性。具体而言,REE-TM通过对异构作业请求进行分类,并在云基础设施中选择最合适的虚拟节点(如虚拟机或容器)和物理节点(实际的硬件服务器或计算主机)来执行这些请求。为了应对基于资源竞争的资源故障和性能下
来源:IEEE Transactions on Cloud Computing
时间:2025-11-28
-
FRNeRF:融合正则化场实现动态场景的高质量时空视图合成
在虚拟现实、体育赛事分析和影视特效制作等领域,从单目视频生成动态场景的新视角图像是一项极具挑战性的任务。传统方法通常需要昂贵的多视角相机系统或特殊硬件设备,而基于单目视频的方法往往因动态物体的快速运动、深度信息不准确等问题,导致合成图像出现伪影和模糊现象。特别是当场景中同时存在静态和动态物体时,如何保持时空一致性成为技术难点。现有动态神经辐射场方法(如NSFF)虽然通过分离静态和动态区域的神经辐射场来提升合成质量,但其依赖的3D场景流场存在深度估计误差,容易在快速运动区域产生像素错位。此外,传统的分层采样策略在训练过程中难以获取足够的采样点,进一步限制了动态场景的建模能力。针对这些挑战,天津大
来源:Computational Visual Media
时间:2025-11-28
-
基于鲁棒零化神经网络的未知异构非线性多智能体系统数据驱动迭代学习一致性跟踪控制
在智能系统协同控制领域,多智能体系统(MASs)的协同作业能力已成为实现复杂任务的关键技术。无论是无人机编队飞行、智能电网调度还是自动驾驶车队协同,都要求多个智能体在缺乏集中指挥的情况下实现步调一致的行动。然而现实应用中,智能体往往存在动态特性未知、非线性强度高、个体差异显著等挑战,更棘手的是执行器输入饱和、测量噪声干扰等实际问题常常导致控制算法失效。传统模型驱动控制方法依赖于精确的物理建模,而面对高度不确定的异构非线性系统时往往力不从心。特别是在需要重复执行任务的场景中,如工业生产线上的机械臂协同作业,如何让智能体通过多次迭代学习逐步提升跟踪精度,同时克服输入约束和噪声影响,成为制约技术落地
来源:IEEE/CAA Journal of Automatica Sinica
时间:2025-11-28