InterAxNN:一种可重构且近似内存处理的加速器,适用于间歇供电系统中超低功耗二进制神经网络推理
《ACM Transactions on Design Automation of Electronic Systems》:InterAxNN: Reconfigurable and Approximate in-Memory Processing Accelerator for Ultra-Low-Power Binary Neural Network Inference in Intermittently Powered Systems
【字体:
大
中
小
】
时间:2025年11月08日
来源:ACM Transactions on Design Automation of Electronic Systems
编辑推荐:
提出低功耗二进制神经网络硬件架构InterAxNN,设计可重构XNOR-MAC和AND-MAC内存宏,利用FeFET晶体管实现动态模式调整,实验表明在MNIST、EMNIST和QMNIST任务中性能提升448%-581%,能效优化显著。
摘要
在这项工作中,我们提出了InterAxNN,这是一种考虑能耗的近似硬件架构,用于在二进制精度范围内执行向量-矩阵乘法运算,适用于能量受限的间歇供电系统(IPS)。与目前广泛应用于二进制神经网络(BNN)中的XNOR乘加(MAC)操作不同,我们设计了一种新型的可重构XNOR-MAC和AND-MAC内存宏,以执行近似二进制精度运算,特别针对能耗极低的系统。所提出的宏设计具备在运行时根据即时能量和功率变化修改MAC模式的功能。我们利用铁电晶体管(FeFET)的独特特性来实现这种超低功耗的BNN引擎,用于人工智能(AI)工作负载的内存计算。随后,我们基于TI MSP430微控制器实现了基于计算内存的硬件加速器来运行InterAxNN。我们通过两个基准测试对所提出的InterAxNN进行了评估:(a) 基于标准冯·诺依曼计算架构的微控制器平台(MCU);(b) 配备了先进低能耗加速器的微控制器(MCU+LEA),并观察到了显著的性能和能耗优势。使用TI MSP430FR5379 IPS系统进行的实验结果显示,在MCU+LEA平台上,基于MLP的算法在MNIST任务中的性能提升了448倍至-581倍,准确率损失为2%-8%;在EMNIST任务中提升了4倍至-5%,准确率损失为4%;在QMNIST任务中准确率降低了1%-4%。在MNIST任务中,InterAxNN的AND-MAC模式比XNOR-MAC模式在性能上额外提升了91倍至-127倍,准确率损失分别为1%-2%、4%-19%和1%-5%;在EMNIST和QMNIST任务中,准确率损失分别提高了4%-19%和1%-5%。
生物通微信公众号
生物通新浪微博
今日动态 |
人才市场 |
新技术专栏 |
中国科学人 |
云展台 |
BioHot |
云讲堂直播 |
会展中心 |
特价专栏 |
技术快讯 |
免费试用
版权所有 生物通
Copyright© eBiotrade.com, All Rights Reserved
联系信箱:
粤ICP备09063491号