中国科学院机构知识库网格
Chinese Academy of Sciences Institutional Repositories Grid
面向高能效加速器的二值化神经网络设计和训练方法

文献类型:期刊论文

作者李佳骏; 许浩博; 王郁杰; 肖航; 王颖; 韩银和; 李晓维
刊名计算机辅助设计与图形学学报
出版日期2023
卷号35期号:6页码:961
关键词binarized neural networks deep learning model training neural network accelerators 二值化神经网络 深度学习 模型训练 神经网络加速器
ISSN号1003-9775
英文摘要针对二值化神经网络加速器计算溢出和乘法器依赖的问题,提出一套二值化神经网络设计及其训练方法.首先设计能够模拟溢出的矩阵乘法,保证模型部署后不丢失准确率;然后优化卷积层和激活函数,缓解溢出总量;再设计移位批标准化层,使二值化神经网络摆脱对乘法运算的依赖,并有效地降低访存;最后针对改进的模型提出基于溢出启发的协同训练框架,确保模型训练能够收敛.实验结果表明,与10个主流的关键词激活方法相比,在准确率无明显损失的情况下,所提方法使片上计算规模减少超过49.1%,并为加速器带来至少21.0%的速度提升.
语种英语
源URL[http://119.78.100.204/handle/2XEOYT63/38117]  
专题中国科学院计算技术研究所期刊论文_中文
作者单位中国科学院计算技术研究所
推荐引用方式
GB/T 7714
李佳骏,许浩博,王郁杰,等. 面向高能效加速器的二值化神经网络设计和训练方法[J]. 计算机辅助设计与图形学学报,2023,35(6):961.
APA 李佳骏.,许浩博.,王郁杰.,肖航.,王颖.,...&李晓维.(2023).面向高能效加速器的二值化神经网络设计和训练方法.计算机辅助设计与图形学学报,35(6),961.
MLA 李佳骏,et al."面向高能效加速器的二值化神经网络设计和训练方法".计算机辅助设计与图形学学报 35.6(2023):961.

入库方式: OAI收割

来源:计算技术研究所

浏览0
下载0
收藏0
其他版本

除非特别说明,本系统中所有内容都受版权保护,并保留所有权利。