基于量化的神经网络加速压缩算法研究
文献类型:学位论文
作者 | 陈维汉![]() |
答辩日期 | 2023-05-20 |
文献子类 | 博士 |
关键词 | 深度神经网络 模型加速压缩 量化 剪枝 |
英文摘要 | 凭借着充沛的数据和计算资源,近年来深度神经网络在计算机视觉、语音识别、自然语言处理等人工智能领域大放异彩。但不幸的是,模型的规模反过来以远超硬件算力提升的速度不断扩增,导致无论云端或是边缘端设备均逐渐难以承受其带来的计算、存储以及能耗等方面的负担。在硬件发展难以满足日益增加的模型复杂度的情况下,学术界和工业界将更多目光投注于通过算法层面的策略设计实现神经网络的高效计算。在众多加速和压缩算法策略中,量化因其硬件实现友好、广泛适用不同网络和任务以及加速和压缩并举等特性而成为最受关注的方法之一。然而,量化降低了模型的表示基数,因此不可避免地导致网络性能受损。为此,本文着重于在从不同侧面剖析已有量化工作的基础上,进一步指出存在的问题并提出相应改进策略,从而在相同压缩比、加速比和资源约束下取得更好的性能表现。 本文的主要研究成果与贡献归纳如下: (1)基于全局乘积量化的神经网络压缩方法。当前的两阶段神经网络乘积量化方法存在固有的调参耗时以及性能较差等缺陷。为此,本文介绍了全局乘积量化算法G&P PQ,其在提出的权重更新策略基础上将权重量化和码本微调两个独立阶段融合到统一网络训练框架并可实现两者的自动渐进切换,从而能更好捕捉到不同层间复杂的依赖关系并简单高效地解决了上述问题。通过在ImageNet分类数据集上针对不同网络结构开展的广泛实验,证明了其能在模型大小和模型精度间取得显著优于已有网络压缩工作的权衡。 (2)基于约束优化的神经网络混合精度量化方法。 (3)基于损失扰动优化的神经网络训练后量化方法。 (4)量化剪枝融合的神经网络加速压缩方法。 |
语种 | 中文 |
页码 | 156 |
源URL | [http://ir.ia.ac.cn/handle/173211/52044] ![]() |
专题 | 毕业生_博士学位论文 |
通讯作者 | 陈维汉 |
推荐引用方式 GB/T 7714 | 陈维汉. 基于量化的神经网络加速压缩算法研究[D]. 2023. |
入库方式: OAI收割
来源:自动化研究所
其他版本
除非特别说明,本系统中所有内容都受版权保护,并保留所有权利。