中国科学院机构知识库网格
Chinese Academy of Sciences Institutional Repositories Grid
循环神经网络计算加速研究

文献类型:学位论文

作者李哲
答辩日期2019-05-30
文献子类硕士
授予单位中科院自动化所
授予地点中科院自动化所
导师程健
关键词循环神经网络 二值化 低秩分解 加速
学位专业模式识别与智能系统
英文摘要

近年来,循环神经网络在许多长序列输入的机器学习任务中都取得了良好的效果,包括机器翻译、文本分类、情感分析、图片生成、语言建模等。但是循环神经网络作为深度网络的一种,自身也存在着计算复杂度高的问题。这也使得循环神经网络推理时间长、能量消耗大、难以在移动端部署。这些问题都严重影响了循环神经网络的广泛应用,降低了人们的使用体验。为了克服上述问题,本文主要研究循环神经网络推理计算的优化,在保持网络模型进度不变或者略微降低的前提下,实现网络模型推理计算速度的提升。

本论文从循环神经网络的结构出发,分析常用的循环神经网络的结构特点和存在的问题,研究加速循环神经网络的方法。论文的主要工作和创新点可以总结为以下几点:

1.提出了基于经典长短时记忆网络(LSTM)的二值化门控网络模型

LSTM是现在最常用的循环神经网络,首次提出了门控单元的结构,改善了梯度爆炸和梯度消失的问题,在许多任务中都取得了当今世界最好的结果。但是门控单元的引入极大增加了网络的计算复杂度,这也让加速研究更有必要。本文首先分析了LSTM的网络结构,发现基于连续激活函数的门控结构不能很好地控制信息的流动。于是本文提出了包含二值输入门和二值遗忘门的LSTM。一方面二值门控单元可以使得网络的信息流动更加透明,本文可以更清楚地看到网络内部信息流动的情况;另一方面二值门控单元计算效率更高,可以加快网络的运行,并且函数更加鲁棒,权重函数的小变化不容易引起实验结果的改变。我们可以对二值门控单元的权重矩阵使用低秩分解等方法进行进一步加速,提升网络的推理速度。

2.提出了基于门控循环单元(GRU)的轻量化网络

GRU相对于LSTM减少了一个门控单元,更好地平衡了速度与实验效果之间的关系,但是计算复杂度依然很大。本文从GRU门控单元中信息的流动入手,发现GRU的两个门控单元之间存在着功能重复的问题。于是本文提出了使用二值输入门来代替GRU中原本的重置门,并且保留了更新门来对任务进行预测。这样可以使得两个门的功能更加分明,信息流动更加清晰。实验也证明了我们的模型在实验效果上相对GRU有了明显提升。同时二值输入门本身所需计算量较小,并且更加鲁棒,可以在上面采取低秩分解的方法进行加速,进一步提升网络的推理速度。我们的实验也表明我们的模型可以显著提升模型在文本分类和语言建模任务上的效果,并且减少网络推理时间。

语种中文
页码82
源URL[http://ir.ia.ac.cn/handle/173211/23771]  
专题自动化研究所_模式识别国家重点实验室_图像与视频分析团队
推荐引用方式
GB/T 7714
李哲. 循环神经网络计算加速研究[D]. 中科院自动化所. 中科院自动化所. 2019.

入库方式: OAI收割

来源:自动化研究所

浏览0
下载0
收藏0
其他版本

除非特别说明,本系统中所有内容都受版权保护,并保留所有权利。