CN107689224A - 合理使用掩码的深度神经网络压缩方法 - Google Patents

合理使用掩码的深度神经网络压缩方法 Download PDF

Info

Publication number
CN107689224A
CN107689224A CN201611104482.0A CN201611104482A CN107689224A CN 107689224 A CN107689224 A CN 107689224A CN 201611104482 A CN201611104482 A CN 201611104482A CN 107689224 A CN107689224 A CN 107689224A
Authority
CN
China
Prior art keywords
matrix
network
mask
neutral net
training
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201611104482.0A
Other languages
English (en)
Other versions
CN107689224B (zh
Inventor
李鑫
韩松
孙世杰
单羿
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xilinx Technology Beijing Ltd
Original Assignee
Beijing Insight Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US15/242,622 external-priority patent/US10621486B2/en
Priority claimed from US15/242,624 external-priority patent/US20180046903A1/en
Application filed by Beijing Insight Technology Co Ltd filed Critical Beijing Insight Technology Co Ltd
Priority to US15/390,660 priority Critical patent/US10832123B2/en
Publication of CN107689224A publication Critical patent/CN107689224A/zh
Application granted granted Critical
Publication of CN107689224B publication Critical patent/CN107689224B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • G10L15/063Training
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L63/00Network architectures or network communication protocols for network security
    • H04L63/10Network architectures or network communication protocols for network security for controlling access to devices or network resources
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/16Speech classification or search using artificial neural networks

Abstract

本申请公开了一种使用掩码矩阵对神经网络进行重训的方法,所述神经网络的神经元之间的连接关系由多个矩阵表示,所述方法包括:获得掩码矩阵步骤,获得对应于所述神经网络的掩码矩阵M,所述掩码矩阵M记录所述神经网络的矩阵的非零元素的分布信息;第一次剪枝操作步骤,利用所述掩码矩阵M对待压缩的神经网络nnet0进行剪枝;不带掩码重训步骤,对剪枝后的网络不带掩码矩阵M进行重训,得到稠密网络第二次剪枝操作步骤,利用所述掩码矩阵M对稠密网络进行第二次剪枝,得到稀疏网络和带掩码重训步骤,对稀疏网络带掩码矩阵M进行重训,得到最终输出网络

Description

合理使用掩码的深度神经网络压缩方法
本申请要求于2016年8月22日提交的美国专利申请No.15/242,622、和于2016年8月22日提交的美国专利申请No.15/242,624的优先权。
发明领域
本发明涉及合理使用掩码的深度神经网络压缩方法及装置。
背景技术
人工神经网络的压缩
人工神经网络(Artificial Neural Networks,ANNs),也简称神经网络(NNs),是一种模仿动物神经网络的行为特征,进行分布式并行信息处理的数学计算模型。近年来,神经网络发展很快,被广泛应用于诸多领域,如图像识别、语音识别、自然语言处理、天气预报、基因表达、内容推送等等。
神经网络中,有大量彼此连接的节点(也称“神经元”)。神经网络具备两个特性:1)每个神经元,通过某种特定的输出函数(也叫激活函数Activation Function),计算处理来自其它相邻神经元的加权输入值;2)神经元之间的信息传递强度用所谓的权值来定义,算法会不断自我学习,调整这个权值。
早期的神经网络只有输入和输出层两层,无法处理复杂的逻辑,因此限制了其实用性。
如图1所示,深度神经网络(Deep Neural Networks,DNNs)通过在输入层和输出层之间添加隐藏的中间层,革命性地改变了这一点。
循环神经网络(Recurrent Neural Networks,RNNs)是一种常用的深度神经网络模型。不同于传统前向神经网络(Feed-forward Neural Networks),循环神经网络引入了定向循环,能够处理输入之间前后关联的问题。在语音识别中,信号的前后关联很强,例如识别句子中的单词和该单词前面的单词序列关系十分紧密。因此,循环神经网络在语音识别领域有着非常广泛的应用。
然而,通过近几年的迅速发展,神经网络的规模不断增长,已公开的比较先进的神经网络可达数百层、数亿个连接,属于计算和访存密集型应用。在神经网络逐渐变大的情况下,模型压缩就变得极为重要。
深度神经网络中,神经元的连接关系在数学上可以表示为一系列矩阵。经过训练后的网络虽然预测准确,但其矩阵都是稠密的,即“矩阵中充满了非零元素”,从而导致大量的存储和计算资源被消耗。这不但降低了速度,而且增加了成本。这样一来,在移动端推广应用就面临着巨大的困难,极大的制约了神经网络的发展。
图2示出了一种利用剪切、重训的压缩神经网络的示意图。
近年来,广泛的研究表明,在通过训练得到的神经网络模型矩阵中,仅有部分权值较大的元素代表着重要连接,而其他权值较小的元素可以被移除(置为零),
图3示出了对应的神经元被剪枝(pruning)。剪枝后的神经网络精度会下降,但是可以通过重训(fine tune),对仍然保留在模型矩阵中的权值大小进行调整,从而减小精度损失。
模型压缩可以将神经网络中的稠密矩阵稀疏化,能够有效的降低存储量、减少计算量,在保持精度的同时实现加速。模型压缩对于专用的稀疏神经网络加速器而言,显得极为重要。
语音识别Speech Recognition
语音识别(Speech Recognition),是将语言的模拟信号顺序映射到一个具体的单词集合上。近年来,人工神经网络的方法在语音识别领域取得的效果已经远远超出了所有传统方法,正在成为全行业的主流。其中,深度神经网络有着极为广泛的应用。
图4示出了一种使用神经网络的语音识别引擎的例子。在图4的模型中,涉及利用深度学习模型来计算语音输出概率,即输入语音串与各种匹配候选之间相似度预测。通过本发明的方案,可以利用例如FPGA来加速实现图4的DNN部分。
图5进一步示出了应用于图4的语音识别引擎的深度学习模型。
图5a中显示了包含CNN(卷积神经网络)、LSTM(长短时记忆模型)、DNN(深度神经网络)、Softmax等模块的深度学习模型。
图5b是本发明所旨在应用的学习模型,使用了多层LSTM。
图5b的网络模型中,输入是一段语音片段。例如,约1秒的语音,被依次切割为100帧,每帧的特性可以由浮动型向量表示。
LSTM(长短时记忆)
在语音识别领域,为了解决对长期信息的记忆问题,Hochreiter&Schmidhuber于1997年提出了长短时记忆(Long Short-Term Memory,LSTM)模型。
图6示出了在语音识别领域所的使用一种LSTM网络模型。LSTM神经网络是RNN的一种,将普通RNN当中简单的重复神经网络模块改变为复杂的连接交互关系。LSTM神经网络在语音识别中也取得了非常好的应用效果。
关于LSTM的更多信息,可以参见如下文章:Sak H,Senior A W,Beaufays F.Longshort-term memory recurrent neural network architectures for large scaleacoustic modeling[C]//INTERSPEECH.2014:338-342,Sak H,Senior A,Beaufays F.Longshort-term memory based recurrent neural network architectures for largevocabulary speech recognition[J].arXiv preprint arXiv:1402.1128,2014.
如上所述,LSTM是一种类型的RNN。RNN与DNN的区别在于,RNN是时间依赖型的。具体而言,时刻T的输入依赖于时刻T-1的输出,即,当前帧的计算需要前一帧的计算结果。
图6所示的LSTM的结构中,各个参数的意义如下:
-i、f、o分别代表三个gate,g为cell的特征输入;
-粗线代表上一帧的输出;
-每个gate有一个权值矩阵,T时刻输入与T-1的输出经过gate时的计算量较大;
-虚线代表peephole,peephole以及三个叉乘符号对应的操作均为element-wiseoperation,计算量较小。
如图7所示,为了减小LSTM层的计算量,需要再额外引入一个投影层进行降维。
图7对应的计算公式为:
it=σ(WixXt+Wiryt-1+Wicct-1+bi)
ft=σ(WfxXt+Wrfyt-1+WcfCt-1+bf)
ot=σ(WoxXt+Woryt-1+WocCt+bo)
yt=Wyrmt
Wic,Wcf,Woc即是peephole,对应示意图中的三条虚线。计算中单元(cell)作为操作数的运算均为向量间的element-wise operation。也可以将其理解成向量和对角矩阵的乘法,此时权值矩阵是对角矩阵。
然而,在设计和训练深度神经网络时,大的网络规模有着更强的表达能力,能够表示网络输入特征与输出之间的较强的非线性关系。但是,这种规模较大的网络在学习实际想要的有用模式时,更容易受到训练集中噪声的影响,使得学习到的模式与实际期望有所偏差。因为这些训练集上的噪声是普遍且因数据集而异的,所以在数据集上训练得到的网络有可能在噪声影响下过拟合。
因此,希望能够提供一种优化的用于神经网络(例如LSTM)的压缩方法,该方法将剪枝结果存储为矩阵形状掩码(mask)并且在重训(fine-tune)阶段合理使用矩阵形状掩码,从而实现在保持压缩率不变的基础上保证深度神经网络准确率不下降、甚至反而提高的目的。
发明内容
在一方面,本发明提出一种使用掩码矩阵对神经网络进行重训的方法,所述神经网络的神经元之间的连接关系由多个矩阵表示,所述方法包括:获得掩码矩阵步骤,获得对应于所述神经网络的掩码矩阵M,所述掩码矩阵M记录所述神经网络的矩阵的非零元素的分布信息;第一次剪枝操作步骤,利用所述掩码矩阵M对待压缩的神经网络nnet0进行剪枝;不带掩码重训步骤,对剪枝后的网络不带掩码矩阵M进行重训,得到稠密网络第二次剪枝操作步骤,利用所述掩码矩阵M对稠密网络进行第二次剪枝,得到稀疏网络和带掩码重训步骤,对稀疏网络带掩码矩阵M进行重训,得到最终输出网络
在另一方面,本发明提出一种使用掩码矩阵对神经网络进行重训的装置,所述神经网络的神经元之间的连接关系由多个矩阵表示,所述装置包括:获得掩码矩阵单元,用于获得对应于所述神经网络的掩码矩阵M,所述掩码矩阵M记录所述神经网络的矩阵的非零元素的分布信息;第一次剪枝操作单元,用于利用所述掩码矩阵M对待压缩的神经网络nnet0进行剪枝;不带掩码重训单元,用于对剪枝后的网络不带掩码矩阵M进行重训,得到稠密网络第二次剪枝操作单元,用于利用所述掩码矩阵M对稠密网络进行第二次剪枝,得到稀疏网络和带掩码重训单元,用于对稀疏网络带掩码矩阵M进行重训,得到最终输出网络
附图说明
图1示出了一种深度神经网络(Deep Neural Networks,DNNs)的模型。
图2示出了一种利用剪切、重训的压缩神经网络的示意图。
图3示出了剪枝后的神经网络,其中一部分神经元被剪枝。
图4示出了一种使用神经网络的语音识别引擎的例子。
图5示出了应用于语音识别引擎的深度学习模型。
图6示出了应用于语音识别领域的一种LSTM网络模型。
图7示出了一种改进的LSTM网络模型。
图8示出了一种LSTM神经网络的压缩方法。
图9示出了敏感度测试的具体步骤。
图10显示了对LSTM网络应用敏感度测试的得到的相应曲线。
图11示出了确定最终稠密度序列并进行剪枝的具体步骤。
图12示出了通过“压缩试验-稠密度序列调整”迭代调整初始稠密度序列的具体子步骤。
图13示出了对神经网络进行重训的具体步骤。
图14示出了现有技术的使用掩码进行重训的过程。
图15示出了根据本发明的合理使用掩码进行重训的过程。
图16示出了根据本发明的重训过程对LSTM神经网络进行压缩的流程和结果的示例。
具体实施方式
发明人过去的研究成果
如发明人之前的文章“Learning both weights and connections forefficient neural networks”中,已经提出了一种通过修剪来压缩神经网络(例如,CNN)的方法。所述方法包括如下步骤。
初始化步骤,把卷积层、FC层的权重初始化为随机值,其中生成了具有完全连接的ANN,所述连接具有权重参数,
训练步骤,训练所述ANN,根据ANN的精度,来调整ANN的权重,直到所述精度达到预定标准。所述训练步骤基于随机梯度下降算法来调整所述ANN的权重,即随机调整权重值,基于ANN的精度变化来进行选择。关于随机梯度算法的介绍,可以参见上述“Learning bothweights and connections for efficient neural networks”。此外,所述精度可以量化为,针对训练数据集,ANN的预测结果和正确结果之间的差异。
修剪步骤,基于预定的条件,发现ANN中的不重要的连接,修剪所述不重要的连接。具体而言,被修剪的连接的权重参数不再被保存。例如,所述预定条件包括以下任意之一:连接的权重参数为0;或连接的权重参数小于预定值。
微调步骤,将被修剪的连接重新设置为权重参数值为零的连接,即,恢复所述被修剪的连接,并分配权重值为0。
迭代步骤,判断ANN的精度达到预定标准。如果没有,重复上述训练、修剪、微调步骤。
本发明提出的改进
本发明提供了一种多次迭代的深度神经网络的压缩方法。
图8示出了根据本发明的一个实施例的一种适用于LSTM神经网络的压缩方法,其中通过多次迭代操作来实现神经网络的压缩。
根据图8的实施例,每次迭代操作具体包括敏感度分析、剪枝、重训三个步骤。下面对每个步骤进行具体说明。
步骤8100,敏感度测试(sensitivity analysis)。
在该步骤中,例如,针对LSTM网络中所有矩阵进行敏感度分析,以确定不同矩阵的初始稠密度(或者初始压缩比)。
图9示出了敏感度测试的具体步骤。
如图9所示,在步骤8110,例如,对LSTM网络中的各个矩阵尝试按照不同稠密度进行压缩(所选择的稠密度例如是0.1,0.2,…,0.9,对矩阵的具体压缩方法参考步骤8200)。然后,测量以不同稠密度压缩的网络的词错误率(Word Error Rate,WER)。
在识别一段单词序列时,可能存在一些单词被错误地插入、删除或替换的情况。例如,对于包含N个单词的一段初始识别文字而言,如果有I个单词被插入、D个单词被删除以及S个文字被替换,那么WER为:
WER=(I+D+S)/N,
其中,WER通常由百分比表示。通常而言,压缩后网络的WER会变大,这意味着压缩后网络的精度会变差。
在步骤8120,对于一个矩阵,以稠密度为横坐标,WER为纵坐标,绘制神经网络中该矩阵在不同稠密度下的WER曲线。针对每个矩阵都绘制所述稠密度-WER曲线。
在步骤8130,对于一个矩阵,从曲线中寻找WER剧烈变化的点所对应的稠密度为该矩阵的初始稠密度。针对每个矩阵都获得所述初始稠密度。
在本实施例中,选取稠密度-WER曲线的拐点所对应的稠密度作为该矩阵的初始稠密度。具体而言,在一次迭代中拐点以如下方法确定:
已知压缩前(即稠密度为1)的初始网络WER为:WER(initial);
针对不同稠密度得到相应的压缩后的网络WER为:WER(0.1)、WER(0.2)、···、WER(0.9);
计算ΔWER,即:WER(0.1)与WER(initial)进行比较、WER(0.2)与WER(initial)进行比较、···、WER(0.9)与WER(initial)进行比较;
基于计算得到的ΔWER,拐点指的是ΔWER小于一定阈值的所有点当中具有最小稠密度的那个点。应当理解,可以基于其他策略选取曲线中WER剧烈变化的点,这些策略也包含在本发明的范围中。
在一个示例中,对于一个3层LSTM网络,其中每层有9个稠密矩阵需要压缩:Wix、Wfx、Wcx、Wox、Wir、Wfr、Wcr、Wor、Wrm,这样一共有27个稠密矩阵需要压缩。
首先,对每个矩阵,按照稠密度从0.1到0.9,以步长0.1做9次试验,测试整个网络在9次试验中的WER,并绘制相应稠密度-WER曲线。这样,针对27个矩阵,一共获得27条曲线。
然后,针对每个矩阵,从该矩阵对应的稠密度-WER曲线中(例如,针对第一层LSTM中的Wix矩阵绘制的曲线),找到WER剧烈变化的点。
这里,认为相比于本轮迭代的初始网络的WER,ΔWER变化小于1%的所有点当中具有最小稠密度的那个点为拐点。
例如,假设初始网络的WER为24%,则选取曲线中WER小于25%的所有点当中具有最小稠密度的那个点作为拐点。取拐点对应的稠密度作为该Wix的初始稠密度。
这样,可以得到一个长度为27的初始稠密度序列,分别对应每个矩阵的初始稠密度。因此可以以该初始稠密度序列指导压缩。
一个初始稠密度序列的例子如下(矩阵排列顺序为Wcx、Wix、Wfx、Wox、Wcr、Wir、Wfr、Wor、Wrm):
densityList=[0.2,0.1,0.1,0.1,0.3,0.3,0.1,0.1,0.3,
0.5,0.1,0.1,0.1,0.2,0.1,0.1,0.1,0.3,
0.4,0.3,0.1,0.2,0.3,0.3,0.1,0.2,0.5]
图10示出了一个单层LSTM网络中9个矩阵的相应稠密度-WER曲线。可以看到,不同矩阵对于压缩的敏感度大相径庭,其中,w_g_x,w_r_m,w_g_r相对于其他矩阵而言较为敏感,即在稠密度-WER曲线中存在max(ΔWER)>1的点。
步骤8200,确定最终稠密度序列(density determination)并进行剪枝(Pruning)。
图11示出了确定最终稠密度序列并进行剪枝的具体步骤。
如图11所示,图8的步骤8200可以包括若干子步骤。
首先,在步骤8210,基于步骤8100中确定的初始稠密度序列,指导每一个对应的矩阵进行初次压缩试验。
然后,在步骤8215,基于初次压缩试验的结果,测试压缩后网络的WER。如果压缩前后网络的ΔWER超过某一阈值ε(例如,4%),则进行到下一步骤8220。
在步骤8220,通过“压缩试验-稠密度序列调整”迭代来调整初始稠密度序列。在步骤8225,获得最终稠密度序列。
如果ΔWER未超过该阈值ε,则直接进行到步骤8225,初始稠密度序列即为最终稠密度序列。
最后,在步骤8230,基于最终稠密度序列指导LSTM网络进行剪枝。
下面,对图11的各子步骤进行详细说明。
步骤8210,进行初次压缩试验
根据研究中获得的经验,矩阵中绝对值比较大的权值对应着比较强的神经元连接关系。因此,在本实施例中,基于矩阵中元素的绝对值进行矩阵压缩。应当理解,可以基于其他策略对矩阵进行压缩,这些策略也包含在本发明的范围中。
根据本发明的一个实施例,对每个矩阵中的所有元素按照绝对值从小到大进行排序。然后,基于步骤8100中确定的该矩阵的初始稠密度对该矩阵进行压缩,只保留对应的稠密度所对应比例的绝对值较大的元素,并且将其余元素置零。例如,如果该矩阵的初始稠密度为0.4,那么,保留该矩阵中绝对值较大的前40%的元素,将剩余60%元素置零。
步骤8215,判断压缩前后网络的ΔWER超过某一阈值ε(例如,4%)。
步骤8220,如果压缩前后网络的ΔWER超过所述阈值ε(例如,4%),则通过“压缩试验-稠密度序列调整”迭代。
步骤8225,通过在步骤8220调整初始稠密度序列,获得最终稠密度序列。
图12示出了通过“压缩试验-稠密度序列调整”迭代调整初始稠密度序列的具体步骤。
如图12所示,在步骤8221,对相对敏感的矩阵的稠密度进行调整。即,上浮相对敏感的矩阵的稠密度,例如,上浮0.05。基于该稠密度,对相应矩阵进行压缩试验。
在本实施例中,压缩试验的策略与初次压缩试验相同,但是应当理解,可以选择其他策略对矩阵进行压缩,这些策略也包含在本发明的范围中。
然后,计算压缩后的网络的WER,若WER仍不满足目标,则继续上浮相对敏感的矩阵的稠密度,例如上浮0.1。基于该稠密度,对相应矩阵进行压缩试验。以此类推,直到压缩前后网络的ΔWER在所述阈值ε(例如,4%)以下。
可选地或依次地,在步骤8222,可以继续对相对不敏感的矩阵的稠密度进行微调,从而使压缩前后网络的ΔWER在某一阈值ε’(例如,3.5%)以下。这样,可以进一步提高压缩后的网络的准确度。
如图12所示,对相对不敏感的矩阵的稠密度的微调过程类似于前述对相对敏感的矩阵的稠密度的微调过程。
在一个示例中,神经网络的原始WER为24.2%,步骤8100中获得的初始稠密度序列为:
densityList=[0.2,0.1,0.1,0.1,0.3,0.3,0.1,0.1,0.3,
0.5,0.1,0.1,0.1,0.2,0.1,0.1,0.1,0.3,
0.4,0.3,0.1,0.2,0.3,0.3,0.1,0.2,0.5]
按照初始稠密度序列对网络进行剪枝,压缩后的网络的WER恶化为32%,此时需要调整初始稠密度序列。具体步骤如下:
根据步骤8100的结果得知,第一层LSTM中的矩阵Wcx,Wcr,Wir,Wrm、第二层中矩阵的Wcx,Wcr,Wrm、和第三层中矩阵的Wcx,Wix,Wox,Wcr,Wir,Wor,Wrm相对敏感,其余矩阵相对不敏感。
首先,对上述相对敏感的矩阵,按0.05的步长增大其对应的初始稠密度。
然后,基于上浮的稠密度对神经网络阵进行压缩试验。通过计算得到压缩后网络的WER为27.7%。此时,满足压缩前后网络ΔWER<4%的要求,停止调整相对敏感的矩阵的稠密度。
根据本发明的另一实施例,可选地,可以对相对不敏感的矩阵的初始稠密度进行微调,使压缩前后网络ΔWER<3.5%。在本示例中,省略该步骤。
因此,通过“压缩试验-稠密度序列调整”迭代调整得到的最终稠密度序列为:
densityList=[0.25,0.1,0.1,0.1,0.35,0.35,0.1,0.1,0.35,
0.55,0.1,0.1,0.1,0.25,0.1,0.1,0.1,0.35,
0.45,0.35,0.1,0.25,0.35,0.35,0.1,0.25,0.55]
此时,压缩后的神经网络的整体稠密度约为0.24。
步骤8230,基于最终稠密度进行剪枝(Pruning)。
例如,在本实施例中,同样基于矩阵中元素的绝对值对矩阵进行剪枝。
具体地,对每个矩阵中的所有元素按照绝对值从小到大进行排序;然后,基于最终稠密度序列对各矩阵进行压缩,对于每个矩阵,只保留相应稠密度对应的绝对值较大的元素,并且将其余元素置零。
在步骤8300,重训(fine tuning)
对神经网络的训练是对损失函数进行优化的过程。损失函数指的是在给定输入下,神经网络模型预测的结果与真实结果之间的差别。希望损失函数的值尽可能小。
对神经网络的训练的本质在于寻找最优解。重训即指在已有的一个可能的离最优解很近的次优解的情况下,搜索最优解,也就是在一定的基础上继续训练。
例如,对于LSTM深度神经网络,在步骤8200剪枝操作以后,在保留下来的权值的基础上继续训练,寻找最优解,就是一个重训的过程。
图13示出了对神经网络进行重训的具体步骤。
如图13所示,输入是在步骤8200剪枝操作之后的神经网络。
在步骤8310中,首先,用训练集训练步骤8200得到的稀疏神经网络并进行权值矩阵更新。
然后,在步骤8320,判断该矩阵是否收敛到局部最优解。
如果未收敛到局部最优解,则返回步骤8310,重复训练集训练和权值矩阵更新的步骤。
如果收敛到最优解,则进行到步骤8330,获得最终神经网络。
在本发明一个实施例中,重训时采用梯度下降法来更新权值矩阵。
具体地,梯度下降法基于这样的观察:
如果实值函数F(x)在点a处可微且有定义,那么函数F(x)在a点沿着梯度相反的方向-▽F(a)下降最快。因而,如果:
b=a-γ▽F(a)
对于γ>0为一个够小数值时成立,那么F(a)≥F(b),其中a是向量。
考虑到这一点,我们可以从函数F的局部极小值的初始估计x0出发,并考虑如下序列x0,x1,x2,…使得:
xn+1=xnn▽F(xn),n≥0
因此可得到:
,F(x0)≥F(x1)≥F(x2)≥···
如果顺利的话,序列(xn)收敛到期望的极值。注意每次迭代步长γ可以改变。
这里,将F(x)理解为损失函数,就可以理解梯度下降法使得模型预测损失减小的原理。
在一个示例中,参考论文DSD:Regularizing Deep Neural Networks withDense-Sparse-Dense Training Flow in NIPS 2016,对LSTM深度神经网络的重训方法如下:
这里,W是权值矩阵,η代表学习率,也就是随机梯度下降法的步长,f是损失函数,▽F是对损失函数求梯度,x是训练数据,t+1代表更新权值。
上式的含义是:用权值矩阵减去学习率与损失函数梯度的乘积,来更新权值矩阵。
在另一个示例中,保持网络中各个矩阵压缩后非零元素的分布的方法是使用掩码(mask)矩阵,该掩码矩阵仅包括0和1元素,用于记录压缩后矩阵非零元素的分布信息。
通常带掩码的重训方法如下:
Mask=(W(0)≠0)
也就是,对计算出来的梯度乘以掩码矩阵,保证梯度矩阵变成与掩码矩阵相同的形状,用来更新权值矩阵。
下面,详细说明重训过程和收敛判断准则的一个具体示例。
在该示例中,重训的输入为:待训练的网络、学习率、最大训练轮数、keep_lr_iters(保持原学习率的轮数)、start_halving_impr(用于确定改变学习率的时机,例如0.01)、end_halving_impr(用于终止训练,例如0.001)、halving_factor(例如0.5)、数据集(训练集、交叉验证集、测试集)等。
此外,重训的输入还包括学习动量、num-stream、batch-size等参数,这里暂时省略这些参数。重训的输出为:训练后的网络。
重训的具体过程如下:
1、对待训练的初始模型采用交叉验证数据集测试平均损失(cross loss,后面简称“loss”),作为衡量网络训练好坏的初始标准;
2、迭代训练:
·迭代训练分为多个“epoch”进行(这里,训练集中所有数据运行一遍称为一个epoch,后面简称“一轮”),迭代的总轮数不会超过最大训练轮数max_iters;
·在每一轮中,采用训练数据集,利用梯度下降法,更新网络中矩阵的权值;
·每轮训练结束后,保存训练出的网络,并对其采用交叉验证数据集测试平均损失loss,如果此时的loss比上一轮有效训练的loss(记为loss_prev)大,则拒绝本次训练(下一轮的训练还是基于上一轮训练结果),否则接受本次训练(下一轮训练基于本轮训练结果),并存储本轮的loss;
·学习率的动态改变及训练终止的条件:涉及到输入参数start_halving_impr、end_halving_impr、halving_factor等,每轮训练结束后,根据(loss_prev-loss)/loss_prev计算improvement并记为real_impr,其表示本轮被接受的训练结果的loss相比于上一轮被接受的训练结果的loss相对提升的大小,然后根据real_impr进行处理:
1)如果迭代轮数小于keep_lr_iters,则不改变学习率;
2)如果real_impr小于start_halving_impr(例如0.01),即本轮训练相比于上一轮提升已经到某个较小的限度内,说明接近局部最优解了,则使得学习率减小(乘以halving_factor,通常是折半),从而减小梯度下降法的步长,以更小的步子接近局部最优解;
3)如果real_impr小于end_halving_impr(例如0.001),即本轮训练相比于上一轮相对提升比较小了,认为训练已经达到终点并终止训练(但是如果训练轮数小于min_iters,则会继续训练至min_iters轮)。
因此,训练结束的情况可能包括以下四种:
1、训满min_iters轮,中间未出现real_impr小于end_halving_impr,则取第min_iters轮的结果;
2、训满min_iters轮,中间出现了real_impr小于end_halving_impr,则取前min_iters轮中loss最小的那一轮训练结果;
3、正常训练超过min_iters轮,但是小于max_iters轮,出现real_impr小于end_halving_impr,则取最后一轮,也就是loss最小的那一轮的训练结果;
4、正常训练到max_iters轮,未出现real_impr小于end_halving_impr,取第max_iters轮的结果。
应注意,上述示例描述了一种重训过程以及用于确定矩阵是否收敛到局部最优解的判断准则。然而,在实际操作中,为了提高压缩效率,不必须等到收敛结果,可以取中间结果,然后进行下一轮压缩。
此外,判断准则还包括判断经过训练后的网络的WER是否满足一定标准等,这些判断准则也包含在本发明的范围中。
通过重训,网络的WER下降,从而减少了压缩带来的精度损失。例如,通过重训,一个稠密度为0.24的LSTM网络的WER可以从27.7%下降到25.8%。
迭代步骤(iteration)
返回参照图8,如上文所述,本发明通过多次迭代操作、即重复上述步骤8100、8200、8300而将神经网络压缩至期望稠密度。
例如,在一个示例中,希望最终网络稠密度为0.14。
在第一轮迭代中,通过步骤8300得到稠密度为0.24、WER为25.8%的网络。
重复上述步骤8100、8200、8300对该网络继续进行多轮压缩。
例如,在第二轮压缩后,网络的稠密度为0.18,WER为24.7%。
继续第三轮压缩后,网络稠密度为0.14,WER为24.6%,达到目标。
本发明提出的进一步改进
压缩深度神经网络实质上是对深度神经网络中权值矩阵的稀疏化。稀疏化后权值矩阵会有许多零值元素。在进行运算的过程中,这些零值元素可以不参与运算,从而减少需要的运算次数,提升运算速度。此外,如果一个网络稀疏化程度较高(如稠密度0.15),那么可以只存储非零的权值,从而减少存储空间。
然而,由于压缩过程去除了相当一部分权值使得整个深度神经网络的准确度会有较大程度的下降,因此,需要通过重训调整仍然保留在网络权值矩阵中的权值的大小,重新提高深度神经网络的模型准确度。
但是,通常而言,由于在剪枝过程中对某些权值置零相当于在解空间增加了新的约束,所以经过重训使神经网络重新收敛到新的局部最优点后,网络的精度虽然有所提升,但是相比剪枝前的深度神经网络,精度仍有所下降。
如上文所述,在现有的重训方式中,保持网络中各个矩阵压缩后非零元素的分布的方法是使用掩码(mask)矩阵。该掩码矩阵在剪枝时生成并且仅包括0和1元素,用于记录压缩后矩阵非零元素的分布信息。其中,值为1的元素表示相应权值矩阵对应位置的元素被保留,而值为0的元素表示相应权值矩阵对应位置的元素被置零。
图14示出了现有技术的使用掩码进行重训的过程。
如图14所示,在步骤1410中,对待压缩的网络nnet0剪枝,得到记录压缩后矩阵非零元素的分布信息的掩码矩阵M:
nnet0→M
具体而言,对待压缩的网络进行剪枝,得到含有零元素和非零元素的稀疏矩阵,然后使用掩码矩阵M,用1代表稀疏矩阵中非零元素的权值,以记录压缩后矩阵非零元素的分布信息。
在步骤1420中,将待压缩的网络与步骤1410中得到的掩码矩阵M点乘,完成剪枝操作,得到剪枝后的网络nneti
在步骤1430中,对剪枝后的网络nneti带掩码重训,得到最终输出网络nneto
nneto=Rmask(nneti,M)
具体地,上式为对网络进行带掩码重训优化每帧交叉熵(optimize per-framecross-entropy)的过程。其中,Rmask表示一种带掩码训练过程,在该过程中只对没有剪去的权值进行更新。通过这一过程,调整仍然被保留在网络权值矩阵中的权值,使深度神经网络收敛到新的局部最优解。
带掩码重训步骤具体包括训练步骤和判断步骤。基于判断步骤中矩阵是否收敛到局部最优解,决定返回继续训练或终止训练。
更具体地,训练步骤如下所述:
1.输入训练集数据,采用反向传播(back propagation,简称BP)法,计算损失函数对网络参数的导数,进而求得梯度矩阵;
2.结合学习率,采用随机梯度下降法,更新网络中的权值矩阵(即:更新后的权值矩阵=更新前的权值矩阵-学习率*梯度矩阵*掩码矩阵),这里,由于对计算出来的梯度乘以掩码矩阵,保证梯度矩阵变成与掩码矩阵相同的形状;
3.采用交叉验证集,计算网络的平均损失loss,如果loss比上一轮有效训练的loss大,则本轮训练无效(下一轮训练依然是基于上一轮有效训练的结果),如果loss比上一轮有效训练的loss小,则本轮训练有效(下一轮训练将基于本轮训练);
4.如果本轮训练无效,且没有达到最大训练轮数,则调整学习率,在上一轮有效训练的基础上继续训练。如果本轮训练有效,则判断网络是否收敛。
判断收敛的步骤如下所述:
A:以WER为判断准则:
采用测试集对本轮有效训练的网络测试WER,如果WER满足某种条件(比如小于20),则可以认为网络已经收敛到局部最优解,并终止训练
B:以loss的相对提升作为判断准则:
根据(loss_prev-loss)/loss_prev计算improvement并记为real_impr,含义是本轮有效训练出的网络的loss相比于上一轮有效训练的网络的loss的相对提升大小,如果real_impr小于end_halving_impr(例如0.001),说明本轮有效训练相比于上一轮有效训练相对提升比较小了,可以认为网络已经收敛到局部最优解并终止训练。
如上文所述,由于重训过程容易受到训练集中噪声的影响,因此在数据集上训练得到的网络可能在噪声影响下过拟合,影响输出网络的精度。
为此,本发明提出一种合理使用掩码的重训过程,旨在降低噪声对网络的干扰。
根据本发明的一种实现方式可以是,将剪枝后的网络权值作为重训时输入网络的初始值,那些已被剪去的权值相当于输入初始值为0。目前,学术界存在普遍接受并经实验验证的观点:在权值均值中绝对值较小的那些权值代表的连接是相对不重要的。因此,将剪枝后的网络权值作为重训的输入网络初始值相当于让网络从一个较优的出发点开始迭代,让相对重要的权重有相对更大的初始权值,从而使网络更少受到噪声带来的干扰。
具体而言,相比现有技术的重训过程,本发明的重训过程在获得剪枝后的网络与对该网络带掩码重训之间,增加不带掩码重训的步骤。所谓不带掩码重训是指在重训过程中去除剪枝形状的约束,允许已被剪枝的权值重新生长。
但是因为不带掩码重训后生成的网络实际是稠密网络,无法达到压缩神经网络的目的,所以需要再次将那些原本应剪去的权值置零。但剪枝操作会使得网络准确度重新下降。为了恢复准确度,需要再次进行带掩码训练,使得网络在加剪枝约束后的解空间中收敛到一个局部最优点,保证剪枝后的深度神经网络准确度。
图15示出了根据本发明的合理使用掩码进行重训的过程。
如图15所示,在步骤1510中,对待压缩的网络nnet0剪枝,得到记录压缩后矩阵非零元素的分布信息的掩码矩阵M:
nnet0→M
在步骤1520中,将待压缩的网络与步骤1510中得到的掩码矩阵M点乘,完成剪枝操作,得到剪枝后的网络
在步骤1530中,对剪枝后的网络不带掩码重训,得到稠密网络
类似于上文所述的带掩码重训步骤,不带掩码重训步骤也包括训练步骤和判断步骤。基于判断步骤中矩阵是否收敛到局部最优解,决定返回继续训练或终止训练。
与带掩码重训步骤不同地,在不带掩码重训步骤中,训练步骤如下所述:
1.输入训练集数据,采用反向传播(back propagation,简称BP)法,计算损失函数对网络参数的导数,进而求得梯度矩阵;
2.结合学习率,采用随机梯度下降法,更新网络中的权值矩阵(即:更新后的权值矩阵=更新前的权值矩阵-学习率*梯度矩阵),这里,更新权值矩阵不对计算出来的梯度乘以掩码矩阵,从而去除剪枝形状的约束,允许已被剪枝的权值重新生长;
3.采用交叉验证集,计算网络的平均损失loss,如果loss比上一轮有效训练的loss大,则本轮训练无效(下一轮训练依然是基于上一轮有效训练的结果),如果loss比上一轮有效训练的loss小,则本轮训练有效(下一轮训练将基于本轮训练);
4.如果本轮训练无效,且没有达到最大训练轮数,则调整学习率,在上一轮有效训练的基础上继续训练。如果本轮训练有效,则判断网络是否收敛。
在不带掩码重训步骤中,判断收敛的步骤与带掩码重训步骤类似。
在步骤1540中,将稠密网络与步骤1510中得到的掩码矩阵M再次点乘,去除已剪枝处重新生长出的权值,得到稀疏网络
在步骤1550中,对稀疏网络带掩码重训,得到最终输出网络
通过本发明的不带掩码重训的步骤1530,对网络的准确度先进行了一次提升,从而在较大程度上解决了压缩网络后准确度普遍下降的现象。
从工程实践结果来看,使用图15所示的优化后的方法使得压缩后网络的精度不但没有下降,反而有所提高。
图16示出了使用本发明对某一数千小时中文语音数据集上训练出的LSTM深度神经网络进行压缩的整个流程和相关结果。
在图16中,横坐标代表操作步骤,纵坐标代表深度神经网络的词错误率WER,词错误率WER越低说明网络准确度越高。实线代表待压缩网络的初始词错误率,箭头代表经过多次迭代压缩的过程。
在一个迭代过程(例如,步骤0-4)中:
·步骤0代表剪枝之前,步骤1代表对神经网络进行第一次剪枝,虚线代表每轮迭代压缩过程中对神经网络进行第一次剪枝的结果。可见,在每轮迭代压缩过程中,经过一次剪枝后,网络的词错误率上升;
·步骤2代表剪枝后对压缩网络进行不带掩码的重训,可见,重训后网络的词错误率有所下降;
·步骤3代表对经过不带掩码重训后的稠密网络再次剪枝,以获得符合稠密度要求的稀疏网络,可见,再次剪枝后网络的词错误率再次上升;
·步骤4代表对步骤3的网络带掩码重训,可见,重训后网络的词错误率再次下降。
在图16中,步骤4、8、12分别对应三轮迭代的最终压缩结果,可见,在每轮迭代中,神经网络的最终WER都比每轮的初始WER有较多降低,因而神经网络的精度得到提高。
技术效果
基于上述技术方案可知,本发明提出一种合理使用掩码的深度神经网络压缩方法。该压缩方法通过额外地执行不带掩码重训的步骤,对网络的准确度先进行了一次提升,从而在较大程度上解决了压缩网络后准确度普遍下降的现象,使得压缩后网络的精度不但没有下降,反而有所提高。
以上实施例仅仅以LSTM网络作为说明本发明的例子。应当理解,本发明可以不限于LSTM神经网络,而是可以应用到其他各种神经网络。

Claims (10)

1.一种使用掩码矩阵对神经网络进行重训的方法,所述神经网络的神经元之间的连接关系由多个矩阵表示,所述方法包括:
获得掩码矩阵步骤,获得对应于所述神经网络的掩码矩阵M,所述掩码矩阵M记录所述神经网络的矩阵的非零元素的分布信息;
第一次剪枝操作步骤,利用所述掩码矩阵M对待压缩的神经网络nnet0进行剪枝;
不带掩码重训步骤,对剪枝后的网络不带掩码矩阵M进行重训,得到稠密网络
第二次剪枝操作步骤,利用所述掩码矩阵M对稠密网络进行第二次剪枝,得到稀疏网络
带掩码重训步骤,对稀疏网络带掩码矩阵M进行重训,得到最终输出网络
2.根据权利要求1所述的方法,所述获得掩码矩阵步骤进一步包括:
对待压缩的网络进行剪枝,得到含有零元素和非零元素的稀疏矩阵,然后使用掩码矩阵M,所述掩码矩阵M用1代表稀疏矩阵中非零元素的权值,以记录压缩后矩阵非零元素的分布信息。
3.根据权利要求1所述的方法,所述第一次剪枝操作步骤进一步包括:
将待压缩的神经网络与所述掩码矩阵M点乘,得到剪枝后的网络
4.根据权利要求1所述的方法,所述不带掩码重训步骤进一步包括:
训练步骤,使用训练集训练所述神经网络,并且不带掩码进行权值矩阵更新;
判断步骤,判断该矩阵是否收敛到局部最优解;
如果未收敛到局部最优解,则返回所述训练步骤;
如果收敛到最优解,则把所述神经网络作为最终神经网络。
5.根据权利要求4所述的方法,所述不带掩码进行权值矩阵更新进一步包括:
基于训练集数据,计算神经网络的损失函数对网络参数的导数,进而求得梯度矩阵;
基于所述梯度矩阵,采用随机梯度下降法,不带掩码更新网络中的权值矩阵,其中更新后的权值矩阵=更新前的权值矩阵-学习率*梯度矩阵;
计算神经网络网络的平均损失loss,如果loss比上一轮有效训练的loss大,则本轮训练无效;
如果loss比上一轮有效训练的loss小,则本轮训练有效;
如果本轮训练无效,且没有达到最大训练轮数,则调整学习率,在上一轮有效训练的基础上继续训练;
如果本轮训练有效,则判断网络是否收敛。
6.根据权利要求1所述的方法,所述第二次剪枝操作步骤进一步包括:
所述掩码矩阵M与稠密网络进行点乘操作,去除已剪枝处重新生长出的权值,得到稀疏网络
7.根据权利要求1所述的方法,所述带掩码重训步骤进一步包括:
训练步骤,使用训练集训练所述神经网络,并且带掩码进行权值矩阵更新;
判断步骤,判断该矩阵是否收敛到局部最优解;
如果未收敛到局部最优解,则返回所述训练步骤;
如果收敛到最优解,则把所述神经网络作为最终神经网络。
8.根据权利要求7所述的方法,所述带掩码进行权值矩阵更新进一步包括:
基于训练集数据,计算神经网络的损失函数对网络参数的导数,进而求得梯度矩阵;
基于所述梯度矩阵,采用随机梯度下降法,带掩码更新网络中的权值矩阵,其中更新后的权值矩阵=更新前的权值矩阵-学习率*梯度矩阵*掩码矩阵M;
计算神经网络网络的平均损失loss,如果loss比上一轮有效训练的loss大,则本轮训练无效;
如果loss比上一轮有效训练的loss小,则本轮训练有效;
如果本轮训练无效,且没有达到最大训练轮数,则调整学习率,在上一轮有效训练的基础上继续训练;
如果本轮训练有效,则判断网络是否收敛。
9.根据权利要求1所述的方法,所述掩码矩阵M仅包括0和1元素,值为1的元素表示相应权值矩阵对应位置的元素被保留,而值为0的元素表示相应权值矩阵对应位置的元素被置零。
10.一种使用掩码矩阵对神经网络进行重训的装置,所述神经网络的神经元之间的连接关系由多个矩阵表示,所述装置包括:
获得掩码矩阵单元,用于获得对应于所述神经网络的掩码矩阵M,所述掩码矩阵M记录所述神经网络的矩阵的非零元素的分布信息;
第一次剪枝操作单元,用于利用所述掩码矩阵M对待压缩的神经网络nnet0进行剪枝;
不带掩码重训单元,用于对剪枝后的网络不带掩码矩阵M进行重训,得到稠密网络
第二次剪枝操作单元,用于利用所述掩码矩阵M对稠密网络进行第二次剪枝,得到稀疏网络
带掩码重训单元,用于对稀疏网络带掩码矩阵M进行重训,得到最终输出网络
CN201611104482.0A 2016-08-12 2016-12-05 合理使用掩码的深度神经网络压缩方法 Active CN107689224B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US15/390,660 US10832123B2 (en) 2016-08-12 2016-12-26 Compression of deep neural networks with proper use of mask

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US15/242,622 2016-08-22
US15/242,622 US10621486B2 (en) 2016-08-12 2016-08-22 Method for optimizing an artificial neural network (ANN)
US15/242,624 2016-08-22
US15/242,624 US20180046903A1 (en) 2016-08-12 2016-08-22 Deep processing unit (dpu) for implementing an artificial neural network (ann)

Publications (2)

Publication Number Publication Date
CN107689224A true CN107689224A (zh) 2018-02-13
CN107689224B CN107689224B (zh) 2020-09-01

Family

ID=59983010

Family Applications (4)

Application Number Title Priority Date Filing Date
CN201611105491.1A Active CN107689948B (zh) 2016-08-12 2016-12-05 应用于神经网络硬件加速系统的高效数据访存管理装置
CN201611105480.3A Active CN107679617B (zh) 2016-08-12 2016-12-05 多次迭代的深度神经网络压缩方法
CN201611105081.7A Active CN107239825B (zh) 2016-08-12 2016-12-05 考虑负载均衡的深度神经网络压缩方法
CN201611104482.0A Active CN107689224B (zh) 2016-08-12 2016-12-05 合理使用掩码的深度神经网络压缩方法

Family Applications Before (3)

Application Number Title Priority Date Filing Date
CN201611105491.1A Active CN107689948B (zh) 2016-08-12 2016-12-05 应用于神经网络硬件加速系统的高效数据访存管理装置
CN201611105480.3A Active CN107679617B (zh) 2016-08-12 2016-12-05 多次迭代的深度神经网络压缩方法
CN201611105081.7A Active CN107239825B (zh) 2016-08-12 2016-12-05 考虑负载均衡的深度神经网络压缩方法

Country Status (1)

Country Link
CN (4) CN107689948B (zh)

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108540338A (zh) * 2018-03-08 2018-09-14 西安电子科技大学 基于深度循环神经网络的应用层通信协议识别的方法
CN108665067A (zh) * 2018-05-29 2018-10-16 北京大学 用于深度神经网络频繁传输的压缩方法及系统
CN109784490A (zh) * 2019-02-02 2019-05-21 北京地平线机器人技术研发有限公司 神经网络的训练方法、装置和电子设备
CN109938696A (zh) * 2019-03-22 2019-06-28 江南大学 神经电信号压缩感知处理方法及电路
CN110659731A (zh) * 2018-06-30 2020-01-07 华为技术有限公司 一种神经网络训练方法及装置
CN110705996A (zh) * 2019-10-17 2020-01-17 支付宝(杭州)信息技术有限公司 基于特征掩码的用户行为识别方法、系统、及装置
CN110704024A (zh) * 2019-09-28 2020-01-17 深圳芯英科技有限公司 一种矩阵处理装置、方法及处理设备
WO2020029018A1 (zh) * 2018-08-06 2020-02-13 华为技术有限公司 矩阵的处理方法、装置及逻辑电路
CN111078840A (zh) * 2019-12-20 2020-04-28 浙江大学 一种基于文档向量的电影评论情感分析方法
CN111126600A (zh) * 2019-12-20 2020-05-08 上海寒武纪信息科技有限公司 神经网络模型的训练方法、数据处理方法和相关产品
CN111553471A (zh) * 2020-07-13 2020-08-18 北京欣奕华数字科技有限公司 一种数据分析处理方法及装置
CN111626305A (zh) * 2019-02-28 2020-09-04 阿里巴巴集团控股有限公司 目标检测方法、装置和设备
CN112270352A (zh) * 2020-10-26 2021-01-26 中山大学 一种基于并行剪枝优化的决策树生成方法及装置
CN112424797A (zh) * 2018-05-17 2021-02-26 弗劳恩霍夫应用研究促进协会 神经网络的分布式学习和/或其参数化更新的传输的概念
CN112465035A (zh) * 2020-11-30 2021-03-09 上海寻梦信息技术有限公司 物流配送任务分配方法、系统、设备及存储介质
CN112585619A (zh) * 2018-06-22 2021-03-30 墨芯人工智能有限公司 利用激活稀疏化的神经网络加速和嵌入压缩系统和方法
CN112883982A (zh) * 2021-01-08 2021-06-01 西北工业大学 一种面向神经网络稀疏特征的数据去零编码及封装方法
CN113159272A (zh) * 2020-01-07 2021-07-23 阿里巴巴集团控股有限公司 一种用于处理神经网络的方法和系统
CN113947185A (zh) * 2021-09-30 2022-01-18 北京达佳互联信息技术有限公司 任务处理网络生成、任务处理方法、装置、电子设备及存储介质

Families Citing this family (48)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102017218889A1 (de) * 2017-10-23 2019-04-25 Robert Bosch Gmbh Unscharf parametriertes KI-Modul sowie Verfahren zum Betreiben
US11651223B2 (en) * 2017-10-27 2023-05-16 Baidu Usa Llc Systems and methods for block-sparse recurrent neural networks
CN107977704B (zh) 2017-11-10 2020-07-31 中国科学院计算技术研究所 权重数据存储方法和基于该方法的神经网络处理器
CN107832835A (zh) * 2017-11-14 2018-03-23 贵阳海信网络科技有限公司 一种卷积神经网络的轻量化方法及装置
CN107832439B (zh) * 2017-11-16 2019-03-08 百度在线网络技术(北京)有限公司 多轮状态追踪的方法、系统及终端设备
CN111738431B (zh) * 2017-12-11 2024-03-05 中科寒武纪科技股份有限公司 神经网络运算设备和方法
CN108170529A (zh) * 2017-12-26 2018-06-15 北京工业大学 一种基于长短期记忆网络的云数据中心负载预测方法
CN109791628B (zh) * 2017-12-29 2022-12-27 清华大学 神经网络模型分块压缩方法、训练方法、计算装置及系统
CN108038546B (zh) 2017-12-29 2021-02-09 百度在线网络技术(北京)有限公司 用于压缩神经网络的方法和装置
CN109993289B (zh) * 2017-12-30 2021-09-21 中科寒武纪科技股份有限公司 集成电路芯片装置及相关产品
CN109993292B (zh) 2017-12-30 2020-08-04 中科寒武纪科技股份有限公司 集成电路芯片装置及相关产品
CN109993291B (zh) * 2017-12-30 2020-07-07 中科寒武纪科技股份有限公司 集成电路芯片装置及相关产品
EP3624019A4 (en) 2017-12-30 2021-03-24 Cambricon Technologies Corporation Limited CHIP DEVICE WITH INTEGRATED CIRCUIT AND ASSOCIATED PRODUCT
CN109993290B (zh) * 2017-12-30 2021-08-06 中科寒武纪科技股份有限公司 集成电路芯片装置及相关产品
CN108280514B (zh) * 2018-01-05 2020-10-16 中国科学技术大学 基于fpga的稀疏神经网络加速系统和设计方法
CN110084364B (zh) * 2018-01-25 2021-08-27 赛灵思电子科技(北京)有限公司 一种深度神经网络压缩方法和装置
CN110110853B (zh) * 2018-02-01 2021-07-30 赛灵思电子科技(北京)有限公司 一种深度神经网络压缩方法、装置及计算机可读介质
CN111788583A (zh) * 2018-02-09 2020-10-16 渊慧科技有限公司 连续稀疏性模式神经网络
CN110197262B (zh) * 2018-02-24 2021-07-30 赛灵思电子科技(北京)有限公司 用于lstm网络的硬件加速器
CN108510063B (zh) * 2018-04-08 2020-03-20 清华大学 一种应用于卷积神经网络的加速方法和加速器
CN111445905B (zh) * 2018-05-24 2023-08-08 腾讯科技(深圳)有限公司 混合语音识别网络训练方法、混合语音识别方法、装置及存储介质
CN109102064B (zh) * 2018-06-26 2020-11-13 杭州雄迈集成电路技术股份有限公司 一种高精度的神经网络量化压缩方法
CN109063835B (zh) * 2018-07-11 2021-07-09 中国科学技术大学 神经网络的压缩装置及方法
CN110874550A (zh) * 2018-08-31 2020-03-10 华为技术有限公司 数据处理方法、装置、设备和系统
CN112219210B (zh) * 2018-09-30 2024-03-29 华为技术有限公司 信号处理装置和信号处理方法
CN109104197B (zh) * 2018-11-12 2022-02-11 合肥工业大学 应用于卷积神经网络的非还原稀疏数据的编译码电路及其编译码方法
CN111382852B (zh) * 2018-12-28 2022-12-09 上海寒武纪信息科技有限公司 数据处理装置、方法、芯片及电子设备
CN111291871A (zh) * 2018-12-10 2020-06-16 中科寒武纪科技股份有限公司 一种计算装置及相关产品
CN111353591A (zh) * 2018-12-20 2020-06-30 中科寒武纪科技股份有限公司 一种计算装置及相关产品
CN111383157B (zh) * 2018-12-29 2023-04-14 北京市商汤科技开发有限公司 图像处理方法、装置、车载运算平台、电子设备及系统
CN113168554B (zh) * 2018-12-29 2023-11-28 华为技术有限公司 一种神经网络压缩方法及装置
CN109800869B (zh) * 2018-12-29 2021-03-05 深圳云天励飞技术有限公司 数据压缩方法及相关装置
CN109978144B (zh) * 2019-03-29 2021-04-13 联想(北京)有限公司 一种模型压缩方法和系统
CN110399972B (zh) * 2019-07-22 2021-05-25 上海商汤智能科技有限公司 数据处理方法、装置及电子设备
CN112699990A (zh) * 2019-10-22 2021-04-23 杭州海康威视数字技术股份有限公司 神经网络模型训练方法、装置及电子设备
KR20210106131A (ko) 2020-02-20 2021-08-30 삼성전자주식회사 전자 장치 및 그의 제어 방법
WO2021196158A1 (zh) * 2020-04-03 2021-10-07 北京希姆计算科技有限公司 数据存取电路和方法
KR20210126398A (ko) * 2020-04-10 2021-10-20 에스케이하이닉스 주식회사 시스톨릭 어레이를 갖는 신경망 연산 장치
CN111711511B (zh) * 2020-06-16 2021-07-13 电子科技大学 频域数据有损压缩方法
CN112132062B (zh) * 2020-09-25 2021-06-29 中南大学 一种基于剪枝压缩神经网络的遥感图像分类方法
CN112230851A (zh) * 2020-10-14 2021-01-15 天津津航计算技术研究所 一种新型软件硬件协同raid改进方法
CN112286447A (zh) * 2020-10-14 2021-01-29 天津津航计算技术研究所 一种新型软件硬件协同raid改进系统
CN112396178A (zh) * 2020-11-12 2021-02-23 江苏禹空间科技有限公司 一种提高cnn网络压缩效率的方法
WO2022133623A1 (en) * 2020-12-24 2022-06-30 Intel Corporation Accelerated scale-out performance of deep learning training workload with embedding tables
US20220343145A1 (en) * 2021-04-21 2022-10-27 Alibaba Singapore Holding Private Limited Method and system for graph neural network acceleration
CN113794709B (zh) * 2021-09-07 2022-06-24 北京理工大学 一种用于二值稀疏矩阵的混合编码方法
CN116187408B (zh) * 2023-04-23 2023-07-21 成都甄识科技有限公司 稀疏加速单元、计算方法及稀疏神经网络硬件加速系统
CN117170588B (zh) * 2023-11-01 2024-01-26 北京壁仞科技开发有限公司 用于对张量数据的布局进行转换的方法、设备和介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014078831A2 (en) * 2012-11-19 2014-05-22 Qualcomm Incorporated Method and apparatus for inferring logical dependencies between random processes
CN104217433A (zh) * 2014-08-29 2014-12-17 华为技术有限公司 一种分析图像的方法及装置
CN105874477A (zh) * 2014-01-23 2016-08-17 高通股份有限公司 配置稀疏神经网络

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6317730B1 (en) * 1996-05-23 2001-11-13 Siemens Aktiengesellschaft Method for optimizing a set of fuzzy rules using a computer
CN102129397A (zh) * 2010-12-29 2011-07-20 深圳市永达电子股份有限公司 一种自适应磁盘阵列故障预测方法及系统
US9367519B2 (en) * 2013-08-30 2016-06-14 Microsoft Technology Licensing, Llc Sparse matrix data structure
US9400955B2 (en) * 2013-12-13 2016-07-26 Amazon Technologies, Inc. Reducing dynamic range of low-rank decomposition matrices
US9324321B2 (en) * 2014-03-07 2016-04-26 Microsoft Technology Licensing, Llc Low-footprint adaptation and personalization for a deep neural network
US9202178B2 (en) * 2014-03-11 2015-12-01 Sas Institute Inc. Computerized cluster analysis framework for decorrelated cluster identification in datasets
US10242313B2 (en) * 2014-07-18 2019-03-26 James LaRue Joint proximity association template for neural networks
CN104915322B (zh) * 2015-06-09 2018-05-01 中国人民解放军国防科学技术大学 一种卷积神经网络硬件加速方法
CN105184362B (zh) * 2015-08-21 2018-02-02 中国科学院自动化研究所 基于参数量化的深度卷积神经网络的加速与压缩方法
CN105184369A (zh) * 2015-09-08 2015-12-23 杭州朗和科技有限公司 用于深度学习模型的矩阵压缩方法和装置
CN105260794A (zh) * 2015-10-12 2016-01-20 上海交通大学 一种云数据中心的负载预测方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014078831A2 (en) * 2012-11-19 2014-05-22 Qualcomm Incorporated Method and apparatus for inferring logical dependencies between random processes
CN105874477A (zh) * 2014-01-23 2016-08-17 高通股份有限公司 配置稀疏神经网络
CN104217433A (zh) * 2014-08-29 2014-12-17 华为技术有限公司 一种分析图像的方法及装置

Cited By (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108540338B (zh) * 2018-03-08 2021-08-31 西安电子科技大学 基于深度循环神经网络的应用层通信协议识别的方法
CN108540338A (zh) * 2018-03-08 2018-09-14 西安电子科技大学 基于深度循环神经网络的应用层通信协议识别的方法
CN112424797A (zh) * 2018-05-17 2021-02-26 弗劳恩霍夫应用研究促进协会 神经网络的分布式学习和/或其参数化更新的传输的概念
CN108665067B (zh) * 2018-05-29 2020-05-29 北京大学 用于深度神经网络频繁传输的压缩方法及系统
CN108665067A (zh) * 2018-05-29 2018-10-16 北京大学 用于深度神经网络频繁传输的压缩方法及系统
CN112585619A (zh) * 2018-06-22 2021-03-30 墨芯人工智能有限公司 利用激活稀疏化的神经网络加速和嵌入压缩系统和方法
CN110659731A (zh) * 2018-06-30 2020-01-07 华为技术有限公司 一种神经网络训练方法及装置
CN110659731B (zh) * 2018-06-30 2022-05-17 华为技术有限公司 一种神经网络训练方法及装置
CN113190791A (zh) * 2018-08-06 2021-07-30 华为技术有限公司 矩阵的处理方法、装置及逻辑电路
US11734386B2 (en) 2018-08-06 2023-08-22 Huawei Technologies Co., Ltd. Matrix processing method and apparatus, and logic circuit
US11250108B2 (en) 2018-08-06 2022-02-15 Huawei Technologies Co., Ltd. Matrix processing method and apparatus, and logic circuit
CN111010883A (zh) * 2018-08-06 2020-04-14 华为技术有限公司 矩阵的处理方法、装置及逻辑电路
WO2020029018A1 (zh) * 2018-08-06 2020-02-13 华为技术有限公司 矩阵的处理方法、装置及逻辑电路
CN111010883B (zh) * 2018-08-06 2022-07-12 华为技术有限公司 矩阵的处理方法、装置及逻辑电路
US11645537B2 (en) 2019-02-02 2023-05-09 Beijing Horizon Robotics Technology Research And Development Co., Ltd. Neural network training method, neural network training apparatus and electronic device
CN109784490A (zh) * 2019-02-02 2019-05-21 北京地平线机器人技术研发有限公司 神经网络的训练方法、装置和电子设备
CN111626305A (zh) * 2019-02-28 2020-09-04 阿里巴巴集团控股有限公司 目标检测方法、装置和设备
CN111626305B (zh) * 2019-02-28 2023-04-18 阿里巴巴集团控股有限公司 目标检测方法、装置和设备
CN109938696A (zh) * 2019-03-22 2019-06-28 江南大学 神经电信号压缩感知处理方法及电路
CN110704024A (zh) * 2019-09-28 2020-01-17 深圳芯英科技有限公司 一种矩阵处理装置、方法及处理设备
CN110705996B (zh) * 2019-10-17 2022-10-11 支付宝(杭州)信息技术有限公司 基于特征掩码的用户行为识别方法、系统、及装置
CN110705996A (zh) * 2019-10-17 2020-01-17 支付宝(杭州)信息技术有限公司 基于特征掩码的用户行为识别方法、系统、及装置
CN111078840B (zh) * 2019-12-20 2022-04-08 浙江大学 一种基于文档向量的电影评论情感分析方法
CN111126600A (zh) * 2019-12-20 2020-05-08 上海寒武纪信息科技有限公司 神经网络模型的训练方法、数据处理方法和相关产品
CN111078840A (zh) * 2019-12-20 2020-04-28 浙江大学 一种基于文档向量的电影评论情感分析方法
CN113159272A (zh) * 2020-01-07 2021-07-23 阿里巴巴集团控股有限公司 一种用于处理神经网络的方法和系统
CN111553471A (zh) * 2020-07-13 2020-08-18 北京欣奕华数字科技有限公司 一种数据分析处理方法及装置
CN112270352A (zh) * 2020-10-26 2021-01-26 中山大学 一种基于并行剪枝优化的决策树生成方法及装置
CN112465035A (zh) * 2020-11-30 2021-03-09 上海寻梦信息技术有限公司 物流配送任务分配方法、系统、设备及存储介质
CN112883982A (zh) * 2021-01-08 2021-06-01 西北工业大学 一种面向神经网络稀疏特征的数据去零编码及封装方法
CN112883982B (zh) * 2021-01-08 2023-04-18 西北工业大学 一种面向神经网络稀疏特征的数据去零编码及封装方法
CN113947185A (zh) * 2021-09-30 2022-01-18 北京达佳互联信息技术有限公司 任务处理网络生成、任务处理方法、装置、电子设备及存储介质
CN113947185B (zh) * 2021-09-30 2022-11-18 北京达佳互联信息技术有限公司 任务处理网络生成、任务处理方法、装置、电子设备及存储介质

Also Published As

Publication number Publication date
CN107689948B (zh) 2020-09-01
CN107679617A (zh) 2018-02-09
CN107689224B (zh) 2020-09-01
CN107239825A (zh) 2017-10-10
CN107239825B (zh) 2021-04-09
CN107679617B (zh) 2021-04-09
CN107689948A (zh) 2018-02-13

Similar Documents

Publication Publication Date Title
CN107689224A (zh) 合理使用掩码的深度神经网络压缩方法
CN107729999A (zh) 考虑矩阵相关性的深度神经网络压缩方法
CN107688850A (zh) 一种深度神经网络压缩方法
US10984308B2 (en) Compression method for deep neural networks with load balance
US10762426B2 (en) Multi-iteration compression for deep neural networks
US10832123B2 (en) Compression of deep neural networks with proper use of mask
CN107688849A (zh) 一种动态策略定点化训练方法及装置
CN107679618A (zh) 一种静态策略定点化训练方法及装置
CN104751842B (zh) 深度神经网络的优化方法及系统
CN111461322A (zh) 一种深度神经网络模型压缩方法
CN109740734B (zh) 一种利用优化神经元空间排布的卷积神经网络的图像分类方法
CN111104513B (zh) 一种游戏平台用户问答业务的短文本分类方法
CN109740695A (zh) 基于自适应全卷积注意力网络的图像识别方法
CN115511069A (zh) 神经网络的训练方法、数据处理方法、设备及存储介质
CN112100439B (zh) 基于依赖关系嵌入与神经注意力网络的推荐方法
CN111401547A (zh) 一种面向乘客流分析的基于循环学习单元的htm设计方法
Pietron et al. Retrain or not retrain?-efficient pruning methods of deep cnn networks
CN111382840A (zh) 一种面向自然语言处理的基于循环学习单元的htm设计方法
CN109886405A (zh) 一种抑制噪声的基于人工神经网络结构优化方法
CN110222817A (zh) 基于学习自动机的卷积神经网络压缩方法、系统及介质
CN107292322A (zh) 一种图像分类方法、深度学习模型及计算机系统
CN112651499A (zh) 一种基于蚁群优化算法和层间信息的结构化模型剪枝方法
CN108090564A (zh) 基于网络权重初始和最终状态差异的冗余权重去除方法
CN113591988B (zh) 知识认知结构分析方法、系统、计算机设备、介质、终端
Duggal et al. High Performance SqueezeNext for CIFAR-10

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
TA01 Transfer of patent application right
TA01 Transfer of patent application right

Effective date of registration: 20180611

Address after: 100083, 17 floor, 4 Building 4, 1 Wang Zhuang Road, Haidian District, Beijing.

Applicant after: Beijing deep Intelligent Technology Co., Ltd.

Address before: 100083, 8 floor, 4 Building 4, 1 Wang Zhuang Road, Haidian District, Beijing.

Applicant before: Beijing insight Technology Co., Ltd.

GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20200901

Address after: Unit 01-19, 10 / F, 101, 6 / F, building 5, yard 5, Anding Road, Chaoyang District, Beijing 100029

Patentee after: Xilinx Electronic Technology (Beijing) Co., Ltd

Address before: 100083, 17 floor, 4 Building 4, 1 Wang Zhuang Road, Haidian District, Beijing.

Patentee before: BEIJING DEEPHI TECHNOLOGY Co.,Ltd.