CN111382835B - 一种神经网络压缩方法、电子设备及计算机可读介质 - Google Patents
一种神经网络压缩方法、电子设备及计算机可读介质 Download PDFInfo
- Publication number
- CN111382835B CN111382835B CN201910029922.8A CN201910029922A CN111382835B CN 111382835 B CN111382835 B CN 111382835B CN 201910029922 A CN201910029922 A CN 201910029922A CN 111382835 B CN111382835 B CN 111382835B
- Authority
- CN
- China
- Prior art keywords
- summation
- neural network
- compression
- weight matrix
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000006835 compression Effects 0.000 title claims abstract description 247
- 238000007906 compression Methods 0.000 title claims abstract description 247
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 165
- 238000000034 method Methods 0.000 title abstract description 49
- 239000011159 matrix material Substances 0.000 claims abstract description 177
- 238000012545 processing Methods 0.000 claims description 172
- 210000002364 input neuron Anatomy 0.000 claims description 59
- 238000004364 calculation method Methods 0.000 claims description 46
- 210000004205 output neuron Anatomy 0.000 claims description 41
- 238000010801 machine learning Methods 0.000 claims description 35
- 238000012549 training Methods 0.000 claims description 31
- 238000003062 neural network model Methods 0.000 abstract description 20
- 230000001788 irregular Effects 0.000 abstract description 9
- 230000000694 effects Effects 0.000 abstract description 8
- 230000015654 memory Effects 0.000 description 33
- 210000002569 neuron Anatomy 0.000 description 25
- 238000010586 diagram Methods 0.000 description 21
- 230000008569 process Effects 0.000 description 20
- 238000009825 accumulation Methods 0.000 description 16
- 238000004422 calculation algorithm Methods 0.000 description 12
- 210000004027 cell Anatomy 0.000 description 8
- 238000013527 convolutional neural network Methods 0.000 description 8
- 238000013138 pruning Methods 0.000 description 8
- 238000004891 communication Methods 0.000 description 7
- 230000006870 function Effects 0.000 description 7
- 238000012546 transfer Methods 0.000 description 6
- 230000004913 activation Effects 0.000 description 5
- 230000003044 adaptive effect Effects 0.000 description 5
- 230000005540 biological transmission Effects 0.000 description 4
- 239000000872 buffer Substances 0.000 description 4
- 238000006243 chemical reaction Methods 0.000 description 4
- 238000004590 computer program Methods 0.000 description 4
- 238000001514 detection method Methods 0.000 description 4
- 239000000284 extract Substances 0.000 description 4
- 230000002068 genetic effect Effects 0.000 description 4
- 101100498818 Arabidopsis thaliana DDR4 gene Proteins 0.000 description 3
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 238000000354 decomposition reaction Methods 0.000 description 3
- 230000010365 information processing Effects 0.000 description 3
- 241000699670 Mus sp. Species 0.000 description 2
- 230000003139 buffering effect Effects 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 230000035772 mutation Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 108090000623 proteins and genes Proteins 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 241001465754 Metazoa Species 0.000 description 1
- 241000699666 Mus <mouse, genus> Species 0.000 description 1
- 238000005481 NMR spectroscopy Methods 0.000 description 1
- 230000003213 activating effect Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000007667 floating Methods 0.000 description 1
- 239000008187 granular material Substances 0.000 description 1
- 238000003709 image segmentation Methods 0.000 description 1
- 238000003780 insertion Methods 0.000 description 1
- 230000037431 insertion Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000009191 jumping Effects 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 238000013178 mathematical model Methods 0.000 description 1
- 230000013011 mating Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000004806 packaging method and process Methods 0.000 description 1
- 239000002245 particle Substances 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 230000000630 rising effect Effects 0.000 description 1
- 238000012163 sequencing technique Methods 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
- 238000005406 washing Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- General Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Neurology (AREA)
- Machine Translation (AREA)
- Feedback Control In General (AREA)
- Image Analysis (AREA)
Abstract
本发明实施例公开了一种神经网络压缩方法、装置、电子设备及计算机可读介质,其中方法包括:通过采用压缩的方法对第一权值矩阵进行压缩,直至压缩后的神经网络模型达到比较好的压缩效果。通过本申请,可以保证神经网络模型的拓扑结构保持不变,从而避免了神经网络模型的拓扑结构出现不规则,减少了神经网络的运算量。
Description
技术领域
本发明涉及信息处理技术领域,尤其涉及一种神经网络压缩方法、电子设备及计算机可读介质。
背景技术
神经网络是一种模仿动物神经网络行为特征,进行分布式并行信息处理的算法数学模型,这种网络由大量的节点(或称神经元)之间星湖连接构成,通过调整内部大量节点之间相互连接的关系,利用输入神经元数据、权值产生输出数据模拟人脑的信息处理过程处理信息并生成模式识别之后的结果。
目前,神经网络被广泛应用在计算机视觉的各个领域,如图像识别、物体检测、图像分割等。然而,在实际应用中,神经网络模型往往有着数量庞大的模型参数(例如,超大规模权值),在这种情况下,这意味着神经网络需要大量的计算资源和存储资源,大量的计算资源和存储资源的开销会降低神经网络的运算速度,对硬件的传输带宽以及运算器的要求也大大提高了,因此,如何在减少神经网络模型的参数的同时,降低神经网络的计算量变得十分重要。
现有技术中,通过剪枝方法对神经网络模型的参数进行调整,以减少神经网络模型的参数以及降低神经网络的计算量。以对神经网络的权值进行剪枝为例,如图1A所示,在对神经网络的权值进行剪枝之前,神经网络的拓扑结构是规则的,然而,在对神经网络的权值进行剪枝之后,容易导致神经网络模型中原有的规则的拓扑结构变得不规则。那么,如何避免神经网络模型中的拓扑结构变得不规则是亟需解决的技术问题。
发明内容
本发明实施例提供一种神经网络压缩方法、电子设备及计算机可读介质,在神经网络压缩过程中,可以保证神经网络模型的拓扑结构保持不变,从而避免了神经网络模型的拓扑结构出现不规则,减少了神经网络的运算量。
第一方面,本发明实施例提供了一种神经网络压缩方法,该方法包括:
获取第一输入数据;其中,所述第一输入数据包括第一权值矩阵;
将所述第一权值矩阵压缩为第二权值矩阵;其中,所述第二权值矩阵包括至少两个求和项;
根据第二输入数据执行神经网络计算,其中,所述第二输入数据包括所述第二权值矩阵以及输入神经元数据。
可选的,所述将所述第一权值矩阵压缩为第二权值矩阵,包括:
将所述第一权值矩阵分解成第三权值矩阵;其中,所述第三权值矩阵包括至少两个求和项;
根据第一公式确定所述至少两个求和项中的每个求和项的大小,所述第一公式为Q≈Q1+Q2+...+Qn;其中,所述Q表示第一权值矩阵;所述Q1表示所述至少两个求和项中的第一求和项,所述Q2表示所述至少两个求和项中的第二求和项,所述Qn表示所述至少两个求和项中的第n求和项,
调整所述至少两个求和项中的每个求和项的大小,并通过训练压缩后的机器学习模型,以得到满足预设精度的第二权值矩阵。
可选的,所述根据第一公式确定所述至少两个求和项中的每个求和项的大小,所述第一公式为Q≈Q1+Q2.+...+Qn,包括:
根据所述第一公式和第二公式确定所述至少两个求和项中的每个求和项的大小,所述第二公式为||Q-(Q1+Q2+......+Qn)||≤T,其中,所述T表示预设的误差阈值。
可选的,所述调整所述至少两个求和项中的每个求和项的大小,并通过训练压缩后的机器学习模型,以得到满足预设精度的第二权值矩阵,包括:
调整所述至少两个求和项中的每个求和项的大小,并通过训练压缩后的机器学习模型,以得到满足预设精度并且与所述第一权值矩阵之间的压缩比满足预设压缩比的第二权值矩阵。
可选的,所述神经网络为全连接层神经网络;所述第一公式包括:M≈M1+M2;所述两个求和项包括第一求和项M1和第二求和项M2,所述第一求和项所述第一求和项M1中包括(n1-1)个压缩参数K1;所述(n1-1)个压缩参数K1中的第1个压缩参数K11用于表征所述M11的输出神经元的个数,所述(n1-1)个压缩参数K1中的第(n1-1)个压缩参数用于表征所述的输入神经元的个数;所述第二求和项所述第二求和项M2中包括(n2-1)个压缩参数K2,所述(n2-1)个压缩参数中的第1个压缩参数K21用于表征所述M21的输出神经元的个数,所述(n2-1)个压缩参数中的第(n2-1)个压缩参数用于表征所述的输入神经元的个数;所述K1和所述K2为大于0且小于等于min(Nin,Nout)的正整数。
可选的,所述神经网络为卷积层神经网络;所述卷积层神经网络包括Nfin*Nfout个卷积核;所述第一公式包括:F≈F1*F2;其中,F表示所述Nfin*Nfout个卷积核中的任意一个卷积核;所述F1为第一求和项;所述F2为第二求和项;所述第一求和项所述第一求和项F1中包括(n1-1)个压缩参数R1;所述第二求和项所述第二求和项F2中包括(n2-1)个压缩参数R2,(Kx,Ky)表示卷积核的大小,所述R1和所述R2为大于0且小于等于min(Kx,Ky)的正整数。
可选的,所述神经网络为LSTM层神经网络;所述LSTM层包括N个全连接层,所述N为大于0的正整数;针对第j个全连接层,所述第一公式包括:Mj≈Mj_1*Mj_2;所述第j个全连接层中的两个求和项包括第一求和项Mj_1和第二求和项Mj_2,所述第一求和项所述第一求和项Mj_1中包括(n1-1)个压缩参数S1;所述(n1-1)个压缩参数S1中的第1个压缩参数Sj_11用于表征所述Mj_1的输出神经元的个数,所述(n1-1)个压缩参数S1中的第(n1-1)个压缩参数用于表征所述的输入神经元的个数;所述第二求和项所述第二求和项Mj_2中包括(n2-1)个压缩参数S2,所述(n2-1)个压缩参数中的第1个压缩参数Sj_21用于表征所述Mj_21的输出神经元的个数,所述(n2-1)个压缩参数中的第(n2-1)个压缩参数用于表征所述的输入神经元的个数;所述S1和所述S2为大于0且小于等于min(Nin,Nout)的正整数。
第二方面,本发明实施例提供了一种神经网络压缩装置,该装置包括用于执行上述第一方面的方法的单元。具体地,该装置包括:
获取单元,用于获取第一输入数据;其中,所述第一输入数据包括第一权值矩阵;
压缩单元,用于将所述第一权值矩阵压缩为第二权值矩阵;其中,其中,所述第二权值矩阵包括至少两个求和项;
计算单元,用于根据第二输入数据执行神经网络计算,其中,所述第二输入数据包括所述第二权值矩阵以及输入神经元数据。
可选的,所述压缩单元包括:
分解单元,用于将所述第一权值矩阵分解成第三权值矩阵;其中,所述第三权值矩阵包括至少两个求和项;
求解单元,用于根据第一公式确定所述至少两个求和项中的每个求和项的大小,所述第一公式为Q≈Q1+Q2+...+Qn;其中,所述Q表示第一权值矩阵;所述Q1表示所述至少两个求和项中的第一求和项,所述Q2表示所述至少两个求和项中的第二求和项,所述Qn表示所述至少两个求和项中的第n求和项,
训练单元,用于调整所述至少两个求和项中的每个求和项的大小,并通过训练压缩后的机器学习模型,以得到满足预设精度的第二权值矩阵。
可选的,所述求解单元具体用于:
根据所述第一公式和第二公式确定所述至少两个求和项中的每个求和项的大小,所述第二公式为||Q-(Q1+Q2+......+Qn)||≤T,其中,所述T表示预设的误差阈值。
可选的,所述训练单元具体用于:
调整所述至少两个求和项中的每个求和项的大小,并通过训练压缩后的机器学习模型,以得到满足预设精度并且与所述第一权值矩阵之间的压缩比满足预设压缩比的第二权值矩阵。
可选的,所述神经网络为全连接层神经网络;所述第一公式包括:M≈M1+M2;所述两个求和项包括第一求和项M1和第二求和项M2,所述第一求和项所述第一求和项M1中包括(n1-1)个压缩参数K1;所述(n1-1)个压缩参数K1中的第1个压缩参数K11用于表征所述M11的输出神经元的个数,所述(n1-1)个压缩参数K1中的第(n1-1)个压缩参数用于表征所述的输入神经元的个数;所述第二求和项所述第二求和项M2中包括(n2-1)个压缩参数K2,所述(n2-1)个压缩参数中的第1个压缩参数K21用于表征所述M21的输出神经元的个数,所述(n2-1)个压缩参数中的第(n2-1)个压缩参数用于表征所述的输入神经元的个数;所述K1和所述K2为大于0且小于等于min(Nin,Nout)的正整数。
可选的,所述神经网络为卷积层神经网络;所述卷积层神经网络包括Nfin*Nfout个卷积核;所述第一公式包括:F≈F1*F2;其中,F表示所述Nfin*Nfout个卷积核中的任意一个卷积核;所述F1为第一求和项;所述F2为第二求和项;所述第一求和项所述第一求和项F1中包括(n1-1)个压缩参数R1;所述第二求和项所述第二求和项F2中包括(n2-1)个压缩参数R2,(Kx,Ky)表示卷积核的大小,所述R1和所述R2为大于0且小于等于min(Kx,Ky)的正整数。
可选的,所述神经网络为LSTM层神经网络;所述LSTM层包括N个全连接层,所述N为大于0的正整数;针对第j个全连接层,所述第一公式包括:Mj≈Mj_1*Mj_2;所述第j个全连接层中的两个求和项包括第一求和项Mj_1和第二求和项Mj_2,所述第一求和项所述第一求和项Mj_1中包括(n1-1)个压缩参数S1;所述(n1-1)个压缩参数S1中的第1个压缩参数Sj_11用于表征所述Mj_1的输出神经元的个数,所述(n1-1)个压缩参数S1中的第(n1-1)个压缩参数用于表征所述的输入神经元的个数;所述第二求和项所述第二求和项Mj_2中包括(n2-1)个压缩参数S2,所述(n2-1)个压缩参数中的第1个压缩参数Sj_21用于表征所述Mj_21的输出神经元的个数,所述(n2-1)个压缩参数中的第(n2-1)个压缩参数用于表征所述的输入神经元的个数;所述S1和所述S2为大于0且小于等于min(Nin,Nout)的正整数。
第三方面,本发明实施例提供了另一种电子设备,包括处理器、输入设备、输出设备和存储器,所述处理器、输入设备、输出设备和存储器相互连接,其中,所述存储器用于存储支持电子设备执行上述方法的计算机程序,所述计算机程序包括程序指令,所述处理器被配置用于调用所述程序指令,执行上述第一方面的方法。
第四方面,本发明实施例提供了一种计算机可读存储介质,所述计算机存储介质存储有计算机程序,所述计算机程序包括程序指令,所述程序指令当被处理器执行时使所述处理器执行上述第一方面的方法。
第五方面,本发明实施例提供了一种计算机程序,所述计算机程序包括程序指令,所述程序指令当被处理器执行时使所述处理器执行上述第一方面的方法。
本发明实施例通过对第一权值矩阵进行分解,可以得到包含压缩参数的至少两个求和项,之后,根据公式求解这至少两个求和项中的每个求和项的大小,并通过训练压缩后的神经网络以获得满足预设精度的第二权值矩阵,解决了现有技术中采用神经网络剪枝算法容易带来的神经网络的拓扑结构出现不规则的情形,可以对神经网络进行深度压缩,可以减少神经网络的计算量,提高运算速度。
附图说明
为了更清楚地说明本发明实施例技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍。
图1A是本申请实施例提供的一种对神经网络剪枝的操作示意图;
图1B是本申请实施例提供的一种神经网络压缩方法的流程示意图;
图2A是本申请实施例提供的一种神经网络架构的示意图;
图2B是本申请实施例提供的一种全连接层权值矩阵的示意图;
图2C是本申请实施例提供的一种卷积层中卷积核的结构示意图;
图3A是本申请实施例提供的一种神经网络压缩装置的结构示意图;
图3B是本申请实施例提供的一种压缩单元的结构示意图;
图4是本发明实施例提供的一种电子设备的结构示意图;
图5是本申请实施例提供的一种计算装置的结构示意图;
图6是本申请实施例提供的一种控制单元的结构示意图;
图7是本申请实施例提供的一种神经网络运算方法的流程示意图;
图8是本申请实施例提供的另一种计算装置的结构示意图;
图9是本申请实施例提供的主处理电路的结构示意图;
图10是本申请实施例提供的另一种计算装置的结构示意图;
图11是本申请实施例提供的树型模块的结构示意图;
图12是本申请实施例提供的又一种计算装置的结构图;
图13是本申请实施例提供的还一种计算装置的结构图;
图14是本申请实施例提供的另一种计算装置的结构图;
图15是本申请实施例提供的一种组合处理装置的结构图;
图16是本申请实施例提供的另一种组合处理装置的结构图;
图17是本申请实施例提供的一种板卡的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行描述。
具体实现中,本发明实施例中描述的电子设备包括但不限于诸如具有触摸敏感表面(例如,触摸屏显示器和/或触摸板)的移动电话、膝上型计算机或平板计算机之类的其它便携式设备。还应当理解的是,在某些实施例中,所述设备并非便携式通信设备,而是具有触摸敏感表面(例如,触摸屏显示器和/或触摸板)的台式计算机。
在接下来的讨论中,描述了包括显示器和触摸敏感表面的电子设备。然而,应当理解的是,电子设备可以包括诸如物理键盘、鼠标和/或控制杆的一个或多个其它物理用户接口设备。
电子设备支持各种应用程序,例如以下中的一个或多个:绘图应用程序、演示应用程序、文字处理应用程序、网站创建应用程序、盘刻录应用程序、电子表格应用程序、游戏应用程序、电话应用程序、视频会议应用程序、电子邮件应用程序、即时消息收发应用程序、锻炼支持应用程序、照片管理应用程序、数码相机应用程序、数字摄影机应用程序、web浏览应用程序、数字音乐播放器应用程序和/或数字视频播放器应用程序。
可以在电子设备上执行的各种应用程序可以使用诸如触摸敏感表面的至少一个公共物理用户接口设备。可以在应用程序之间和/或相应应用程序内调整和/或改变触摸敏感表面的一个或多个功能以及电子设备上显示的相应信息。这样,电子设备的公共物理架构(例如,触摸敏感表面)可以支持具有对用户而言直观且透明的用户界面的各种应用程序。
下面结合图1B所示的本发明实施例提供的神经网络压缩方法的流程示意图,具体说明本发明是如何实现针对第一权值矩阵的压缩,以得到第二权值矩阵的,可以包括但不限于如下步骤:
步骤S100、获取第一输入数据;其中,所述第一输入数据包括第一权值矩阵。
具体实现中,第一权值矩阵中的权值数据可以为任意实数。这里,权值数据是指神经网络层与层之间的连接值,也即神经元之间的信息传递强度。
在其中一个实施方式中,第三权值矩阵中包括两个求和项,例如,第一求和项其中,第一求和项中包括(n1-1)个压缩参数K1值;第二求和项其中,第二求和项中包括(n2-1)个压缩参数K2值。这里,压缩参数K1以及压缩参数K2为未知数,也即,在对第一权值矩阵进行分解时,可以确定第一权值矩阵可以分解为两个求和项,但是不确定这两个求和项的具体大小。这里,当n1与n2不同时,表示Q1和Q2可以是不同个数的矩阵相乘。当n1与n2相同时,表示Q1和Q2是相同个数的矩阵相乘。
在其中另一个实施方式中,第三权值矩阵中的求和项的数量为n个,这里,n为大于2的正整数。这n个求和项中包括的压缩参数K的数量为个,其中,D=n。以将第一权值矩阵分为三个求和项为例,待求解的压缩参数K可以包括(n1-1)个压缩参数K1、(n2-1)个压缩参数K2以及(n3-1)个压缩参数K3。
步骤S102、将所述第一权值矩阵压缩为第二权值矩阵;其中,第二权值矩阵中包括至少两个求和项。
在其中一个实施方式中,所述将所述第一权值矩阵调整为第二权值矩阵,包括:
将所述第一权值矩阵分解成第三权值矩阵;其中,所述第三权值矩阵包括至少两个求和项;
根据第一公式确定所述至少两个求和项中的每个求和项的大小,所述第一公式为Q≈Q1+Q2+...+Qn;其中,所述Q表示第一权值矩阵;所述Q1表示所述至少两个求和项中的第一求和项,所述Q2表示所述至少两个求和项中的第二求和项,所述Qn表示所述至少两个求和项中的第n求和项,
调整所述至少两个求和项中的每个求和项的大小,并通过训练压缩后的机器学习模型,以得到满足预设精度的第二权值矩阵。
具体实现中,第一公式中的n表示求和项的数量,第一求和项以及第二求和项中的“*”表示矩阵的乘积运算。
在其中一个实施方式中,当第三权值矩阵中包括两个求和项时,第一公式可以表示为:
Q≈Q1+Q2 (1.1)
在其中另一个实施方式中,当第三权值矩阵中包括至少两个求和项时,第一公式可以表示为:
Q≈Q1+Q2+...+Qn (1.2)
上述公式(1.2)中,n为大于2的正整数。
例如,第一公式可以表示为如下所示:
具体实现中,根据所述第一公式和第二公式确定所述至少两个求和项中的每个求和项的大小,所述第二公式为||Q-(Q1+Q2+......+Qn)||≤T,其中,所述T表示预设的误差阈值。
具体实现中,这里所涉及的预设的误差阈值可以为5%-10%之间。可以理解的是,设置的预设的误差阈值越小,根据第一公式以及第二公式确定的至少两个求和项可以更好的表示第一权值矩阵的属性特征。
具体实现中,调整所述至少两个求和项中的每个求和项的大小的过程,其实质是压缩参数K值的动态变化过程,以寻找最佳的压缩参数K。随着压缩参数K值发生变化,针对第一权值矩阵与第二权值矩阵之间的压缩比也会发生变化。
以语音识别的应用场景为例,在某一段单词序列中,可能存在一些单词被错误地插入、删除或替换的情况。例如,对于包含N个单词的一段初始识别文字而言,如果有I个单词背插入、D个单词被删除以及E个文字被替换,那么,词错误率WER(Word Error Rate,WER)为:
WER=(I+D+E)/N (1.4)
其中,错误率WER通常用百分比表示。
在采用神经网络模型识别该段单词序列时,可以得到该段单词序列的词错误率的检测精度。在本发明实施例中,这里所涉及的预设精度为压缩前的神经网络模型针对词错误率WER的检测精度。例如,该预设精度为70%。在一般情况下,压缩后的神经网络的错误率WER会变大,这意味着压缩后的神经网络的精度会变差。
在发明实施例中,通过测量不同压缩比(压缩参数K值不同)所对应的神经网络模型的词错误率的检测精度,以得到满足预设精度的第二权值矩阵。
在一种优选的实施方式中,所述训练单元,用于调整所述至少两个求和项中的每个求和项的大小,并通过训练压缩后的机器学习模型,以得到满足预设精度的第二权值矩阵,包括:
所述训练单元,具体用于调整所述至少两个求和项中的每个求和项的大小,并通过训练压缩后的机器学习模型,以得到满足预设精度并且与所述第一权值矩阵之间的压缩比满足预设压缩比的第二权值矩阵。
可以理解的是,在该实施方式中,当前状态下的压缩参数K值不仅可以使得神经网络模型获得最优的压缩效果,还可以使得该压缩后的神经网络模型在检测词错误率WER时满足预设精度。在神经网络模型处于最优的压缩效果时,可以进一步地减少神经网络的运算量。
具体实现中,将第一权值矩阵压缩为第二权值矩阵的实现过程中,当应用到不同的神经网络时(例如,全连接层神经网络、卷积层神经网络、LSTM层神经网络),上述所涉及的针对第一权值矩阵的分解操作、求解至少两个求和项中的每个求和项以及调整至少两个求和项中的每个求和项以获得满足预设精度的第二权值矩阵将有所差异,接下来将进行具体阐述:
(1)全连接层神经网络:
全连接层是指对n-1层和n层而言,n-1层的任意一个节点,都和n层的所有节点有连接。具体地,参见图2A,是本发明实施例提供的一种神经网络的一维全连接层的结构示意图,如图2A所示,该神经网络包括输入层、隐含层以及输出层,其中,输入层到隐含层之间的这一全连接层的二维参数矩阵为(3,4),该二维参数矩阵(3,4)表示在输入层到隐含层之间的全连接层结构中,输入神经元的个数为3,输出神经元的个数为4,权值数量为12。具体实现中,这12个权值可以表示为4行3列的权值矩阵,其权值矩阵的表现形式可以如图2B所示。
在全连接层神经网络中,所述第一公式包括:M≈M1+M2;所述两个求和项包括第一求和项M1和第二求和项M2,所述第一求和项所述第一求和项M1中包括(n1-1)个压缩参数K1;所述(n1-1)个压缩参数K1中的第1个压缩参数K11用于表征所述M11的输出神经元的个数,所述(n1-1)个压缩参数K1中的第(n1-1)个压缩参数用于表征所述的输入神经元的个数;所述第二求和项所述第二求和项M2中包括(n2-1)个压缩参数K2,所述(n2-1)个压缩参数中的第1个压缩参数K21用于表征所述M21的输出神经元的个数,所述(n2-1)个压缩参数中的第(n2-1)个压缩参数用于表征所述的输入神经元的个数;所述K1和所述K2为大于0且小于等于min(Nin,Nout)的正整数。
如前所述,调整两个求和项的每个求和项的大小的过程,其实质是压缩参数K值的动态变化过程,以寻找最佳的压缩参数K。具体实现中,压缩参数K值不同,也即基于多个不同压缩比对第一权值矩阵进行压缩,这里,在全连接层神经网络中,压缩比为
在实际应用中,可以采用自适应算法(例如,遗传算法)来确定全连接层神经网络中的个压缩参数K值,这里,D是指第一公式中的求和项数,从而得到满足预设精度和/或满足压缩效果的第二权值矩阵。接下来具体阐述是如何采用遗传算法来确定全连接层神经网络中的个压缩参数K(例如,Kij)值的:
步骤1:随机产生种群:设定种群的规模为P个,设置最大迭代次数Tmax,例如,Tmax=100。在初始状态下,设置迭代次数计数器t=0;交叉概率Pc=A(例如,A=0.4),变异概率Pm=B(例如,B=0.6),种群的矩阵每一行表示一个基因串个体,每一列表示个体的数目;这里,每一个个体是一组关于压缩参数K(例如,Kij)值的解;
步骤2:计算种群中每个个体的适应度;这里,适应度是指该个体对应的第一权值矩阵与第二权值矩阵的压缩比和/或精度,其中,压缩比用于表征针对神经网络的压缩效果。
步骤3:将选择算子作用于种群,把优化的个体直接遗传到下一代;
步骤4:将交叉算子中作用于种群,对于任意两个个体,随机产生若干基因串的位置点,交换两个个体该位置上的值;
步骤5:将变异算子作用于种群,对于任意个体,随机产生若干基因串的位置,然后改动这些位置上的值;这里,变异是指随机改变Kij的值;
步骤6:保留每一代中适应度最高的个体,进入下一代;
步骤7:判断是否达到最大迭代次数Tmax,若t=Tmax,则输出具有最大适应度的个体,终止计算;否则,跳到步骤2继续执行。
从而可以根据上述遗传算法来确定全连接层神经网络中的个压缩参数K值。
在其中一个实施方式中,通过自适应算法确定的个压缩参数K可以使得第二权值矩阵满足预设精度。
在其中另一个实施方式中,通过自适应算法确定的个压缩参数K可以使得第二权值矩阵满足预设精度的同时,第一权值矩阵与第二权值矩阵的压缩比满足预设压缩比,也即,针对该神经网络模型的压缩获得较优的压缩效果。
(2)卷积层神经网络:
以神经网络的卷积层为例,如图2C所示,卷积层可以认为是一个四维矩阵(Nfin,Nfout,Kx,Ky),其中,Nfin为输入特征图像的数量,Nfout为输出特征图像的数量,(Kx,Ky)为卷积层中卷积核的大小。
在卷积层神经网络中,所述卷积层神经网络包括Nfin*Nfout个卷积核;所述第一公式包括:F≈F1*F2;其中,F表示所述Nfin*Nfout个卷积核中的任意一个卷积核;所述F1为第一求和项;所述F2为第二求和项;所述第一求和项所述第一求和项F1中包括(n1-1)个压缩参数R1;所述第二求和项所述第二求和项F2中包括(n2-1)个压缩参数R2,(Kx,Ky)表示卷积核的大小,所述R1和所述R2为大于0且小于等于min(Kx,Ky)的正整数。
如前所述,调整两个求和项的每个求和项的大小的过程,其实质是压缩参数R值的动态变化过程,以寻找最佳的压缩参数R。在实际应用中,可以自适应算法确定个压缩参数R值,详情请参考前述描述,此处不多加赘述。
具体实现中,压缩参数R值不同,也即基于多个不同压缩比对第一权值矩阵进行压缩,这里,在卷积层神经网络中,压缩比
(3)LSTM层神经网络:
以神经网络的长短时记忆LSTM层(LSTM,Long Short-term Memory)为例,LSTM层的权值由多个全连接层权值组成。假设LSTM层的权值由t个全连接层权值组成,t为大于0的正整数。例如,第j个全连接层权值分别为(Nin_j,Nout_j),其中,Nin_j表示第j个全连接层输入神经元个数,Nout_j表示第j个全连接层输出神经元个数,第j个全连接层的权值数量为Nin_j*Nout_j。
在LSTM层神经网络中,所述LSTM层包括N个全连接层,所述N为大于0的正整数;针对第j个全连接层,所述第一公式包括:Mj≈Mj_1*Mj_2;所述第j个全连接层中的两个求和项包括第一求和项Mj_1和第二求和项Mj_2,所述第一求和项所述第一求和项Mj_1中包括(n1-1)个压缩参数S1;所述(n1-1)个压缩参数S1中的第1个压缩参数Sj_11用于表征所述Mj_1的输出神经元的个数,所述(n1-1)个压缩参数S1中的第(n1-1)个压缩参数用于表征所述的输入神经元的个数;所述第二求和项所述第二求和项Mj_2中包括(n2-1)个压缩参数S2,所述(n2-1)个压缩参数中的第1个压缩参数Sj_21用于表征所述Mj_21的输出神经元的个数,所述(n2-1)个压缩参数中的第(n2-1)个压缩参数用于表征所述的输入神经元的个数;所述S1和所述S2为大于0且小于等于min(Nin,Nout)的正整数。
如前所述,调整两个求和项的每个求和项的大小的过程,其实质是压缩参数S值的动态变化过程,以寻找最佳的压缩参数S。在实际应用中,可以通过上述自适应算法来确定卷积层神经网络中的个压缩参数S值,从而得到满足预设精度的第二权值矩阵。
具体实现中,针对第j个全连接层,压缩参数S值不同,也即基于多个不同压缩比对第一权值矩阵进行压缩,这里,在第j个全连接层中,压缩比
步骤S104、根据第二输入数据执行神经网络计算,其中,第二输入数据包括第二权值矩阵以及神经元数据。
在实际应用中,这里所涉及的神经网络计算可以包括人工神经网络运算,也可以包括卷积神经网络运算等等。
以人工神经网络运算为例,对于人工神经网络运算来说,如果该人工神经网络运算具有多层运算,多层运算的输入神经元和输出神经元并非是指整个神经网络的输入层中神经元和输出层中神经元,而是对于网络中任意相邻的两层,处于网络正向运算下层中的神经元即为输入神经元,处于网络正向运算上层中的神经元即为输出神经元。以卷积神经网络为例,设一个卷积神经网络有L层,K=1,2,...,L-1,对于第K层和第K+1层来说,我们将第K层称为输入层,其中的神经元为所述输入神经元,第K+1层称为输出层,其中的神经元为所述输出神经元。即除最顶层外,每一层都可以作为输入层,其下一层为对应的输出层。
具体实现中,对于神经网络中的运算可以为神经网络中的一层的运算,对于多层神经网络,其实现过程是,在正向运算中,当上一层人工神经网络执行完成之后,下一层的运算指令会将运算单元中计算出的输出神经元作为下一层的输入神经元进行运算(或者是对该输出神经元进行某些操作再作为下一层的输入神经元),同时,将权值也替换为下一层的权值;在反向运算中,当上一层人工神经网络的反向运算执行完成后,下一层运算指令会将运算单元中计算出的输入神经元梯度作为下一层的输出神经元梯度进行运算(或者是对该输入神经元梯度进行某些操作再作为下一层的输出神经元梯度),同时将权值替换为下一层的权值。
本发明实施例通过对第一权值矩阵进行分解,可以得到包含多个压缩参数的至少两个求和项,之后,根据公式求解这至少两个求和项中的每个求和项,并通过训练压缩后的神经网络以获得满足预设精度的第二权值矩阵,解决了现有技术中采用神经网络剪枝算法容易带来的神经网络的拓扑结构出现不规则的情形,可以对神经网络进行深度压缩,可以减少神经网络的计算量,提高运算速度。
为了便于更好地实施本发明实施例的上述方案,本发明还对应提供了一种神经网络压缩装置,下面结合附图来进行详细说明:
如图3A所示的本发明实施例提供的神经网络压缩装置的结构示意图,该神经网络压缩装置包括:获取单元300、压缩单元13以及计算单元304;
其中,所述获取单元300,用于获取第一输入数据;其中,所述第一输入数据包括第一权值矩阵;
所述压缩单元13,用于将所述第一权值矩阵压缩为第二权值矩阵;其中,所述第二权值矩阵中包括至少两个求和项;
所述计算单元304,用于根据第二输入数据执行神经网络计算,其中,所述第二输入数据包括所述第二权值矩阵以及输入神经元数据。
在其中一个实施方式中,如图3B所示,压缩单元13包括分解单元130、求解单元131以及训练单元132;
其中,所述分解单元130,用于将所述第一权值矩阵分解成第三权值矩阵;其中,所述第三权值矩阵包括至少两个求和项;
所述求解单元131,用于根据第一公式确定所述至少两个求和项中的每个求和项的大小,所述第一公式为Q≈Q1+Q2+...+Qn;其中,所述Q表示第一权值矩阵;所述Q1表示所述至少两个求和项中的第一求和项,所述Q2表示所述至少两个求和项中的第二求和项,所述Qn表示所述至少两个求和项中的第n求和项,
所述训练单元132,用于调整所述至少两个求和项中的每个求和项的大小,并通过训练压缩后的机器学习模型,以得到满足预设精度的第二权值矩阵。
可选的,所述求解单元131,具体用于根据所述第一公式和第二公式确定所述至少两个求和项中的每个求和项的大小,所述第二公式为||Q-(Q1+Q2+......+Qn)||≤T,其中,所述T表示预设的误差阈值。
可选的,所述训练单元132,具体用于调整所述至少两个求和项中的每个求和项的大小,并通过训练压缩后的机器学习模型,以得到满足预设精度并且与所述第一权值矩阵之间的压缩比满足预设压缩比的第二权值矩阵。
可选的,所述神经网络包括全连接层神经网络;所述第一公式包括:M≈M1+M2;所述两个求和项包括第一求和项M1和第二求和项M2,所述第一求和项所述第一求和项M1中包括(n1-1)个压缩参数K1;所述(n1-1)个压缩参数K1中的第1个压缩参数K11用于表征所述M11的输出神经元的个数,所述(n1-1)个压缩参数K1中的第(n1-1)个压缩参数用于表征所述的输入神经元的个数;所述第二求和项所述第二求和项M2中包括(n2-1)个压缩参数K2,所述(n2-1)个压缩参数中的第1个压缩参数K21用于表征所述M21的输出神经元的个数,所述(n2-1)个压缩参数中的第(n2-1)个压缩参数用于表征所述的输入神经元的个数;所述K1和所述K2为大于0且小于等于min(Nin,Nout)的正整数。
可选的,所述神经网络包括卷积层神经网络;所述卷积层神经网络包括Nfin*Nfout个卷积核;所述第一公式包括:F≈F1*F2;其中,F表示所述Nfin*Nfout个卷积核中的任意一个卷积核;所述F1为第一求和项;所述F2为第二求和项;所述第一求和项所述第一求和项F1中包括(n1-1)个压缩参数R1;所述第二求和项所述第二求和项F2中包括(n2-1)个压缩参数R2,(Kx,Ky)表示卷积核的大小,所述R1和所述R2为大于0且小于等于min(Kx,Ky)的正整数。
可选的,所述神经网络包括LSTM层神经网络,所述LSTM层包括N个全连接层,所述N为大于0的正整数;针对第j个全连接层,所述第一公式包括:Mj≈Mj_1*Mj_2;所述第j个全连接层中的两个求和项包括第一求和项Mj_1和第二求和项Mj_2,所述第一求和项所述第一求和项Mj_1中包括(n1-1)个压缩参数S1;所述(n1-1)个压缩参数S1中的第1个压缩参数Sj_11用于表征所述Mj_1的输出神经元的个数,所述(n1-1)个压缩参数S1中的第(n1-1)个压缩参数用于表征所述的输入神经元的个数;所述第二求和项所述第二求和项Mj_2中包括(n2-1)个压缩参数S2,所述(n2-1)个压缩参数中的第1个压缩参数Sj_21用于表征所述Mj_21的输出神经元的个数,所述(n2-1)个压缩参数中的第(n2-1)个压缩参数用于表征所述的输入神经元的个数;所述S1和所述S2为大于0且小于等于min(Nin,Nout)的正整数。
本发明实施例通过对第一权值矩阵进行分解,可以得到包含压缩参数的至少两个求和项,之后,根据公式求解这至少两个求和项中的每个求和项,并通过训练压缩后的神经网络以获得满足预设精度的第二权值矩阵,解决了现有技术中采用神经网络剪枝算法容易带来的神经网络的拓扑结构出现不规则的情形,对神经网络进行深度压缩,可以减少神经网络的计算量,提高运算速度。
为了便于更好地实施本发明实施例的上述方案,本发明还对应提供了另一种电子设备,下面结合附图来进行详细说明:
如图4示出的本发明实施例提供的电子设备的结构示意图,电子设备40可以包括处理器401、存储器404和通信模块405,处理器401、存储器404和通信模块405可以通过总线406相互连接。存储器404可以是高速随机存储记忆体(Random Access Memory,RAM)存储器,也可以是非易失性的存储器(non-volatile memory),例如至少一个磁盘存储器。存储器404可选的还可以是至少一个位于远离前述处理器401的存储系统。存储器404用于存储应用程序代码,可以包括操作系统、网络通信模块、用户接口模块以及数据处理程序,通信模块405用于与外部设备进行信息交互;处理器401被配置用于调用该程序代码,执行以下步骤:
获取第一输入数据;其中,所述第一输入数据包括第一权值矩阵;
将所述第一权值矩阵压缩为第二权值矩阵;其中,所述第二权值矩阵中包括至少两个求和项;
根据第二输入数据执行神经网络计算,其中,所述第二输入数据包括所述第二权值矩阵以及输入神经元数据。
其中,处理器401将所述第一权值矩阵压缩为第二权值矩阵;其中,所述第二权值矩阵中包括至少两个求和项,可以包括:
将所述第一权值矩阵分解成第三权值矩阵;其中,所述第三权值矩阵包括至少两个求和项;
根据第一公式确定所述至少两个求和项中的每个求和项的大小,所述第一公式为Q≈Q1+Q2+...+Qn;其中,所述Q表示第一权值矩阵;所述Q1表示所述至少两个求和项中的第一求和项,所述Q2表示所述至少两个求和项中的第二求和项,所述Qn表示所述至少两个求和项中的第n求和项,
调整所述至少两个求和项中的每个求和项的大小,并通过训练压缩后的机器学习模型,以得到满足预设精度的第二权值矩阵。
其中,处理器401根据第一公式确定所述至少两个求和项中的每个求和项的大小,所述第一公式为Q≈Q1+Q2.+...+Qn,可以包括:
根据所述第一公式和第二公式确定所述至少两个求和项中的每个求和项的大小,所述第二公式为||Q-(Q1+Q2+......+Qn)||≤T,其中,所述T表示预设的误差阈值。
其中,处理器401调整所述至少两个求和项中的每个求和项的大小,并通过训练压缩后的机器学习模型,以得到满足预设精度的第二权值矩阵,可以包括:
调整所述至少两个求和项中的每个求和项的大小,并通过训练压缩后的机器学习模型,以得到满足预设精度并且与所述第一权值矩阵之间的压缩比满足预设压缩比的第二权值矩阵。
其中,所述神经网络为全连接层神经网络;所述第一公式包括:M≈M1+M2;所述两个求和项包括第一求和项M1和第二求和项M2,所述第一求和项所述第一求和项M1中包括(n1-1)个压缩参数K1;所述(n1-1)个压缩参数K1中的第1个压缩参数K11用于表征所述M11的输出神经元的个数,所述(n1-1)个压缩参数K1中的第(n1-1)个压缩参数用于表征所述的输入神经元的个数;所述第二求和项所述第二求和项M2中包括(n2-1)个压缩参数K2,所述(n2-1)个压缩参数中的第1个压缩参数K21用于表征所述M21的输出神经元的个数,所述(n2-1)个压缩参数中的第(n2-1)个压缩参数用于表征所述的输入神经元的个数;所述K1和所述K2为大于0且小于等于min(Nin,Nout)的正整数。
其中,所述神经网络为卷积层神经网络;所述卷积层神经网络包括Nfin*Nfout个卷积核;所述第一公式包括:F≈F1*F2;其中,F表示所述Nfin*Nfout个卷积核中的任意一个卷积核;所述F1为第一求和项;所述F2为第二求和项;所述第一求和项所述第一求和项F1中包括(n1-1)个压缩参数R1;所述第二求和项所述第二求和项F2中包括(n2-1)个压缩参数R2,(Kx,Ky)表示卷积核的大小,所述R1和所述R2为大于0且小于等于min(Kx,Ky)的正整数。
其中,所述神经网络为LSTM层神经网络;所述LSTM层神经网络包括N个全连接层,所述N为大于0的正整数;针对第j个全连接层,所述第一公式包括:Mj≈Mj_1*Mj_2;所述第j个全连接层中的两个求和项包括第一求和项Mj_1和第二求和项Mj_2,所述第一求和项所述第一求和项Mj_1中包括(n1-1)个压缩参数S1;所述(n1-1)个压缩参数S1中的第1个压缩参数Sj_11用于表征所述Mj_1的输出神经元的个数,所述(n1-1)个压缩参数S1中的第(n1-1)个压缩参数用于表征所述的输入神经元的个数;所述第二求和项所述第二求和项Mj_2中包括(n2-1)个压缩参数S2,所述(n2-1)个压缩参数中的第1个压缩参数Sj_21用于表征所述Mj_21的输出神经元的个数,所述(n2-1)个压缩参数中的第(n2-1)个压缩参数用于表征所述的输入神经元的个数;所述S1和所述S2为大于0且小于等于min(Nin,Nout)的正整数。
需要说明的是,本发明实施例中的电子设备40中处理器的执行步骤可参考上述各方法实施例中图1B实施例中的电子设备运行的具体实现方式,这里不再赘述。
在实际应用中,电子设备40中的处理器401包括但不限于只有一个。在其中一个实施方式中,电子设备40中还包括处理图像的图形处理器GPU(GPU,Graphic ProcessingUni),也还可以包括嵌入式神经网络处理器(NPU,Neural-network Process Units)。此时,针对神经网络的压缩方法可以被集成在NPU中。在其中一个实施方式中,处理器401可以控制NPU执行针对第一权值矩阵的压缩方法。
在具体实现中,如前所述,电子设备40可以包括数据处理装置、机器人、电脑、打印机、扫描仪、平板电脑、智能终端、手机、行车记录仪、导航仪、传感器、摄像头、服务器、云端服务器、相机、摄像机、投影仪、手表、耳机、移动存储、可穿戴设备、交通工具、家用电器、和/或医疗设备,本发明实施例不作具体限定。
本发明实施例还提供了一种计算机存储介质,用于存储为上述图1B所示的电子设备所用的计算机软件指令,其包含用于执行上述方法实施例所涉及的程序。通过执行存储的程序,可以实现针对第一权值矩阵的压缩,以得到满足预设精度的第二权值矩阵,从而避免了神经网络模型的拓扑结构出现不规则,减少了神经网络的运算量。
如前所述,本申请所提供的一种压缩单元,可以用于将第一权值矩阵压缩得到第二权值矩阵,以避免神经网络模型的拓扑结构出现不规则的问题。在实际应用中,上述压缩单元可以用于神经网络计算中,具体地,用于执行神经网络计算的计算装置中,下面结合图5所示的计算装置对本发明进行介绍。
参阅图5,图5是本发明实施例提供的一种计算装置的结构示意图,该计算装置用于执行机器学习计算,该计算装置包括:控制器单元11、运算单元12以及压缩单元13,其中,控制器单元11分别与运算单元12以及压缩单元13连接;
其中,控制器单元11,用于获取针对第一输入数据的压缩请求,并根据所述压缩请求指示所述压缩单元对所述第一输入数据进行压缩;其中,所述第一输入数据包括第一权值矩阵;在一种可选方案中,该压缩请求可以通过数据输入输出单元进行触发的,该数据输入输出单元具体可以为一个或多个数据I/O接口或I/O引脚;
所述压缩单元13,用于将所述第一权值矩阵压缩为第二权值矩阵;其中,第二权值矩阵中包括至少两个求和项;
具体实现中,所述压缩单元13包括分解单元131、求解单元132以及训练单元133。其中,分解单元131,用于将所述第一权值矩阵分解成第三权值矩阵;其中,所述第三权值矩阵包括至少两个求和项;求解单元132,用于根据第一公式确定所述至少两个求和项中的每个求和项的大小,所述第一公式为Q≈Q1+Q2+...+Qn;其中,所述Q表示第一权值矩阵;所述Q1表示所述至少两个求和项中的第一求和项,所述Q2表示所述至少两个求和项中的第二求和项,所述Qn表示所述至少两个求和项中的第n求和项,训练单元133,用于调整所述至少两个求和项中的每个求和项的大小,并通过训练压缩后的机器学习模型,以得到满足预设精度的第二权值矩阵。
所述控制器单元11,还用于获取第二输入数据以及计算指令;所述第二输入数据包括第二权值矩阵以及输入神经元数据;在一种可选方案中,具体的,获取第二输入数据以及计算指令方式可以通过数据输入输出单元得到,该数据输入输出单元具体可以为一个或多个数据I/O接口或I/O引脚。
所述控制器单元11,还用于解析该计算指令得到多个运算指令,将所述多个运算指令以及所述第二输入数据发送给运算单元;
所述运算单元12,用于获取所述运算指令,并根据所述运算指令以及所述第二输入数据执行神经网络计算。
在其中一个实现方式中,考虑到上述计算装置中设置有“压缩指令”,在这种情况下,控制器单元11,用于获取第一输入数据以及压缩指令;其中,所述第一输入数据包括第一权值矩阵;在一种可选方案中,具体的,获取第一输入数据以及压缩指令方式可以通过数据输入输出单元得到,该数据输入输出单元具体可以为一个或多个数据I/O接口或I/O引脚。
所述控制器单元11,还用于解析该压缩指令得到多个操作指令,将所述多个操作指令以及所述第一权值矩阵发送给压缩单元;
所述压缩单元13,用于根据所述多个操作指令将所述第一权值矩阵压缩为第二权值矩阵;其中,所述第二权值矩阵包括至少两个求和项;
所述控制器单元11,还用于获取第二输入数据以及计算指令;所述第二输入数据包括所述第二权值矩阵以及输入神经元数据;在一种可选方案中,具体的,获取第二输入数据以及计算指令方式可以通过数据输入输出单元得到,该数据输入输出单元具体可以为一个或多个数据I/O接口或I/O引脚。
所述控制器单元11,还用于解析该计算指令得到多个运算指令,将所述多个运算指令以及所述第二输入数据发送给运算单元;
所述运算单元12,用于获取所述运算指令,并根据所述运算指令以及所述第二输入数据执行神经网络计算。
具体实现中,所述运算单元12包括主处理电路101以及多个从处理电路102,所述主处理电路101,用于对所述第二输入数据执行前序处理以及与所述多个从处理电路之间传输数据以及运算指令;
多个从处理电路102,用于依据从所述主处理电路传输的数据以及运算指令并行执行中间运算得到多个中间结果,并将多个中间结果传输给所述主处理电路;
主处理电路101,用于对所述多个中间结果执行后续处理得到所述计算指令的计算结果。
可选的,上述第二输入数据具体可以包括:第二权值矩阵以及输入神经元数据。上述计算结果具体可以为:神经网络运算的结果即输出神经元数据。
在其中一个实施方式中,上述计算装置还可以包括:该存储单元10和直接内存访问单元50,存储单元10可以包括:寄存器、缓存中的一个或任意组合,具体的,所述缓存,用于存储所述计算指令;所述寄存器,用于存储所述输入数据和标量;所述缓存为高速暂存缓存。直接内存访问单元50用于从存储单元10读取或存储数据。
本申请实施例中,如图6所示,该控制器单元11包括:指令缓存单元110、指令处理单元111、依赖关系处理单元112以及存储队列单元113;
指令缓存单元110,用于存储所述人工神经网络运算关联的计算指令,在第零计算指令在被执行的过程中,同时将未被提交执行的其他指令缓存在所述指令缓存单元110中,当所述第零计算指令执行完之后,如果第一计算指令是指令缓存单元110中未被提交指令中最早的一条指令,则所述第一计算指令将被提交,一旦提交,该指令进行的操作对装置状态的改变将无法撤销;
所述指令处理单元111,用于从所述指令缓存单元获取所述计算指令,并对所述计算指令解析得到多个操作指令;
所述依赖关系处理单元112,用于在具有多个操作指令时,确定第一操作指令与所述第一操作指令之前的第零操作指令是否存在关联关系,如所述第一操作指令与所述第零操作指令存在关联关系,则将所述第一操作指令存储到指令队列单元113内,在所述第零操作指令执行完毕后,所述第一操作指令与所述第零操作指令的关联关系解除,则从所述指令队列单元113中提取所述第一操作指令传输至所述运算单元;
所述确定该第一操作指令与第一操作指令之前的第零操作指令是否存在关联关系包括:
依据所述第一操作指令提取所述第一操作指令中所需数据(例如矩阵)的第一存储地址区间,依据所述第零操作指令提取所述第零操作指令中所需矩阵的第零存储地址区间,如所述第一存储地址区间与所述第零存储地址区间具有重叠的区域,则确定所述第一操作指令与所述第零操作指令具有关联关系,如所述第一存储地址区间与所述第零存储地址区间不具有重叠的区域,则确定所述第一操作指令与所述第零操作指令不具有关联关系。
存储队列单元113,用于存储指令队列,该指令队列包括:按该队列的前后顺序待执行的多个操作指令或计算指令。
本申请实施例中,如图6所示,所述指令处理单元111包括取指模块、译码模块以及指令队列,其中,所述取指模块,用于从所述指令缓存单元110中获取神经网络的计算指令;所述译码模块用于对所述取指模块获取的计算指令进行译码,得到神经网络的操作指令;所述指令队列用于对译码后得到的操作指令,按照待执行的先后顺序进行顺序存储。
举例说明,在一个可选的技术方案中,主运算处理电路也可以包括一个控制器单元,该控制器单元可以包括主指令处理单元,具体用于将指令译码成微指令。当然在另一种可选方案中,从运算处理电路也可以包括另一个控制器单元,该另一个控制器单元包括从指令处理单元,具体用于接收并处理微指令。上述微指令可以为指令的下一级指令,该微指令可以通过对指令的拆分或解码后获得,能被进一步解码为各部件、各单元或各处理电路的控制信号。
在一种可选方案中,该计算指令的结构可以如下表所示。
表1
操作码 | 寄存器或立即数 | 寄存器/立即数 | ... |
上表中的省略号表示可以包括多个寄存器或立即数。
在另一种可选方案中,该计算指令可以包括:一个或多个操作域以及一个操作码。该计算指令可以包括神经网络运算指令,也可以包括上述所涉及的压缩指令。以神经网络运算指令为例,如表1所示,其中,寄存器号0、寄存器号1、寄存器号2、寄存器号3、寄存器号4可以为操作域。其中,每个寄存器号0、寄存器号1、寄存器号2、寄存器号3、寄存器号4可以是一个或者多个寄存器的号码。
表2
上述寄存器可以为片外存储器,当然在实际应用中,也可以为片内存储器,用于存储数据,该数据具体可以为n维数据,n为大于等于1的整数,例如,n=1时,为1维数据,即向量,如n=2时,为2维数据,即矩阵,如n=3或3以上时,为多维张量。
在本发明实施例中,所述计算装置执行所述神经网络运算的过程如图7所示,包括:
步骤S1、控制器单元接收压缩指令,将压缩指令译码解析为多个操作指令,并将多个操作指令发送给压缩单元。
控制器单元从存储单元读取压缩指令之后,将压缩指令解析为操作指令,并将所述操作指令发送至压缩单元。具体的,控制器单元11中指令处理单元111的取指模块从指令缓存单元110中获取压缩指令,并将该指令传送至译码模块,所述译码模块对所述压缩指令进行译码,得到操作指令,并将所述操作指令根据预设指令规则拆分为操作码和各个不同的操作域,其中,操作码和操作域的组成与作用可参照前文,在此不再赘述。所述译码模块将译码后得到的操作指令传送至指令队列中进行顺序存储,在所述指令队列中,根据所述运操作指令的操作码和操作与获取该指令对应的待处理数据的数据地址,并将所述数据地址传送至依赖关系处理单元112中,依赖关系处理单元分析该指令与正在执行的指令是否存在关联关系,若存在,则将该操作指令存储到存储队列单元113中直至所述关联关系解除,若不存在关联关系,则将该操作指令发送至压缩单元中执行对应的操作。
S2、压缩单元接收控制单元发送的操作指令,并根据从存储单元中读取的第一权值矩阵进行压缩处理,以得到满足预设精度的第二权值矩阵。
具体实现中,针对第一权值矩阵的压缩,以得到第二权值矩阵的具体实现请参见前述文字描述,此处不多加赘述。
S3、控制器单元获取第二输入数据以及计算指令,其中,第二输入数据包括第二权值矩阵及输入神经元数据。
S4、控制器单元将计算指令解析为运算指令,将运算指令以及第二输入数据发送给运算单元。
具体实现中,针对控制器单元获取计算指令,并将计算指令进行解析,以得到多个运算指令的实现方式,请参考前述控制器单元获取压缩指令的文字描述,此处不多加赘述。
S5、运算单元接收控制器单元发送的运算指令,并根据运算指令以及第二输入数据执行神经网络计算。
在实际应用中,这里所涉及的神经网络计算可以包括人工神经网络运算,也可以包括卷积神经网络运算等等。
以人工神经网络运算为例,对于人工神经网络运算来说,如果该人工神经网络运算具有多层运算,多层运算的输入神经元和输出神经元并非是指整个神经网络的输入层中神经元和输出层中神经元,而是对于网络中任意相邻的两层,处于网络正向运算下层中的神经元即为输入神经元,处于网络正向运算上层中的神经元即为输出神经元。以卷积神经网络为例,设一个卷积神经网络有L层,K=1,2,...,L-1,对于第K层和第K+1层来说,我们将第K层称为输入层,其中的神经元为所述输入神经元,第K+1层称为输出层,其中的神经元为所述输出神经元。即除最顶层外,每一层都可以作为输入层,其下一层为对应的输出层。
具体实现中,对于神经网络中的运算可以为神经网络中的一层的运算,对于多层神经网络,其实现过程是,在正向运算中,当上一层人工神经网络执行完成之后,下一层的运算指令会将运算单元中计算出的输出神经元作为下一层的输入神经元进行运算(或者是对该输出神经元进行某些操作再作为下一层的输入神经元),同时,将权值也替换为下一层的权值;在反向运算中,当上一层人工神经网络的反向运算执行完成后,下一层运算指令会将运算单元中计算出的输入神经元梯度作为下一层的输出神经元梯度进行运算(或者是对该输入神经元梯度进行某些操作再作为下一层的输出神经元梯度),同时将权值替换为下一层的权值。
以完成神经网络的正向运算过程为例,首先,运算单元从存储单元中读取第二输入数据,其中,第二输入数据包括第二权值矩阵以及输入神经元数据。
其次,主处理电路读取相对应的神经元数据,并将所述神经元数据按照指定顺序依次广播给各个从处理电路。在实际应用中,神经元数据可以只广播一次,从处理电路接收该数据后暂存到缓存或寄存器中,便于对其进行复用。此外,神经元数据也可以进行多次广播,从处理电路接收到数据之后直接使用,无需复用。在一种可能的实施方式中,主处理电路读取所述神经元数据之后,直接将神经元数据进行广播。
之后,每个从处理电路将读入的神经元数据和第二权值矩阵根据运算指令进行内积运算,而后将内积结果传递回主处理电路。
在其中一个实施方式中,从处理电路可以将每次执行内积运算得到的部分和传输回主处理电路进行累加;在在其中一个实施方式中,也可以将每次从处理电路执行的内积运算得到的部分和保存在从处理电路的寄存器和/或片上缓存中,累加结束之后传输回主处理电路;在其中一个实施方式中,也可以将每次从处理电路执行的内积运算得到的部分和在部分情况下保存在从处理电路的寄存器和/或片上缓存中进行累加,部分情况下传输到主处理电路进行累加,累加结束之后传输回主处理电路。
最后,主处理电路将各从处理电路的结果进行累加、激活等操作后,直到完成神经网络的正向运算过程,得到预测结果和实际结果间的误差值,即最后一层的神经元梯度数据,保存到存储单元。
在本发明实施例中,运算单元12可以设置成一主多从结构。在一种可选实施例中,运算单元12如图8所示,可以包括一个主处理电路101和多个从处理电路102。在一个实施例里,如图8所示,多个从处理电路呈阵列分布;每个从处理电路与相邻的其他从处理电路连接,主处理电路连接所述多个从处理电路中的k个从处理电路,所述k个从处理电路为:第1行的n个从处理电路、第m行的n个从处理电路以及第1列的m个从处理电路,需要说明的是,如图8所示的K个从处理电路仅包括第1行的n个从处理电路、第m行的n个从处理电路以及第1列的m个从处理电路,即该k个从处理电路为多个从处理电路中直接与主处理电路连接的从处理电路。
K个从处理电路,用于在所述主处理电路以及多个从处理电路之间的数据以及指令的转发。
可选的,如图9所示,该主处理电路还可以包括:转换处理电路110、激活处理电路111、加法处理电路112中的一种或任意组合;
转换处理电路110,用于将主处理电路接收的数据块或中间结果执行第一数据结构与第二数据结构之间的互换(例如连续数据与离散数据的转换);或将主处理电路接收的数据块或中间结果执行第一数据类型与第二数据类型之间的互换(例如定点类型与浮点类型的转换);
激活处理电路111,用于执行主处理电路内数据的激活运算;
加法处理电路112,用于执行加法运算或累加运算。
所述主处理电路,用于将确定所述输入神经元为广播数据,权值为分发数据,将分发数据分配成多个数据块,将所述多个数据块中的至少一个数据块以及多个运算指令中的至少一个运算指令发送给所述从处理电路;
所述多个从处理电路,用于依据该运算指令对接收到的数据块执行运算得到中间结果,并将运算结果传输给所述主处理电路;
所述主处理电路,用于将多个从处理电路发送的中间结果进行处理得到该计算指令的结果,将该计算指令的结果发送给所述控制器单元。
所述从处理电路包括:乘法处理电路;
所述乘法处理电路,用于对接收到的数据块执行乘积运算得到乘积结果;
转发处理电路(可选的),用于将接收到的数据块或乘积结果转发。
累加处理电路,所述累加处理电路,用于对该乘积结果执行累加运算得到该中间结果。
另一个实施例里,该运算指令为矩阵乘以矩阵的指令、累加指令、激活指令等等计算指令。
下面通过神经网络运算指令来说明如图5所示的计算装置的具体计算方法。对于神经网
在一种可选的实施方案中,如图10所示,所述运算单元包括:树型模块40,所述树型模块包括:一个根端口401和多个支端口404,所述树型模块的根端口连接所述主处理电路,所述树型模块的多个支端口分别连接多个从处理电路中的一个从处理电路;上述树型模块具有收发功能,所述树型模块具有收发功能,用于转发所述主处理电路与所述多个从处理电路之间的数据块、权值以及运算指令,即可以将主处理电路的数据传送给各个从处理电路,也可以将各个从处理电路的数据传送给主处理电路。
可选的,该树型模块为计算装置的可选择结果,其可以包括至少1层节点,该节点为具有转发功能的线结构,该节点本身可以不具有计算功能。如树型模块具有零层节点,即无需该树型模块。
可选的,该树型模块可以为n叉树结构,例如,如图11所示的二叉树结构,当然也可以为三叉树结构,该n可以为大于等于2的整数。本申请具体实施方式并不限制上述n的具体取值,上述层数也可以为2,从处理电路可以连接除倒数第二层节点以外的其他层的节点,例如可以连接如图11所示的倒数第一层的节点。
可选的,上述运算单元可以携带单独的缓存,如图12所示,可以包括:神经元缓存单元,该神经元缓存单元63缓存该从处理电路的输入神经元向量数据和输出神经元值数据。
如图13所示,该运算单元还可以包括:权值缓存单元64,用于缓存该从处理电路在计算过程中需要的权值数据。
在一种可选实施例中,运算单元12如图14所示,可以包括分支处理电路103;其具体的连接结构如图12所示,其中,
主处理电路101与分支处理电路103(一个或多个)连接,分支处理电路103与一个或多个从处理电路102连接;
分支处理电路103,用于执行转发主处理电路101与从处理电路102之间的数据或指令。
在一种可选实施例中,以神经网络运算中的全连接运算为例,过程可以为:y=f(wx+b),其中,x为输入神经元矩阵,w为权值矩阵,b为偏置标量,f为激活函数,具体可以为:sigmoid函数,tanh、relu、softmax函数中的任意一个。这里假设为二叉树结构,具有8个从处理电路,其实现的方法可以为:
控制器单元从存储单元内获取输入神经元矩阵x,权值矩阵w以及全连接运算指令,将输入神经元矩阵x,权值矩阵w以及全连接运算指令传输给主处理电路;
主处理电路确定该输入神经元矩阵x为广播数据,确定权值矩阵w为分发数据,将权值矩阵w拆分成8个子矩阵,然后将8个子矩阵通过树型模块分发给8个从处理电路,将输入神经元矩阵x广播给8个从处理电路,
从处理电路并行执行8个子矩阵与输入神经元矩阵x的乘法运算和累加运算得到8个中间结果,将8个中间结果发送给主处理电路;
主处理电路,用于将8个中间结果排序得到wx的运算结果,将该运算结果执行偏置b的运算后执行激活操作得到最终结果y,将最终结果y发送至控制器单元,控制器单元将该最终结果y输出或存储至存储单元内。
如图5所示的计算装置执行神经网络正向运算指令的方法具体可以为:
控制器单元从指令存储单元内提取神经网络正向运算指令、神经网络运算指令对应的操作域以及至少一个操作码,控制器单元将该操作域传输至数据访问单元,将该至少一个操作码发送至运算单元。
控制器单元从存储单元内提取该操作域对应的权值w和偏置b(当b为0时,不需要提取偏置b),将权值w和偏置b传输至运算单元的主处理电路,控制器单元从存储单元内提取输入数据Xi,将该输入数据Xi发送至主处理电路。
主处理电路依据该至少一个操作码确定为乘法运算,确定输入数据Xi为广播数据,确定权值数据为分发数据,将权值w拆分成n个数据块;
控制器单元的指令处理单元依据该至少一个操作码确定乘法指令、偏置指令和累加指令,将乘法指令、偏置指令和累加指令发送至主处理电路,主处理电路将该乘法指令、输入数据Xi以广播的方式发送给多个从处理电路,将该n个数据块分发给该多个从处理电路(例如具有n个从处理电路,那么每个从处理电路发送一个数据块);多个从处理电路,用于依据该乘法指令将该输入数据Xi与接收到的数据块执行乘法运算得到中间结果,将该中间结果发送至主处理电路,该主处理电路依据该累加指令将多个从处理电路发送的中间结果执行累加运算得到累加结果,依据该偏置指令将该累加结果执行加偏置b得到最终结果,将该最终结果发送至该控制器单元。
另外,加法运算和乘法运算的顺序可以调换。
本申请提供的技术方案通过一个指令即神经网络运算指令即实现了神经网络的乘法运算以及偏置运算,在神经网络计算的中间结果均无需存储或提取,减少了中间数据的存储以及提取操作,所以其具有减少对应的操作步骤,提高神经网络的计算效果的优点。
本申请还揭露了一个机器学习运算装置,其包括一个或多个在本申请中提到的计算装置,用于从其他处理装置中获取待运算数据和控制信息,执行指定的机器学习运算,执行结果通过I/O接口传递给外围设备。外围设备譬如摄像头,显示器,鼠标,键盘,网卡,wifi接口,服务器。当包含一个以上计算装置时,计算装置间可以通过特定的结构进行链接并传输数据,譬如,通过PCIE总线进行互联并传输数据,以支持更大规模的机器学习的运算。此时,可以共享同一控制系统,也可以有各自独立的控制系统;可以共享内存,也可以每个加速器有各自的内存。此外,其互联方式可以是任意互联拓扑。
该机器学习运算装置具有较高的兼容性,可通过PCIE接口与各种类型的服务器相连接。
本申请还揭露了一个组合处理装置,其包括上述的机器学习运算装置,通用互联接口,和其他处理装置。机器学习运算装置与其他处理装置进行交互,共同完成用户指定的操作。图15为组合处理装置的示意图。
其他处理装置,包括中央处理器CPU、图形处理器GPU、神经网络处理器等通用/专用处理器中的一种或以上的处理器类型。其他处理装置所包括的处理器数量不做限制。其他处理装置作为机器学习运算装置与外部数据和控制的接口,包括数据搬运,完成对本机器学习运算装置的开启、停止等基本控制;其他处理装置也可以和机器学习运算装置协作共同完成运算任务。
通用互联接口,用于在所述机器学习运算装置与其他处理装置间传输数据和控制指令。该机器学习运算装置从其他处理装置中获取所需的输入数据,写入机器学习运算装置片上的存储装置;可以从其他处理装置中获取控制指令,写入机器学习运算装置片上的控制缓存;也可以读取机器学习运算装置的存储模块中的数据并传输给其他处理装置。
可选的,该结构如图16所示,还可以包括存储装置,存储装置分别与所述机器学习运算装置和所述其他处理装置连接。存储装置用于保存在所述机器学习运算装置和所述其他处理装置的数据,尤其适用于所需要运算的数据在本机器学习运算装置或其他处理装置的内部存储中无法全部保存的数据。
该组合处理装置可以作为手机、机器人、无人机、视频监控设备等设备的SOC片上系统,有效降低控制部分的核心面积,提高处理速度,降低整体功耗。此情况时,该组合处理装置的通用互联接口与设备的某些部件相连接。某些部件譬如摄像头,显示器,鼠标,键盘,网卡,wifi接口。
在一些实施例里,还申请了一种芯片,其包括了上述机器学习运算装置或组合处理装置。
在一些实施例里,申请了一种芯片封装结构,其包括了上述芯片。
在一些实施例里,申请了一种板卡,其包括了上述芯片封装结构。参阅图17,图17提供了一种板卡,上述板卡除了包括上述芯片389以外,还可以包括其他的配套部件,该配套部件包括但不限于:存储器件390、接口装置391和控制器件392;
所述存储器件390与所述芯片封装结构内的芯片通过总线连接,用于存储数据。所述存储器件可以包括多组存储单元393。每一组所述存储单元与所述芯片通过总线连接。可以理解,每一组所述存储单元可以是DDR SDRAM(英文:Double Data Rate SDRAM,双倍速率同步动态随机存储器)。
DDR不需要提高时钟频率就能加倍提高SDRAM的速度。DDR允许在时钟脉冲的上升沿和下降沿读出数据。DDR的速度是标准SDRAM的两倍。在一个实施例中,所述存储装置可以包括4组所述存储单元。每一组所述存储单元可以包括多个DDR4颗粒(芯片)。在一个实施例中,所述芯片内部可以包括4个72位DDR4控制器,上述72位DDR4控制器中64bit用于传输数据,8bit用于ECC校验。可以理解,当每一组所述存储单元中采用DDR4-3200颗粒时,数据传输的理论带宽可达到25600MB/s。
在一个实施例中,每一组所述存储单元包括多个并联设置的双倍速率同步动态随机存储器。DDR在一个时钟周期内可以传输两次数据。在所述芯片中设置控制DDR的控制器,用于对每个所述存储单元的数据传输与数据存储的控制。
所述接口装置与所述芯片封装结构内的芯片电连接。所述接口装置用于实现所述芯片与外部设备(例如服务器或计算机)之间的数据传输。例如在一个实施例中,所述接口装置可以为标准PCIE接口。比如,待处理的数据由服务器通过标准PCIE接口传递至所述芯片,实现数据转移。优选的,当采用PCIE 3.0X 16接口传输时,理论带宽可达到16000MB/s。在另一个实施例中,所述接口装置还可以是其他的接口,本申请并不限制上述其他的接口的具体表现形式,所述接口单元能够实现转接功能即可。另外,所述芯片的计算结果仍由所述接口装置传送回外部设备(例如服务器)。
所述控制器件与所述芯片电连接。所述控制器件用于对所述芯片的状态进行监控。具体的,所述芯片与所述控制器件可以通过SPI接口电连接。所述控制器件可以包括单片机(Micro Controller Unit,MCU)。如所述芯片可以包括多个处理芯片、多个处理核或多个处理电路,可以带动多个负载。因此,所述芯片可以处于多负载和轻负载等不同的工作状态。通过所述控制装置可以实现对所述芯片中多个处理芯片、多个处理和或多个处理电路的工作状态的调控。
在一些实施例里,申请了一种电子设备,其包括了上述板卡。
电子设备包括数据处理装置、机器人、电脑、打印机、扫描仪、平板电脑、智能终端、手机、行车记录仪、导航仪、传感器、摄像头、服务器、云端服务器、相机、摄像机、投影仪、手表、耳机、移动存储、可穿戴设备、交通工具、家用电器、和/或医疗设备。
所述交通工具包括飞机、轮船和/或车辆;所述家用电器包括电视、空调、微波炉、冰箱、电饭煲、加湿器、洗衣机、电灯、燃气灶、油烟机;所述医疗设备包括核磁共振仪、B超仪和/或心电图仪。
需要说明的是,对于前述的各方法实施例,为了简单描述,故将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本申请并不受所描述的动作顺序的限制,因为依据本申请,某些步骤可以采用其他顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于可选实施例,所涉及的动作和模块并不一定是本申请所必须的。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其他实施例的相关描述。
在本申请所提供的几个实施例中,应该理解到,所揭露的装置,可通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件程序模块的形式实现。
所述集成的单元如果以软件程序模块的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储器中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储器中,包括若干指令用以使得一台计算机设备(可为个人计算机、服务器或者网络设备等)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储器包括:U盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、移动硬盘、磁碟或者光盘等各种可以存储程序代码的介质。
本领域普通技术人员可以理解上述实施例的各种方法中的全部或部分步骤是可以通过程序来指令相关的硬件来完成,该程序可以存储于一计算机可读存储器中,存储器可以包括:闪存盘、只读存储器(英文:Read-Only Memory,简称:ROM)、随机存取器(英文:Random Access Memory,简称:RAM)、磁盘或光盘等。
以上对本申请实施例进行了详细介绍,本文中应用了具体个例对本申请的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本申请的方法及其核心思想;同时,对于本领域的一般技术人员,依据本申请的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本申请的限制。
Claims (6)
1.一种神经网络压缩装置,其特征在于,包括:
获取单元,用于获取第一输入数据;其中,所述第一输入数据包括第一权值矩阵;
压缩单元,用于将所述第一权值矩阵压缩为第二权值矩阵;其中,所述第二权值矩阵包括至少两个求和项;
计算单元,用于根据第二输入数据执行神经网络计算,其中,所述第二输入数据包括所述第二权值矩阵以及输入神经元数据;所述神经网络为卷积层神经网络;
所述压缩单元包括:
分解单元,用于将所述第一权值矩阵分解成第三权值矩阵;其中,所述第三权值矩阵包括至少两个求和项;
求解单元,用于根据第一公式确定所述至少两个求和项中的每个求和项的大小;所述神经网络为卷积层神经网络;所述卷积层神经网络包括个卷积核;所述第一公式包括:;其中,F表示所述个卷积核中的任意一个卷积核;所述F1为第一求和项;所述F2为第二求和项;所述第一求和项;所述第一求和项F1中包括()个压缩参数R1;所述第二求和项,所述第二求和项F2中包括()个压缩参数R2,(Kx,Ky)表示卷积核的大小,所述R1和所述R2为大于0且小于等于min(Kx,Ky)的正整数;
训练单元,用于调整所述至少两个求和项中的每个求和项的大小,并通过训练压缩后的机器学习模型,以得到满足预设精度的第二权值矩阵;
所述计算单元包括:一个主处理电路和多个从处理电路;
所述主处理电路,用于对所述第二输入数据执行前序处理以及与所述多个从处理电路之间传输数据和运算指令;
所述多个从处理电路,用于根据从所述主处理电路传输的数据以及运算指令并行执行中间运算得到多个中间结果,并将所述多个中间结果传输给所述主处理电路;
所述主处理电路,用于对所述多个中间结果执行后续处理得到计算指令的计算结果。
2.根据权利要求1所述的装置,其特征在于,
所述第一公式为;其中,所述Q表示第一权值矩阵;所述表示所述至少两个求和项中的第一求和项, ;所述表示所述至少两个求和项中的第二求和项, ;所述表示所述至少两个求和项中的第n求和项,。
3.根据权利要求2所述的装置,其特征在于,所述求解单元具体用于:
根据所述第一公式和第二公式确定所述至少两个求和项中的每个求和项的大小,所述第二公式为,其中,所述T表示预设的误差阈值。
4.根据权利要求2或3所述的装置,其特征在于,所述训练单元具体用于:
调整所述至少两个求和项中的每个求和项的大小,并通过训练压缩后的机器学习模型,以得到满足预设精度并且与所述第一权值矩阵之间的压缩比满足预设压缩比的第二权值矩阵。
5.根据权利要求4所述的装置,其特征在于,所述神经网络为全连接层神经网络;所述第一公式包括: ;所述两个求和项包括第一求和项M1和第二求和项M2,所述第一求和项,所述第一求和项M1中包括()个压缩参数K1;所述()个压缩参数K1中的第1个压缩参数K11用于表征所述的输出神经元的个数,所述()个压缩参数K1中的第()个压缩参数用于表征所述的输入神经元的个数;所述第二求和项,所述第二求和项M2中包括()个压缩参数K2,所述()个压缩参数中的第1个压缩参数K21用于表征所述的输出神经元的个数,所述()个压缩参数中的第()个压缩参数用于表征所述的输入神经元的个数;所述K1和所述K2为大于0且小于等于min(Nin,Nout)的正整数。
6.根据权利要求4所述的装置,其特征在于,所述神经网络为LSTM层神经网络;所述LSTM层包括N个全连接层,所述N为大于0的正整数;针对第j个全连接层,所述第一公式包括: ;所述第j个全连接层中的两个求和项包括第一求和项和第二求和项,所述第一求和项,所述第一求和项中包括()个压缩参数S1;所述()个压缩参数S1中的第1个压缩参数Sj_11用于表征所述的输出神经元的个数,所述()个压缩参数S1中的第()个压缩参数用于表征所述的输入神经元的个数;所述第二求和项,所述第二求和项中包括()个压缩参数S2,所述()个压缩参数中的第1个压缩参数Sj_21用于表征所述的输出神经元的个数,所述()个压缩参数中的第()个压缩参数用于表征所述的输入神经元的个数;所述S1和所述S2为大于0且小于等于min(Nin,Nout)的正整数。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910029922.8A CN111382835B (zh) | 2018-12-27 | 2018-12-27 | 一种神经网络压缩方法、电子设备及计算机可读介质 |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910029922.8A CN111382835B (zh) | 2018-12-27 | 2018-12-27 | 一种神经网络压缩方法、电子设备及计算机可读介质 |
CN201811619060.6A CN111382848B (zh) | 2018-12-27 | 2018-12-27 | 一种计算装置及相关产品 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811619060.6A Division CN111382848B (zh) | 2018-12-27 | 2018-12-27 | 一种计算装置及相关产品 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111382835A CN111382835A (zh) | 2020-07-07 |
CN111382835B true CN111382835B (zh) | 2024-08-20 |
Family
ID=71219244
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910029922.8A Active CN111382835B (zh) | 2018-12-27 | 2018-12-27 | 一种神经网络压缩方法、电子设备及计算机可读介质 |
CN201811619060.6A Active CN111382848B (zh) | 2018-12-27 | 2018-12-27 | 一种计算装置及相关产品 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811619060.6A Active CN111382848B (zh) | 2018-12-27 | 2018-12-27 | 一种计算装置及相关产品 |
Country Status (1)
Country | Link |
---|---|
CN (2) | CN111382835B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113197582B (zh) * | 2021-04-27 | 2022-03-25 | 浙江大学 | 一种高通用性的心电数据压缩感知系统、终端和存储介质 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104809426A (zh) * | 2014-01-27 | 2015-07-29 | 日本电气株式会社 | 卷积神经网络的训练方法、目标识别方法及装置 |
CN107480774A (zh) * | 2017-08-11 | 2017-12-15 | 山东师范大学 | 基于集成学习的动态神经网络模型训练方法和装置 |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9600762B2 (en) * | 2013-04-12 | 2017-03-21 | Qualcomm Incorporated | Defining dynamics of multiple neurons |
US10223635B2 (en) * | 2015-01-22 | 2019-03-05 | Qualcomm Incorporated | Model compression and fine-tuning |
CN106991477B (zh) * | 2016-01-20 | 2020-08-14 | 中科寒武纪科技股份有限公司 | 一种人工神经网络压缩编码装置和方法 |
US10832123B2 (en) * | 2016-08-12 | 2020-11-10 | Xilinx Technology Beijing Limited | Compression of deep neural networks with proper use of mask |
US10984308B2 (en) * | 2016-08-12 | 2021-04-20 | Xilinx Technology Beijing Limited | Compression method for deep neural networks with load balance |
JP6784162B2 (ja) * | 2016-12-13 | 2020-11-11 | 富士通株式会社 | 情報処理装置、プログラム及び情報処理方法 |
WO2018107414A1 (zh) * | 2016-12-15 | 2018-06-21 | 上海寒武纪信息科技有限公司 | 压缩/解压缩神经网络模型的装置、设备和方法 |
US10776697B2 (en) * | 2017-04-18 | 2020-09-15 | Huawei Technologies Co., Ltd. | System and method for training a neural network |
CN107844826B (zh) * | 2017-10-30 | 2020-07-31 | 中国科学院计算技术研究所 | 神经网络处理单元及包含该处理单元的处理系统 |
CN107944555B (zh) * | 2017-12-07 | 2021-09-17 | 广州方硅信息技术有限公司 | 神经网络压缩和加速的方法、存储设备和终端 |
-
2018
- 2018-12-27 CN CN201910029922.8A patent/CN111382835B/zh active Active
- 2018-12-27 CN CN201811619060.6A patent/CN111382848B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104809426A (zh) * | 2014-01-27 | 2015-07-29 | 日本电气株式会社 | 卷积神经网络的训练方法、目标识别方法及装置 |
CN107480774A (zh) * | 2017-08-11 | 2017-12-15 | 山东师范大学 | 基于集成学习的动态神经网络模型训练方法和装置 |
Also Published As
Publication number | Publication date |
---|---|
CN111382848B (zh) | 2024-08-23 |
CN111382848A (zh) | 2020-07-07 |
CN111382835A (zh) | 2020-07-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109543832B (zh) | 一种计算装置及板卡 | |
CN111353598B (zh) | 一种神经网络压缩方法、电子设备及计算机可读介质 | |
CN109104876B (zh) | 一种运算装置及相关产品 | |
CN109522052B (zh) | 一种计算装置及板卡 | |
CN109003132B (zh) | 广告推荐方法及相关产品 | |
KR102252137B1 (ko) | 계산 장치 및 방법 | |
CN111047022B (zh) | 一种计算装置及相关产品 | |
CN110059797B (zh) | 一种计算装置及相关产品 | |
CN111045728B (zh) | 一种计算装置及相关产品 | |
CN109670581B (zh) | 一种计算装置及板卡 | |
CN109711540B (zh) | 一种计算装置及板卡 | |
CN110059809B (zh) | 一种计算装置及相关产品 | |
CN111382835B (zh) | 一种神经网络压缩方法、电子设备及计算机可读介质 | |
CN111291884B (zh) | 神经网络剪枝方法、装置、电子设备及计算机可读介质 | |
CN109740730B (zh) | 运算方法、装置及相关产品 | |
CN111047021A (zh) | 一种计算装置及相关产品 | |
US11307866B2 (en) | Data processing apparatus and method | |
US11086634B2 (en) | Data processing apparatus and method | |
CN111198714B (zh) | 重训练方法及相关产品 | |
CN111368990B (zh) | 一种神经网络计算装置和方法 | |
CN111368987B (zh) | 一种神经网络计算装置和方法 | |
CN111368986B (zh) | 一种神经网络计算装置和方法 | |
CN111047024B (zh) | 一种计算装置及相关产品 | |
CN111738429B (zh) | 一种计算装置及相关产品 | |
CN111222632B (zh) | 计算装置、计算方法及相关产品 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |