CN111832705B - 一种卷积神经网络的压缩方法及其实现电路 - Google Patents
一种卷积神经网络的压缩方法及其实现电路 Download PDFInfo
- Publication number
- CN111832705B CN111832705B CN202010624916.XA CN202010624916A CN111832705B CN 111832705 B CN111832705 B CN 111832705B CN 202010624916 A CN202010624916 A CN 202010624916A CN 111832705 B CN111832705 B CN 111832705B
- Authority
- CN
- China
- Prior art keywords
- weight
- data
- pruning
- neural network
- convolutional neural
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000013527 convolutional neural network Methods 0.000 title claims abstract description 66
- 238000000034 method Methods 0.000 title claims abstract description 42
- 230000006835 compression Effects 0.000 title claims abstract description 27
- 238000007906 compression Methods 0.000 title claims abstract description 27
- 238000013138 pruning Methods 0.000 claims abstract description 125
- 238000012545 processing Methods 0.000 claims abstract description 100
- 238000013139 quantization Methods 0.000 claims abstract description 13
- 230000004913 activation Effects 0.000 claims description 30
- 238000004364 calculation method Methods 0.000 claims description 27
- 239000002131 composite material Substances 0.000 claims description 24
- 230000008569 process Effects 0.000 claims description 24
- 238000006243 chemical reaction Methods 0.000 claims description 5
- 238000012549 training Methods 0.000 claims description 5
- 238000010586 diagram Methods 0.000 description 8
- 230000006870 function Effects 0.000 description 7
- 238000003062 neural network model Methods 0.000 description 6
- 230000001133 acceleration Effects 0.000 description 5
- 238000013528 artificial neural network Methods 0.000 description 5
- 238000001514 detection method Methods 0.000 description 4
- 238000013461 design Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 238000011176 pooling Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 210000004205 output neuron Anatomy 0.000 description 1
- 238000011897 real-time detection Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/082—Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- General Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Neurology (AREA)
- Complex Calculations (AREA)
Abstract
本发明提出一种卷积神经网络的压缩方法及其实现电路,该方法包括步骤:(1)将卷积神经网络分为非剪枝层和剪枝层;(2)对整个卷积神经网络进行剪枝,然后重新训练,得到一个高精度的稀疏网络;(3)移除非剪枝层的权重掩膜;(4)对剪枝层进行渐进量化;(5)保持剪枝层权重不变,对非剪枝层进行线性量化,得到压缩后的卷积神经网络。该压缩方法能在保证高处理性能的情况下对卷积神经网络模型进行大幅压缩。针对此压缩方法,本发明还提出一种卷积神经网络的实现电路,包括:分布式非剪枝层硬件处理电路和剪枝层硬件处理电路,两个电路以流水线的方式共同实现卷积神经网络,以形成流水线的处理模式,大幅改善处理性能。
Description
技术领域
本发明涉及深度学习加速器设计领域,具体涉及一种卷积神经网络的压缩方法及其实现电路。
背景技术
随着卷积神经网络在目标检测及识别的快速发展,大幅改善图像识别检测精确度成为可能。然而,为了实现更好的目标检测识别性能,卷积神经网络在不断地加深,带来则是计算量的急速增长和模型大小的膨胀。因此,卷积神经网络需要并行设备来对其进行加速,节省训练时间或者满足实时目标检测的要求,例如大功耗的GPU设备等。为了实现深度卷积神经网络在低功耗的嵌入式设备上的部署,基于FPGA的卷积神经网络加速设计已经成为学术界和工业界研究的重点。
膨胀的深度神经网络模型对存储有着很高要求,为了节省存储空间,神经网络模型压缩算法在近几年不断被提出。神经网络剪枝,权重量化等压缩算法由于其对精确度较小的影响,被广泛使用在神经网络模型压缩中。然而大量研究表明,由于剪枝算法造成的模型不规则性,导致神经网络并行计算效率低,对其处理速度造成了严重的影响。因此,需要一种适合硬件加速的压缩策略,使卷积神经网络在模型尺寸被大幅压缩的情况下,仍然保持高性能的处理速度,同时满足实时性检测和小模型尺寸的要求。
发明内容
发明目的:大规模神经网络模型尺寸庞大,存储资源消耗巨大,难以在嵌入式设备上实现。然而压缩后的神经网络由于其模型的不规则性,在并行加速架构上计算效率低,计算速度慢,为了克服这个缺陷,本发明提出一种卷积神经网络的压缩方法及其实现电路。
技术方案:本发明提出的技术方案如下:
一种卷积神经网络的压缩方法,包括依次执行的步骤(1)至(5):
(1)将卷积神经网络分为非剪枝层和剪枝层;
(2)对整个卷积神经网络进行剪枝,然后重新训练,得到一个高精度的稀疏网络;
(3)移除非剪枝层的权重掩膜;
(4)对剪枝层进行渐进量化,具体步骤为:
1)随机选取剪枝层中的一组权重进行量化;
2)重新训练卷积神经网络,更新剪枝层中其他组的权重和非剪枝层的权重,重复训练过程,直至卷积神经网络的精度满足预设要求;
3)随机选取剪枝层中的下一组权重进行量化,然后返回步骤3);
4)重复执行步骤2)至3),直至整个剪枝层量化完成;
(5)保持剪枝层权重不变,对非剪枝层进行线性量化,得到压缩后的卷积神经网络。
进一步的,所述步骤(2)中得到一个高精度的稀疏网络的具体步骤为:
设置剪枝阈值,将卷积神经网络中小于剪枝阈值的权重进行剪枝,然后重训练卷积神经网络,更新没有被剪切的权重,重复训练-剪枝过程,直至卷积神经网络中所有权重都小于剪枝阈值,至此,得到一个高精度的稀疏网络。
本发明还提出一种卷积神经网络的实现电路,用于实现所述的压缩方法压缩后的卷积神经网络,所述电路通过FPGA实现,包括:分布式非剪枝层硬件处理电路和基于移位累加器的剪枝层硬件处理电路,分布式非剪枝层硬件处理电路用于实现所述卷积神经网络的非剪枝层功能,剪枝层硬件处理电路用于实现所述卷积神经网络的剪枝层功能;分布式非剪枝层硬件处理电路和剪枝层硬件处理电路以流水线的方式共同实现卷积神经网络:分布式非剪枝层硬件处理电路处理当前输入数据的同时,剪枝层硬件处理电路处理上一次非剪枝层输出的数据。
进一步的,所述分布式非剪枝层硬件处理电路包括:特征图缓存模块、N个特征图存储模块、M个复合卷积处理单元、M个权重存储模块、数据转换模块;
特征图缓存模块用于缓存输入的特征图,并将特征图送入特征图存储模块;
每个特征图存储模块包括一个特征图存储单元和一个特征图缓存单元;每个特征图存储模块对应地存储特征图中的一个q行的数据块,并按照行顺序输出给对应的特征图缓存单元,特征图缓存单将数据按行存储并按列输出;在每个时钟,N个特征图存储模块向M个复合卷积处理单元分别输出N路特征图数据;
M个权重存储模块一一对应地连接M个复合卷积处理单元,即每个复合卷积处理单元由一个独立的权重存储模块提供权重;每个权重存储模块包括一个权重存储单元和一个权重缓存单元;每个权重存储单元用于存储相应的复合卷积处理单元的权重,并在上一层计算时,将权重输入到相应的权重缓存单元,权重缓存单元在本层计算开始前,将权重送入相应复合卷积处理单元;
每个复合卷积处理单元根据相应权重存储模块提供的权重,以N个不同的卷积核分别处理N个特征图存储模块输出的N路特征图数据;对卷积后的特征图数据累加后缓存,并与下一个时钟的N路特征图数据卷积结果相加,直至本次对特征图的处理结束;累加后的数据通过激活函数处理后,将处理结果的最后一列数据置零,若数据还需要池化,则进行池化后输出,若不需要池化,则直接输出数据。
进一步的,所述基于移位累加器的剪枝层硬件处理电路包括解码器和若干移位累加器,每个移位累加器还配置有一个激活数据缓存模块、一个判断器、一个权重目录缓存模块、一个权重缓存模块,每个移位累加器负载一个权重核;
解码器将压缩后的剪枝层权重解码为±2n形式的权重和权重目录,并输入到对应的移位累加器对应的权重缓存模块和权重目录缓存模块,权重目录即为权重在权重核中的位置;
当所有移位累加器所需负载的权重被解码完,激活数据按顺序被同时输入到每个判断器中,每个判断器根据其对应的权重目录判断该激活数据是否被该移位累加器需要;如果需要,则将激活数据存储于对应激活数据缓存模块中,等待参与计算;
每输入指定数据的激活数据后,激活数据被送入移位累加器参与计算,同时后面的数据被输入激活数据缓存模块,以构成流水线的处理模式。
有益效果:与现有技术相比,本发明具有以下优势:
本发明能够在保证神经网络模型压缩率的情况下对神经网络进行加速。整个方案包括面向硬件加速的卷积神经网络压缩策略和高性能的混合并行硬件架构两个部分。本发明目前能在单片Xilinx VCU118上实现主流卷积神经网络VGG-16部署,并能以27.5倍的模型压缩比达到83.0FPS的处理速度,且保证在ImageNet2012测试数据集上0.5%以内的Top-5精度损失。
附图说明
图1为实施例涉及的面向硬件加速的卷积神经网络压缩方法;
图2为实施例涉及的分布式非剪枝层硬件处理电路结构图;
图3为实施例涉及的复合卷积处理单元结构图;
图4为实施例涉及的卷积处理单元结构图;
图5为实施例涉及的F×F乒乓缓存(FPPB)结构图;
图6为实施例涉及的基于FIR滤波器的高效卷积层数据流示意图;
图7为实施例涉及的基于移位累加器的剪枝层硬件处理电路结构图;
图8为硬件算法协同优化方法的原理图。
具体实施方式
下面结合附图和具体实施例对本发明作更进一步的说明。
在卷积神经网络中,不同的层拥有不同的特点。前面的层需要处理大尺寸的特征图,所需计算量大,但是却拥有较少的权重;后面的层处理的特征图尺寸因为池化层而被减小,所需计算量小,但是拥有大量的权重。
本实施例基于卷积神经网络的特征,提出一种压缩方法,具体步骤为:
(1)将卷积神经网络分为非剪枝层和剪枝层;
(2)设置剪枝阈值,将卷积神经网络中小于剪枝阈值的权重进行剪枝,然后重训练卷积神经网络,更新没有被剪切的权重,重复训练一剪枝过程,直至卷积神经网络中所有权重都小于剪枝阈值,至此,得到一个高精度的稀疏网络;
(3)移除非剪枝层的权重掩膜;
(4)对剪枝层进行渐进量化,具体步骤为:
1)随机选取剪枝层中的一组权重进行量化;
2)重新训练卷积神经网络,更新剪枝层中其他组的权重和非剪枝层的权重,重复训练过程,直至卷积神经网络的精度满足预设要求;
3)随机选取剪枝层中的下一组权重进行量化,然后返回步骤3);
4)重复执行步骤2)至3),直至整个剪枝层量化完成;
(5)保持剪枝层权重不变,对非剪枝层进行线性量化,得到压缩后的卷积神经网络。
在上述压缩方法中,卷积神经网络被划分为前后两个部分:前半部分为非剪枝层,后半部分为剪枝层。非剪枝层模型结构规则,能高效的被并行硬件架构加速。由于其位于网络的前半部分,所拥有权重数量少,即使未被剪枝,对整体模型压缩带来的影响甚微。剪枝层模型结构复杂且不规则,该种模型在计算上会带来一定的困难并影响计算速度。但是由于其位于网络的后半部分,其带来的模型压缩比是巨大的,并且由于后半部分所需求计算量小,其所带来的速度的影响也会被减小。因此,该压缩策略能在保证高处理性能的情况下对模型进行大幅压缩。
此外,本实施例还针对此压缩方法,提出一种实现电路,所述电路通过FPGA实现,包括:分布式非剪枝层硬件处理电路和基于移位累加器的剪枝层硬件处理电路,分布式非剪枝层硬件处理电路用于实现所述卷积神经网络的非剪枝层功能,剪枝层硬件处理电路用于实现所述卷积神经网络的剪枝层功能;分布式非剪枝层硬件处理电路和剪枝层硬件处理电路以流水线的方式共同实现卷积神经网络:分布式非剪枝层硬件处理电路处理当前输入数据的同时,剪枝层硬件处理电路处理上一次非剪枝层输出的数据。
所述分布式非剪枝层硬件处理电路包括:特征图缓存模块、N个特征图存储模块、M个复合卷积处理单元、M个权重存储模块、数据转换模块;特征图缓存模块用于缓存输入的特征图,并将特征图送入特征图存储模块;
每个特征图存储模块包括一个特征图存储单元和一个特征图缓存单元;每个特征图存储模块对应地存储特征图中的一个q行的数据块,并按照行顺序输出给对应的特征图缓存单元,特征图缓存单将数据按行存储并按列输出;在每个时钟,N个特征图存储模块向M个复合卷积处理单元分别输出N路特征图数据;
M个权重存储模块一一对应地连接M个复合卷积处理单元,即每个复合卷积处理单元由一个独立的权重存储模块提供权重;每个权重存储模块包括一个权重存储单元和一个权重缓存单元;每个权重存储单元用于存储相应的复合卷积处理单元的权重,并在上一层计算时,将权重输入到相应的权重缓存单元,权重缓存单元在本层计算开始前,将权重送入相应复合卷积处理单元;
每个复合卷积处理单元根据相应权重存储模块提供的权重,以N个不同的卷积核分别处理N个特征图存储模块输出的N路特征图数据;对卷积后的特征图数据累加后缓存,并与下一个时钟的N路特征图数据卷积结果相加,直至本次对特征图的处理结束;累加后的数据通过激活函数处理后,将处理结果的最后一列数据置零,若数据还需要池化,则进行池化后输出,若不需要池化,则直接输出数据。
所述基于移位累加器的剪枝层硬件处理电路包括解码器和若干移位累加器,每个移位累加器还配置有一个激活数据缓存模块、一个判断器、一个权重目录缓存模块、一个权重缓存模块,每个移位累加器负载一个权重核;
解码器将压缩后的剪枝层权重解码为±2n形式的权重和权重目录,并输入到对应的移位累加器对应的权重缓存模块和权重目录缓存模块,权重目录即为权重在权重核中的位置;
当所有移位累加器所需负载的权重被解码完,激活数据按顺序被同时输入到每个判断器中,每个判断器根据其对应的权重目录判断该激活数据是否被该移位累加器需要;如果需要,则将激活数据存储于对应激活数据缓存模块中,等待参与计算;
每输入指定数据的激活数据后,激活数据被送入移位累加器参与计算,同时后面的数据被输入激活数据缓存模块,以构成流水线的处理模式。
下面以VGG-16为例,进一步阐述本发明的具体实现过程。
如图1所示,VGG-16的卷积层初始被设为非剪枝层,全连接层被设为剪枝层。将整个神经网络剪枝并重新训练,得到高精度的稀疏网络模型(可直接使用已训练好的稀疏网络模型)。对全连接层的权重进行分组,选取其中一组量化为±2n的形式,然后重训练对其他组和卷积层的权重进行更新,当精确度达到需求后再重复以上步骤直至所有全连接层权重被量化完成。完成上述步骤后对卷积层权重进行均匀量化获得最终的压缩模型,压缩后的卷积神经网络模型分为稀疏的全连接层和规则的卷积层两个部分,分别被送入不同的处理单元去处理图片。最后得到的模型的数据类型为:卷积层中权重为8-bit的定点数;全连接层中权重数据位宽为9-bit,其中5-bit作为剪枝后权重的索引,4-bit作为数据存储(其中1-bit表示移位的方向,3-bit表示移位的距离)。特征图数据量化为16-bit的定点数。
本发明的处理架构由分布式非剪枝层硬件处理电路和基于移位累加器的剪枝层硬件处理电路两个部分组成,它们以流水线的方式共同处理卷积神经网络:分布式非剪枝层硬件处理电路处理数据的同时,剪枝层硬件电路处理上一次的非剪枝层输出的数据。
分布式非剪枝层硬件处理电路如图2所示,以架构尺寸PM=32和PN=32为例。
对于处理一个224×225×64(宽×高×通道数)大小的特征图(最后一列由于上层计算已被填充零),卷积核尺寸为3×3×64×64。权重存储RAM(WR)在上一层计算时,将权重输入到权重缓存(WB)。在该层计算开始前,WB将权重送入每个复合卷积处理单元,等待与输入特征图的计算。每个WR对应一个WB,每个WB对应一个复合卷积处理单元。32个并行的特征图存储RAM(FMR)输出32个通道的输入特征图整合数据,每个整合数据包含3个按行顺序排列的特征图数据。输出的整合数据将被输入到32个F×F乒乓缓存(FPPB),每个FPPB对应一个FMR。32个FPPB一个时钟输出32个通道的特征图数据(每个通道3个按列并行的特征图数据)到每个复合卷积处理单元,复合卷积单元每次处理32个通道的输入特征图数据。每个复合卷积处理单元接收相同的特征图数据,但是以不同的权重进行处理。因此,32个复合卷积处理单元并行输出32个通道的输出特征图数据,输出特征图数据按行排列。32个复合卷积处理单元输出的32个通道的特征图数据将被输入数据转换模块。数据转换模块将接收的三个时钟的串行数据整合变为并行,输出到特征图缓存模块。特征图缓存模块将在FMR中的特征图不再需要被处理的时候,输出特征图数据进FMR等待下一层的计算。下面对上述过程中的模块做进一步的详细说明:
如图3所示,复合卷积处理单元中有32个卷积处理单元,每次并行处理32个不同通道的特征图,并将其输出累加。每次32个通道的特征图累加后的数据被送入缓存,并和下次32个通道的特征图数据相加,直至所有的通道的特征图被累加完毕。累加后的数据经过激活函数后,其中最后一列数据被置零,之后被送入池化模块,可选择是否对特征图进行池化,最后输出数据。
如图4所示,卷积处理单元由3个3抽头的FIR滤波器a,b,c串联组成,滤波器a,b和b,c之间的连接处被插入选择器以控制b和c是接收外部数据还是上级FIR滤波器输出数据。该卷积处理单元可选择在两种模式下运行:(1)对于尺寸小于3×3的卷积核,该卷积处理单元工作在并行模式:MUX1选择第二行特征图数据x1,MUX2选择0,MUX3选择第三行特征图数据x2,MUX4选择0,MUX5选择三输入加法器的输出数据,MUX6选择MUX5的输出数据作为模块输出y。特别地,对于1×1的卷积核,MUX6选择位拼接后的输出数据作为模块输出。(2)对于尺寸大于3×3的卷积核,该卷积处理单元工作在串行模式:MUX1,MUX2,MUX3和MUX4选择上一级FIR滤波器输出数据,MUX5选择二输入加法器输出数据,MUX6选择MUX5输出数据作为模块输出。
FMR中每个3个16-bit的特征图数据按行整合为一个位宽为48-bit(等于按行排列的三个特征图数据)的数据,位深由卷积过程中最大的特征图决定(在VGG16中为ceil(224×225×64/3/16)),基于FIR滤波器的高效卷积层数据流如图6所示。
如图5所示,FPPB中有两个缓存块,每个缓存块可容纳一个3×3的矩阵。接收数据时,一个整合特征图数据刚好可填充缓存块中的一行。等到一个缓存块被填满,这个缓存块将按列输出数据,每个时钟输出一列3个特征图数据;同时,另一个缓存块接收输入的整合数据。两个缓存块如此交替的轮流接收和输出数据。
WR中权重数据位宽为72-bit(等于9个按顺序排列的权重数据),位深由模型大小决定。
WB在上一次卷积计算时被写入权重数据,当要进行该次卷积计算时,权重被输入至复合卷积单元进行计算。
剪枝层硬件处理电路如图7所示,以移位累加器数目为64和每个移位累加器中移位器数目为1为例。
解码器将存储于RAM中的压缩权重解码为4-bit权重和5-bit权重目录,并输入到对应的移位累加器对应的权重缓存和权重目录缓存。每个移位累加器负载一个权重核(在卷积层中,权重核即为卷积核;在全连接层中,权重核为连接到一个输出神经元的所有权重)。当所有移位累加器所需负载的权重被解码完,激活数据按顺序从RAM中被同时输入到每个判断器中,每个判断器根据其对应的权重目录判断该激活数据是否被该移位累加器需要。如果匹配,则将其存储于对应激活数据缓存中,等待参与计算。每输入128个激活数据后,激活数据被送入移位累加器参与计算,同时后面数据被输入缓存,以构成流水线的处理模式。输出数据被激活后暂存于激活数据缓存,直到输入激活数据不再需要,则输出激活数据被载入激活数据RAM等待下一次计算。
本实施例另外还提出一种硬件算法协同优化方法,如图8所示,按以下步骤实施:(1)根据上述硬件架构尺寸,对当前压缩模型的处理时间进行评估。(2)若非剪枝层的处理时间小于剪枝层的处理时间,则分配更多资源到剪枝层;若非剪枝层的处理时间大于剪枝层的处理时间,则向前移动分割器指针,减少非剪枝层的数量,增加剪枝层数量。(3)重新根据新的架构尺寸和压缩模型评估计算时间,并再次进行步骤(2),直到非剪枝层和剪枝层处理时间之差的绝对值达到最小,从而使系统性能达到最优。
以上只是对本发明的优选实施方式进行了描述。对该技术领域的普通技术人员来说,根据以上的实施方式可以很容易地联想到其他的有点和变形。因此,本发明并不局限于上述实施方式,其仅仅作为例子对本发明的一种形态进行详细,示范性的说明。在不违背本发明宗旨的范围内,本领域的普通技术人员在本发明的方案内进行通常变化和替换,都应包含在本发明的保护范围之内。
Claims (3)
1.一种卷积神经网络的实现电路,用于实现卷积神经网络的压缩方法压缩后的卷积神经网络,其特征在于,
卷积神经网络的压缩方法包括依次执行的步骤(1)至(5):
(1)将卷积神经网络分为非剪枝层和剪枝层;
(2)对整个卷积神经网络进行剪枝,然后重新训练,得到一个高精度的稀疏网络;
(3)移除非剪枝层的权重掩膜;
(4)对剪枝层进行渐进量化,具体步骤为:
1)随机选取剪枝层中的一组权重进行量化;
2)重新训练卷积神经网络,更新剪枝层中其他组的权重和非剪枝层的权重,重复训练过程,直至卷积神经网络的精度满足预设要求;
3)随机选取剪枝层中的下一组权重进行量化,然后返回步骤3);
4)重复执行步骤2)至3),直至整个剪枝层量化完成;
(5)保持剪枝层权重不变,对非剪枝层进行线性量化,得到压缩后的卷积神经网络;
所述电路通过FPGA实现,包括:分布式非剪枝层硬件处理电路和基于移位累加器的剪枝层硬件处理电路,分布式非剪枝层硬件处理电路用于实现所述卷积神经网络的非剪枝层功能,剪枝层硬件处理电路用于实现所述卷积神经网络的剪枝层功能;分布式非剪枝层硬件处理电路和剪枝层硬件处理电路以流水线的方式共同实现卷积神经网络:分布式非剪枝层硬件处理电路处理当前输入数据的同时,剪枝层硬件处理电路处理上一次非剪枝层输出的数据;
所述分布式非剪枝层硬件处理电路包括:特征图缓存模块、N个特征图存储模块、M个复合卷积处理单元、M个权重存储模块、数据转换模块;
特征图缓存模块用于缓存输入的特征图,并将特征图送入特征图存储模块;
每个特征图存储模块包括一个特征图存储单元和一个特征图缓存单元;每个特征图存储模块对应地存储特征图中的一个q行的数据块,并按照行顺序输出给对应的特征图缓存单元,特征图缓存单将数据按行存储并按列输出;在每个时钟,N个特征图存储模块向M个复合卷积处理单元分别输出N路特征图数据;
M个权重存储模块一一对应地连接M个复合卷积处理单元,即每个复合卷积处理单元由一个独立的权重存储模块提供权重;每个权重存储模块包括一个权重存储单元和一个权重缓存单元;每个权重存储单元用于存储相应的复合卷积处理单元的权重,并在上一层计算时,将权重输入到相应的权重缓存单元,权重缓存单元在本层计算开始前,将权重送入相应复合卷积处理单元;
每个复合卷积处理单元根据相应权重存储模块提供的权重,以N个不同的卷积核分别处理N个特征图存储模块输出的N路特征图数据;对卷积后的特征图数据累加后缓存,并与下一个时钟的N路特征图数据卷积结果相加,直至本次对特征图的处理结束;累加后的数据通过激活函数处理后,将处理结果的最后一列数据置零,若数据还需要池化,则进行池化后输出,若不需要池化,则直接输出数据。
2.根据权利要求1所述的一种卷积神经网络的实现电路,其特征在于,所述基于移位累加器的剪枝层硬件处理电路包括解码器和若干移位累加器,每个移位累加器还配置有一个激活数据缓存模块、一个判断器、一个权重目录缓存模块、一个权重缓存模块,每个移位累加器负载一个权重核;
解码器将压缩后的剪枝层权重解码为±2n形式的权重和权重目录,并输入到对应的移位累加器对应的权重缓存模块和权重目录缓存模块,权重目录即为权重在权重核中的位置;
当所有移位累加器所需负载的权重被解码完,激活数据按顺序被同时输入到每个判断器中,每个判断器根据其对应的权重目录判断该激活数据是否被该移位累加器需要;如果需要,则将激活数据存储于对应激活数据缓存模块中,等待参与计算;
每输入指定数据的激活数据后,激活数据被送入移位累加器参与计算,同时后面的数据被输入激活数据缓存模块,以构成流水线的处理模式。
3.根据权利要求2所述的一种卷积神经网络的实现电路,其特征在于,所述步骤(2)中得到一个高精度的稀疏网络的具体步骤为:
设置剪枝阈值,将卷积神经网络中小于剪枝阈值的权重进行剪枝,然后重训练卷积神经网络,更新没有被剪切的权重,重复训练—剪枝过程,直至卷积神经网络中所有权重都小于剪枝阈值,至此,得到一个高精度的稀疏网络。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010624916.XA CN111832705B (zh) | 2020-06-30 | 2020-06-30 | 一种卷积神经网络的压缩方法及其实现电路 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010624916.XA CN111832705B (zh) | 2020-06-30 | 2020-06-30 | 一种卷积神经网络的压缩方法及其实现电路 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111832705A CN111832705A (zh) | 2020-10-27 |
CN111832705B true CN111832705B (zh) | 2024-04-02 |
Family
ID=72900030
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010624916.XA Active CN111832705B (zh) | 2020-06-30 | 2020-06-30 | 一种卷积神经网络的压缩方法及其实现电路 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111832705B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112766397B (zh) * | 2021-01-27 | 2023-12-05 | 歌尔股份有限公司 | 一种分类网络及其实现方法和装置 |
CN113947185B (zh) * | 2021-09-30 | 2022-11-18 | 北京达佳互联信息技术有限公司 | 任务处理网络生成、任务处理方法、装置、电子设备及存储介质 |
CN115982529B (zh) * | 2022-12-14 | 2023-09-08 | 北京登临科技有限公司 | 卷积运算结构、卷积运算阵列及相关设备 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108764471A (zh) * | 2018-05-17 | 2018-11-06 | 西安电子科技大学 | 基于特征冗余分析的神经网络跨层剪枝方法 |
CN109711532A (zh) * | 2018-12-06 | 2019-05-03 | 东南大学 | 一种针对硬件实现稀疏化卷积神经网络推断的加速方法 |
CN110276450A (zh) * | 2019-06-25 | 2019-09-24 | 交叉信息核心技术研究院(西安)有限公司 | 基于多粒度的深度神经网络结构化稀疏系统和方法 |
CN111062472A (zh) * | 2019-12-11 | 2020-04-24 | 浙江大学 | 一种基于结构化剪枝的稀疏神经网络加速器及其加速方法 |
-
2020
- 2020-06-30 CN CN202010624916.XA patent/CN111832705B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108764471A (zh) * | 2018-05-17 | 2018-11-06 | 西安电子科技大学 | 基于特征冗余分析的神经网络跨层剪枝方法 |
CN109711532A (zh) * | 2018-12-06 | 2019-05-03 | 东南大学 | 一种针对硬件实现稀疏化卷积神经网络推断的加速方法 |
CN110276450A (zh) * | 2019-06-25 | 2019-09-24 | 交叉信息核心技术研究院(西安)有限公司 | 基于多粒度的深度神经网络结构化稀疏系统和方法 |
CN111062472A (zh) * | 2019-12-11 | 2020-04-24 | 浙江大学 | 一种基于结构化剪枝的稀疏神经网络加速器及其加速方法 |
Also Published As
Publication number | Publication date |
---|---|
CN111832705A (zh) | 2020-10-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111832705B (zh) | 一种卷积神经网络的压缩方法及其实现电路 | |
CN111445012B (zh) | 一种基于fpga的分组卷积硬件加速器及其方法 | |
US20220012593A1 (en) | Neural network accelerator and neural network acceleration method based on structured pruning and low-bit quantization | |
CN111242289B (zh) | 一种规模可扩展的卷积神经网络加速系统与方法 | |
CN110197270B (zh) | 集成电路芯片装置及相关产品 | |
CN111062472B (zh) | 一种基于结构化剪枝的稀疏神经网络加速器及其加速方法 | |
CN112668708B (zh) | 一种提高数据利用率的卷积运算装置 | |
CN108647184B (zh) | 一种动态比特位卷积乘法实现方法 | |
CN110705703A (zh) | 基于脉动阵列的稀疏神经网络处理器 | |
CN110543936B (zh) | 一种cnn全连接层运算的多并行加速方法 | |
CN112734020B (zh) | 卷积神经网络的卷积乘累加硬件加速装置、系统以及方法 | |
CN113283587B (zh) | 一种Winograd卷积运算加速方法及加速模块 | |
CN114925823A (zh) | 一种卷积神经网络压缩方法及边缘侧fpga加速器 | |
CN113537482B (zh) | 神经网络计算模块、方法和通信设备 | |
Xiao et al. | FPGA-based scalable and highly concurrent convolutional neural network acceleration | |
CN114519425A (zh) | 一种规模可扩展的卷积神经网络加速系统 | |
CN115238863A (zh) | 一种卷积神经网络卷积层的硬件加速方法、系统及应用 | |
CN113792868A (zh) | 神经网络计算模块、方法和通信设备 | |
CN113313244A (zh) | 面向加法网络的近存储神经网络加速器及其加速方法 | |
Zhang et al. | Hardware-software codesign of weight reshaping and systolic array multiplexing for efficient CNNs | |
CN117454946A (zh) | 支持非结构化稀疏矩阵计算的张量核架构系统 | |
CN114065923A (zh) | 一种卷积神经网络的压缩方法、系统及加速装置 | |
CN116167425A (zh) | 一种神经网络加速方法、装置、设备及介质 | |
CN115640833A (zh) | 一种面向稀疏卷积神经网络的加速器及加速方法 | |
CN113128688B (zh) | 通用型ai并行推理加速结构以及推理设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |