CN111488982A - 深度神经网络自动择优混合剪枝的压缩方法 - Google Patents

深度神经网络自动择优混合剪枝的压缩方法 Download PDF

Info

Publication number
CN111488982A
CN111488982A CN202010148902.5A CN202010148902A CN111488982A CN 111488982 A CN111488982 A CN 111488982A CN 202010148902 A CN202010148902 A CN 202010148902A CN 111488982 A CN111488982 A CN 111488982A
Authority
CN
China
Prior art keywords
model
pruning
filter
training
level
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010148902.5A
Other languages
English (en)
Inventor
刘强
陈世达
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tianjin University
Original Assignee
Tianjin University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tianjin University filed Critical Tianjin University
Priority to CN202010148902.5A priority Critical patent/CN111488982A/zh
Publication of CN111488982A publication Critical patent/CN111488982A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Feedback Control In General (AREA)

Abstract

本发明公开一种深度神经网络自动择优混合剪枝的压缩方法,步骤是,先对DNNs模型中的全局滤波器执行滤波器级剪枝;对剪枝后的模型微调,补偿因滤波器级剪枝导致的累加误差,获得性能恢复的滤波器级稀疏化模型;再对获得的滤波器级稀疏化模型,执行权值级剪枝操作,并将得到的更稀疏的模型进行微调,补偿因权值剪枝导致的准确率影响,获得性能恢复的稀疏化模型;达到预设压缩率,混合剪枝训练得到压缩模型。本发明利加速了压缩过程,进一步加大模型压缩率,降低DNNs模型参数存储空间和计算复杂度,从而缩短推理时间且对模型准确率几乎不影响。

Description

深度神经网络自动择优混合剪枝的压缩方法
技术领域
本发明涉及深度学习处技术领域,特别是涉及一种深度神经网络自动择优混合剪枝的压缩方法。
背景技术
随着深度神经网络(deep neural networks,DNNs)的网络规模、图像数据集日趋变大,DNNs的推理和训练需要巨大的算能、存储空间和功耗。即使采用图像处理单元GPU、张量处理单元TPU或者神经网络处理单元NPU等进行加速,也依然无法满足实际商用需求。尽管DNNs功能强大,性能优异,但由于DNNs规模大、参数多和计算量大,其在时间和空间上都受到巨大约束,限制了它部署在硬件资源受限的移动端或嵌入式设备上。
相关研究表明,拥有百万级及以上参数的DNNs模型本身存在大量冗余参数信息,部分参数和结构对DNNs性能产生无用的信息,这为DNNs模型压缩提供了理论支撑。DNNs模型剪枝是解决上述问题的方法之一。
经典DNNs压缩方法,包括低秩分解、量化编码、紧凑模型设计和参数剪枝等方法。低秩分解主要是使用多个低维张量运算求和逼近原始参数来减少网络推断的计算时间和存储空间。量化编码是通过降低权值参数所需要的比特数对原始网络进行压缩。紧凑模型设计是设计特殊模型或紧凑网络结构来降低存储和计算复杂度。DNNs模型的冗余的神经元或权重参数可以通过剪枝剔除,从而有效地减少模型参数,降低模型运算量和存储空间。
然而,直接剪枝可能会带来准确率损失。权重剪枝按粒度分为权值剪枝、通道剪枝和滤波器剪枝,目前研究大都研究某方面,未能将其有机结合,另外,对剪枝参数的重要性评判多基于经验认定数值大小、L1或L2范数大小,不能有效地评判参数对模型性能的影响。
因此,如何实现参数重要性自动检测,以最大程度压缩简化模型,避免耗时试错式循环迭代是本领域技术人员亟需解决的问题。
发明内容
本发明的目的是针对DNNs参数过度冗余、计算量大和推理时延大等问题,而提供一种深度神经网络自动择优混合剪枝的压缩方法。
为实现本发明的目的所采用的技术方案是:
一种深度神经网络自动择优混合剪枝的压缩方法,包括步骤:
S1:输入预训练好的原始DNNs模型φ和超参数模型压缩率ρ;
S2:对DNNs模型φ中的全局滤波器执行滤波器级剪枝;
S3:对剪枝后的模型进行周期为5个Epoch的微调,补偿因滤波器级剪枝导致的累加误差,获得性能恢复的滤波器级稀疏化模型φf
S4:对获得的滤波器级稀疏化模型φf,执行权值级剪枝操作;
S5:将S4得到的更稀疏的模型进行周期为5个Epoch的微调,补偿因权值剪枝导致的准确率影响,获得性能恢复的稀疏化模型φw
S6:判断是否达到预设压缩率ρ,如果达到则表示剪枝压缩训练完成,直接执行S7;否则令φ=φw,并重复S2到S6的过程,直到满足ρ约束;
S7:混合剪枝训练得到压缩模型φw,结束训练。
其中,S2中对DNNs模型φ中的全局滤波器执行滤波器级剪枝,具体步骤为:
S21:记录当前训练迭代DNNs模型参数w和对应的梯度gw,将重要性评判标准计分因子表示为σ=|gw·w|假设本次迭代模型的输入为X,训练标签为Y,模型所有的参数为Θ和损失函数为L(X,Y;Θ),则
Figure BDA0002401744280000021
S22:将每个滤波器中参数wi对应的σ(wi)累加求和作为该滤波器的重要性评分,即
Figure BDA0002401744280000031
其中i,K分别为当前滤波器参数的索引及总数,
S23:将全局的所有滤波器的评分σ(wi)按升序排序,选出1%对应评分较小的滤波器,将其参数置为零并在训练中停止更新。
其中,S3中对剪枝后模型的微调,具体步骤为,对滤波器剪枝后,对稀疏模型微调时,采用L2正则化,在训练过程中降低预定参数的大小,以至于在不损失模型准确率情况下,将其剪掉,如下式所示。
Figure BDA0002401744280000032
其中,S4中对滤波器级稀疏化模型φf执行权值级剪枝的具体步骤为:
S41:记录当前训练迭代DNNs模型参数w和对应的梯度gw,将重要性评判标准计分因子表示为σ=|gw·w|假设本次迭代模型的输入为X,训练标签为Y,模型所有的参数为Θ和损失函数为L(X,Y;Θ),则
Figure BDA0002401744280000033
S42:将每层的参数wi对应的σ(wi)作为wi本身重要性评分;
S43:将每层参数wi的评分σ(wi)按升序排序,选出10%对应评分较小的参数,将其置为零并在训练中停止更新。
本发明利用泰勒展开近似剪枝后损失函数的变化,以此评估参数的重要性,实现自动择优。另外,结合权值级和滤波器级混合迭代剪枝方式,进一步实现模型的压缩率,降低DNNs模型参数存储空间和计算复杂度,从而缩短推理时间,且剪枝压缩带来的准确率损失几乎可忽略,使模型更适用于资源限制的移动边缘设备。
附图说明
图1是深度神经网络自动择优混合剪枝的压缩方法流程框图;
图2是本发明提供深度神经网络自动择优混合剪枝压缩示意图。
具体实施方式
以下结合附图和具体实施例对本发明作进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
本发明提供的端到端的深度神经网络自动择优混合剪枝的压缩方法,利用泰勒展开近似剪枝后损失函数的变化,以此评估参数的重要性,实现自动择优。
另,结合权值级和滤波器级混合迭代剪枝方式,进一步实现模型的压缩率,降低DNNs模型参数存储空间和计算复杂度,从而缩短推理时间,且剪枝压缩带来的准确率损失几乎可忽略,使模型更适用于资源限制的移动边缘设备。
如图1所示,本发明深度神经网络自动择优混合剪枝的压缩方法,包括如下步骤:
步骤S1:输入预训练好的原始DNNs模型φ和超参数模型压缩率ρ;
步骤S2:对DNNs模型φ中的全局滤波器进行重要性排序,选出不重要的1%剪掉使模型稀疏化,即将对应1%的滤波器权值参数置零,并停止对其参数更新;
步骤S3:对剪枝后的模型进行周期为5个Epoch的微调,补偿因滤波器级剪枝导致的累加误差,获得性能恢复的滤波器级稀疏化模型φf
步骤S4:对步骤S3的滤波器级稀疏化模型,执行权值级剪枝操作,通过对每层的单个权值进行重要性排序,选出不重要的10%,将对应的权值剪掉置零,并停止对其参数更新;
步骤S5:将步骤4得到的更稀疏的模型进行周期为5个Epoch的微调,补偿因权值剪枝导致的准确率影响,获得性能恢复的稀疏化模型;
步骤S6:判断是否达到预设压缩率ρ,如果达到则表示剪枝压缩训练完成,直接执行步骤S7;否则令φ=φw,并重复步骤S2到S6的过程,直到满足ρ约束;
步骤S7:混合剪枝训练得到压缩模型φw,结束训练。
作为本发明进一步改进,步骤S2中对DNNs模型进行自动择优滤波器级剪枝,具体步骤为:
步骤S21:记录当前训练迭代DNNs模型参数w和对应的梯度gw,将重要性评判标准计分因子表示为σ=|gw·w|假设本次迭代模型的输入为X,训练标签为Y,模型所有的参数为Θ和损失函数为L(X,Y;Θ),则
Figure BDA0002401744280000051
步骤S22:将每个滤波器中参数wi对应的σ(wi)累加求和作为该滤波器的重要性评分,即
Figure BDA0002401744280000052
其中i,K分别为当前滤波器参数的索引及总数。
步骤S23:将全局的所有滤波器的评分σ(wi)按升序排序,选出1%对应评分较小的滤波器,将其参数置为零并在训练中停止更新。以上述步骤实现自动择优选出不重要的滤波器进行剪枝剔除。
其中,步骤S21中重要性计分因子σ=|gw·w|证明如下:
假设原始的未经过剪枝压缩的模型损失函数为L(X,Y;Θ),剪枝剔除的不重要参数为θ-,保留的重要参数为θ+,其对应的压缩模型损失函数为L(X,Y;θ+),另有θ-+=Θ。则剪枝选取重要参数w*的过程变成式(1)的优化问题。由于剪掉θ-之后对应的参数被置零变为
Figure BDA0002401744280000053
则对于只有一个变量w的损失函数可表示为L(0),而原始的损失函数为L(w),故可得式(2)。然后,根据泰勒展开可得到式(3)。
Figure BDA0002401744280000054
ΔL(w)=|L(w)-L(0)| (2)
Figure BDA0002401744280000055
因此,由式(2)和(3)相结合可得到式(4),证明出本发明提供的计分因子σ的有效性及合理性,从而实现所述的自动择优方法。
Figure BDA0002401744280000061
作为本发明进一步改进所述步骤S3中对剪枝后模型的微调,具体步骤为:
步骤S31:对滤波器剪枝后,对稀疏模型微调时,采用L2正则化,在训练过程中降低某些参数的大小,以至于在不损失模型准确率情况下,将其剪掉,如式(5)所示。
Figure BDA0002401744280000062
作为本发明进一步改进,步骤S4中对DNNs模型进行自动择优权值级剪枝,具体步骤为:
步骤S41:记录当前训练迭代DNNs模型参数w和对应的梯度gw,将重要性评判标准计分因子表示为σ=|gw·w|假设本次迭代模型的输入为X,训练标签为Y,模型所有的参数为Θ和损失函数为L(X,Y;Θ),则
Figure BDA0002401744280000063
步骤S42:将每层的参数wi对应的σ(wi)作为wi本身重要性评分。
步骤S43:将每层参数wi的评分σ(wi)按升序排序,选出10%对应评分较小的参数,将其置为零并在训练中停止更新。以上述步骤实现自动择优选出不重要的参数进行剪枝剔除。
需要说明的是,本发明中,步骤S5中对剪枝后模型的微调,具体步骤同步骤S3,不再详细说明。
本发明提供的新型压缩技术在具体使用时,产生的效果示意图如图2所示,给定预训练好模型,通过滤波器级和权值级迭代交替的剪枝操作,其中利用了自动择优和微调补偿技术,实现模型压缩尺度最大化且几乎不影响模型性能。
本发明提供的深度神经网络自动择优混合剪枝的压缩方法,可以基于公开图像数据集在训练中实现对模型的压缩和简化,通过自动择优技术,保证准确率损失几乎可忽略,并不需要冗长的重训练过程,加速了整体压缩过程时间,另外结合滤波器级和权值级剪枝,最大化冗余参数的剔除及模型压缩率,有效减少模型的计算量和参数量,有利于DNNs模型在移动边缘设备上的部署和应用。
以上所述仅是本发明的优选实施方式,应当指出的是,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。

Claims (4)

1.深度神经网络自动择优混合剪枝的压缩方法,其特征在于,包括步骤:
S1:输入预训练好的原始DNNs模型φ和超参数模型压缩率ρ;
S2:对DNNs模型φ中的全局滤波器执行滤波器级剪枝;
S3:对剪枝后的模型进行周期为5个Epoch的微调,补偿因滤波器级剪枝导致的累加误差,获得性能恢复的滤波器级稀疏化模型φf
S4:对获得的滤波器级稀疏化模型φf,执行权值级剪枝操作;
S5:将S4得到的更稀疏的模型进行周期为5个Epoch的微调,补偿因权值剪枝导致的准确率影响,获得性能恢复的稀疏化模型φw
S6:判断是否达到预设压缩率ρ,如果达到则表示剪枝压缩训练完成,直接执行S7;否则令φ=φw,并重复S2到S6的过程,直到满足ρ约束;
S7:混合剪枝训练得到压缩模型φw,结束训练。
2.根据权利要求1所述深度神经网络自动择优混合剪枝的压缩方法,其特征在于,S2中对DNNs模型φ中的全局滤波器执行滤波器级剪枝,具体步骤为:
S21:记录当前训练迭代DNNs模型φ参数w和对应的梯度gw,将重要性评判标准计分因子表示为σ=|gw·w|假设本次迭代模型的输入为X,训练标签为Y,模型所有的参数为Θ和损失函数为L(X,Y;Θ),则
Figure FDA0002401744270000011
S22:将每个滤波器中参数wi对应的σ(wi)累加求和作为该滤波器的重要性评分,即
Figure FDA0002401744270000012
其中i,K分别为当前滤波器参数的索引及总数,
S23:将全局的所有滤波器的评分σ(wi)按升序排序,选出1%对应评分较小的滤波器,将其参数置为零并在训练中停止更新。
3.根据权利要求2所述深度神经网络自动择优混合剪枝的压缩方法,其特征在于,S3中对剪枝后模型的微调,具体步骤为,对滤波器剪枝后,对稀疏模型微调时,采用L2正则化,在训练过程中降低预定参数的大小,以至于在不损失模型准确率情况下,将其剪掉,如下式所示。
Figure FDA0002401744270000021
4.根据权利要求3所述深度神经网络自动择优混合剪枝的压缩方法,其特征在于,S4中对滤波器级稀疏化模型φf执行权值级剪枝的具体步骤为:
S41:记录当前训练迭代DNNs模型参数w和对应的梯度gw,将重要性评判标准计分因子表示为σ=|gw·w|假设本次迭代模型的输入为X,训练标签为Y,模型所有的参数为Θ和损失函数为L(X,Y;Θ),则
Figure FDA0002401744270000022
S42:将每层的参数wi对应的σ(wi)作为wi本身重要性评分;
S43:将每层参数wi的评分σ(wi)按升序排序,选出10%对应评分较小的参数,将其置为零并在训练中停止更新。
CN202010148902.5A 2020-03-05 2020-03-05 深度神经网络自动择优混合剪枝的压缩方法 Pending CN111488982A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010148902.5A CN111488982A (zh) 2020-03-05 2020-03-05 深度神经网络自动择优混合剪枝的压缩方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010148902.5A CN111488982A (zh) 2020-03-05 2020-03-05 深度神经网络自动择优混合剪枝的压缩方法

Publications (1)

Publication Number Publication Date
CN111488982A true CN111488982A (zh) 2020-08-04

Family

ID=71811605

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010148902.5A Pending CN111488982A (zh) 2020-03-05 2020-03-05 深度神经网络自动择优混合剪枝的压缩方法

Country Status (1)

Country Link
CN (1) CN111488982A (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111898591A (zh) * 2020-08-28 2020-11-06 电子科技大学 一种基于剪枝残差网络的调制信号识别方法
CN112132062A (zh) * 2020-09-25 2020-12-25 中南大学 一种基于剪枝压缩神经网络的遥感图像分类方法
CN112561054A (zh) * 2020-12-03 2021-03-26 中国科学院光电技术研究所 一种基于批量特征热图的神经网络滤波器剪枝方法
CN113850385A (zh) * 2021-10-12 2021-12-28 北京航空航天大学 一种粗细粒度联合的神经网络剪枝方法
CN116341645A (zh) * 2023-04-07 2023-06-27 陕西物流集团产业研究院有限公司 一种基于全局多源层间的联合剪枝方法及系统

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111898591A (zh) * 2020-08-28 2020-11-06 电子科技大学 一种基于剪枝残差网络的调制信号识别方法
CN111898591B (zh) * 2020-08-28 2022-06-24 电子科技大学 一种基于剪枝残差网络的调制信号识别方法
CN112132062A (zh) * 2020-09-25 2020-12-25 中南大学 一种基于剪枝压缩神经网络的遥感图像分类方法
CN112561054A (zh) * 2020-12-03 2021-03-26 中国科学院光电技术研究所 一种基于批量特征热图的神经网络滤波器剪枝方法
CN112561054B (zh) * 2020-12-03 2023-03-31 中国科学院光电技术研究所 一种基于批量特征热图的神经网络滤波器剪枝方法
CN113850385A (zh) * 2021-10-12 2021-12-28 北京航空航天大学 一种粗细粒度联合的神经网络剪枝方法
CN116341645A (zh) * 2023-04-07 2023-06-27 陕西物流集团产业研究院有限公司 一种基于全局多源层间的联合剪枝方法及系统
CN116341645B (zh) * 2023-04-07 2024-03-19 陕西物流集团产业研究院有限公司 一种基于全局多源层间的联合剪枝方法及系统

Similar Documents

Publication Publication Date Title
CN111488982A (zh) 深度神经网络自动择优混合剪枝的压缩方法
CN110222821B (zh) 基于权重分布的卷积神经网络低位宽量化方法
CN107967515B (zh) 用于神经网络量化的方法和设备
CN113159173B (zh) 一种结合剪枝与知识蒸馏的卷积神经网络模型压缩方法
CN111079899A (zh) 神经网络模型压缩方法、系统、设备及介质
CN111612147A (zh) 深度卷积网络的量化方法
CN110334580A (zh) 基于集成增量的动态权重组合的设备故障分类方法
CN111738477B (zh) 基于深层特征组合的电网新能源消纳能力预测方法
CN113283473B (zh) 一种基于cnn特征映射剪枝的快速水下目标识别方法
CN115829024B (zh) 一种模型训练方法、装置、设备及存储介质
CN112488304A (zh) 一种卷积神经网络中的启发式滤波器剪枝方法和系统
CN113837376A (zh) 基于动态编码卷积核融合的神经网络剪枝方法
CN113837378A (zh) 一种基于代理模型和梯度优化的卷积神经网络压缩方法
CN113610227A (zh) 一种高效的深度卷积神经网络剪枝方法
Liu et al. Computation-performance optimization of convolutional neural networks with redundant kernel removal
CN110659735A (zh) 一种动态调整神经网络通道的方法、装置以及设备
Lin et al. Federated pruning: Improving neural network efficiency with federated learning
Feng et al. Sub clustering K-SVD: size variable dictionary learning for sparse representations
CN114219027A (zh) 一种基于离散小波变换的轻量级时间序列预测方法
CN113780550A (zh) 一种量化特征图相似度的卷积神经网络剪枝方法及装置
CN117852593A (zh) 一种蒸馏感知混合精度量化的压缩方法
CN113503879A (zh) 一种基于集合经验模态分解的动态自适应卡尔曼滤波器方法
CN115994590B (zh) 基于分布式集群的数据处理方法、系统、设备及存储介质
Zhang et al. ICA with sparse connections: Revisited
CN114742036B (zh) 一种预训练语言模型的组合式模型压缩方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20200804