CN113222138A - 一种联合层剪枝和通道剪枝的卷积神经网络压缩方法 - Google Patents

一种联合层剪枝和通道剪枝的卷积神经网络压缩方法 Download PDF

Info

Publication number
CN113222138A
CN113222138A CN202110449059.9A CN202110449059A CN113222138A CN 113222138 A CN113222138 A CN 113222138A CN 202110449059 A CN202110449059 A CN 202110449059A CN 113222138 A CN113222138 A CN 113222138A
Authority
CN
China
Prior art keywords
layer
pruning
channel
threshold
neural network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110449059.9A
Other languages
English (en)
Inventor
霍静
黄中豪
李文斌
高阳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jiangsu Wanwei Aisi Network Intelligent Industry Innovation Center Co ltd
Nanjing University
Original Assignee
Jiangsu Wanwei Aisi Network Intelligent Industry Innovation Center Co ltd
Nanjing University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jiangsu Wanwei Aisi Network Intelligent Industry Innovation Center Co ltd, Nanjing University filed Critical Jiangsu Wanwei Aisi Network Intelligent Industry Innovation Center Co ltd
Priority to CN202110449059.9A priority Critical patent/CN113222138A/zh
Publication of CN113222138A publication Critical patent/CN113222138A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/082Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Complex Calculations (AREA)

Abstract

本发明提出了一种联合层剪枝和通道剪枝的模型剪枝算法,该算法包括:步骤1、稀疏化训练;步骤2、分层自适应阈值查找;步骤3、根据阈值确定各层的稀疏率;步骤4、计算层重要性排序;步骤5、层剪枝;步骤6、通道剪枝;步骤7、微调。稀疏化训练使用极化正则化器对卷积神经网络模型进行训练,然后使用分层自适应的剪枝阈值查找方法确定每层的稀疏率,根据每个卷积层的通道稀疏率确定层剪枝基本单位的重要性,并据此重要性确定层剪枝的次序,最后进行层剪枝和通道剪枝得到压缩后的网络结构。该方法能够结合层剪枝和通道剪枝的优点,同时去除卷积神经网络在深度和宽度上的冗余,从而有利于大型卷积神经网络在计算资源受限的边缘设备上部署应用。

Description

一种联合层剪枝和通道剪枝的卷积神经网络压缩方法
技术领域
本发明涉及一种联合层剪枝和通道剪枝的卷积神经网络压缩方法,属于计算机应用领域。
背景技术
近年来,随着深度学习的高速发展,卷积神经网络已成为图像分类、目标检测、语义分割、深度估计等各种计算机视觉任务的主流方法。大规模的数据集、高端的现代GPU芯片和新的网络架构,使得CNN模型向更大的规模发展。从AlexNet、VGGNet和GoogleNet到ResNet,ImageNet分类挑战赛中的冠军模型由最初的8层CNN模型发展到后来的152层。然而,更大的CNN模型虽然具有更强的性能,但却更耗费计算资源。同时,训练这样的大型网络模型亦更加费时和耗电。虽然CNN被应用到不同的应用中,并在很多任务中取得了巨大的精度提升,但CNN在实际应用中的部署大多受制于三个因素:模型大小、运行时内存、浮点运算量。卷积运算在高分辨率图像上是计算密集型的。一个大型CNN在移动设备上处理一张图像可能需要几分钟,这对许多现实应用来说是无法接受的。
为了将模型部署到嵌入式设备等资源受限的平台上,CNN需要更小更快。其中一个方向即是模型轻量化(模型压缩)技术。CNN在庞大的模型结构中,存在很大程度的冗余,在去掉很多模型参数后,模型的预测精度并没有受到明显影响。模型剪枝即是通过对网络中不重要的参数进行删除,可以达到压缩大小的效果。模型剪枝方法分为两大类,分别是非结构化剪枝和结构化剪枝。
非结构化剪枝中的主要方法是权重剪枝。早期的CNN剪枝研究工作主要集中在卷积的权重上,因为模型参数的数量并不是那么庞大。权重剪枝将执行过程中占所需计算量很大比例的不必要的连接归零。为了CNN架构的一致性,权重只能归零而不能直接去除。因此,权重剪枝需要为每个权重提供特殊的坐标,这在现在的万亿级模型中很难实现。此外,还需要特殊的硬件来加速训练和推理的过程。目前,已经提出了许多方法来确定权重置零的标准,如迭代阈值选择和霍夫曼代码。不正确的权重置零是权重剪枝中的主要问题。
结构化剪枝直接去除结构化的CNN部分,以同时压缩和加速CNN。并得到各种现成的深度学习库的良好支持。在这类方法中,滤波器剪枝最受关注。此外,为了保持CNN架构的一致性,下一层中相应的通道也要进行裁剪。因此,滤波器剪枝需和通道剪枝同时使用。一些方法从CNN中修剪被识别为信息量较少的滤波器。另一些方法则是从被识别为对输出精度影响较小的滤波器进行裁剪,从而压缩网络。滤波器剪枝和通道剪枝可以有效地去除CNN网络中的宽度冗余,从而得到一种新的架构,并且是与硬件平台无关的。因此,滤波器剪枝和通道剪枝被广泛使用。块修剪最早由Lin等人提出。与上述其他方法不同,结构化块剪枝更像是一个重新设计网络结构的过程,因为其目标是完全去除某些网络中的某些结构。为了避免破坏CNN的一致性,只能裁剪不改变输入特征图大小的块,通常是有残差连接的块。尽管有其局限性,但对于一些特殊的架构,块剪枝可以有效地消除深度冗余。
发明内容
本发明是针对卷积神经网络的压缩任务专门提出的算法,该算法联合层剪枝和通道剪枝作为剪枝方式,能够得到高压缩率的模型并提高模型的推理速度。一般来说,卷积神经网络的压缩存在如下难点和局限性:剪枝容易得到不合理的结构,从而影响模型的性能;通道剪枝对提高模型的推理速度作用有限,仅使用通道剪枝只能降低CNN的参数量和浮点计算量;层剪枝容易破坏CNN的结构一致性,改变网络的计算图,从而带来工程实现上的困难。
为解决上述技术问题,本发明提供一种联合层剪枝和通道剪枝的卷积神经网络压缩方法,包括如下步骤:
步骤1、稀疏化训练:使用带有极化正则化项的目标函数对网络进行训练;
步骤2、分层自适应阈值查找:分层绘制缩放因子分布直方图,将组距的宽度设置为0.01。然后从左到右扫描直方图中的组,找到第一个局部最小组,这个组的横坐标就是要找的阈值;
步骤3、根据阈值确定各层的稀疏率:根据各层的阈值,计算该层要裁剪的通道数,计算裁剪通道数与该层原通道数的比值,即为各层的稀疏率;
步骤4、计算层重要性排序:计算各层剪枝单位的重要性,并按照由小到大的顺序进行排序;
步骤5、层剪枝:找到重要性排序中不重要的前N层,将这些结构替换为直连,即将这些层从原网络中删去;
步骤6、通道剪枝:删除网络的卷积层中对应的缩放因子小于该层剪枝阈值的通道;
步骤7、微调:使用原数据集对网络进行微调以恢复精度。
根据本发明的一个方面,所述步骤1中的稀疏化训练,使用带有极化正则化项的目标函数对网络进行训练,总的目标函数是:
Figure BDA0003038080860000031
这里,L(.)是CNN网络自身的损失函数,R(.)是用于权重衰减的L2正则项,而Rs(.)是极化稀疏化正则项,λ是用于控制稀疏化强度的超参数。Rs(.)的定义如下:
Figure BDA0003038080860000032
其中,γ是CNN中所有通道的缩放因子所组成的向量,γi指代不同位置的缩放因子。在含有批标准化(Batch Normalization,BN)层的CNN中,即是指BN层中的缩放参数,而无需增加新的缩放因子。超参数t控制L1正则化项|γi|相对于
Figure BDA0003038080860000033
的权重。a是缩放因子的上界。
根据本发明的一个方面,所述步骤2中的分层自适应阈值查找,通过分层绘制缩放因子分布直方图,将直方图的组距的宽度设置为0.01,然后从左到右扫描直方图中的组,找到第一个局部最小组,这个组的横坐标就是要找的阈值。
根据本发明的一个方面,所述步骤3中的根据阈值确定各层的稀疏率,根据各层的阈值,计算该层要裁剪的通道数,计算裁剪通道数与该层原通道数的比值,即为各层的稀疏率,其计算方式如下:
Figure BDA0003038080860000034
其中,l代表该卷积层,cl代表该卷积层输出特征图的通道数,γi代表某个通道所对应的缩放因子,δl是前述层自适应阈值查找方法中所确定的该层的剪枝阈值,
Figure BDA0003038080860000035
是指示函数。
根据本发明的一个方面,所述步骤4中的计算层重要性排序,通过计算各层剪枝单位的重要性,并按照由小到大的顺序进行排序。层剪枝单位定义为删除CNN中层结构的最小单位,通常是网络中的残差结构,每个层剪枝单位的重要性的计算方式如下:
Figure BDA0003038080860000041
其中,l代表某一层剪枝单位,Sparsityi[l]代表该单位中某一卷积层的稀疏率,t是含有卷积层的数量。
根据本发明的一个方面,所述步骤5中的层剪枝,通过找到重要性排序中不重要的前N层,将这些结构替换为直连,即将这些层从原网络中删去。
根据本发明的一个方面,所述步骤6中的通道剪枝,通过删除网络的卷积层中对应的缩放因子小于该层剪枝阈值的通道。
根据本发明的一个方面,所述步骤7中的微调,使用原数据集对网络进行微调以恢复精度。
有益效果:在卷积神经网络的剪枝方法中,通道剪枝能大幅降低模型的参数量和计算量,而层剪枝方法能更好地提高模型的推理速度。本发明提出了联合通道剪枝和层剪枝的卷积神经网络压缩算法,该算法结合了层剪枝和通道剪枝的优点,能够高效、快速地得到高压缩率的模型,同时提高模型的推理速度,具有较高的实用价值。
附图说明
图1是本发明方法流程图。
图2是本发明中稀疏化训练中不同层的缩放因子分布直方图的变化趋势示意图。
图3是本发明中层剪枝单位示意图。
具体实施方式:
为细致展示本发明的目的、特征和优点,下面将结合附图和具体的实施案例来对本发明做进一步详细说明。
如图1所示,在本实施例中,本发明提供了一种联合层剪枝和通道剪枝的卷积神经网络压缩方法,包括如下具体步骤:
步骤1、稀疏化训练:使用带有极化正则化项的目标函数对网络进行训练;
步骤2、分层自适应阈值查找:分层绘制缩放因子分布直方图,将组距的宽度设置为0.01。然后从左到右扫描直方图中的组,找到第一个局部最小组,这个组的横坐标就是要找的阈值;
步骤3、根据阈值确定各层的稀疏率:根据各层的阈值,计算该层要裁剪的通道数,计算裁剪通道数与该层原通道数的比值,即为各层的稀疏率;
步骤4、计算层重要性排序:计算各层剪枝单位的重要性,并按照由小到大的顺序进行排序;
步骤5、层剪枝:找到重要性排序中不重要的前N层,将这些结构替换为直连,即将这些层从原网络中删去;
步骤6、通道剪枝:删除网络的卷积层中对应的缩放因子小于该层剪枝阈值的通道;
步骤7、微调:使用原数据集对网络进行微调以恢复精度。
在进一步实施例中,所述步骤1中的稀疏化训练,使用带有极化正则化项的目标函数对网络进行训练,总的目标函数是:
Figure BDA0003038080860000051
这里,L(.)是CNN网络自身的损失函数,R(.)是用于权重衰减的L2正则项,而Rs(.)是极化稀疏化正则项,λ是用于控制稀疏化强度的超参数。Rs(.)的定义如下:
Figure BDA0003038080860000052
其中,γ是CNN中所有通道的缩放因子所组成的向量,γi指代不同位置的缩放因子。在含有批标准化(Batch Normalization,BN)层的CNN中,即是指BN层中的缩放参数,而无需增加新的缩放因子。超参数t控制L1正则化项|γi|相对于
Figure BDA0003038080860000053
的权重。a是缩放因子的上界。
在进一步实施例中,所述步骤2中的分层自适应阈值查找,通过分层绘制缩放因子分布直方图,将直方图的组距的宽度设置为0.01,然后从左到右扫描直方图中的组,找到第一个局部最小组,这个组的横坐标就是要找的阈值。
在进一步实施例中,所述步骤3中的根据阈值确定各层的稀疏率,根据各层的阈值,计算该层要裁剪的通道数,计算裁剪通道数与该层原通道数的比值,即为各层的稀疏率,其计算方式如下:
Figure BDA0003038080860000054
其中,l代表该卷积层,cl代表该卷积层输出特征图的通道数,γi代表某个通道所对应的缩放因子,δl是前述层自适应阈值查找方法中所确定的该层的剪枝阈值,
Figure BDA0003038080860000061
是指示函数。
在进一步实施例中,所述步骤4中的计算层重要性排序,通过计算各层剪枝单位的重要性,并按照由小到大的顺序进行排序。层剪枝单位定义为删除CNN中层结构的最小单位,通常是网络中的残差结构,每个层剪枝单位的重要性的计算方式如下:
Figure BDA0003038080860000062
其中,l代表某一层剪枝单位,Sparsityi[l]代表该单位中某一卷积层的稀疏率,t是含有卷积层的数量。
在进一步实施例中,所述步骤5中的层剪枝,通过找到重要性排序中不重要的前N层,将这些结构替换为直连,即将这些层从原网络中删去。
在进一步实施例中,所述步骤6中的通道剪枝,通过删除网络的卷积层中对应的缩放因子小于该层剪枝阈值的通道。
在进一步实施例中,所述步骤7中的微调,使用原数据集对网络进行微调以恢复精度。
另外需要说明的是,在上述具体实施方式中所描述的各个具体技术特征,在不矛盾的情况下,可以通过任何合适的方式进行组合。为了避免不必要的重复,本发明对各种可能的组合方式不再另行说明。

Claims (5)

1.联合层剪枝和通道剪枝的卷积神经网络压缩方法,包括如下步骤:
步骤1、稀疏化训练:使用带有极化正则化项的目标函数对网络进行训练;
步骤2、分层自适应阈值查找:分层绘制缩放因子分布直方图,将组距的宽度设置为0.01。然后从左到右扫描直方图中的组,找到第一个局部最小组,这个组的横坐标就是要找的阈值;
步骤3、根据阈值确定各层的稀疏率:根据各层的阈值,计算该层要裁剪的通道数,计算裁剪通道数与该层原通道数的比值,即为各层的稀疏率;
步骤4、计算层重要性排序:计算各层剪枝单位的重要性,并按照由小到大的顺序进行排序;
步骤5、层剪枝:找到重要性排序中不重要的前N层,将这些结构替换为直连,即将这些层从原网络中删去;
步骤6、通道剪枝:删除网络的卷积层中对应的缩放因子小于该层剪枝阈值的通道;
步骤7、微调:使用原数据集对网络进行微调以恢复精度。
2.根据权利要求1所述的联合层剪枝和通道剪枝的卷积神经网络压缩方法,其特征在于,所述步骤1中的稀疏化训练过程中,总的目标函数中引入了极化正则项函数,具体总的目标是:
Figure FDA0003038080850000011
这里,L(.)是CNN网络自身的损失函数,R(.)是用于权重衰减的L2正则项,而Rs(.)是极化稀疏化正则项,λ是用于控制稀疏化强度的超参数。Rs(.)的定义如下:
Figure FDA0003038080850000012
其中,γ是CNN中所有通道的缩放因子所组成的向量,γi指代不同位置的缩放因子。在含有批标准化(Batch Normalization,BN)层的CNN中,即是指BN层中的缩放参数,而无需增加新的缩放因子。超参数t控制L1正则化项|γi|相对于
Figure FDA0003038080850000013
的权重。a是缩放因子的上界。
3.根据权利要求1所述的联合层剪枝和通道剪枝的卷积神经网络压缩方法,其特征在于,所述步骤2的层自适应阈值查找中,每层的剪枝阈值是分别确定的,而不是全局统一阈值。
4.根据权利要求1所述的联合层剪枝和通道剪枝的卷积神经网络压缩方法,其特征在于,所述步骤3中的各卷积层的稀疏率,其计算方式如下:
Figure FDA0003038080850000021
其中,l代表卷积层编号,cl代表该卷积层输出特征图的通道数,γi代表某个通道所对应的缩放因子,δl是前述层自适应阈值查找方法中所确定的该层的剪枝阈值,
Figure FDA0003038080850000023
是指示函数。
5.根据权利要求1所述的联合层剪枝和通道剪枝的卷积神经网络压缩方法,其特征在于,所述步骤4的层剪枝单位重要性排序中,层剪枝单位定义为删除CNN中层结构的最小单位,通常是网络中的残差结构,每个层剪枝单位的重要性的计算方式如下:
Figure FDA0003038080850000022
其中,l代表某一层剪枝单位,Sparsityi[l]代表该单位中某一卷积层的稀疏率,t是含有卷积层的数量。
CN202110449059.9A 2021-04-25 2021-04-25 一种联合层剪枝和通道剪枝的卷积神经网络压缩方法 Pending CN113222138A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110449059.9A CN113222138A (zh) 2021-04-25 2021-04-25 一种联合层剪枝和通道剪枝的卷积神经网络压缩方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110449059.9A CN113222138A (zh) 2021-04-25 2021-04-25 一种联合层剪枝和通道剪枝的卷积神经网络压缩方法

Publications (1)

Publication Number Publication Date
CN113222138A true CN113222138A (zh) 2021-08-06

Family

ID=77088846

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110449059.9A Pending CN113222138A (zh) 2021-04-25 2021-04-25 一种联合层剪枝和通道剪枝的卷积神经网络压缩方法

Country Status (1)

Country Link
CN (1) CN113222138A (zh)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113850385A (zh) * 2021-10-12 2021-12-28 北京航空航天大学 一种粗细粒度联合的神经网络剪枝方法
CN113935484A (zh) * 2021-10-19 2022-01-14 上海交通大学 一种卷积神经网络模型的压缩方法及装置
CN114065823A (zh) * 2021-12-02 2022-02-18 中国人民解放军国防科技大学 基于稀疏深度神经网络的调制信号识别方法及系统
CN114154626A (zh) * 2021-12-14 2022-03-08 中国人民解放军国防科技大学 基于滤波器权重综合评估的深度神经网络滤波器剪枝方法
CN114155602A (zh) * 2021-12-02 2022-03-08 青岛大学 一种人体姿态估计模型稀疏化剪枝方法
CN114330644A (zh) * 2021-12-06 2022-04-12 华中光电技术研究所(中国船舶重工集团公司第七一七研究所) 一种基于结构搜索和通道剪枝的神经网络模型压缩方法
CN115049054A (zh) * 2022-06-12 2022-09-13 中国科学院重庆绿色智能技术研究院 基于特征图响应的通道自适应分段动态网络剪枝方法
CN115170902A (zh) * 2022-06-20 2022-10-11 美的集团(上海)有限公司 图像处理模型的训练方法
CN116468100A (zh) * 2023-03-06 2023-07-21 美的集团(上海)有限公司 残差剪枝方法、装置、电子设备和可读存储介质
CN116912637A (zh) * 2023-09-13 2023-10-20 国网山东省电力公司济南供电公司 输变电缺陷识别的方法、装置、计算机设备和存储介质

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113850385A (zh) * 2021-10-12 2021-12-28 北京航空航天大学 一种粗细粒度联合的神经网络剪枝方法
CN113935484A (zh) * 2021-10-19 2022-01-14 上海交通大学 一种卷积神经网络模型的压缩方法及装置
CN114065823A (zh) * 2021-12-02 2022-02-18 中国人民解放军国防科技大学 基于稀疏深度神经网络的调制信号识别方法及系统
CN114155602B (zh) * 2021-12-02 2024-04-26 青岛大学 一种人体姿态估计模型稀疏化剪枝方法
CN114155602A (zh) * 2021-12-02 2022-03-08 青岛大学 一种人体姿态估计模型稀疏化剪枝方法
CN114330644A (zh) * 2021-12-06 2022-04-12 华中光电技术研究所(中国船舶重工集团公司第七一七研究所) 一种基于结构搜索和通道剪枝的神经网络模型压缩方法
CN114154626B (zh) * 2021-12-14 2022-08-16 中国人民解放军国防科技大学 一种用于图像分类任务的滤波器剪枝方法
CN114154626A (zh) * 2021-12-14 2022-03-08 中国人民解放军国防科技大学 基于滤波器权重综合评估的深度神经网络滤波器剪枝方法
CN115049054A (zh) * 2022-06-12 2022-09-13 中国科学院重庆绿色智能技术研究院 基于特征图响应的通道自适应分段动态网络剪枝方法
CN115170902A (zh) * 2022-06-20 2022-10-11 美的集团(上海)有限公司 图像处理模型的训练方法
CN115170902B (zh) * 2022-06-20 2024-03-08 美的集团(上海)有限公司 图像处理模型的训练方法
CN116468100A (zh) * 2023-03-06 2023-07-21 美的集团(上海)有限公司 残差剪枝方法、装置、电子设备和可读存储介质
CN116468100B (zh) * 2023-03-06 2024-05-10 美的集团(上海)有限公司 残差剪枝方法、装置、电子设备和可读存储介质
CN116912637A (zh) * 2023-09-13 2023-10-20 国网山东省电力公司济南供电公司 输变电缺陷识别的方法、装置、计算机设备和存储介质
CN116912637B (zh) * 2023-09-13 2023-12-22 国网山东省电力公司济南供电公司 输变电缺陷识别的方法、装置、计算机设备和存储介质

Similar Documents

Publication Publication Date Title
CN113222138A (zh) 一种联合层剪枝和通道剪枝的卷积神经网络压缩方法
He et al. Asymptotic soft filter pruning for deep convolutional neural networks
CN110378468B (zh) 一种基于结构化剪枝和低比特量化的神经网络加速器
Singh et al. Play and prune: Adaptive filter pruning for deep model compression
You et al. Gate decorator: Global filter pruning method for accelerating deep convolutional neural networks
CN110119811B (zh) 一种基于熵重要性准则模型的卷积核裁剪方法
CN114037844B (zh) 基于滤波器特征图的全局秩感知神经网络模型压缩方法
CN110909667B (zh) 面向多角度sar目标识别网络的轻量化设计方法
CN114118402A (zh) 基于分组注意力机制的自适应剪枝模型压缩算法
CN109978135B (zh) 基于量化的神经网络压缩方法及系统
CN113283473B (zh) 一种基于cnn特征映射剪枝的快速水下目标识别方法
CN111160519B (zh) 基于结构冗余检测的卷积神经网络模型剪枝方法
CN113269312B (zh) 一种联合量化与剪枝搜索的模型压缩方法及其系统
CN113837376B (zh) 基于动态编码卷积核融合的神经网络剪枝方法
Singh et al. Acceleration of deep convolutional neural networks using adaptive filter pruning
CN114972753B (zh) 基于上下文信息聚合和辅助学习的轻量级语义分割方法及系统
CN113344182A (zh) 一种基于深度学习的网络模型压缩方法
Qi et al. Learning low resource consumption cnn through pruning and quantization
CN114092467A (zh) 一种基于轻量化卷积神经网络的划痕检测方法及系统
CN112561054B (zh) 一种基于批量特征热图的神经网络滤波器剪枝方法
CN113780550A (zh) 一种量化特征图相似度的卷积神经网络剪枝方法及装置
CN112308213A (zh) 一种基于全局特征关系的卷积神经网络压缩方法
Liu et al. NFP: A no fine-tuning pruning approach for convolutional neural network compression
CN116992941A (zh) 基于特征相似与特征补偿的卷积神经网络剪枝方法及装置
CN117151178A (zh) 一种面向fpga的cnn定制网络量化加速方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20210806