CN112488070A - 一种面向遥感图像目标检测的神经网络压缩方法 - Google Patents
一种面向遥感图像目标检测的神经网络压缩方法 Download PDFInfo
- Publication number
- CN112488070A CN112488070A CN202011517057.0A CN202011517057A CN112488070A CN 112488070 A CN112488070 A CN 112488070A CN 202011517057 A CN202011517057 A CN 202011517057A CN 112488070 A CN112488070 A CN 112488070A
- Authority
- CN
- China
- Prior art keywords
- layer
- network
- weight
- pruning
- bit width
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 49
- 230000006835 compression Effects 0.000 title claims abstract description 48
- 238000007906 compression Methods 0.000 title claims abstract description 48
- 238000000034 method Methods 0.000 title claims abstract description 31
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 22
- 238000013138 pruning Methods 0.000 claims abstract description 68
- 238000013139 quantization Methods 0.000 claims abstract description 54
- 238000010586 diagram Methods 0.000 claims abstract description 22
- 238000012549 training Methods 0.000 claims abstract description 14
- 238000005457 optimization Methods 0.000 claims abstract description 9
- 230000003044 adaptive effect Effects 0.000 claims abstract description 7
- 238000013135 deep learning Methods 0.000 claims abstract description 6
- 238000012360 testing method Methods 0.000 claims description 29
- 230000006870 function Effects 0.000 claims description 4
- 238000011002 quantification Methods 0.000 claims description 3
- 238000006467 substitution reaction Methods 0.000 claims description 2
- 239000011159 matrix material Substances 0.000 description 6
- 238000013473 artificial intelligence Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000019771 cognition Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000000354 decomposition reaction Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000006698 induction Effects 0.000 description 1
- 238000013140 knowledge distillation Methods 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/13—Satellite images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/082—Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Astronomy & Astrophysics (AREA)
- Remote Sensing (AREA)
- Multimedia (AREA)
- Compression Of Band Width Or Redundancy In Fax (AREA)
Abstract
一种面向遥感图像目标检测的神经网络压缩方法,包括基于深度学习框架对目标检测神经网络进行训练,得到基准网络模型和基准mAP指标;按照卷积层参数量大小顺序,逐层将传统卷积层拆分为一层深度卷积和一层逐点卷积两个参数量更小的卷积层,直至超过mAP指标损失阈值;进行基于TPE优化的自适应剪枝;对权重进行基于层的动态固定点量化,对输入特征图进行基于区域的动态固定点量化,进一步压缩网络模型,逐步降低量化位宽,直至mAP指标损失超过阈值。本发明能够自动对网络各层剪枝阈值进行调节,从而减少剪枝引起的性能损失;通过动态固定点量化,减少量化引起的性能损失;最终在遥感图像目标检测网络上达到25倍以上的压缩率,mAP指标损失不到1%。
Description
技术领域
本发明涉及神经网络压缩技术领域,具体是一种面向遥感图像目标检测的神经网络压缩方法。
背景技术
人工智能技术的飞速发展使智能卫星的实现成为可能,将智能认知与自主决策实现在星上也成为智能化卫星的必然趋势。作为智能卫星的认知和决策的基础,目标检测算法能够迅速完成遥感图像中的特征提取并检测出其中的待测目标,近年来基于卷积神经网络的目标检测算法不断刷新传统模型的性能。针对遥感图像的目标检测算法可以为政府应用、军事情报等提供定制服务,例如自然灾害的评估、资源的勘探以及军事目标的检测等,在军用和民用领域都有着重要的应用前景。
然而,基于神经网络的遥感图像目标检测算法对芯片的运算能力、存储空间与功耗都提出了很大挑战。近年来,为了不断提高目标检测精度,神经网络的层数不断增大,参数数目也已达到千万甚至亿级,对硬件的运算能力、存储和功耗都提出了严峻的挑战,成为制约星载人工智能技术应用的重要因素。因此,在保证现有神经网络模型准确度的前提下,如何有效降低网络冗余、减小模型运算量与存储量成为一个亟待解决的问题,这对有效提高我国航天工程智能化水平也具有十分重要的战略意义。
为了降低网络冗余,进行网络压缩,近年来研究者已经提出一些网络压缩算法。例如剪枝、量化、权重分解和知识蒸馏等方法。但这些方法依然存在一些问题。目前,这些网络模型压缩算法主要是针对图片分类任务的,在其他计算机视觉任务上的尝试和研究较少,例如在目标检测任务上,其表现仍然是未知数。此外,遥感图像中由于目标大小不一、旋转角度多样,增加了网络压缩的难度,采用单一的网络压缩方法会引入较大性能损失。第三,星上人工智能系统的硬件资源十分有限,压缩算法的压缩率仍需进一步提高。以PravendraSingh等人在2018年的压缩工作为例,他们在目标检测网络上实现了稀疏性感应、卷积核选择、卷积核剪除的剪枝框架,在目标检测网络SSD(Single Shot multibox Detector)上仅达到6.7倍的压缩率,远不能达到实际应用的压缩率需求。
发明内容
为解决上述现有技术中对遥感图像目标检测算法网络压缩的研究不足、压缩率不高的问题,本发明基于深度可分离卷积替换、TPE优化的自适应剪枝和动态固定点量化,提出了一种面向遥感图像目标检测的神经网络压缩方法,该方法能够显著降低网络的参数量和计算量,同时保持网络mAP指标损失不到1%。
本发明的技术解决方案如下:
一种面向遥感图像目标检测的神经网络压缩方法,其特点在于,包括以下步骤:
步骤1:进行基准网络训练。基于深度学习框架对目标检测神经网络进行训练,得到基准网络模型和基准mAP(mean Average Precision)指标。
步骤2:进行深度可分离卷积替换。按照卷积层参数量大小顺序,逐层将传统卷积层拆分为一层深度卷积和一层逐点卷积两个参数量更小的卷积层,直至超过mAP指标损失阈值。
步骤3:基于步骤2得到的替换后的网络模型,进行基于TPE(Tree-structuredParzen Estimator)优化的自适应剪枝。
步骤4:基于步骤3得到的剪枝后的网络模型,对权重进行基于层的动态固定点量化,对输入特征图进行基于区域的动态固定点量化,进一步压缩网络模型。在尽可能不影响网络检测性能的前提下,逐步降低量化位宽,直至mAP指标损失超过阈值,得到最终压缩模型。
具体的所述步骤1中基准网络训练步骤为:
步骤1-1:基于神经网络框架搭建目标检测网络;
步骤1-2:在训练集上进行训练,loss不再下降时,在测试集上进行测试,得到目标检测基准mAP指标。
具体的,所述步骤2中深度可分离卷积替换步骤为:
步骤2-1:计算目标检测网络中每个卷积层的参数量,公式如下:
Params=(k×k×Cin)×Cout
其中,k为卷积核尺寸,Cin和Cout分别为卷积的输入通道和输出通道;
步骤2-2:选择当前参数量最大的卷积层,修改网络架构,将其替换为对应的一层深度卷积和一层逐点卷积;
步骤2-3:修改目标检测网络的权重文件,除了新替换的层权重为随机生成外,其余层权重保持不变。
步骤2-4:利用修改后的网络架构及权重文件进行网络重训练,loss函数不再降低后得到重训练后的权重文件;在测试集上进行测试,得到mAP指标;
步骤2-5:与基准mAP指标相比,若mAP指标损失不超过阈值,则保留此层替换,返回步骤2-2,进行下一层替换。若mAP指标损失超过阈值,则恢复本次替换前的网络架构和权重。
具体的,所述步骤3中基于TPE优化算法的自适应剪枝的步骤为:
步骤3-1:利用步骤2中得到的权重文件,对每层网络权重进行可视化,选择参数有大量冗余的层作为进行剪枝的层;
步骤3-2:随机生成M组初始网络剪枝阈值{C1,C2,C3,…,CM},其中Ci={c(1),c(2),…,c(L)},其中c(j)代表第j层的剪枝阈值,网络共l层;
步骤3-3:针对步骤3-1得到的要进行剪枝的层进行剪枝和重训练,更新未被剪除的权重;在测试集上进行测试,得到在不同剪枝阈值设定下模型的mAP指标损失值{y1,y2,y3,…,yM};构建剪枝阈值及结果集合D={(C1,y1),(C2,y2)),(C3,y3),…,(CM,yM)};
步骤3-4:TPE算法依据当前剪枝阈值及结果集合D,确定下一次迭代的剪枝阈值C*。针对C*进行剪枝和重训练,得到当前剪枝阈值下的mAP指标损失值y*。
步骤3-5:更新剪枝阈值及剪枝结果集合:D←D∪{(C*,y*)};
步骤3-6:重复步骤3-4,3-5,直到超过最大迭代次数N;
步骤3-7:将剪枝完毕后的稀疏的权重转化为按行压缩格式(CSR,CompressedSparse Row)进行存储。
具体的,所述步骤4中基于层的动态固定点量化方法步骤为:
步骤4-1:设定权重初始量化位宽Bw为8bit;
步骤4-2:针对目标检测网络中每层权重进行统计,寻找到每层权重的最大值;
步骤4-3:依据每层权重最大值,按照公式IL=[lg 2(max[W]+1)]和FL=Bw–IL设定该层权重的整数部分位宽IL和小数位宽FL,其中W指该层权重张量;
步骤4-4:按照整数位宽IL、小数位宽FL对每层权重进行量化;
步骤4-5:利用量化得到的权重文件,在测试集上进行测试,若mAP指标损失不超过阈值,则降低量化位宽Bw,重复步骤4-2到4-5;否则,恢复本次位宽降低前的网络权重;
步骤4-6:利用步骤3-7所述的CSR格式进行存储,得到量化后的稀疏权重文件。
具体的,所述步骤4中基于区域的动态固定点量化方法步骤为:
步骤5-1:设定输入特征图初始量化位宽BI为8bit;
步骤5-2:将输入特征图拆分为30×30的网格区域;
步骤5-3:针对输入特征图的每个网格,确定每区域像素的最大值;
步骤5-4:依据各区域最大值,按照公式IL=[lg 2(max[I]+1)]和FL=BI–IL设定该区域输入特征图的整数部分位宽IL和小数位宽FL,其中I指输入特征图网格区域张量;
步骤5-5:按照整数位宽IL、小数位宽FL对输入特征图各区域进行量化,从而尽可能保留各区域更多的细节特征;
步骤5-6:利用量化得到的权重文件,在测试集上进行测试,若mAP指标损失不超过阈值,则降低量化位宽BI,重复步骤5-2到5-6;否则,恢复本次位宽降低前的位宽BI;
步骤5-7:记录输入特征图量化位宽BI,在推理过程中按照该值进行实时量化。
与现有技术相比,本发明的有益效果为:
1)基于TPE优化算法的自适应剪枝方法,能够自动对网络各层剪枝阈值进行调节,从而减少剪枝引起的性能损失;
2)对输入特征图的基于区域的动态固定点量化和针对网络权重的基于层的动态固定点量化方法,能够在量化过程中尽可能保留更多细节信息,减少量化引起的性能损失;
3)引入深度可分解卷积方法,与以上两种压缩方法结合,最终在遥感图像目标检测网络上达到25倍以上的压缩率,mAP指标损失不到1%。
附图说明
图1为本发明面向遥感图像目标检测的神经网络压缩方法的流程图。
图2为深度可分离卷积替换传统卷积示意图
图3为剪枝示意图
图4为稀疏矩阵CSR存储格式示意图
图5为动态固定点量化示意图
图6为mAP指标与权重量化位宽的关系示意图
图7为SSD网络压缩前目标检测结果示意图
图8为SSD网络压缩后目标检测结果示意图
具体实施方式
为了使本发明实现的措施、创作特征、达成目的与功效易于明白了解,以下结合附图对本发明的实施例作详细说明,但不应以此限制本发明的保护范围。
以目标检测网络SSD为实施例,采用的深度学习框架Caffe,训练与测试选用的数据集为遥感图像数据集NWPU VHR-10,输入图片大小为300*300,具体网络结构如表1所示:
表1 SSD网络结构
请参阅图1,图1为本发明面向遥感图像目标检测的神经网络压缩方法的流程图,如图所示,本发明包括以下步骤:
步骤1:基准网络训练:基于深度学习框架对目标检测神经网络进行训练,得到基准网络模型和基准mAP(mean Average Precision)指标;
步骤1-1:基于神经网络框架搭建目标检测网络;
步骤1-2:在训练集上进行训练,loss不再下降时,在测试集上进行测试,得到目标检测mAP指标。具体的,所采用的SSD网络在NWPU-VHR数据集上10类物体的总mAP指标为76.0%,权重大小为95.18MB。
步骤2:深度可分离卷积替换:按照卷积层参数量大小顺序,逐层将传统卷积层拆分为一层深度卷积和一层逐点卷积两个参数量更小的卷积层,直至超过mAP指标损失阈值。
步骤2-1:计算目标检测网络中每个卷积层的参数量,公式如下:
Params=(k×k×Cin)×Cout
其中,k为卷积核尺寸,Cin和Cout分别为卷积的输入通道和输出通道;
具体的,在深度学习框架Caffe下进行深度可分离卷积替换需要以下步骤:
步骤2-2-1:在Caffe源码中加入新的层深度卷积层DepthwiseConvolution;
步骤2-2-2:编写该层头文件、实现前向和反向传播代码,一个卷积核仅与一个输入通道进行卷积,一个输入通道仅和一个卷积核卷积;
步骤2-2-3:设定层名称为“DepthwiseConvolution”即可调用深度卷积层;调用Caffe内置的卷积层,并将卷积核尺寸设定为1,即可实现逐点卷积层。
步骤2-3:修改SSD网络的权重文件Caffemodel,除了新替换的层权重为随机生成外,其余层权重保持不变。
步骤2-4:利用修改后的网络架构及权重文件进行网络重训练,直至训练集的loss函数不再降低后得到重训练后的权重文件;在测试集上进行测试,得到mAP指标;
步骤2-5:与基准mAP指标相比,若mAP指标损失不超过阈值,则保留此层替换,返回步骤2-2,进行下一层替换。若mAP指标损失超过阈值,则恢复本次替换前的网络架构和权重。表2为深度可分解卷积压缩效果,展示了最终替换得到的6组深度可分解卷积及其压缩比。整个网络的压缩率达到了2.01倍,mAP指标为77.5%,提高了1.5%。
表2.深度可分解卷积压缩效果
步骤3:基于步骤2得到的替换后的网络模型,进行基于TPE(Tree-structuredParzen Estimator)优化的自适应剪枝,具体是:
步骤3-1:利用步骤2中得到的权重文件,对每层网络权重进行可视化,选择参数有大量冗余的层作为进行剪枝的层。具体的,经过深度可分解卷积的替换后,并非所有卷积层的参数都有大量冗余,在剪枝过程中,深度可分解卷积中的深度卷积层不再参与压缩;
步骤3-2:随机生成M组初始网络剪枝阈值{C1,C2,C3,…,CM},其中Ci={c(1),c(2),…,c(L)},其中c(j)代表第j层的剪枝阈值,网络共l层;
步骤3-3:针对步骤3-1得到的要进行剪枝的层进行剪枝和重训练,更新未被剪除的权重;在测试集上进行测试,得到在不同剪枝阈值设定下模型的mAP指标损失值{y1,y2,y3,…,yM};构建剪枝阈值及结果集合D={(C1,y1),(C2,y2)),(C3,y3),…,(CM,yM)};
步骤3-4:TPE算法依据当前剪枝阈值及结果集合D,确定下一次迭代的剪枝阈值C*;针对C*进行剪枝和重训练,得到当前剪枝阈值下的mAP指标损失值y*。
具体的,TPE算法基于贝叶斯优化框架,能够根据已有超参数(剪枝阈值)的模型评估结果(mAP指标损失)选择下一组超参数,其执行步骤如下:
步骤3-4-1-1:将当前剪枝阈值集合分为2个类别,分别代表性能好和性能差:
其中y*代表目前得到的所有mAP指标的γ分位数,即P(y<y*)=γ。
步骤3-4-1-2:在TPE算法中,优化标准是期望提升EI,定义为:
由于下式成立:
得到:
具体的,图2为剪枝示意图,实现剪枝需要进行以下步骤:
步骤3-4-2-1:定义和第l层权重矩阵W(l)同等大小的第l层mask矩阵M(l)用于表示剪枝状态,mask矩阵中数值只能取0或1,0代表权重被剪除而1代表权重被保留。
步骤3-4-2-2:通过比较剪枝阈值和权重更新M(l):
步骤3-4-2-3:得到剪枝后的权重W′(l)=W(l)⊙M(l);
步骤3-5:更新剪枝阈值及剪枝结果集合:D←D∪{(C*,y*)};
步骤3-6:重复步骤3-4,3-5,直到超过最大迭代次数N;
步骤3-7:将剪枝完毕后的稀疏的权重转化为按行压缩格式(CSR,CompressedSparse Row)进行存储。图4是CSR存储格式示意图,具体的,A数组存储所有非零元素,JA数组存储各个非零元素再原稀疏矩阵中的列索引,IA数组的第n个元素存储原始稀疏矩阵前n行的非零元素个数,第0个元素IA[0]恒为0。在步骤3完成后,SSD网络通过深度可分解卷积替换和剪枝,压缩率达到11.4倍,mAP指标为76.4%。
步骤4:基于步骤3得到的剪枝后的网络模型,对权重进行基于层的动态固定点量化,对输入特征图进行基于区域的动态固定点量化,进一步压缩网络模型。在尽可能不影响网络检测性能的前提下,逐步降低量化位宽,直至mAP指标损失超过阈值,得到最终压缩模型。图5为动态固定点量化示意图,其特征是总量化位宽不变,小数点的位置可以依据各组数据的分布而变化。
具体的,基于层的动态固定点量化方法步骤为:
步骤4-1:设定权重初始量化位宽Bw为8bit;
步骤4-2:针对目标检测网络中每层权重进行统计,寻找到每层权重的最大值;
步骤4-3:依据每层权重最大值,按照公式IL=[lg 2(max[W]+1)]和FL=Bw–IL设定该层权重的整数部分位宽IL和小数位宽FL,其中W指该层权重张量;
步骤4-4:按照整数位宽IL、小数位宽FL对每层权重进行量化。具体的,在Caffe框架下进行量化需要对权重文件Caffemodel进行解析,读取权重和偏置数据,量化后再写入新的权重文件;
步骤4-5:利用量化得到的权重文件,在测试集上进行测试,若mAP指标损失不超过阈值,则降低权重量化位宽Bw,重复步骤4-2到4-5;否则,恢复本次位宽降低前的网络权重。具体的,SSD网络在不同位宽下的量化结果如图6所示。最终选择的量化位宽为6bit,mAP指标为75.42%,损失为0.58%;
步骤4-6:利用步骤3-7所述的CSR格式进行存储,得到量化后的稀疏权重文件。需要的存储空间为3.62MB,压缩率达26.29倍。
具体的,所述步骤4中基于区域的动态固定点量化方法步骤为:
步骤5-1:设定输入特征图初始量化位宽BI为8bit;
步骤5-2:将输入特征图拆分为30×30的网格区域;
步骤5-3:针对输入特征图的每个网格,确定每区域像素的最大值;
步骤5-4:依据各区域最大值,按照公式IL=[lg 2(max[I]+1)]和FL=BI–IL设定该区域输入特征图的整数部分位宽IL和小数位宽FL,其中I指输入特征图网格区域张量;
步骤5-5:按照整数位宽IL、小数位宽FL对输入特征图各区域进行量化,从而尽可能保留各区域更多的细节特征;
步骤5-6:利用量化得到的权重文件,在测试集上进行测试,若mAP指标损失不超过阈值,则降低量化位宽BI,重复步骤5-2到5-6;否则,恢复本次位宽降低前的位宽BI;
步骤5-7:记录输入特征图量化位宽BI,在推理过程中按照该值进行实时量化。具体的,NWPU VHR-10数据集作为SSD网络输入,可以量化至8bit,无mAP指标损失,可以进一步降低硬件计算资源开销。
挑选数据集中的样本进行展示,压缩前的检测结果为图7,压缩后的检测结果为图8,左下角的港口在网络压缩后被检测出,由此可见,本发明将网络压缩后,mAP指标损失很低。且去掉冗余后,网络在某些物体的检测上甚至可以取得更好效果。
Claims (5)
1.一种面向遥感图像目标检测的神经网络压缩方法,其特征在于,该方法包括以下步骤:
步骤1:基准网络训练:基于深度学习框架对目标检测神经网络进行训练,得到基准网络模型和基准mAP指标;
步骤2:深度可分离卷积替换:按照卷积层参数量大小顺序,逐层将传统卷积层拆分为一层深度卷积和一层逐点卷积两个参数量更小的卷积层,直至超过mAP指标损失阈值;
步骤3:根据步骤2得到的替换后的网络模型,进行基于TPE优化的自适应剪枝;
步骤4:根据步骤3得到的剪枝后的网络模型,对权重进行基于层的动态固定点量化,对输入特征图进行基于区域的动态固定点量化,进一步压缩网络模型,逐步降低量化位宽,直至mAP指标损失超过阈值,得到最终压缩模型。
2.根据权利要求1所述的面向遥感图像目标检测的神经网络压缩方法,其特征在于,所述步骤2深度可分离卷积替换,具体是:
步骤2-1:计算目标检测网络中每个卷积层的参数量,公式如下:
Params=(k×k×Cin)×Cout
其中,k为卷积核尺寸,Cin和Cout分别为卷积的输入通道和输出通道;
步骤2-2:选择当前参数量最大的卷积层,修改网络架构,将其替换为对应的一层深度卷积和一层逐点卷积;
步骤2-3:修改目标检测网络的权重文件,新替换的层权重为随机生成,其余层权重保持不变;
步骤2-4:利用修改后的网络架构及权重文件进行网络重训练,loss函数不再降低后得到重训练后的权重文件;在测试集上进行测试,得到mAP指标;
步骤2-5:与基准mAP指标相比,若mAP指标损失不超过阈值,则保留此层替换,返回步骤2-2,进行下一层替换,若mAP指标损失超过阈值,则恢复本次替换前的网络架构和权重。
3.根据权利要求1所述的面向遥感图像目标检测的神经网络压缩方法,其特征在于,所述步骤3进行基于TPE优化的自适应剪枝,具体步骤是:
步骤3-1:利用步骤2中得到的权重文件,对每层网络权重进行可视化,选择参数有大量冗余的层作为进行剪枝的层;
步骤3-2:随机生成M组初始网络剪枝阈值{C1,C2,C3,...,CM},其中Ci={c(1),c(2),...,c(L)},其中c(j)代表第j层的剪枝阈值,网络共l层;
步骤3-3:针对步骤3-1得到的要进行剪枝的层进行剪枝和重训练,更新未被剪除的权重;在测试集上进行测试,得到在不同剪枝阈值设定下模型的mAP指标损失值{y1,y2,y3,...,yM};构建剪枝阈值及结果集合D={(C1,y1),(C2,y2)),(C3,y3),…,(CM,yM)};
步骤3-4:通过TPE算法依据当前剪枝阈值及结果集合D,确定下一次迭代的剪枝阈值C*,针对剪枝阈值C*进行步骤3-3得到各层剪枝阈值,进行剪枝和重训练,得到当前剪枝阈值下的mAP指标损失值y*;
步骤3-5:更新剪枝阈值及剪枝结果集合:D←D∪{(C*,y*)};
步骤3-6:重复步骤3-4,3-5,直到超过最大迭代次数N;
步骤3-7:将剪枝完毕后的稀疏的权重转化为按行压缩格式(CSR,Compressed SparseRow)进行存储。
4.根据权利要求1所述的面向遥感图像目标检测的神经网络压缩方法,其特征在于,所述步骤4对权重进行基于层的动态固定点量化,具体是:
步骤4-1:设定权重初始量化位宽Bw为8bit;
步骤4-2:针对目标检测网络中每层权重进行统计,寻找到每层权重的最大值;
步骤4-3:依据每层权重最大值,按照公式IL=[lg 2(max[W]+1)]和FL=Bw-IL设定该层权重的整数部分位宽IL和小数位宽FL,其中W指该层权重张量;
步骤4-4:按照整数位宽IL、小数位宽FL对每层权重进行量化;
步骤4-5:利用量化得到的权重文件,在测试集上进行测试,若mAP指标损失不超过阈值,则降低量化位宽Bw,重复步骤4-2到4-5;否则,恢复本次位宽降低前的网络权重;
步骤4-6:利用步骤3-7所述的按行压缩格式进行存储,得到量化后的稀疏权重文件。
5.根据权利要求1所述的面向遥感图像目标检测的神经网络压缩方法,其特征在于,所述步骤4对输入特征图进行基于区域的动态固定点量化,具体是:
步骤5-1:设定输入特征图初始量化位宽BI为8bit;
步骤5-2:将输入特征图拆分为30×30的网格区域;
步骤5-3:针对输入特征图的每个网格,确定每区域像素的最大值;
步骤5-4:依据各区域最大值,按照公式IL=[lg 2(max[I]+1)]和FL=BI-IL设定该区域输入特征图的整数部分位宽IL和小数位宽FL,其中I指输入特征图网格区域张量;
步骤5-5:按照整数位宽IL、小数位宽FL对输入特征图各区域进行量化,尽可能保留各区域更多的细节特征;
步骤5-6:利用量化得到的权重文件,在测试集上进行测试,若mAP指标损失不超过阈值,则降低量化位宽BI,重复步骤5-2到5-6;否则,恢复本次位宽降低前的位宽BI;
步骤5-7:记录输入特征图量化位宽BI,在推理过程中按照该值进行实时量化。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011517057.0A CN112488070A (zh) | 2020-12-21 | 2020-12-21 | 一种面向遥感图像目标检测的神经网络压缩方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011517057.0A CN112488070A (zh) | 2020-12-21 | 2020-12-21 | 一种面向遥感图像目标检测的神经网络压缩方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112488070A true CN112488070A (zh) | 2021-03-12 |
Family
ID=74915156
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011517057.0A Pending CN112488070A (zh) | 2020-12-21 | 2020-12-21 | 一种面向遥感图像目标检测的神经网络压缩方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112488070A (zh) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113033804A (zh) * | 2021-03-29 | 2021-06-25 | 北京理工大学重庆创新中心 | 一种面向遥感图像的卷积神经网络压缩方法 |
CN113610192A (zh) * | 2021-09-07 | 2021-11-05 | 北京理工大学 | 一种基于连续性剪枝的神经网络轻量化方法及系统 |
CN113627593A (zh) * | 2021-08-04 | 2021-11-09 | 西北工业大学 | 面向目标检测模型Faster R-CNN的自动量化方法 |
CN113657590A (zh) * | 2021-07-26 | 2021-11-16 | 浙江大华技术股份有限公司 | 模型压缩方法、人脸识别方法、电子设备和存储介质 |
CN114330749A (zh) * | 2021-12-30 | 2022-04-12 | 中国石油大学(华东) | 数字信号处理方法及装置 |
CN114429189A (zh) * | 2022-01-27 | 2022-05-03 | 成都理工大学 | 一种高泛用性滑坡位移速率预警方法 |
WO2022222369A1 (zh) * | 2021-04-20 | 2022-10-27 | 上海科技大学 | 可用于轻量级神经网络的纯整型量化方法 |
CN115730654A (zh) * | 2022-11-23 | 2023-03-03 | 湖南大学 | 层剪枝方法、厨余垃圾检测方法及遥感图像车辆检测方法 |
CN113627593B (zh) * | 2021-08-04 | 2024-06-04 | 西北工业大学 | 面向目标检测模型Faster R-CNN的自动量化方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110555450A (zh) * | 2018-05-31 | 2019-12-10 | 北京深鉴智能科技有限公司 | 人脸识别神经网络调整方法和装置 |
CN111160523A (zh) * | 2019-12-16 | 2020-05-15 | 上海交通大学 | 基于特征值区域的动态量化方法、系统及介质 |
CN111160524A (zh) * | 2019-12-16 | 2020-05-15 | 北京时代民芯科技有限公司 | 一种两阶段的卷积神经网络模型压缩方法 |
CN111652366A (zh) * | 2020-05-09 | 2020-09-11 | 哈尔滨工业大学 | 一种基于通道剪枝和量化训练的联合神经网络模型压缩方法 |
-
2020
- 2020-12-21 CN CN202011517057.0A patent/CN112488070A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110555450A (zh) * | 2018-05-31 | 2019-12-10 | 北京深鉴智能科技有限公司 | 人脸识别神经网络调整方法和装置 |
CN111160523A (zh) * | 2019-12-16 | 2020-05-15 | 上海交通大学 | 基于特征值区域的动态量化方法、系统及介质 |
CN111160524A (zh) * | 2019-12-16 | 2020-05-15 | 北京时代民芯科技有限公司 | 一种两阶段的卷积神经网络模型压缩方法 |
CN111652366A (zh) * | 2020-05-09 | 2020-09-11 | 哈尔滨工业大学 | 一种基于通道剪枝和量化训练的联合神经网络模型压缩方法 |
Non-Patent Citations (2)
Title |
---|
ZHUORAN SONG ET AL.: "DRQ: Dynamic Region-based Quantization for Deep Neural Network Acceleration", 《2020 ACM/IEEE 47TH ANNUAL INTERNATIONAL SYMPOSIUM ON COMPUTER ARCHITECTURE (ISCA)》 * |
雷小康 等: "基于FPGA的卷积神经网络定点加速", 《计算机应用》 * |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113033804B (zh) * | 2021-03-29 | 2022-07-01 | 北京理工大学重庆创新中心 | 一种面向遥感图像的卷积神经网络压缩方法 |
CN113033804A (zh) * | 2021-03-29 | 2021-06-25 | 北京理工大学重庆创新中心 | 一种面向遥感图像的卷积神经网络压缩方法 |
US11934954B2 (en) | 2021-04-20 | 2024-03-19 | Shanghaitech University | Pure integer quantization method for lightweight neural network (LNN) |
WO2022222369A1 (zh) * | 2021-04-20 | 2022-10-27 | 上海科技大学 | 可用于轻量级神经网络的纯整型量化方法 |
CN113657590A (zh) * | 2021-07-26 | 2021-11-16 | 浙江大华技术股份有限公司 | 模型压缩方法、人脸识别方法、电子设备和存储介质 |
CN113627593A (zh) * | 2021-08-04 | 2021-11-09 | 西北工业大学 | 面向目标检测模型Faster R-CNN的自动量化方法 |
CN113627593B (zh) * | 2021-08-04 | 2024-06-04 | 西北工业大学 | 面向目标检测模型Faster R-CNN的自动量化方法 |
CN113610192A (zh) * | 2021-09-07 | 2021-11-05 | 北京理工大学 | 一种基于连续性剪枝的神经网络轻量化方法及系统 |
CN114330749A (zh) * | 2021-12-30 | 2022-04-12 | 中国石油大学(华东) | 数字信号处理方法及装置 |
CN114429189A (zh) * | 2022-01-27 | 2022-05-03 | 成都理工大学 | 一种高泛用性滑坡位移速率预警方法 |
CN114429189B (zh) * | 2022-01-27 | 2023-06-27 | 成都理工大学 | 一种高泛用性滑坡位移速率预警方法 |
CN115730654A (zh) * | 2022-11-23 | 2023-03-03 | 湖南大学 | 层剪枝方法、厨余垃圾检测方法及遥感图像车辆检测方法 |
CN115730654B (zh) * | 2022-11-23 | 2024-05-14 | 湖南大学 | 层剪枝方法、厨余垃圾检测方法及遥感图像车辆检测方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112488070A (zh) | 一种面向遥感图像目标检测的神经网络压缩方法 | |
US11775833B2 (en) | Accelerated TR-L-BFGS algorithm for neural network | |
CN110135580B (zh) | 一种卷积网络全整型量化方法及其应用方法 | |
CN110674850A (zh) | 一种基于注意力机制的图像描述生成方法 | |
CN110175628A (zh) | 一种基于自动搜索与知识蒸馏的神经网络剪枝的压缩算法 | |
CN113011570B (zh) | 一种采用神经网络压缩系统的人脸表情识别方法 | |
WO2020238237A1 (zh) | 一种基于幂指数量化的神经网络压缩方法 | |
CN112365514A (zh) | 基于改进PSPNet的语义分割方法 | |
CN111986085A (zh) | 一种基于深度反馈注意力网络系统的图像超分辨率方法 | |
CN113190654A (zh) | 一种基于实体联合嵌入和概率模型的知识图谱补全方法 | |
CN111144551A (zh) | 一种基于特征方差比的卷积神经网络通道剪枝方法 | |
CN113610139A (zh) | 一种多视角强化图像聚类方法 | |
CN112465140A (zh) | 一种基于分组通道融合的卷积神经网络模型压缩方法 | |
CN112488313A (zh) | 一种基于显式权重的卷积神经网络模型压缩方法 | |
CN114970853A (zh) | 一种跨范围量化的卷积神经网络压缩方法 | |
CN114677548A (zh) | 基于阻变存储器的神经网络图像分类系统及方法 | |
CN113724344A (zh) | 一种基于高光谱遥感图像压缩方法 | |
CN116956997A (zh) | 用于时序数据处理的lstm模型量化重训练方法、系统及设备 | |
CN112149803A (zh) | 一种适用于深度神经网络的通道剪枝方法 | |
CN113554104B (zh) | 一种基于深度学习模型的图像分类方法 | |
Yang et al. | Skeleton Neural Networks via Low-rank Guided Filter Pruning | |
CN114154626B (zh) | 一种用于图像分类任务的滤波器剪枝方法 | |
CN115983320A (zh) | 一种基于深度强化学习的联邦学习模型参数量化方法 | |
CN113177627B (zh) | 优化系统、重新训练系统及其方法及处理器和可读介质 | |
CN115482434A (zh) | 一种基于多尺度生成对抗网络的小样本高质量生成的方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20210312 |
|
RJ01 | Rejection of invention patent application after publication |