CN113516163B - 基于网络剪枝的车辆分类模型压缩方法、装置及存储介质 - Google Patents
基于网络剪枝的车辆分类模型压缩方法、装置及存储介质 Download PDFInfo
- Publication number
- CN113516163B CN113516163B CN202110455123.4A CN202110455123A CN113516163B CN 113516163 B CN113516163 B CN 113516163B CN 202110455123 A CN202110455123 A CN 202110455123A CN 113516163 B CN113516163 B CN 113516163B
- Authority
- CN
- China
- Prior art keywords
- network
- pruning
- layer
- channels
- loss
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000013138 pruning Methods 0.000 title claims abstract description 75
- 238000000034 method Methods 0.000 title claims abstract description 38
- 238000013145 classification model Methods 0.000 title claims abstract description 25
- 230000006835 compression Effects 0.000 title claims description 14
- 238000007906 compression Methods 0.000 title claims description 14
- 238000012549 training Methods 0.000 claims abstract description 51
- 230000006870 function Effects 0.000 claims description 16
- 238000010586 diagram Methods 0.000 claims description 15
- 239000012014 frustrated Lewis pair Substances 0.000 claims description 9
- 238000005457 optimization Methods 0.000 claims description 5
- 238000004364 calculation method Methods 0.000 claims description 2
- 238000013527 convolutional neural network Methods 0.000 description 3
- 238000005070 sampling Methods 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 2
- 230000007547 defect Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000003062 neural network model Methods 0.000 description 2
- 244000141353 Prunus domestica Species 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000000354 decomposition reaction Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000013140 knowledge distillation Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000013139 quantization Methods 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
- 239000004984 smart glass Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/082—Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Abstract
本发明公开了一种基于网络剪枝的车辆分类模型压缩方法、装置及存储介质,具体步骤包括获取车辆分类图片的训练集;根据未剪枝网络定义得到架构参数并参与网络推理;利用损失函数与获取的训练集进行网络参数和架构参数的交替训练,得到优化后的架构参数;根据优化后的架构参数对未剪枝网络进行剪枝,得到剪枝子网络;利用所述训练集和损失函数重新训练得到的剪枝子网络,得到最终的剪枝模型。本发明能够根据目标资源限制条件,从原始未剪枝网络中通过梯度下降自动搜索到符合目标资源限制且性能最优的剪枝网络。
Description
技术领域
本发明涉及车辆分类模型压缩技术领域,特别涉及一种基于网络剪枝的车辆分类模型压缩方法、装置及存储介质。
背景技术
深度学习让计算机视觉任务的性能到达了一个前所未有的高度。但是多数卷积神经网络的优异性能都以计算和内存成本的显著增加作为代价。而近年来无人驾驶、无人机、智能手机、智能眼镜等嵌入式和移动设备取得了长足的进步,在这些设备上部署卷积神经网络模型的需求也变得越来越强烈。但是,这些设备的资源(例如存储、计算单元以及电池电量等)非常有限这给在低成本环境中运行卷积神经网络带来了巨大的挑战。
近年来神经网络模型压缩与加速技术受到了国内外学者的广泛关注,并取得了显著的进步。综合现有的神经网络模型压缩方法,他们主要分为四类:剪枝、量化、低秩分解以及知识蒸馏。其中剪枝是目前模型压缩中使用较多的方法,其中主要分为两类:传统的通道剪枝方法以及自动化通道剪枝方法。传统的通道剪枝方法主要是提出一个判断通道或权重是否重要的度量标准,依据这个标准计算出衡量通道或权重重要性的值,根据人工设定的剪枝率将不重要的通道或权重剪掉。而自动化通道剪枝方法通常借助强化学习算法、进化算法等直接在未剪枝网络中搜索符合要求的目标子网络。
传统的通道剪枝方法主要存在以下不足之处:首先它需要大量的经验来设计衡量通道或权重重要性的指标;其次它需要经过大量的尝试来设定网络剪枝率。自动化通道剪枝方法解决了需要人工设置网络剪枝率的问题,但它需要通过采样和评估大量子网络来搜索到符合要求的子网络,这需要大量的时间开销和内存占用率。
发明内容
本发明的目的克服现有技术存在的不足,为实现以上目的,采用一种基于网络剪枝的车辆分类模型压缩方法、装置及存储介质,以解决上述背景技术中提出的问题。
一种基于差分网络通道剪枝的车辆分类模型压缩方法,具体步骤包括:
获取车辆分类图片的训练集;
根据未剪枝网络定义得到架构参数并参与网络推理;
利用损失函数与获取的训练集进行网络参数和架构参数的交替训练,得到优化后的架构参数;
根据优化后的架构参数对未剪枝网络进行剪枝,得到剪枝子网络;
利用所述训练集和损失函数重新训练得到的剪枝子网络,得到最终的剪枝模型。
作为本发明的进一步的方案:所述获取车辆分类图片的训练集的具体步骤包括:
选取车辆分类图片作为训练集,所述训练集包括M张训练图片为X={X1,X2,…,Xm,…,XM},其中Xm表示第m张训练图片;
所述M张训练图片选取有一一对应的M个标签为Y={Y1,Y2,…,Ym,…,YM},其中Ym表示第m张车辆分类图片的类别。
作为本发明的进一步的方案:所述根据未剪枝网络定义得到架构参数并参与网络推理的具体步骤包括:
获取未剪枝网络M,定义一组架构参数
根据如下softmax公式,得到所有保留若干通道的概率集合
其中,l为未剪枝网络M的第l层,cl为第l层的通道数,为未剪枝网络M第l层剪枝后只保留前i个通道的概率;
再将架构参数参与网络推理,通过梯度下降来进行优化。
作为本发明的进一步的方案:所述将架构参数参与网络推理优化的具体步骤包括:
根据如下概率公式计算,得到未剪枝网络所有层的任意通道保留的概率为:
同时将每个通道的输出特征图与其对应的保留的概率相乘,得到实际的输出特征图:
其中,未剪枝网络第l层的第k个通道的输出特征图,/>为未剪枝网络的第l层的第k个通道实际的输出特征图。
作为本发明的进一步的方案:所述利用损失函数与获取的训练集进行网络参数和架构参数的交替训练,得到优化后的架构参数的具体步骤包括:
获取小批次的车辆分类图片X,以及其对应的标签集Y;
根据未剪枝网络采样获取权重共享的四个子网络;
将四个子网络独立进行网络推理,根据损失函数计算分类损失,四个子网络的梯度进行累加进而更新网络参数;
固定网络参数,架构参数参与网络推理,根据损失函数计算出总损失,进而更新架构参数。
作为本发明的进一步的方案:所述四个子网络包括最大宽度子网络、最小宽度子网络、第一随机宽度子网络,以及第二随机宽度子网络。
作为本发明的进一步的方案:所述根据损失函数计算分类损失和总损失的具体步骤包括:
根据KL散度计算分类损失:
其中,KL表示KL散度,是架构参数参与未剪枝网络推理后的输出,/>是原始未剪枝网络的输出;
根据保留若干通道的概率计算网络第l层的计算量FLOPs:
其中,Nl(FLOPs|i,j)表示当网络第l-1层只保留前i个通道,第l层只保留前j个通道时,网络第l层的FLOPs,l为未剪枝网络M的第l层,cl为第l层的通道数,为网络第l-1层剪枝后只保留前i个通道的概率,/>为网络第l层剪枝后只保留前j个通道的概率;
根据网络第l层的计算量FLOPs计算出网络的FLOPs:
其中,L表示网络的总层数;
计算出网络的成本损失:
LossFLOPs=log(|NFLOPs-RFLOPs|),
其中,RFLOPs表示目标的FLOPs;
总损失为分类损失和网络成本损失的加权和:
Lossarch=Losscls+γFLOPsLossFLOPs;
其中,γFLOPs为网络成本损失的权重。
作为本发明的进一步的方案:所述根据优化后的架构参数对未剪枝网络进行剪枝,并利用所述训练集和损失函数重新训练得到的剪枝子网络,得到最终的剪枝模型的具体步骤包括:
根据未剪枝网络所有层的任意通道保留的概率计算网络第l层保留的通道数:
其中,l为未剪枝网络M的第l层,cl为第l层的通道数,为网络第l层剪枝后只保留前i个通道的概率;
根据网络第l层保留的通道数进行网络剪枝,得到剪枝子网络;
根据得到的剪枝子网络的权重进行重新初始化;
在获取的车辆分类图片的训练集重新训练,得到最终的剪枝模型。
一种车辆分类模型装置,包括:
至少一个处理器;
至少一个存储器,用于存储至少一个程序;
当所述至少一个程序被所述至少一个处理器执行,使得所述至少一个处理器实现如上任一项所述一种基于差分网络通道剪枝的车辆分类模型压缩方法。
一种存储介质,其中存储有处理器可执行的指令,所述处理器可执行的指令在由处理器执行时用于实现如上任一项所述一种基于差分网络通道剪枝的车辆分类模型压缩方法。
与现有技术相比,本发明存在以下技术效果:
通过采用上述的技术方案,本发明利用深度学习的梯度反向传播算法为基础,训练自动计算每次迭代的损失,通过链式求导法则,计算网络的所有架构参数从而更新梯度,进而完成架构参数的更新。实现端到端的训练过程,避免了人工设定的剪枝率。利用梯度下降自动搜索符合要求的子网络,避免了大量采样和评估的时间成本。且使用权重共享的方法来更新网络参数和架构参数,极大减少训练的内存占用率。使用KL散度来计算训练架构参数时的分类损失,使得搜索到的子网络的性能尽可能地接近未剪枝网络的性能。
附图说明
下面结合附图,对本发明的具体实施方式进行详细描述:
图1为本申请公开的一些实施例的车辆分类模型压缩方法的步骤示意图;
图2为本申请公开的一些实施例的通道剪枝流程示意图;
图3为本申请公开的一些实施例的架构参数定义示意图;
图4为本申请公开的一些实施例的训练网络参数示意图;
图5为本申请公开的一些实施例的训练架构参数示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
请参考图1和图2,本发明实施例中,一种基于差分网络通道剪枝的车辆分类模型压缩方法,具体步骤包括:
首先根据准备好的训练用的车辆分类图片的训练集;再根据未剪枝网络为网络每一层定义一组架构参数,并使得定义的架构参数参与网络推理;在准备好的车辆分类图片的训练集上交替训练网络参数和架构参数;训练完成后根据优化后的架构参数对未剪枝网络进行剪枝得到剪枝子网后;在准备好的车辆分类图片训练集上从头开始训练剪枝得到的子网络,得到最终的剪枝模型。
S1、获取车辆分类图片的训练集,具体步骤包括:
选取车辆分类图片作为训练集,所述训练集包括M张训练图片为X={X1,X2,…,Xm,…,XM},其中Xm表示第m张训练图片;
所述M张训练图片选取有一一对应的M个标签为Y={Y1,Y2,…,Ym,…,YM},其中Ym表示第m张车辆分类图片的类别。
S2、根据未剪枝网络定义得到架构参数并参与网络推理,的具体步骤包括:
获取未剪枝网络M,对于其第l层,有cl个通道。若对该层网络进行剪枝,则共有cl种可能的通道数选择。定义通道剪枝搜索空间为该网络层的通道数。
如图3所示,为该网络层定义一组架构参数
具体的,使用ResNet系列网络和MobileNet系列网络作为未剪枝网络,其中ResNet系列网络包括ResNet18、ResNet50和ResNet101;MobileNet系列网络包括MobileNet V1和MobileNet V2。
在本发明实施方式的一种实现方式中,所述未剪枝网络M采用ResNet50。
本发明的一些具体实施方式中,由于ResNet网络中有许多带恒等映射的残差模块,其输入通道数和输出通道数需要保持一致,所以对此使用权重共享的策略,即共享同一组架构参数。
根据如下softmax公式,为了使得搜索空间连续,将选择一个特定的通道数松弛为所有可能通道数softmax的结果:
并得到所有保留若干通道的概率集合
其中,l为未剪枝网络M的第l层,cl为第l层的通道数,为未剪枝网络M第l层剪枝后只保留前i个通道的概率。
具体的,由于通道数过多,在剪枝ResNet网络时将将网络每层的通道均匀分成10组,cl取为10,而在剪枝MobileNet网络时将网络每层的通道数扩大到1.5倍然后均匀分成15组,cl取为15。而表示网络该层剪枝后只保留前i组通道的概率。
再将架构参数参与网络推理,通过梯度下降来进行优化。
根据如下概率公式计算,具体的,该网络层保留只保留前i个通道的概率为则前i个通道被保留的概率为/>后cl-i个通道被保留的概率为0。考虑所有可能的通道数,计算出网络第l层第k个通道被保留的概率:
同时将每个通道的输出特征图与其对应的保留的概率相乘,得到实际的输出特征图:
其中,为未剪枝网络第l层的第k个通道的输出特征图,/>为未剪枝网络的第l层的第k个通道实际的输出特征图。
同时,需要将该操作放在网络BN层后面以避免BN层的缩放因子抵消了该操作对网络后续层的影响。
S3、利用损失函数与获取的训练集进行网络参数和架构参数的交替训练,得到优化后的架构参数,具体步骤包括:
获取小批次的车辆分类图片X={X1,X2,…,Xt},以及其对应的标签集Y={Y1,Y2,…,Yt};
如图4所示,根据未剪枝网络采样获取权重共享的四个子网络;具体的,所述四个子网络包括每层保留全部通道,采样得到最大宽度子网络;每层保留前最少通道,采样得到最小宽度子网络;每层保留前随机通道数个通道,采样得到第一个随机宽度子网络;每层保留前随机通道数个通道,采样得到第二个随机宽度子网络。
具体的,优先保留左边的通道,其中最小宽度网络为原始未剪枝网络每层只保留第一组通道的子网络,而随机宽度子网络为原始未剪枝网络每层保留随机组通道的子网络。且四个子网络权重共享。
将四个子网络独立进行网络推理,根据损失函数计算分类损失,四个子网络的梯度进行累加进而更新网络参数,在交替训练网络参数和架构参数之前,我们会对原始未剪枝网络进行warmup,即先训练20epochs网络参数。
如图5所示,固定网络参数,架构参数参与网络推理,根据损失函数计算出总损失,进而更新架构参数。具体步骤包括:
根据KL散度计算分类损失:
其中,KL表示KL散度,是架构参数参与未剪枝网络推理后的输出,/>是原始未剪枝网络的输出;
根据保留若干通道的概率计算网络第l层的计算量FLOPs:
其中,Nl(FLOPs|i,j)表示当网络第l-1层只保留前i个通道,第l层只保留前j个通道时,网络第l层的FLOPs,l为未剪枝网络M的第l层,cl为第l层的通道数,为网络第l-1层剪枝后只保留前i个通道的概率,/>为网络第l层剪枝后只保留前j个通道的概率;
根据网络第l层的计算量FLOPs计算出网络的FLOPs:
其中,L表示网络的总层数;
计算出网络的成本损失:
LossFLOPs=log(|NFLOPs-RFLOPs|);
其中,RFLOPs表示目标的FLOPs;具体的,为了使得搜索到的子网络的FLOPs严格低于我们的目标FLOPs,有不会对目标FLOPs过于敏感,我们设置了一个容忍度为0.95,当NFLOPs在/>和RFLOPs之间时LossFLOPs置为0。
总损失为分类损失和网络成本损失的加权和:
Lossarch=Losscls+γFLOPsLossFLOPs;
其中,γFLOPs为网络成本损失的权重,具体γFLOPs为0.1。根据定义的损失函数更新架构参数。
S4、根据优化后的架构参数对未剪枝网络进行剪枝,得到剪枝子网络;
S5、利用所述训练集和损失函数重新训练得到的剪枝子网络,得到最终的剪枝模型。
具体步骤包括:
根据未剪枝网络所有层的任意通道保留的概率计算网络第l层保留的通道数:
其中,l为未剪枝网络M的第l层,cl为第l层的通道数,为网络第l层剪枝后只保留前i个通道的概率;
根据网络第l层保留的通道数进行网络剪枝,得到剪枝子网络;
根据得到的剪枝子网络的权重进行重新初始化;
在获取的车辆分类图片的训练集重新训练,得到最终的剪枝模型。
本发明实施方式提供了一种车辆分类模型装置,该车辆分类模型装置包括存储器,用于存储一条或多条计算机指令;处理器,用于调用并执行所述一条或多条计算机指令从而实现本发明前述实施方式或实现方式所提供的基于差分网络通道剪枝的车辆分类模型压缩方法。具体的,在本发明实施方式的一种实现方式中,所述车辆分类模型装置还可以包括用于进行数据通信的输入输出接口。具体的,所述车辆分类模型装置可以是计算机、智能终端、服务器等。
本发明实施方式还提供了一种计算机存储介质,存储有一条或多条计算机指令,用于在执行时实现本发明前述实施方式或实现方式提供的基于差分网络通道剪枝的车辆分类模型压缩方法。具体的,所述存储介质可以包括硬盘、软盘、光盘等。
尽管已经示出和描述了本发明的实施例,对于本领域的普通技术人员而言,可以理解在不脱离本发明的原理和精神的情况下可以对这些实施例进行多种变化、修改、替换和变型,本发明的范围由所附权利要求及其等同物限定,均应包含在本发明的保护范围之内。
Claims (8)
1.一种基于差分网络通道剪枝的车辆分类模型压缩方法,其特征在于,包括:
获取车辆分类图片的训练集;
根据未剪枝网络定义得到架构参数并参与网络推理;
利用损失函数与获取的训练集进行网络参数和架构参数的交替训练,得到优化后的架构参数,其具体步骤包括:
获取小批次的车辆分类图片X,以及其对应的标签集Y;
根据未剪枝网络采样获取权重共享的四个子网络;
将四个子网络独立进行网络推理,根据损失函数计算分类损失,四个子网络的梯度进行累加进而更新网络参数;
固定网络参数,架构参数参与网络推理,根据损失函数计算出总损失,进而更新架构参数;
根据优化后的架构参数对未剪枝网络进行剪枝,得到剪枝子网络;
利用所述训练集和损失函数重新训练得到的剪枝子网络,得到最终的剪枝模型,其具体步骤包括:
根据未剪枝网络所有层的任意通道保留的概率计算网络第l层保留的通道数:
其中,l为未剪枝网络M的第l层,cl为第l层的通道数,为网络第l层剪枝后只保留前i个通道的概率;
根据网络第l层保留的通道数进行网络剪枝,得到剪枝子网络;
根据得到的剪枝子网络的权重进行重新初始化;
在获取的车辆分类图片的训练集重新训练,得到最终的剪枝模型。
2.根据权利要求1所述一种基于差分网络通道剪枝的车辆分类模型压缩方法,其特征在于,所述获取车辆分类图片的训练集的具体步骤包括:
选取车辆分类图片作为训练集,所述训练集包括M张训练图片为X={X1,X2,…,Xm,…,XM},其中Xm表示第m张训练图片;
所述M张训练图片选取有一一对应的M个标签为Y={Y1,Y2,…,Ym,…,YM},其中Ym表示第m张车辆分类图片的类别。
3.根据权利要求1所述一种基于差分网络通道剪枝的车辆分类模型压缩方法,其特征在于,所述根据未剪枝网络定义得到架构参数并参与网络推理的具体步骤包括:
获取未剪枝网络M,定义一组架构参数
根据如下softmax公式,得到所有保留若干通道的概率集合
其中,l为未剪枝网络M的第l层,cl为第l层的通道数,为未剪枝网络M第l层剪枝后只保留前i个通道的概率;
再将架构参数参与网络推理,通过梯度下降来进行优化。
4.根据权利要求3所述一种基于差分网络通道剪枝的车辆分类模型压缩方法,其特征在于,所述将架构参数参与网络推理优化的具体步骤包括:
根据如下概率公式计算,得到未剪枝网络所有层的任意通道保留的概率为:
同时将每个通道的输出特征图与其对应的保留的概率相乘,得到实际的输出特征图:
其中,为未剪枝网络第l层的第k个通道的输出特征图,/>为未剪枝网络的第l层的第k个通道实际的输出特征图。
5.根据权利要求1所述一种基于差分网络通道剪枝的车辆分类模型压缩方法,其特征在于,所述四个子网络包括最大宽度子网络、最小宽度子网络、第一随机宽度子网络,以及第二随机宽度子网络。
6.根据权利要求1所述一种基于差分网络通道剪枝的车辆分类模型压缩方法,其特征在于,所述根据损失函数计算分类损失和总损失的具体步骤包括:
根据KL散度计算分类损失:
其中,KL表示KL散度,是架构参数参与未剪枝网络推理后的输出,/>是原始未剪枝网络的输出;
根据保留若干通道的概率计算网络第l层的计算量FLOPs:
其中,Nl(FLOPs|i,j)表示当网络第l-1层只保留前i个通道,第l层只保留前j个通道时,网络第l层的FLOPs,l为未剪枝网络M的第l层,cl为第l层的通道数,为网络第l-1层剪枝后只保留前i个通道的概率,/>为网络第l层剪枝后只保留前j个通道的概率;
根据网络第l层的计算量FLOPs计算出网络的FLOPs:
其中,L表示网络的总层数;
计算出网络的成本损失:
LossFLOPs=log(|NFLOPs-RFLOPs|),
其中,RFLOPs表示目标的FLOPs;
总损失为分类损失和网络成本损失的加权和:
Lossarch=Losscls+γFLOPsLossFLOPs;
其中,γFLOPs为网络成本损失的权重。
7.一种车辆分类模型装置,其特征在于,包括:
至少一个处理器;
至少一个存储器,用于存储至少一个程序;
当所述至少一个程序被所述至少一个处理器执行,使得所述至少一个处理器实现如权利要求1-6任一项所述一种基于差分网络通道剪枝的车辆分类模型压缩方法。
8.一种存储介质,其中存储有处理器可执行的指令,其特征在于:所述处理器可执行的指令在由处理器执行时用于实现如权利要求1-6任一项所述一种基于差分网络通道剪枝的车辆分类模型压缩方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110455123.4A CN113516163B (zh) | 2021-04-26 | 2021-04-26 | 基于网络剪枝的车辆分类模型压缩方法、装置及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110455123.4A CN113516163B (zh) | 2021-04-26 | 2021-04-26 | 基于网络剪枝的车辆分类模型压缩方法、装置及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113516163A CN113516163A (zh) | 2021-10-19 |
CN113516163B true CN113516163B (zh) | 2024-03-12 |
Family
ID=78063660
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110455123.4A Active CN113516163B (zh) | 2021-04-26 | 2021-04-26 | 基于网络剪枝的车辆分类模型压缩方法、装置及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113516163B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114998648A (zh) * | 2022-05-16 | 2022-09-02 | 电子科技大学 | 一种基于梯度架构搜索的表现预测压缩方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108764046A (zh) * | 2018-04-26 | 2018-11-06 | 平安科技(深圳)有限公司 | 车辆损伤分类模型的生成装置、方法及计算机可读存储介质 |
CN110909667A (zh) * | 2019-11-20 | 2020-03-24 | 北京化工大学 | 面向多角度sar目标识别网络的轻量化设计方法 |
CN111753787A (zh) * | 2020-07-01 | 2020-10-09 | 江苏金海星导航科技有限公司 | 一种分离式的交通标志检测与识别方法 |
CN112364992A (zh) * | 2020-11-30 | 2021-02-12 | 天翼电子商务有限公司 | 一种场景约束的智能网络搜索的模型剪枝方法 |
CN112396179A (zh) * | 2020-11-20 | 2021-02-23 | 浙江工业大学 | 一种基于通道梯度剪枝的柔性深度学习网络模型压缩方法 |
CN112668630A (zh) * | 2020-12-24 | 2021-04-16 | 华中师范大学 | 一种基于模型剪枝的轻量化图像分类方法、系统及设备 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11315018B2 (en) * | 2016-10-21 | 2022-04-26 | Nvidia Corporation | Systems and methods for pruning neural networks for resource efficient inference |
CN108038546B (zh) * | 2017-12-29 | 2021-02-09 | 百度在线网络技术(北京)有限公司 | 用于压缩神经网络的方法和装置 |
CN110889487A (zh) * | 2018-09-10 | 2020-03-17 | 富士通株式会社 | 神经网络架构搜索装置和方法及计算机可读记录介质 |
US11443162B2 (en) * | 2019-08-23 | 2022-09-13 | Google Llc | Resource constrained neural network architecture search |
-
2021
- 2021-04-26 CN CN202110455123.4A patent/CN113516163B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108764046A (zh) * | 2018-04-26 | 2018-11-06 | 平安科技(深圳)有限公司 | 车辆损伤分类模型的生成装置、方法及计算机可读存储介质 |
CN110909667A (zh) * | 2019-11-20 | 2020-03-24 | 北京化工大学 | 面向多角度sar目标识别网络的轻量化设计方法 |
CN111753787A (zh) * | 2020-07-01 | 2020-10-09 | 江苏金海星导航科技有限公司 | 一种分离式的交通标志检测与识别方法 |
CN112396179A (zh) * | 2020-11-20 | 2021-02-23 | 浙江工业大学 | 一种基于通道梯度剪枝的柔性深度学习网络模型压缩方法 |
CN112364992A (zh) * | 2020-11-30 | 2021-02-12 | 天翼电子商务有限公司 | 一种场景约束的智能网络搜索的模型剪枝方法 |
CN112668630A (zh) * | 2020-12-24 | 2021-04-16 | 华中师范大学 | 一种基于模型剪枝的轻量化图像分类方法、系统及设备 |
Non-Patent Citations (1)
Title |
---|
深度神经网络模型压缩方法与进展;赖叶静等;《华东师范大学学报(自然科学版)》;20200925(第05期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN113516163A (zh) | 2021-10-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109948029B (zh) | 基于神经网络自适应的深度哈希图像搜索方法 | |
CN110968426B (zh) | 一种基于在线学习的边云协同k均值聚类的模型优化方法 | |
CN113486078B (zh) | 一种分布式配电网运行监控方法及系统 | |
CN104217258B (zh) | 一种电力负荷条件密度预测方法 | |
CN114912705A (zh) | 一种联邦学习中异质模型融合的优化方法 | |
CN112685504B (zh) | 一种面向生产过程的分布式迁移图学习方法 | |
CN109215344B (zh) | 用于城市道路短时交通流量预测的方法和系统 | |
CN111079780A (zh) | 空间图卷积网络的训练方法、电子设备及存储介质 | |
CN111507488B (zh) | 一种基于vr的车辆维修保养辅助系统 | |
CN112272074B (zh) | 一种基于神经网络的信息传输速率控制方法及系统 | |
CN115829024B (zh) | 一种模型训练方法、装置、设备及存储介质 | |
CN112287990A (zh) | 一种基于在线学习的边云协同支持向量机的模型优化方法 | |
CN112686376A (zh) | 一种基于时序图神经网络的节点表示方法及增量学习方法 | |
CN113516163B (zh) | 基于网络剪枝的车辆分类模型压缩方法、装置及存储介质 | |
CN116244647A (zh) | 一种无人机集群的运行状态估计方法 | |
CN112598062A (zh) | 一种图像识别方法和装置 | |
CN113887748B (zh) | 在线联邦学习任务分配方法、装置、联邦学习方法及系统 | |
CN116828515A (zh) | 一种车联网下基于时空图卷积的边缘服务器负载预测方法 | |
CN108229536A (zh) | 分类预测模型的优化方法、装置及终端设备 | |
CN111260056B (zh) | 一种网络模型蒸馏方法及装置 | |
CN109034372A (zh) | 一种基于概率的神经网络剪枝方法 | |
CN117114220A (zh) | 一种基于图神经网络的车辆调度算法 | |
CN116882574A (zh) | 一种基于神经网络模型的碳排放预测方法及系统 | |
CN116259057A (zh) | 基于联盟博弈解决联邦学习中数据异质性问题的方法 | |
CN115392058A (zh) | 工业物联网中基于演化博弈构建数字孪生模型的方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |