CN113516163A - 基于网络剪枝的车辆分类模型压缩方法、装置及存储介质 - Google Patents

基于网络剪枝的车辆分类模型压缩方法、装置及存储介质 Download PDF

Info

Publication number
CN113516163A
CN113516163A CN202110455123.4A CN202110455123A CN113516163A CN 113516163 A CN113516163 A CN 113516163A CN 202110455123 A CN202110455123 A CN 202110455123A CN 113516163 A CN113516163 A CN 113516163A
Authority
CN
China
Prior art keywords
network
pruning
layer
pruned
channels
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110455123.4A
Other languages
English (en)
Other versions
CN113516163B (zh
Inventor
吕强
陈思宝
吕建春
郑宇杰
张克林
王文中
汤进
王雪雁
郑刚
胡昌隆
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zenmorn Hefei Technology Co ltd
Original Assignee
Zenmorn Hefei Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zenmorn Hefei Technology Co ltd filed Critical Zenmorn Hefei Technology Co ltd
Priority to CN202110455123.4A priority Critical patent/CN113516163B/zh
Publication of CN113516163A publication Critical patent/CN113516163A/zh
Application granted granted Critical
Publication of CN113516163B publication Critical patent/CN113516163B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/082Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明公开了一种基于网络剪枝的车辆分类模型压缩方法、装置及存储介质,具体步骤包括获取车辆分类图片的训练集;根据未剪枝网络定义得到架构参数并参与网络推理;利用损失函数与获取的训练集进行网络参数和架构参数的交替训练,得到优化后的架构参数;根据优化后的架构参数对未剪枝网络进行剪枝,得到剪枝子网络;利用所述训练集和损失函数重新训练得到的剪枝子网络,得到最终的剪枝模型。本发明能够根据目标资源限制条件,从原始未剪枝网络中通过梯度下降自动搜索到符合目标资源限制且性能最优的剪枝网络。

Description

基于网络剪枝的车辆分类模型压缩方法、装置及存储介质
技术领域
本发明涉及车辆分类模型压缩技术领域,特别涉及一种基于网络剪枝的车辆分类模型压缩方法、装置及存储介质。
背景技术
深度学习让计算机视觉任务的性能到达了一个前所未有的高度。但是多数卷积神经网络的优异性能都以计算和内存成本的显著增加作为代价。而近年来无人驾驶、无人机、智能手机、智能眼镜等嵌入式和移动设备取得了长足的进步,在这些设备上部署卷积神经网络模型的需求也变得越来越强烈。但是,这些设备的资源(例如存储、计算单元以及电池电量等)非常有限这给在低成本环境中运行卷积神经网络带来了巨大的挑战。
近年来神经网络模型压缩与加速技术受到了国内外学者的广泛关注,并取得了显著的进步。综合现有的神经网络模型压缩方法,他们主要分为四类:剪枝、量化、低秩分解以及知识蒸馏。其中剪枝是目前模型压缩中使用较多的方法,其中主要分为两类:传统的通道剪枝方法以及自动化通道剪枝方法。传统的通道剪枝方法主要是提出一个判断通道或权重是否重要的度量标准,依据这个标准计算出衡量通道或权重重要性的值,根据人工设定的剪枝率将不重要的通道或权重剪掉。而自动化通道剪枝方法通常借助强化学习算法、进化算法等直接在未剪枝网络中搜索符合要求的目标子网络。
传统的通道剪枝方法主要存在以下不足之处:首先它需要大量的经验来设计衡量通道或权重重要性的指标;其次它需要经过大量的尝试来设定网络剪枝率。自动化通道剪枝方法解决了需要人工设置网络剪枝率的问题,但它需要通过采样和评估大量子网络来搜索到符合要求的子网络,这需要大量的时间开销和内存占用率。
发明内容
本发明的目的克服现有技术存在的不足,为实现以上目的,采用一种基于网络剪枝的车辆分类模型压缩方法、装置及存储介质,以解决上述背景技术中提出的问题。
一种基于差分网络通道剪枝的车辆分类模型压缩方法,具体步骤包括:
获取车辆分类图片的训练集;
根据未剪枝网络定义得到架构参数并参与网络推理;
利用损失函数与获取的训练集进行网络参数和架构参数的交替训练,得到优化后的架构参数;
根据优化后的架构参数对未剪枝网络进行剪枝,得到剪枝子网络;
利用所述训练集和损失函数重新训练得到的剪枝子网络,得到最终的剪枝模型。
作为本发明的进一步的方案:所述获取车辆分类图片的训练集的具体步骤包括:
选取车辆分类图片作为训练集,所述训练集包括M张训练图片为X={X1,X2,…,Xm,…,XM},其中Xm表示第m张训练图片;
所述M张训练图片选取有一一对应的M个标签为Y={Y1,Y2,…,Ym,…,YM},其中Ym表示第m张车辆分类图片的类别。
作为本发明的进一步的方案:所述根据未剪枝网络定义得到架构参数并参与网络推理的具体步骤包括:
获取未剪枝网络M,定义一组架构参数
Figure BDA0003040217290000021
根据如下softmax公式,得到所有保留若干通道的概率集合
Figure BDA0003040217290000022
Figure BDA0003040217290000023
其中,l为未剪枝网络M的第l层,cl为第l层的通道数,
Figure BDA0003040217290000024
为未剪枝网络M第l层剪枝后只保留前i个通道的概率;
再将架构参数参与网络推理,通过梯度下降来进行优化。
作为本发明的进一步的方案:所述将架构参数参与网络推理优化的具体步骤包括:
根据如下概率公式计算,得到未剪枝网络所有层的任意通道保留的概率为:
Figure BDA0003040217290000025
同时将每个通道的输出特征图与其对应的保留的概率相乘,得到实际的输出特征图:
Figure BDA0003040217290000026
其中,
Figure BDA0003040217290000031
未剪枝网络第l层的第k个通道的输出特征图,
Figure BDA0003040217290000032
为未剪枝网络的第l层的第k个通道实际的输出特征图。
作为本发明的进一步的方案:所述利用损失函数与获取的训练集进行网络参数和架构参数的交替训练,得到优化后的架构参数的具体步骤包括:
获取小批次的车辆分类图片X,以及其对应的标签集Y;
根据未剪枝网络采样获取权重共享的四个子网络;
将四个子网络独立进行网络推理,根据损失函数计算分类损失,四个子网络的梯度进行累加进而更新网络参数;
固定网络参数,架构参数参与网络推理,根据损失函数计算出总损失,进而更新架构参数。
作为本发明的进一步的方案:所述四个子网络包括最大宽度子网络、最小宽度子网络、第一随机宽度子网络,以及第二随机宽度子网络。
作为本发明的进一步的方案:所述根据损失函数计算分类损失和总损失的具体步骤包括:
根据KL散度计算分类损失:
Figure BDA0003040217290000033
其中,KL表示KL散度,
Figure BDA0003040217290000034
是架构参数参与未剪枝网络推理后的输出,
Figure BDA0003040217290000035
是原始未剪枝网络的输出;
根据保留若干通道的概率计算网络第l层的计算量FLOPs:
Figure BDA0003040217290000036
其中,Nl(FLOPs|i,j)表示当网络第l-1层只保留前i个通道,第l层只保留前j个通道时,网络第l层的FLOPs,l为未剪枝网络M的第l层,cl为第l层的通道数,
Figure BDA0003040217290000037
为网络第l-1层剪枝后只保留前i个通道的概率,
Figure BDA0003040217290000038
为网络第l层剪枝后只保留前j个通道的概率;
根据网络第l层的计算量FLOPs计算出网络的FLOPs:
Figure BDA0003040217290000041
其中,L表示网络的总层数;
计算出网络的成本损失:
LossFLOPs=log(|NFLOPs-RFLOPs|),
其中,RFLOPs表示目标的FLOPs;
总损失为分类损失和网络成本损失的加权和:
Lossarch=LossclsFLOPsLossFLOPs
其中,γFLOPs为网络成本损失的权重。
作为本发明的进一步的方案:所述根据优化后的架构参数对未剪枝网络进行剪枝,并利用所述训练集和损失函数重新训练得到的剪枝子网络,得到最终的剪枝模型的具体步骤包括:
根据未剪枝网络所有层的任意通道保留的概率
Figure BDA0003040217290000042
计算网络第l层保留的通道数:
Figure BDA0003040217290000043
其中,l为未剪枝网络M的第l层,cl为第l层的通道数,
Figure BDA0003040217290000044
为网络第l层剪枝后只保留前i个通道的概率;
根据网络第l层保留的通道数进行网络剪枝,得到剪枝子网络;
根据得到的剪枝子网络的权重进行重新初始化;
在获取的车辆分类图片的训练集重新训练,得到最终的剪枝模型。
一种车辆分类模型装置,包括:
至少一个处理器;
至少一个存储器,用于存储至少一个程序;
当所述至少一个程序被所述至少一个处理器执行,使得所述至少一个处理器实现如上任一项所述一种基于差分网络通道剪枝的车辆分类模型压缩方法。
一种存储介质,其中存储有处理器可执行的指令,所述处理器可执行的指令在由处理器执行时用于实现如上任一项所述一种基于差分网络通道剪枝的车辆分类模型压缩方法。
与现有技术相比,本发明存在以下技术效果:
通过采用上述的技术方案,本发明利用深度学习的梯度反向传播算法为基础,训练自动计算每次迭代的损失,通过链式求导法则,计算网络的所有架构参数从而更新梯度,进而完成架构参数的更新。实现端到端的训练过程,避免了人工设定的剪枝率。利用梯度下降自动搜索符合要求的子网络,避免了大量采样和评估的时间成本。且使用权重共享的方法来更新网络参数和架构参数,极大减少训练的内存占用率。使用KL散度来计算训练架构参数时的分类损失,使得搜索到的子网络的性能尽可能地接近未剪枝网络的性能。
附图说明
下面结合附图,对本发明的具体实施方式进行详细描述:
图1为本申请公开的一些实施例的车辆分类模型压缩方法的步骤示意图;
图2为本申请公开的一些实施例的通道剪枝流程示意图;
图3为本申请公开的一些实施例的架构参数定义示意图;
图4为本申请公开的一些实施例的训练网络参数示意图;
图5为本申请公开的一些实施例的训练架构参数示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
请参考图1和图2,本发明实施例中,一种基于差分网络通道剪枝的车辆分类模型压缩方法,具体步骤包括:
首先根据准备好的训练用的车辆分类图片的训练集;再根据未剪枝网络为网络每一层定义一组架构参数,并使得定义的架构参数参与网络推理;在准备好的车辆分类图片的训练集上交替训练网络参数和架构参数;训练完成后根据优化后的架构参数对未剪枝网络进行剪枝得到剪枝子网后;在准备好的车辆分类图片训练集上从头开始训练剪枝得到的子网络,得到最终的剪枝模型。
S1、获取车辆分类图片的训练集,具体步骤包括:
选取车辆分类图片作为训练集,所述训练集包括M张训练图片为X={X1,X2,…,Xm,…,XM},其中Xm表示第m张训练图片;
所述M张训练图片选取有一一对应的M个标签为Y={Y1,Y2,…,Ym,…,YM},其中Ym表示第m张车辆分类图片的类别。
S2、根据未剪枝网络定义得到架构参数并参与网络推理,的具体步骤包括:
获取未剪枝网络M,对于其第l层,有cl个通道。若对该层网络进行剪枝,则共有cl种可能的通道数选择。定义通道剪枝搜索空间为该网络层的通道数。
如图3所示,为该网络层定义一组架构参数
Figure BDA0003040217290000061
具体的,使用ResNet系列网络和MobileNet系列网络作为未剪枝网络,其中ResNet系列网络包括ResNet18、ResNet50和ResNet101;MobileNet系列网络包括MobileNet V1和MobileNet V2。
在本发明实施方式的一种实现方式中,所述未剪枝网络M采用ResNet50。
本发明的一些具体实施方式中,由于ResNet网络中有许多带恒等映射的残差模块,其输入通道数和输出通道数需要保持一致,所以对此使用权重共享的策略,即共享同一组架构参数。
根据如下softmax公式,为了使得搜索空间连续,将选择一个特定的通道数松弛为所有可能通道数softmax的结果:
Figure BDA0003040217290000062
并得到所有保留若干通道的概率集合
Figure BDA0003040217290000063
其中,l为未剪枝网络M的第l层,cl为第l层的通道数,
Figure BDA0003040217290000064
为未剪枝网络M第l层剪枝后只保留前i个通道的概率。
具体的,由于通道数过多,在剪枝ResNet网络时将将网络每层的通道均匀分成10组,cl取为10,而在剪枝MobileNet网络时将网络每层的通道数扩大到1.5倍然后均匀分成15组,cl取为15。而
Figure BDA0003040217290000071
表示网络该层剪枝后只保留前i组通道的概率。
再将架构参数参与网络推理,通过梯度下降来进行优化。
根据如下概率公式计算,具体的,该网络层保留只保留前i个通道的概率为
Figure BDA0003040217290000072
则前i个通道被保留的概率为
Figure BDA0003040217290000073
后cl-i个通道被保留的概率为0。考虑所有可能的通道数,计算出网络第l层第k个通道被保留的概率:
Figure BDA0003040217290000074
同时将每个通道的输出特征图与其对应的保留的概率相乘,得到实际的输出特征图:
Figure BDA0003040217290000075
其中,
Figure BDA0003040217290000076
为未剪枝网络第l层的第k个通道的输出特征图,
Figure BDA0003040217290000077
为未剪枝网络的第l层的第k个通道实际的输出特征图。
同时,需要将该操作放在网络BN层后面以避免BN层的缩放因子抵消了该操作对网络后续层的影响。
S3、利用损失函数与获取的训练集进行网络参数和架构参数的交替训练,得到优化后的架构参数,具体步骤包括:
获取小批次的车辆分类图片X={X1,X2,…,Xt},以及其对应的标签集Y={Y1,Y2,…,Yt};
如图4所示,根据未剪枝网络采样获取权重共享的四个子网络;具体的,所述四个子网络包括每层保留全部通道,采样得到最大宽度子网络;每层保留前最少通道,采样得到最小宽度子网络;每层保留前随机通道数个通道,采样得到第一个随机宽度子网络;每层保留前随机通道数个通道,采样得到第二个随机宽度子网络。
具体的,优先保留左边的通道,其中最小宽度网络为原始未剪枝网络每层只保留第一组通道的子网络,而随机宽度子网络为原始未剪枝网络每层保留随机组通道的子网络。且四个子网络权重共享。
将四个子网络独立进行网络推理,根据损失函数计算分类损失,四个子网络的梯度进行累加进而更新网络参数,在交替训练网络参数和架构参数之前,我们会对原始未剪枝网络进行warmup,即先训练20epochs网络参数。
如图5所示,固定网络参数,架构参数参与网络推理,根据损失函数计算出总损失,进而更新架构参数。具体步骤包括:
根据KL散度计算分类损失:
Figure BDA0003040217290000081
其中,KL表示KL散度,
Figure BDA0003040217290000082
是架构参数参与未剪枝网络推理后的输出,
Figure BDA0003040217290000083
是原始未剪枝网络的输出;
根据保留若干通道的概率计算网络第l层的计算量FLOPs:
Figure BDA0003040217290000084
其中,Nl(FLOPs|i,j)表示当网络第l-1层只保留前i个通道,第l层只保留前j个通道时,网络第l层的FLOPs,l为未剪枝网络M的第l层,cl为第l层的通道数,
Figure BDA0003040217290000085
为网络第l-1层剪枝后只保留前i个通道的概率,
Figure BDA0003040217290000086
为网络第l层剪枝后只保留前j个通道的概率;
根据网络第l层的计算量FLOPs计算出网络的FLOPs:
Figure BDA0003040217290000087
其中,L表示网络的总层数;
计算出网络的成本损失:
LossFLOPs=log(|NFLOPs-RFLOPs|);
其中,RFLOPs表示目标的FLOPs;具体的,为了使得搜索到的子网络的FLOPs严格低于我们的目标FLOPs,有不会对目标FLOPs过于敏感,我们设置了一个容忍度
Figure BDA0003040217290000088
为0.95,当NFLOPs
Figure BDA0003040217290000089
和RFLOPs之间时LossFLOPs置为0。
总损失为分类损失和网络成本损失的加权和:
Lossarch=LossclsFLOPsLossFLOPs
其中,γFLOPs为网络成本损失的权重,具体γFLOPs为0.1。根据定义的损失函数更新架构参数。
S4、根据优化后的架构参数对未剪枝网络进行剪枝,得到剪枝子网络;
S5、利用所述训练集和损失函数重新训练得到的剪枝子网络,得到最终的剪枝模型。
具体步骤包括:
根据未剪枝网络所有层的任意通道保留的概率
Figure BDA0003040217290000091
计算网络第l层保留的通道数:
Figure BDA0003040217290000092
其中,l为未剪枝网络M的第l层,cl为第l层的通道数,
Figure BDA0003040217290000093
为网络第l层剪枝后只保留前i个通道的概率;
根据网络第l层保留的通道数进行网络剪枝,得到剪枝子网络;
根据得到的剪枝子网络的权重进行重新初始化;
在获取的车辆分类图片的训练集重新训练,得到最终的剪枝模型。
本发明实施方式提供了一种车辆分类模型装置,该车辆分类模型装置包括存储器,用于存储一条或多条计算机指令;处理器,用于调用并执行所述一条或多条计算机指令从而实现本发明前述实施方式或实现方式所提供的基于差分网络通道剪枝的车辆分类模型压缩方法。具体的,在本发明实施方式的一种实现方式中,所述车辆分类模型装置还可以包括用于进行数据通信的输入输出接口。具体的,所述车辆分类模型装置可以是计算机、智能终端、服务器等。
本发明实施方式还提供了一种计算机存储介质,存储有一条或多条计算机指令,用于在执行时实现本发明前述实施方式或实现方式提供的基于差分网络通道剪枝的车辆分类模型压缩方法。具体的,所述存储介质可以包括硬盘、软盘、光盘等。
尽管已经示出和描述了本发明的实施例,对于本领域的普通技术人员而言,可以理解在不脱离本发明的原理和精神的情况下可以对这些实施例进行多种变化、修改、替换和变型,本发明的范围由所附权利要求及其等同物限定,均应包含在本发明的保护范围之内。

Claims (10)

1.一种基于差分网络通道剪枝的车辆分类模型压缩方法,其特征在于,包括:
获取车辆分类图片的训练集;
根据未剪枝网络定义得到架构参数并参与网络推理;
利用损失函数与获取的训练集进行网络参数和架构参数的交替训练,得到优化后的架构参数;
根据优化后的架构参数对未剪枝网络进行剪枝,得到剪枝子网络;
利用所述训练集和损失函数重新训练得到的剪枝子网络,得到最终的剪枝模型。
2.根据权利要求1所述一种基于差分网络通道剪枝的车辆分类模型压缩方法,其特征在于,所述获取车辆分类图片的训练集的具体步骤包括:
选取车辆分类图片作为训练集,所述训练集包括M张训练图片为X={X1,X2,…,Xm,…,XM},其中Xm表示第m张训练图片;
所述M张训练图片选取有一一对应的M个标签为Y={Y1,Y2,…,Ym,…,YM},其中Ym表示第m张车辆分类图片的类别。
3.根据权利要求1所述一种基于差分网络通道剪枝的车辆分类模型压缩方法,其特征在于,所述根据未剪枝网络定义得到架构参数并参与网络推理的具体步骤包括:
获取未剪枝网络M,定义一组架构参数
Figure FDA0003040217280000011
根据如下softmax公式,得到所有保留若干通道的概率集合
Figure FDA0003040217280000012
Figure FDA0003040217280000013
其中,l为未剪枝网络M的第l层,cl为第l层的通道数,
Figure FDA0003040217280000014
为未剪枝网络M第l层剪枝后只保留前i个通道的概率;
再将架构参数参与网络推理,通过梯度下降来进行优化。
4.根据权利要求3所述一种基于差分网络通道剪枝的车辆分类模型压缩方法,其特征在于,所述将架构参数参与网络推理优化的具体步骤包括:
根据如下概率公式计算,得到未剪枝网络所有层的任意通道保留的概率为:
Figure FDA0003040217280000021
同时将每个通道的输出特征图与其对应的保留的概率相乘,得到实际的输出特征图:
Figure FDA0003040217280000022
其中,
Figure FDA0003040217280000023
为未剪枝网络第l层的第k个通道的输出特征图,
Figure FDA0003040217280000024
为未剪枝网络的第l层的第k个通道实际的输出特征图。
5.根据权利要求1所述一种基于差分网络通道剪枝的车辆分类模型压缩方法,其特征在于,所述利用损失函数与获取的训练集进行网络参数和架构参数的交替训练,得到优化后的架构参数的具体步骤包括:
获取小批次的车辆分类图片X,以及其对应的标签集Y;
根据未剪枝网络采样获取权重共享的四个子网络;
将四个子网络独立进行网络推理,根据损失函数计算分类损失,四个子网络的梯度进行累加进而更新网络参数;
固定网络参数,架构参数参与网络推理,根据损失函数计算出总损失,进而更新架构参数。
6.根据权利要求5所述一种基于差分网络通道剪枝的车辆分类模型压缩方法,其特征在于,所述四个子网络包括最大宽度子网络、最小宽度子网络、第一随机宽度子网络,以及第二随机宽度子网络。
7.根据权利要求5所述一种基于差分网络通道剪枝的车辆分类模型压缩方法,其特征在于,所述根据损失函数计算分类损失和总损失的具体步骤包括:
根据KL散度计算分类损失:
Figure FDA0003040217280000025
其中,KL表示KL散度,
Figure FDA0003040217280000026
是架构参数参与未剪枝网络推理后的输出,
Figure FDA0003040217280000027
是原始未剪枝网络的输出;
根据保留若干通道的概率计算网络第l层的计算量FLOPs:
Figure FDA0003040217280000031
其中,Nl(FLOPs|i,j)表示当网络第l-1层只保留前i个通道,第l层只保留前j个通道时,网络第l层的FLOPs,l为未剪枝网络M的第l层,cl为第l层的通道数,
Figure FDA0003040217280000032
为网络第l-1层剪枝后只保留前i个通道的概率,
Figure FDA0003040217280000033
为网络第l层剪枝后只保留前j个通道的概率;
根据网络第l层的计算量FLOPs计算出网络的FLOPs:
Figure FDA0003040217280000034
其中,L表示网络的总层数;
计算出网络的成本损失:
LossFLOPs=log(|NFLOPs-RFLOPs|),
其中,RFLOPs表示目标的FLOPs;
总损失为分类损失和网络成本损失的加权和:
Lossarch=LossclsFLOPsLossFLOPs
其中,γFLOPs为网络成本损失的权重。
8.根据权利要求1所述一种基于差分网络通道剪枝的车辆分类模型压缩方法,其特征在于,所述根据优化后的架构参数对未剪枝网络进行剪枝,并利用所述训练集和损失函数重新训练得到的剪枝子网络,得到最终的剪枝模型的具体步骤包括:
根据未剪枝网络所有层的任意通道保留的概率
Figure FDA0003040217280000035
计算网络第l层保留的通道数:
Figure FDA0003040217280000036
其中,l为未剪枝网络M的第l层,cl为第l层的通道数,
Figure FDA0003040217280000037
为网络第l层剪枝后只保留前i个通道的概率;
根据网络第l层保留的通道数进行网络剪枝,得到剪枝子网络;
根据得到的剪枝子网络的权重进行重新初始化;
在获取的车辆分类图片的训练集重新训练,得到最终的剪枝模型。
9.一种车辆分类模型装置,其特征在于,包括:
至少一个处理器;
至少一个存储器,用于存储至少一个程序;
当所述至少一个程序被所述至少一个处理器执行,使得所述至少一个处理器实现如权利要求1-8任一项所述一种基于差分网络通道剪枝的车辆分类模型压缩方法。
10.一种存储介质,其中存储有处理器可执行的指令,其特征在于:所述处理器可执行的指令在由处理器执行时用于实现如权利要求1-8任一项所述一种基于差分网络通道剪枝的车辆分类模型压缩方法。
CN202110455123.4A 2021-04-26 2021-04-26 基于网络剪枝的车辆分类模型压缩方法、装置及存储介质 Active CN113516163B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110455123.4A CN113516163B (zh) 2021-04-26 2021-04-26 基于网络剪枝的车辆分类模型压缩方法、装置及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110455123.4A CN113516163B (zh) 2021-04-26 2021-04-26 基于网络剪枝的车辆分类模型压缩方法、装置及存储介质

Publications (2)

Publication Number Publication Date
CN113516163A true CN113516163A (zh) 2021-10-19
CN113516163B CN113516163B (zh) 2024-03-12

Family

ID=78063660

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110455123.4A Active CN113516163B (zh) 2021-04-26 2021-04-26 基于网络剪枝的车辆分类模型压缩方法、装置及存储介质

Country Status (1)

Country Link
CN (1) CN113516163B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114998648A (zh) * 2022-05-16 2022-09-02 电子科技大学 一种基于梯度架构搜索的表现预测压缩方法

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180114114A1 (en) * 2016-10-21 2018-04-26 Nvidia Corporation Systems and methods for pruning neural networks for resource efficient inference
CN108764046A (zh) * 2018-04-26 2018-11-06 平安科技(深圳)有限公司 车辆损伤分类模型的生成装置、方法及计算机可读存储介质
US20190205759A1 (en) * 2017-12-29 2019-07-04 Baidu Online Network Technology (Beijing) Co., Ltd. Method and apparatus for compressing neural network
US20200082275A1 (en) * 2018-09-10 2020-03-12 Fujitsu Limited Neural network architecture search apparatus and method and computer readable recording medium
CN110909667A (zh) * 2019-11-20 2020-03-24 北京化工大学 面向多角度sar目标识别网络的轻量化设计方法
CN111753787A (zh) * 2020-07-01 2020-10-09 江苏金海星导航科技有限公司 一种分离式的交通标志检测与识别方法
CN112364992A (zh) * 2020-11-30 2021-02-12 天翼电子商务有限公司 一种场景约束的智能网络搜索的模型剪枝方法
CN112396179A (zh) * 2020-11-20 2021-02-23 浙江工业大学 一种基于通道梯度剪枝的柔性深度学习网络模型压缩方法
US20210056378A1 (en) * 2019-08-23 2021-02-25 Google Llc Resource constrained neural network architecture search
CN112668630A (zh) * 2020-12-24 2021-04-16 华中师范大学 一种基于模型剪枝的轻量化图像分类方法、系统及设备

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180114114A1 (en) * 2016-10-21 2018-04-26 Nvidia Corporation Systems and methods for pruning neural networks for resource efficient inference
US20190205759A1 (en) * 2017-12-29 2019-07-04 Baidu Online Network Technology (Beijing) Co., Ltd. Method and apparatus for compressing neural network
CN108764046A (zh) * 2018-04-26 2018-11-06 平安科技(深圳)有限公司 车辆损伤分类模型的生成装置、方法及计算机可读存储介质
US20200082275A1 (en) * 2018-09-10 2020-03-12 Fujitsu Limited Neural network architecture search apparatus and method and computer readable recording medium
US20210056378A1 (en) * 2019-08-23 2021-02-25 Google Llc Resource constrained neural network architecture search
CN110909667A (zh) * 2019-11-20 2020-03-24 北京化工大学 面向多角度sar目标识别网络的轻量化设计方法
CN111753787A (zh) * 2020-07-01 2020-10-09 江苏金海星导航科技有限公司 一种分离式的交通标志检测与识别方法
CN112396179A (zh) * 2020-11-20 2021-02-23 浙江工业大学 一种基于通道梯度剪枝的柔性深度学习网络模型压缩方法
CN112364992A (zh) * 2020-11-30 2021-02-12 天翼电子商务有限公司 一种场景约束的智能网络搜索的模型剪枝方法
CN112668630A (zh) * 2020-12-24 2021-04-16 华中师范大学 一种基于模型剪枝的轻量化图像分类方法、系统及设备

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
赖叶静等: "深度神经网络模型压缩方法与进展", 《华东师范大学学报(自然科学版)》 *
赖叶静等: "深度神经网络模型压缩方法与进展", 《华东师范大学学报(自然科学版)》, no. 05, 25 September 2020 (2020-09-25) *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114998648A (zh) * 2022-05-16 2022-09-02 电子科技大学 一种基于梯度架构搜索的表现预测压缩方法

Also Published As

Publication number Publication date
CN113516163B (zh) 2024-03-12

Similar Documents

Publication Publication Date Title
CN113313947B (zh) 短期交通预测图卷积网络的路况评估方法
CN109990790B (zh) 一种无人机路径规划方法及装置
CN107453919B (zh) 复杂网络节点重要性评估方法及系统
CN114912705A (zh) 一种联邦学习中异质模型融合的优化方法
CN104217258B (zh) 一种电力负荷条件密度预测方法
CN113687875B (zh) 一种车联网中车辆任务卸载方法及装置
CN110858973A (zh) 小区网络流量预测方法及装置
CN110968426A (zh) 一种基于在线学习的边云协同k均值聚类的模型优化方法
CN115829024B (zh) 一种模型训练方法、装置、设备及存储介质
CN113469425B (zh) 深度交通拥堵预测方法
CN112272074B (zh) 一种基于神经网络的信息传输速率控制方法及系统
CN111882157A (zh) 一种基于深度时空神经网络的需求预测方法、系统及计算机可读存储介质
CN112686376A (zh) 一种基于时序图神经网络的节点表示方法及增量学习方法
CN111737826B (zh) 一种基于增强学习的轨道交通自动仿真建模方法及装置
CN114724021B (zh) 一种数据的识别方法、装置、存储介质及电子装置
CN112287990A (zh) 一种基于在线学习的边云协同支持向量机的模型优化方法
CN111814189A (zh) 一种基于差分隐私的分布式学习隐私保护方法
CN114584406B (zh) 一种联邦学习的工业大数据隐私保护系统及方法
CN113887748B (zh) 在线联邦学习任务分配方法、装置、联邦学习方法及系统
CN115544873A (zh) 个性化联邦学习的训练效率与个性化效果量化评估方法
CN113516163A (zh) 基于网络剪枝的车辆分类模型压缩方法、装置及存储介质
CN113743591A (zh) 一种自动化剪枝卷积神经网络的方法及其系统
CN115865679A (zh) 网络管控方法及其系统、存储介质
CN117114220A (zh) 一种基于图神经网络的车辆调度算法
CN115392058A (zh) 工业物联网中基于演化博弈构建数字孪生模型的方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant