CN116681925A - 一种基于自蒸馏二值神经网络的车辆分类方法 - Google Patents
一种基于自蒸馏二值神经网络的车辆分类方法 Download PDFInfo
- Publication number
- CN116681925A CN116681925A CN202310551677.3A CN202310551677A CN116681925A CN 116681925 A CN116681925 A CN 116681925A CN 202310551677 A CN202310551677 A CN 202310551677A CN 116681925 A CN116681925 A CN 116681925A
- Authority
- CN
- China
- Prior art keywords
- neural network
- distillation
- training
- soft
- network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 55
- 238000000034 method Methods 0.000 title claims abstract description 41
- 238000004821 distillation Methods 0.000 title claims abstract description 39
- 238000012549 training Methods 0.000 claims abstract description 48
- 238000012360 testing method Methods 0.000 claims abstract description 13
- 238000013145 classification model Methods 0.000 claims abstract description 5
- 230000006870 function Effects 0.000 claims description 40
- 238000012216 screening Methods 0.000 claims description 6
- 238000013527 convolutional neural network Methods 0.000 claims description 4
- 238000012935 Averaging Methods 0.000 claims description 3
- 238000002372 labelling Methods 0.000 claims description 3
- 239000013598 vector Substances 0.000 claims description 3
- 230000001902 propagating effect Effects 0.000 claims 1
- 230000006835 compression Effects 0.000 abstract description 2
- 238000007906 compression Methods 0.000 abstract description 2
- 230000004913 activation Effects 0.000 description 4
- 238000001994 activation Methods 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 238000010606 normalization Methods 0.000 description 2
- 239000013589 supplement Substances 0.000 description 2
- 230000006978 adaptation Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000013140 knowledge distillation Methods 0.000 description 1
- 230000005055 memory storage Effects 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 238000013139 quantization Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Multimedia (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及一种基于自蒸馏二值神经网络的车辆分类方法,属于模型压缩技术领域。首先获取包含N个相似标签对的车辆图片数据集,按划分比例为(4+N):1,得到训练集和测试集;将训练集图片输入搭建的动态近似梯度二值神经网络,得到类别输出预测;本轮迭代训练的网络成为教师,对类别输出预测进行筛选和平均,得到指示正确的软标签库;下一轮迭代训练的网络成为学生,软标签库提供软标签教师知识,在二值神经网络的尾部进行自蒸馏;不断迭代师生自蒸馏训练过程,进行蒸馏作用的迭代轮数为2至SumE,以提高二值神经网络的分类精度;根据训练好的二值分类模型对车辆测试集图片进行分类预测,得到分类结果。
Description
技术领域
本发明涉及一种基于自蒸馏二值神经网络的车辆分类方法,属于模型压缩技术领域。
背景技术
近年来,满足IEC61499标准的PLC设备发展快速,同时深度卷积神经网络在图像分类、目标检测、语义分割等计算机视觉领域都取得了巨大成功,为智能交通系统更有效的应用提供了契机。二值神经网络是参数量化的极致情况,它限制网络中卷积参数的取值为-1和+1,并使用廉价的同或和计数位运算代替昂贵的浮点卷积运算,可以显著提高计算和存储效率。非常适用于计算能力、内存存储等资源都有限的智能交通PLC设备,使高性能的神经网络可以得到有效部署。然而,二值神经网络的精度却显著低于同结构的全精度神经网络,原因是参数的二值化会导致严重的信息丢失。因此,迫切需要提出恰当的方法来为二值神经网络的训练过程提供更多的信息,以提升精度。
发明内容
本发明要解决的技术问题是提供一种基于自蒸馏二值神经网络的车辆分类方法,其能为二值神经网络提供蕴含更多类内和类间相似性知识的信息,使精度低下的二值神经网络获得较好的车辆分类结果。
本发明的技术方案是:一种基于自蒸馏二值神经网络的车辆分类方法,首先获取包含N个相似标签对的车辆图片数据集,按划分比例为(4+N):1,得到训练集和测试集;将训练集图片输入搭建的动态近似梯度二值神经网络,得到类别输出预测;本轮迭代训练的网络成为教师,对类别输出预测进行筛选和平均,得到指示正确的软标签库;下一轮迭代训练的网络成为学生,软标签库提供软标签教师知识,在二值神经网络的尾部进行自蒸馏;不断迭代师生自蒸馏训练过程,进行蒸馏作用的迭代轮数为2至SumE,以提高二值神经网络的分类精度;根据训练好的二值分类模型对车辆测试集图片进行分类预测,得到分类结果。
具体步骤为:
Step1:获取包含N个相似标签对的车辆图片数据集,按划分比例为(4+N):1,得到训练集和测试集。
Step2:将训练集图片输入搭建的动态近似梯度二值神经网络,得到类别输出预测。
Step3:本轮迭代训练的网络成为教师,对类别输出预测进行筛选和平均,得到指示正确的软标签库。
Step4:下一轮迭代训练的网络成为学生,软标签库提供软标签教师知识,在二值神经网络的尾部进行自蒸馏。
Step5:不断进行师生自蒸馏训练蒸馏过程,提高二值神经网络的分类精度。
所述的师生自蒸馏过程总是使用本次迭代的网络作为教师,将下一次迭代的网络作为学生,蒸馏作用在学生网络,进行蒸馏作用的迭代轮数为2至SumE,即第一次迭代训练仅产生教师知识。
Step6:根据训练好的二值分类模型对车辆测试集图片进行分类预测,得到分类结果。
所述Step1具体为:
Step1.1:数据集包含M种类型的车辆在特定场景中的图像,需包含以下标签相似对的至少一种,客车-卡车,货车-轿车,电动车-摩托车,其中包含的相似标签对数量设为N。
Step1.2:将训练集和测试集的划分,比例为(4+N):1,并对原图像和标签进行一对一标注。
所述Step2具体为:
Step2.1:对于搭建好的卷积神经网络,除网络的第一层和最后一层,所有其它卷积层参数都通过Sign函数进行二值化,并使用廉价的同或和计数位运算组成二值卷积运算。代替昂贵的传统浮点全精度卷积运算。
Step2.2:在反向传播期间,用动态近似函数DynamicHardTanh代替Sign函数,将产生的动态近似梯度反向传播给全精度权重,以解决Sign函数的不可微分问题。动态近似函数DynamicHardTanh公式为。
式中,Y为动态阈值,随训练迭代次数的增加而变化,若E为当前迭代次数,SumE为迭代总次数,则:
Y=0.5+(E/SumE)1/2*5
反向传播时,由动态近似函数DynamicHardTanh近似Sign函数后的实际回传动态近似梯度DyGradient为:
Step2.3:对于输入图片,通过堆叠N个卷积块和使用最后的线性分类层,得到类别输出预测,过程可以公式化为:
P=Fc(Bn(...B1(I)...))
式中,Bn表示第n个卷积块,通常由二值卷积(第一个卷积块除外)批处理归一化、非线性激活函数组成。对于输入图像为I,通过堆叠N个卷积块提取中间特征,最终使用线性分类器Fc获得输出预测P,P指出二值神经网络对于每个类别的置信度,并假设最高的得分是正确类别。
所述Step3具体为:
Step3.1:对输入图片的所有输出预测进行筛选,去除错误的输出预测,只保留正确的输出预测。
Step3.2:对相同类别的正确预测进行平均,最终得到指示正确的软标签库,得到的软标签库大小为M*M,此过程公式化为:
式中,表示筛选后同一类别j中正确的预测输出,N(j)是它的数量,Ψ(·)是软标签库的组成过程,具体表示为分别对M个类别进行平均后,得到M个由M个元素组成的向量,按照类别顺序堆叠组成最终的软标签库/>随着训练迭代次数的增加,二值神经网络的准确率上升,网络的错误预测越来越少,/>将会在保持正确性的基础上,进一步增强对类别关系知识的概括能力。
5、根据权利要求1所述的基于自蒸馏二值神经网络的车辆分类方法,其特征在于,所述Step4具体为:
Step4.1:按照输入图片的真实类别,抽取软标签库中的对应类别标签,形成一对一的标注,作为软标签教师知识。这意味着一个学生模型变成了一个教师模型,它利用自己的知识形成软标签,补充信息匮乏的真实标签,完成二值神经网络的自蒸馏过程,以便在训练过程中提供更多的信息。
Step4.2:在二值神经网络的尾部,同时使用软标签和真实标签,对网络进行额外的监督训练,软标签对应的损失项为:
LSL=KL(δ(Ps/T),δ(SLt/T))
式中,Ps表示学生网络的输出预测,SLt表示教师软标签,KL(·)表示Kullback–Leibler散度函数:
δ(·)为Softmax函数:
式中,T为温度系数。当它增大时,Softmax函数产生的软标签分布变软,这有助于在反向传播中向学生网络参数提供更多信息,设置T=4。
最终总损失函数为:
式中,CE(·)表示交叉熵函数,其使用输出预测P匹配真实标签HardLabel,计算图像分类任务损失项。
交叉熵函数公式为:
CE(p||q)=-∑p(x)logq(x)
式中,γ是权衡超参数,用于平衡两个损失项。
本发明的有益效果是:本发明使用自身的输出预测生成软标签教师知识,进行自蒸馏监督训练。所提出的软标签库为二值神经网络提供了丰富的类内和类间相似性知识,可以帮助学生模型收敛到最小值,从而导致更好的泛化。还可以防止学生二值神经网络出现梯度消失问题。此外,避免了传统技术中由于外部教师所引发的各种缺点。在没有增加任何额外推理成本的前提下提升了二值神经网络的分类精度,更加高效与实用,缓解了二值神经网络在训练过程中信息匮乏导致精度低下的问题。
附图说明
图1是本发明的流程图;
图2是本发明提供的二值神经网络中二值卷积运算的过程示意图;
图3是本发明的动态近似函数实施直通估计器的过程示意图;
图4是本发明的动态近似函数中动态阈值的变化示意图;
图5是本发明的结构图。
具体实施方式
下面结合附图具体实施方式,对本发明作进一步说明。
实施例1:如图1所示,一种基于自蒸馏二值神经网络的车辆分类方法,具体步骤为:
Step1:获取包含N个相似标签对的车辆图片数据集,按划分比例为(4+N):1,得到训练集和测试集。
Step1.1:数据集包含M种类型的车辆在特定场景中的图像,需包含以下标签相似对的至少一种,客车-卡车,货车-轿车,电动车-摩托车,其中包含的相似标签对数量设为N。
Step1.2:将训练集和测试集的划分,比例为(4+N):1,并对原图像和标签进行一对一标注。
Step2:将训练集图片输入搭建的动态近似梯度二值神经网络,得到类别输出预测。
Step2.1:对于搭建好的卷积神经网络,除网络的第一层和最后一层,所有其它卷积层参数都通过Sign函数进行二值化,二值化公式为:
式中,Wr表示全精度权重。Ar表示由前网络层计算得到的全精度激活,例如批次归一化层。Wb和Ab表示计算得到的二值权重和二值激活。
使用廉价的同或和计数位运算组成二值卷积运算,代替昂贵的传统浮点全精度卷积运算,具体公式为:
式中,表示使用乘法和加法的传统卷积运算,/>表示使用同或和计数位运算的二值卷积运算。代替后的二值卷积运算如图2所示。
Step2.2:如图3所示,在反向传播期间,用动态近似函数DynamicHardTanh代替Sign函数,将产生的动态近似梯度反向传播给全精度权重,以解决Sign函数的不可微分问题。动态近似函数DynamicHardTanh公式为:
式中,Y为动态阈值,随训练迭代次数的增加而变化,若E为当前迭代次数,SumE为迭代总次数,则:
Y=0.5+(E/SumE)1/2*5 (4)
具体的函数值变化如图4所示。
反向传播时,由动态近似函数DynamicHardTanh近似Sign函数后的实际回传动态近似梯度DyGradient为:
Step2.3:对于输入图片,通过堆叠N个卷积块和使用最后的线性分类层,得到类别输出预测,过程可以公式化为:
P=Fc(Bn(...B1(I)...)) (6)
式中,Bn表示第n个卷积块,通常由二值卷积(第一个卷积块除外),批处理归一化、非线性激活函数组成。对于输入图像为I,通过堆叠N个卷积块提取中间特征,最终使用线性分类器Fc获得输出预测P,P指出二值神经网络对于每个类别的置信度,并假设最高的得分是正确类别。
Step3:如图5所示,本轮迭代训练时刻的网络成为教师,对类别输出预测进行筛选和平均,得到指示正确的软标签库。
Step3.1:对输入图片的所有输出预测进行筛选,去除错误的输出预测,只保留正确的输出预测;
Step3.2:对相同类别的正确预测进行平均,最终得到指示正确的软标签库,得到的软标签库大小为M*M,此过程可以公式化为:
式中表示筛选后同一类别j中正确的预测输出,N(j)是它的数量。Ψ(·)是软标签库的组成过程,具体表示为分别对M个类别进行平均后,得到M个由M个元素组成的向量,按照类别顺序堆叠组成最终的软标签库/>随着训练迭代次数的增加,二值神经网络的准确率上升,网络的错误预测越来越少,/>将会在保持正确性的基础上,进一步增强对类别关系知识的概括能力。
Step4:如图5所示,下一轮迭代训练的网络成为学生,软标签库提供软标签教师知识,在二值神经网络的尾部进行自蒸馏。
Step4.1:按照输入图片的真实类别,抽取软标签库中的对应类别标签,形成一对一的标注,作为软标签教师知识。这意味着一个学生模型变成了一个教师模型,它利用自己的知识形成软标签,补充信息匮乏的真实标签,完成二值神经网络的自蒸馏过程,以便在训练过程中提供更多的信息。软标签为二值神经网络提供更多的类别关系知识。例如,软标签提示卡车比摩托车更相似于公交车,并给出相似程度(标记为30%的卡车,11%的摩托车,对比于59%的公交车),而真实标签只指出所属类别公交车,却刻板的认为卡车和摩托车对公交车的相似程度相同。
Step4.2:在二值神经网络的尾部,同时使用软标签和真实标签,对网络进行额外的监督训练。软标签对应的损失项为:
LSL=KL(δ(Ps/T),δ(SLt/T)) (8)
式中,Ps表示学生网络的输出预测,SLt表示教师软标签。KL(·)表示Kullback–Leibler散度函数:
δ(·)为Softmax函数:
T为温度系数,当它增大时,Softmax函数产生的软标签分布变软,这有助于在反向传播中向学生网络参数提供更多信息,设置T=4。
最终总损失函数为:
式中,CE(·)表示交叉熵函数,其使用输出预测P匹配真实标签HardLabel,计算图像分类任务损失项。交叉熵函数公式为:
CE(p||q)=-∑p(x)logq(x) (12)
γ是权衡超参数,用于平衡两个损失项。
Step5:不断进行师生自蒸馏训练蒸馏过程,提高二值神经网络的分类精度。所述的师生自蒸馏过程总是使用本次迭代的网络作为教师,将下一次迭代的网络作为学生,蒸馏作用在学生网络。进行蒸馏作用的迭代轮数为2至SumE,即第一次迭代训练仅产生教师知识。
Step6:根据训练好的二值分类模型对车辆测试集图片进行分类预测,得到分类结果。
现有技术中,将二值神经网络与知识蒸馏结合的技术,存在以下两种共同的缺点:在训练开始前,总需要额外预训练一个完整的外部全精度教师模型,造成两阶段训练,时间和内存成本剧增;由于师生之间的架构差异,需要师生间进行能力适配,导致多步骤渐进蒸馏,或增加额外的网络计算分枝,再次急剧增加了训练时间,并造成推理计算成本上升。
本项发明使用二值神经网络自身的输出预测,提供软标签教师知识,形成对自身的自蒸馏过程。不再需要引入外部预训练教师模型,只需要依赖自身输出预测进行单阶段迭代蒸馏,就可以提高分类精度。同时,师生网络的来源相同,存在更强的能力适配性。在二值神经网络推理阶段,我们丢弃附加的软标签库蒸馏损失辅助组件,所以与二值神经网络网络相比,没有增加任何额外的推理成本。
以上结合附图对本发明的具体实施方式作了详细说明,但是本发明并不限于上述实施方式,在本领域普通技术人员所具备的知识范围内,还可以在不脱离本发明宗旨的前提下作出各种变化。
Claims (5)
1.一种基于自蒸馏二值神经网络的车辆分类方法,其特征在于:
Step1:获取包含N个相似标签对的车辆图片数据集,按划分比例为(4+N):1,得到训练集和测试集;
Step2:将训练集图片输入搭建的动态近似梯度二值神经网络,得到类别输出预测;
Step3:本轮迭代训练的网络成为教师,对类别输出预测进行筛选和平均,得到指示正确的软标签库;
Step4:下一轮迭代训练的网络成为学生,软标签库提供软标签教师知识,在二值神经网络的尾部进行自蒸馏;
Step5:不断进行师生自蒸馏训练蒸馏过程,提高二值神经网络的分类精度;
所述的师生自蒸馏过程总是使用本次迭代的网络作为教师,将下一次迭代的网络作为学生,蒸馏作用在学生网络,进行蒸馏作用的迭代轮数为2至SumE,即第一次迭代训练仅产生教师知识;
Step6:根据训练好的二值分类模型对车辆测试集图片进行分类预测,得到分类结果。
2.根据权利要求1所述的基于自蒸馏二值神经网络的车辆分类方法,其特征在于,所述Step1具体为:
Step1.1:数据集包含M种类型的车辆在特定场景中的图像,需包含以下标签相似对的至少一种,客车-卡车,货车-轿车,电动车-摩托车,其中包含的相似标签对数量设为N;
Step1.2:将训练集和测试集的划分,比例为(4+N):1,并对原图像和标签进行一对一标注。
3.根据权利要求1所述的基于自蒸馏二值神经网络的车辆分类方法,其特征在于,所述Step2具体为:
Step2.1:对于搭建好的卷积神经网络,除网络的第一层和最后一层,所有其它卷积层参数都通过Sign函数进行二值化,并使用廉价的同或和计数位运算组成二值卷积运算;
Step2.2:在反向传播期间,用动态近似函数DynamicHardTanh代替Sign函数,将产生的动态近似梯度反向传播给全精度权重,动态近似函数DynamicHardTanh公式为;
式中,Y为动态阈值,随训练迭代次数的增加而变化,若E为当前迭代次数,SumE为迭代总次数,则:
Y=0.5+(E/SumE)1/2*5
反向传播时,由动态近似函数DynamicHardTanh近似Sign函数后的实际回传动态近似梯度DyGradient为:
Step2.3:对于输入图片,通过堆叠N个卷积块和使用最后的线性分类层,得到类别输出预测,过程可以公式化为:
P=Fc(Bn(...B1(I)...))
式中,Bn表示第n个卷积块,对于输入图像为I,通过堆叠N个卷积块提取中间特征,最终使用线性分类器Fc获得输出预测P。
4.根据权利要求1所述的基于自蒸馏二值神经网络的车辆分类方法,其特征在于,所述Step3具体为:
Step3.1:对输入图片的所有输出预测进行筛选,去除错误的输出预测,只保留正确的输出预测;
Step3.2:对相同类别的正确预测进行平均,最终得到指示正确的软标签库,得到的软标签库大小为M*M,此过程公式化为:
式中,表示筛选后同一类别j中正确的预测输出,N(j)是它的数量,Ψ(·)是软标签库的组成过程,具体表示为分别对M个类别进行平均后,得到M个由M个元素组成的向量,按照类别顺序堆叠组成最终的软标签库/>
5.根据权利要求1所述的基于自蒸馏二值神经网络的车辆分类方法,其特征在于,所述Step4具体为:
Step4.1:按照输入图片的真实类别,抽取软标签库中的对应类别标签,形成一对一的标注,作为软标签教师知识;
Step4.2:在二值神经网络的尾部,同时使用软标签和真实标签,对网络进行额外的监督训练,软标签对应的损失项为:
LSL=KL(δ(Ps/T),δ(SLt/T))
式中,Ps表示学生网络的输出预测,SLt表示教师软标签,KL(·)表示Kullback–Leibler散度函数;
最终总损失函数为:
式中,CE(·)表示交叉熵函数,其使用输出预测P匹配真实标签HardLabel,计算图像分类任务损失项。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310551677.3A CN116681925A (zh) | 2023-05-16 | 2023-05-16 | 一种基于自蒸馏二值神经网络的车辆分类方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310551677.3A CN116681925A (zh) | 2023-05-16 | 2023-05-16 | 一种基于自蒸馏二值神经网络的车辆分类方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116681925A true CN116681925A (zh) | 2023-09-01 |
Family
ID=87788157
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310551677.3A Pending CN116681925A (zh) | 2023-05-16 | 2023-05-16 | 一种基于自蒸馏二值神经网络的车辆分类方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116681925A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117274724A (zh) * | 2023-11-22 | 2023-12-22 | 电子科技大学 | 基于可变类别温度蒸馏的焊缝缺陷分类方法 |
-
2023
- 2023-05-16 CN CN202310551677.3A patent/CN116681925A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117274724A (zh) * | 2023-11-22 | 2023-12-22 | 电子科技大学 | 基于可变类别温度蒸馏的焊缝缺陷分类方法 |
CN117274724B (zh) * | 2023-11-22 | 2024-02-13 | 电子科技大学 | 基于可变类别温度蒸馏的焊缝缺陷分类方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Chen et al. | Importance-aware semantic segmentation for autonomous vehicles | |
Wang et al. | Learning channel-wise interactions for binary convolutional neural networks | |
CN109583501B (zh) | 图片分类、分类识别模型的生成方法、装置、设备及介质 | |
US20210158166A1 (en) | Semi-structured learned threshold pruning for deep neural networks | |
CN112765358A (zh) | 一种基于噪声标签学习的纳税人行业分类方法 | |
CN112199520A (zh) | 基于细粒度相似性矩阵的跨模态哈希检索算法 | |
CN111860989A (zh) | 一种基于蚁群算法优化的lstm神经网络短时交通流量预测方法 | |
CN111353505B (zh) | 基于可联合实现语义分割和景深估计的网络模型的装置 | |
CN116681925A (zh) | 一种基于自蒸馏二值神经网络的车辆分类方法 | |
CN115019039B (zh) | 一种结合自监督和全局信息增强的实例分割方法及系统 | |
CN115270004B (zh) | 一种基于场因子分解的教育资源推荐方法 | |
CN115205592A (zh) | 一种基于多模态数据的重平衡长尾图像数据分类方法 | |
CN115169449A (zh) | 基于对比学习与持续性学习的属性级情感分析方法、系统及存储介质 | |
CN114491115B (zh) | 一种基于深度哈希的多模型融合的集成图像检索方法 | |
Luo et al. | Dense-tnt: Efficient vehicle type classification neural network using satellite imagery | |
CN117152587A (zh) | 一种基于对抗学习的半监督船舶检测方法及系统 | |
Yan et al. | Video scene parsing: An overview of deep learning methods and datasets | |
CN113139612A (zh) | 图像分类方法、分类网络的训练方法和相关产品 | |
Gong et al. | Erroneous pixel prediction for semantic image segmentation | |
CN116861250A (zh) | 一种故障诊断模型训练方法及装置 | |
CN115761654B (zh) | 一种车辆重识别方法 | |
CN116433909A (zh) | 基于相似度加权多教师网络模型的半监督图像语义分割方法 | |
CN116089646A (zh) | 一种基于显著性捕获机制的无人机图像哈希检索方法 | |
CN115577793A (zh) | 一种面向网络结构的映射式蒸馏方法及其训练方法 | |
CN114510943A (zh) | 一种基于伪样本重放的增量式命名实体识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |