CN113591978B - 一种基于置信惩罚正则化的自我知识蒸馏的图像分类方法、设备及存储介质 - Google Patents

一种基于置信惩罚正则化的自我知识蒸馏的图像分类方法、设备及存储介质 Download PDF

Info

Publication number
CN113591978B
CN113591978B CN202110868117.1A CN202110868117A CN113591978B CN 113591978 B CN113591978 B CN 113591978B CN 202110868117 A CN202110868117 A CN 202110868117A CN 113591978 B CN113591978 B CN 113591978B
Authority
CN
China
Prior art keywords
network
output
probability
image classification
self
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110868117.1A
Other languages
English (en)
Other versions
CN113591978A (zh
Inventor
郭帅帅
俞辰
史高鑫
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shandong University
Original Assignee
Shandong University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shandong University filed Critical Shandong University
Priority to CN202110868117.1A priority Critical patent/CN113591978B/zh
Publication of CN113591978A publication Critical patent/CN113591978A/zh
Application granted granted Critical
Publication of CN113591978B publication Critical patent/CN113591978B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/20Education
    • G06Q50/205Education administration or guidance

Abstract

本发明涉及一种基于置信惩罚正则化的自我知识蒸馏的图像分类方法、设备及存储介质,用于提升系统整体的效率和精度,本发明通过将置信惩罚正则化的相关规则应用于自我知识蒸馏,通过训练学习,使简单神经网络在图像分类识别领域能够达到与复杂神经网络相当甚至更甚的精度。并且省去了训练复杂神经网络的必要性,节省计算资源提高训练效率。

Description

一种基于置信惩罚正则化的自我知识蒸馏的图像分类方法、 设备及存储介质
技术领域
本发明属于人工智能领域,涉及一种基于置信惩罚正则化的自我知识蒸馏的图像分类方法、设备及存储介质,可用于压缩和加速神经网络,应用于图像分类领域。
背景技术
深度神经网络在解决自然语言处理、语音识别和计算机视觉等许多具有挑战性的人工智能任务方面取得了极大的成功。但深度神经网络的计算复杂度和高内存需求严重阻碍了它在资源有限的平台上的使用,例如智能手机和嵌入式设备等边缘设备。
近些年,基于卷积神经网络的表示方式被广泛应用于图像分类领域,但现有的图像应用卷积神经网络进行分类时,不仅需要大量计算,而且会占有大量内存,则当面对受限的边缘计算场景或对实时性要求较高时,这种对计算和内存有着高要求的方法将很难适用。知识蒸馏作为一种典型的模型压缩和加速技术,为深度神经网络在资源有限设备上的部署提供了可能性[Hinton G,Vinyals O,Dean J.Distilling the knowledge in aneural network[J].arXiv preprint arXiv:1503.02531,2015.]。随着技术的发展,从各个方面对于原本知识蒸馏方法的改进算法不断提出,其中,自我知识蒸馏是一个研究热点,各种相关方法被不断提出。Yuan L等开创性的将标签平滑正则化与知识蒸馏结合,提出了教师自由的自我知识蒸馏框架[Yuan L,Tay F E H,Li G,et al.Revisiting knowledgedistillation via label smoothing regularization[C]//Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition.2020:3903-3911.]。将正则化方法应用于自我知识蒸馏,可免去训练复杂教师网络的必要性,则在无法获得可靠的教师网络或计算资源有限时,此种方法具有很好的效果与意义。现有的关于正则化方法应用于自我知识蒸馏的研究较少,在图像分类领域的识别精度等方面还有提升的空间。
发明内容
针对现有技术的不足,本发明提供了一种基于置信惩罚正则化的自我知识蒸馏的图像分类方法;
本发明用于解决传统教师—学生模式的知识蒸馏方法所要求的复杂、学习能力强的教师模型,以及强大计算资源的问题,该方法适用于图像分类领域。
本发明利用几种典型的神经网络,将置信惩罚正则化规则与自我知识蒸馏框架融合,通过训练学习让简单的神经网络达到与复杂神经网络相当的图像分类精度。本发明不仅能够在节省计算资源的基础上达到可观的分类精度,还能够省去训练复杂神经网络的必要性,大大提高训练效率。
本发明还提供了一种计算机设备及存储介质。
术语解释:
1、logits:一个事件发生与该事件不发生的比值的对数;
2、教师网络:知识蒸馏中,将一个复杂的但是学习能力强的深度神经网络称为教师网络。
3、学生网络:知识蒸馏中,将一个精简、复杂度低但学习能力较弱的深度神经网络称为学生网络。本发明中采用的学生网络为MobileNetV2,为现有网络架构,网络结构图如图4。
本发明的技术方案为:
一种基于置信惩罚正则化的自我知识蒸馏的图像分类方法,用于提升系统整体的效率和精度,具体步骤如下:
A、训练过程
(1)构建虚拟教师网络,将数据集的图像经过虚拟教师网络处理后,得到虚拟教师网络的输出值
(2)将数据集的图像经过学生网络处理后,得到图片属于每个类别的概率输出值,再将此概率输出值经过硬标签式、软标签式两种不同处理,由学生网络输出识别图片样本属于某一类别的概率p(k),和由软化后的学生网络输出的属于某一类别的概率pτ(k);
(3)先将学生网络硬标签预测输出p(k)与真实分布q(k)加权,数据集中关于每个图片都有自带的类别标签,将这个标签分布记为真实分布q(k);
再将虚拟教师网络的输出与学生网络的软标签预测输出pτ(k)进行加权,是指虚拟教师网络的输出pc(k)在温度τ软化后的输出;
最后,将这两个加权的部分用权重参数α进行组合加权,由置信惩罚正则化的有关规则定义损失函数L(θ),如式(I)所示:
H(q(k),p(k))为q(k)与p(k)间的交叉熵;为KL散度;
B、图像分类
将待分类的图像输入虚拟教师网络、训练好的学生网络,输出图像分类结果。
根据本发明优选的,步骤(1)中,构建虚拟教师网络,定义函数如式(II)所示:
式(I)中,pc(k)来表示虚拟教师网络的预测分布;K是数据集中图片的类别总数,c是正确标签,a是正确分类的概率,当预测的类别k是正确标签时,令输出正确分类的概率a≥0.9,当预测的是错误标签时,让各个错误标签平分余下的概率1-a;
根据本发明优选的,步骤(2)中,运用MobileNetV2网络作为学生网络,数据集中的图像经过学生网络处理后,得到图片属于每个类别的概率输出值,再将此概率输出值经过硬标签式(III)、软标签式(VI)两种不同处理,式(III)、式(VI)如下所示:
式(III)、式(VI)中,p(k)是学生网络输出的识别图片样本属于第k类的概率,pτ(k)是软化后学生网络输出的属于第k类的概率,zi是学生网络输出的logits,其中i表示第i类,同样的zk表示第k类的logits,K为图片的类别总数,exp()是指数运算;τ为温度参数。
根据本发明优选的,步骤(3)中,H(q(k),p(k))为q(k)与p(k)间的交叉熵,具体计算公式如式(V)所示:
为KL散度,度量pτ(k)和/>之间的差异,具体计算公式如式(VI)所示:
一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现基于置信惩罚正则化的自我知识蒸馏的图像分类方法的步骤。
一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现基于置信惩罚正则化的自我知识蒸馏的图像分类方法的步骤。
本发明的有益效果为:
本发明针对深度神经网络应用于移动端或嵌入式设备场景,提出了一种自我知识蒸馏的模型压缩方法。通过将置信惩罚正则化的相关规则应用于自我知识蒸馏,通过训练学习,使简单神经网络在图像分类识别领域能够达到与复杂神经网络相当甚至更甚的精度。并且省去了训练复杂神经网络的必要性,节省计算资源提高训练效率。
附图说明
图1是本发明基于置信惩罚正则化的自我知识蒸馏的图像分类方法流程框图;
图2是用MobileNetV2作为学生网络、在CIFAR10数据集上的训练精度示意图。
图3是用MobileNetV2作为学生网络、在CIFAR10数据集上的测试精度示意图。
图4是用作为学生网络的MobileNetV2的网络结构示意图。
具体实施方式
下面结合说明书附图和实施例对本发明作进一步限定,但不限于此。
实施例1
一种基于置信惩罚正则化的自我知识蒸馏的图像分类方法,如图1所示,用于提升系统整体的效率和精度,具体步骤如下:
A、训练过程
(1)构建虚拟教师网络,定义函数如式(Ⅱ)所示:
式(Ⅰ)中,pc(k)来表示虚拟教师网络的预测分布;K是数据集中图片的类别总数,c是正确标签,a是正确分类的概率,当预测的类别k是正确标签时,令输出正确分类的概率a≥0.9,当预测的是错误标签时,让各个错误标签平分余下的概率1-a;如此,让正确分类的概率远大于错误分类的概率,以此可以当这个人为设定的教师网络的输出分类概率有100%的准确度,以传递给学生网络足够的正确的信息。
将数据集的图像经过虚拟教师网络处理后,得到虚拟教师网络的输出值
本发明自我知识蒸馏方法不采用复杂神经网络作为教师网络,而是通过自定义的函数的输出代替教师网络的输出,称之为虚拟教师网络。
(2)卷积神经网络模型在总体上一般可以分为卷积层、池化层与全连接层,图像数据经过网络各层处理后能完成图像分类任务,输出网络关于图像样本的预测分类概率值和识别精度。运用MobileNetV2网络作为学生网络,数据集中的图像经过学生网络处理后,得到图片属于每个类别的概率输出值,再将此概率输出值经过硬标签式(Ⅲ)、软标签式(Ⅵ)两种不同处理,式(Ⅲ)、式(Ⅵ)如下所示:
式(III)、式(VI)中,p(k)是学生网络输出的识别图片样本属于第k类的概率,pτ(k)是软化后学生网络输出的属于第k类的概率,zi是学生网络输出的logits,其中i表示第i类,同样的zk表示第k类的logits,K为图片的类别总数,由于Logits不是概率值,所以要通过Softmax函数进行变换得出最后的分类结果概率,exp()是指数运算;τ为温度参数。值越高,softmax的输出概率分布越趋于平滑,其分布的熵越大,负标签携带的信息会被相对的放大;
步骤(2)中,对于图像分类问题而言,在网络的最后的Softmax层前,会得到这个图片属于各个类别的大小数值zi,某个类别的zi值越大,则模型认为样本属于这个类别的可能性越大,通过汇总网络内部的各种信息之后,得出属于各个类别的汇总分值zi,就是Logits,其中i代表第i类,但是由于Logits不是概率值,所以要通过Softmax函数进行变换得出最后的分类结果概率。但这样直接输出的是硬标签,所以为了软化标签,引入参数:温度τ,用较大的τ值来训练学生网络,产生更均匀分布的软标签,让学生网络的预测输出分布与教师网络的分布尽可能相似。
(3)先将学生网络硬标签预测输出p(k)与真实分布q(k)加权,数据集中关于每个图片都有自带的类别标签,将这个标签分布记为真实分布q(k);
再将虚拟教师网络的输出与学生网络的软标签预测输出pτ(k)进行加权,是指虚拟教师网络的输出pc(k)在温度τ软化后的输出;
最后,将这两个加权的部分用权重参数d进行组合加权,由置信惩罚正则化的有关规则定义损失函数L(θ),如式(I)所示:
H(q(k),p(k))为q(k)与p(k)间的交叉熵;具体计算公式如式(V)所示:
为KL散度,度量pτ(k)和/>之间的差异,具体计算公式如式(VI)所示:
步骤(3)中,利用KL散度的相关规则辅助损失函数的定义。用KL散度推导出置信惩罚正则化的损失函数:L(θ)=H(t,p(y|x))+βDKL(p(y|x)||u),为计算方便u一般采用均匀分布。传统知识蒸馏方法关于损失函数的定义为:其中,α是超参数,q是标签的真实分布,p是学生网络的输出预测分布,/>pτ分别是软化后的学生网络、教师网络的输出预测分布。由于KL散度不是距离,因为DKL(p||q)≠DKL(q||p)。结合两者的定义,将基于置信惩罚正则化的自我知识蒸馏方法的损失函数定义如式(I),根据定义的损失函数,计算图像数据集进行图像分类的精度。
B、图像分类
将待分类的图像输入虚拟教师网络、训练好的学生网络,输出图像分类结果。
图2是用MobileNetV2作为学生网络、在CIFAR10数据集上的训练精度示意图。其中,横坐标为训练周期,纵坐标为训练精度;曲线1为使用本发明方法取得的效果,曲线2为单独训练学生网络取得的效果。图3是用MobileNetV2作为学生网络、在CIFAR10数据集上的测试精度示意图。其中横坐标为训练周期,纵坐标为测试精度,曲线1为使用本发明方法取得的效果,曲线2为单独训练学生网络取得的效果。
由图2及图3可知,通过运用此方法,MobileNetV2网络在CIFAR10数据集上的识别精度随着学习周期的增加不断提高,且比单独训练此模型时的训练精度有明显提高,可见此方法的有效性。
实施例2
一种计算机设备,包括存储器和处理器,存储器存储有计算机程序,处理器执行计算机程序时实现实施例1基于置信惩罚正则化的自我知识蒸馏的图像分类方法的步骤。
实施例3
一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现实施例1基于置信惩罚正则化的自我知识蒸馏的图像分类方法的步骤。

Claims (6)

1.一种基于置信惩罚正则化的自我知识蒸馏的图像分类方法,其特征在于,具体步骤如下:
A、训练过程
(1)构建虚拟教师网络,将数据集的图像经过虚拟教师网络处理后,得到虚拟教师网络的输出值
(2)将数据集的图像经过学生网络处理后,得到图片属于每个类别的概率输出值,再将此概率输出值经过硬标签式、软标签式两种不同处理,由学生网络输出识别图片样本属于某一类别的概率p(k),和由软化后的学生网络输出的属于某一类别的概率pτ(k);
(3)先将学生网络硬标签预测输出p(k)与真实分布q(k)加权,数据集中关于每个图片都有自带的类别标签,将这个标签分布记为真实分布q(k);
再将虚拟教师网络的输出与学生网络的软标签预测输出pτ(k)进行加权,/>是指虚拟教师网络的输出pc(k)在温度τ软化后的输出;
最后,将这两个加权的部分用权重参数α进行组合加权,由置信惩罚正则化的有关规则定义损失函数L(θ),如式(I)所示:
H(q(k),p(k))为q(k)与p(k)间的交叉熵;为KL散度;
B、图像分类
将待分类的图像输入虚拟教师网络、训练好的学生网络,输出图像分类结果。
2.根据权利要求1所述的一种基于置信惩罚正则化的自我知识蒸馏的图像分类方法,其特征在于,步骤(1)中,构建虚拟教师网络,定义函数如式(II)所示:
式(I)中,pc(k)来表示虚拟教师网络的预测分布;K是数据集中图片的类别总数,c是正确标签,a是正确分类的概率,当预测的类别k是正确标签时,令输出正确分类的概率a≥0.9,当预测的是错误标签时,让各个错误标签平分余下的概率1-a。
3.根据权利要求1所述的一种基于置信惩罚正则化的自我知识蒸馏的图像分类方法,其特征在于,步骤(2)中,运用MobileNetV2网络作为学生网络,数据集中的图像经过学生网络处理后,得到图片属于每个类别的概率输出值,再将此概率输出值经过硬标签式(III)、软标签式(VI)两种不同处理,式(III)、式(VI)如下所示:
式(III)、式(VI)中,p(k)是学生网络输出的识别图片样本属于第k类的概率,pτ(k)是软化后学生网络输出的属于第k类的概率,zi是学生网络输出的logits,其中i表示第i类,同样的zk表示第k类的logits,K为图片的类别总数,exp()是指数运算;τ为温度参数。
4.根据权利要求1所述的一种基于置信惩罚正则化的自我知识蒸馏的图像分类方法,其特征在于,步骤(3)中,片(q(k),p(k))为q(k)与p(k)间的交叉熵,具体计算公式如式(V)所示:
为KL散度,度量pτ(k)和/>之间的差异,具体计算公式如式(VI)所示:
5.一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1-4任一所述基于置信惩罚正则化的自我知识蒸馏的图像分类方法的步骤。
6.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1-4任一所述基于置信惩罚正则化的自我知识蒸馏的图像分类方法的步骤。
CN202110868117.1A 2021-07-30 2021-07-30 一种基于置信惩罚正则化的自我知识蒸馏的图像分类方法、设备及存储介质 Active CN113591978B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110868117.1A CN113591978B (zh) 2021-07-30 2021-07-30 一种基于置信惩罚正则化的自我知识蒸馏的图像分类方法、设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110868117.1A CN113591978B (zh) 2021-07-30 2021-07-30 一种基于置信惩罚正则化的自我知识蒸馏的图像分类方法、设备及存储介质

Publications (2)

Publication Number Publication Date
CN113591978A CN113591978A (zh) 2021-11-02
CN113591978B true CN113591978B (zh) 2023-10-20

Family

ID=78252237

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110868117.1A Active CN113591978B (zh) 2021-07-30 2021-07-30 一种基于置信惩罚正则化的自我知识蒸馏的图像分类方法、设备及存储介质

Country Status (1)

Country Link
CN (1) CN113591978B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114049527B (zh) * 2022-01-10 2022-06-14 湖南大学 基于在线协作与融合的自我知识蒸馏方法与系统
CN114358206B (zh) * 2022-01-12 2022-11-01 合肥工业大学 二值神经网络模型训练方法及系统、图像处理方法及系统
CN117009830B (zh) * 2023-10-07 2024-02-13 之江实验室 一种基于嵌入特征正则化的知识蒸馏方法和系统

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108764281A (zh) * 2018-04-18 2018-11-06 华南理工大学 一种基于半监督自步学习跨任务深度网络的图像分类方法
CN112116030A (zh) * 2020-10-13 2020-12-22 浙江大学 一种基于向量标准化和知识蒸馏的图像分类方法
CN112199535A (zh) * 2020-09-30 2021-01-08 浙江大学 一种基于集成知识蒸馏的图像分类方法
CN112784964A (zh) * 2021-01-27 2021-05-11 西安电子科技大学 基于桥接知识蒸馏卷积神经网络的图像分类方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11410029B2 (en) * 2018-01-02 2022-08-09 International Business Machines Corporation Soft label generation for knowledge distillation

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108764281A (zh) * 2018-04-18 2018-11-06 华南理工大学 一种基于半监督自步学习跨任务深度网络的图像分类方法
CN112199535A (zh) * 2020-09-30 2021-01-08 浙江大学 一种基于集成知识蒸馏的图像分类方法
CN112116030A (zh) * 2020-10-13 2020-12-22 浙江大学 一种基于向量标准化和知识蒸馏的图像分类方法
CN112784964A (zh) * 2021-01-27 2021-05-11 西安电子科技大学 基于桥接知识蒸馏卷积神经网络的图像分类方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
潘宗序 ; 安全智 ; 张冰尘 ; .基于深度学习的雷达图像目标识别研究进展.中国科学:信息科学.2019,(第12期),1626-1639. *

Also Published As

Publication number Publication date
CN113591978A (zh) 2021-11-02

Similar Documents

Publication Publication Date Title
CN113591978B (zh) 一种基于置信惩罚正则化的自我知识蒸馏的图像分类方法、设备及存储介质
CN114241282B (zh) 一种基于知识蒸馏的边缘设备场景识别方法及装置
CN109961034B (zh) 基于卷积门控循环神经单元的视频目标检测方法
CN110263912B (zh) 一种基于多目标关联深度推理的图像问答方法
CN109740679B (zh) 一种基于卷积神经网络和朴素贝叶斯的目标识别方法
CN111968150B (zh) 一种基于全卷积神经网络的弱监督视频目标分割方法
CN112183742B (zh) 基于渐进式量化和Hessian信息的神经网络混合量化方法
CN111222457B (zh) 一种基于深度可分离卷积的鉴别视频真伪性的检测方法
CN115393396B (zh) 一种基于掩码预训练的无人机目标跟踪方法
CN112232395B (zh) 一种基于联合训练生成对抗网络的半监督图像分类方法
CN111079847A (zh) 一种基于深度学习的遥感影像自动标注方法
CN114742224A (zh) 行人重识别方法、装置、计算机设备及存储介质
CN111126155B (zh) 一种基于语义约束生成对抗网络的行人再识别方法
CN115563327A (zh) 基于Transformer网络选择性蒸馏的零样本跨模态检索方法
CN112766378A (zh) 一种专注细粒度识别的跨域小样本图像分类模型方法
CN114972904A (zh) 一种基于对抗三元组损失的零样本知识蒸馏方法及系统
CN111540203A (zh) 基于Faster-RCNN调节绿灯通行时间的方法
CN113870863A (zh) 声纹识别方法及装置、存储介质及电子设备
CN111783688B (zh) 一种基于卷积神经网络的遥感图像场景分类方法
CN116246305A (zh) 一种基于混合部件变换网络的行人检索方法
CN115861595A (zh) 一种基于深度学习的多尺度域自适应异源图像匹配方法
CN110688880A (zh) 一种基于精简ResNet残差网络的车牌识别方法
CN112487927B (zh) 一种基于物体关联注意力的室内场景识别实现方法及系统
CN114581789A (zh) 一种高光谱图像分类方法及系统
CN116863279B (zh) 用于移动端模型轻量化的基于可解释指导的模型蒸馏方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant