CN116543250A - 一种基于类注意力传输的模型压缩方法 - Google Patents

一种基于类注意力传输的模型压缩方法 Download PDF

Info

Publication number
CN116543250A
CN116543250A CN202310326399.1A CN202310326399A CN116543250A CN 116543250 A CN116543250 A CN 116543250A CN 202310326399 A CN202310326399 A CN 202310326399A CN 116543250 A CN116543250 A CN 116543250A
Authority
CN
China
Prior art keywords
trained
model
time
student model
student
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202310326399.1A
Other languages
English (en)
Inventor
李晖
郭子尧
闫浩楠
赵兴文
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xidian University
Original Assignee
Xidian University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xidian University filed Critical Xidian University
Priority to CN202310326399.1A priority Critical patent/CN116543250A/zh
Publication of CN116543250A publication Critical patent/CN116543250A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks

Abstract

本发明公开了一种基于类注意力传输的模型压缩方法,包括:获取待识别图像;采用训练好的学生模型进行所述待识别图像中的目标物体的识别,得到所述目标物体的类别;所述训练好的学生模型是采用待训练的学生模型根据训练样本输出的预测分数、所述训练样本对应的真实标签、所述待训练的学生模型自身输出的第一类注意力图,以及预训练的教师模型输出的第二类注意力图,对所述待训练的学生模型进行训练得到的;所述待训练的学生模型和所述教师模型中连接在全局池化层之后的全连接层被替换为连接在所述全局池化层之前的一维卷积核。本发明与其他模型压缩方法相比具有更高的可解释性,并且,本发明能够提高模型的分类准确度。

Description

一种基于类注意力传输的模型压缩方法
技术领域
本发明属于机器视觉技术领域,具体涉及一种基于类注意力传输的模型压缩方法。
背景技术
神经网络模型的表现受到模型参数容量的影响,参数多的模型往往能获得更好的表现。但大模型具有对硬件要求高、运行速度慢等缺点,这使得它很难部署到小型设备及移动设备上。知识蒸馏技术旨在提高小模型的表现,它的实现方式是:在训练小模型的过程中额外让小模型模仿并学习参数容量较大的预训练模型的中间输出。其中,训练的小模型被称为学生模型,预训练的大模型被称为教师模型,由大模型提供的中间输出被称为软标签。现存的知识蒸馏方法可以根据其传输的软标签的生产方式分为三类:传输预测分数、传输模型的特征图、以及传输模型的注意力图。
在现存的方法中,基于传输预测分数和特征图的知识蒸馏方法具有较好的效果。然而,由于神经网络模型的预测分数值以及其中间输出的特征图仍然不能被很好的解释其含义,基于传输预测分数和特征图的知识蒸馏的方法的可解释性差。相较之下,基于传输注意力的方法具有较好的可解释性。然而,与基于传输预测分数和特征图的方法相比,现存的基于传输注意力的知识蒸馏方法的效果较差。
发明内容
为了解决相关技术中存在的上述问题,本发明提供了一种基于类注意力传输的模型压缩方法。本发明要解决的技术问题通过以下技术方案实现:
本发明提供一种基于类注意力传输的模型压缩方法,包括:
获取待识别图像;
采用训练好的学生模型进行所述待识别图像中的目标物体的识别,得到所述目标物体的类别;
所述训练好的学生模型是采用待训练的学生模型根据训练样本输出的预测分数、所述训练样本对应的真实标签、所述待训练的学生模型自身输出的第一类注意力图,以及预训练的教师模型输出的第二类注意力图,对所述待训练的学生模型进行训练得到的;所述待训练的学生模型和所述教师模型中连接在全局池化层之后的全连接层被替换为连接在所述全局池化层之前的一维卷积核。
在一些实施例中,所述学生模型和所述教师模型均为用于进行目标分类的模型。
在一些实施例中,所述待训练的学生模型和所述教师模型均包括:卷积层、一维卷积核和全局池化层;其中,所述卷积层用于对输入的图像进行特征提取,得到所述输入的图像的特征图;所述一维卷积核用于根据所述特征图生成类注意力图;所述全局池化层用于将所述类注意力图转换为预测分数。
在一些实施例中,在所述采用训练好的学生模型进行所述待识别图像中的目标物体的识别,得到所述目标物体的类别之前,所述方法还包括:
获取多个带有真实标签的样本图像;所述真实标签表征样本图像中的物体的真实类别;
获取第t次待训练的学生模型,以及所述预训练的教师模型;其中,当t为1时,所述待训练的学生模型为初始待训练的学生模型;
将至少一个样本图像输入所述第t次待训练的学生模型和所述预训练的教师模型,得到所述第t次待训练的学生模型输出的预测分数、所述第t次待训练的学生模型输出的所述第一类注意力图、所述预训练的教师模型输出的所述第二类注意力图;t为大于或等于1的整数;
根据所述第t次待训练的学生模型输出的预测分数、所述第t次待训练的学生模型输出的所述第一类注意力图、所述预训练的教师模型输出的所述第二类注意力图,以及所述至少一个样本图像的真实标签,确定第t次的损失值;
根据所述第t次的损失值进行反向传播并更新所述第t次待训练的学生模型的参数,得到第t+1次待训练的学生模型,如此迭代,直至满足预设条件时停止训练,得到训练好的待转换学生模型;
将所述训练好的待转换学生模型中连接在所述全局池化层之前的一维卷积核,替换为连接在全局池化层之后的全连接层,得到所述训练好的学生模型。
在一些实施例中,所述根据所述第t次待训练的学生模型输出的预测分数、所述第t次待训练的学生模型输出的所述第一类注意力图、所述预训练的教师模型输出的所述第二类注意力图,以及所述至少一个样本图像的真实标签,确定第t次的损失值,包括:
根据所述第t次待训练的学生模型输出的所述第一类注意力图、所述预训练的教师模型输出的所述第二类注意力图,确定第t次的知识蒸馏损失值;
根据所述第t次待训练的学生模型输出预测分数和所述至少一个样本图像的真实标签,确定第t次的交叉熵损失值;
根据所述第t次的知识蒸馏损失值和所述第t次的交叉熵损失值,确定所述第t次的损失值。
在一些实施例中,所述根据所述第t次待训练的学生模型输出的所述第一类注意力图、所述预训练的教师模型输出的所述第二类注意力图,确定第t次的知识蒸馏损失值,包括:
对所述第t次待训练的学生模型输出的所述第一类注意力图进行池化操作,得到第一池化特征;
对所述预训练的教师模型输出的所述第二类注意力图进行池化操作,得到第二池化特征;
对所述第一池化特征和所述第二池化特征分别进行L2正则化处理,得到第一处理特征和第二处理特征;
将所述第一处理特征和所述第二处理特征之间的均方差,作为所述第t次的知识蒸馏损失值。
在一些实施例中,所述根据所述第t次的知识蒸馏损失值和所述第t次的交叉熵损失值,确定所述第t次的损失值,包括:
对所述第t次的知识蒸馏损失值和所述第t次的交叉熵损失值进行求和,得到求和值;
将所述求和值作为所述第t次的损失值。
在一些实施例中,所述获取第t次待训练的学生模型,包括:
当t为1时,进行学生模型的初始化,得到所述初始待训练的学生模型。
本发明具有如下有益技术效果:
通过上述方法,使得训练得到的学生模型能够捕捉到图中更多的与目标类别有关的辨识区域,在具有高度的可解释性的同时提高了模型的分类准确度。
以下将结合附图及实施例对本发明做进一步详细说明。
附图说明
图1为本发明实施例提供的一种基于类注意力传输的模型压缩方法的一个流程图;
图2为本发明实施例提供的示例性的本发明提出的模型的结构(Convertedstructure)以及该模型结构从普通模型(Normoal CNN)的转化过程示意图;
图3为本发明实施例提供的示例性的确定知识蒸馏损失值的原理示意图;
图4为本发明实施例的训练好的学生模型得到的类注意力图与普通训练模型的类注意力图的对比示意图;
图5为本发明实施例提供的示例性的多个其他方法和本发明提出的方法的训练消耗及效果对比示意图。
具体实施方式
下面结合具体实施例对本发明做进一步详细的描述,但本发明的实施方式不限于此。
在本发明的描述中,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括一个或者更多个该特征。在本发明的描述中,“多个”的含义是两个或两个以上,除非另有明确具体的限定。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不必须针对的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任何的一个或多个实施例或示例中以合适的方式结合。此外,本领域的技术人员可以将本说明书中描述的不同实施例或示例进行接合和组合。
尽管在此结合各实施例对本发明进行了描述,然而,在实施所要求保护的本发明过程中,本领域技术人员通过查看所述附图、公开内容、以及所附权利要求书,可理解并实现所述公开实施例的其他变化。在权利要求中,“包括”(comprising)一词不排除其他组成部分或步骤,“一”或“一个”不排除多个的情况。单个处理器或其他单元可以实现权利要求中列举的若干项功能。相互不同的从属权利要求中记载了某些措施,但这并不表示这些措施不能组合起来产生良好的效果。
图1是本发明实施例提供的基于类注意力传输的模型压缩方法的一个流程图,如图1所示,所述方法包括以下步骤:
S101、获取待识别图像。
S102、采用训练好的学生模型进行待识别图像中的目标物体的识别,得到目标物体的类别;训练好的学生模型是采用待训练的学生模型根据训练样本输出的预测分数、训练样本对应的真实标签、待训练的学生模型自身输出的第一类注意力图,以及预训练的教师模型输出的第二类注意力图,对待训练的学生模型进行训练得到的;待训练的学生模型和教师模型中连接在全局池化层之后的全连接层被替换为连接在全局池化层之前的一维卷积核。
这里,学生模型和教师模型均为用于进行目标分类的模型。
示例性的,待训练的学生模型和预训练的教师模型均包括:卷积层、一维卷积核和全局池化层;其中,卷积层用于对输入的图像进行特征提取,得到输入的图像的特征图;一维卷积核用于根据特征图生成类注意力图;全局池化层用于将类注意力图转换为预测分数。
示例性的,训练好的学生模型包括:卷积层、全局池化层和全连接层。
如图2所示,在图像分类任务中,主流模型通常使用卷积神经网络(ConvolutionalNeural Network,CNN)先来提取特征,由CNN产生的多个特征图再被全局池化(GlobalAverage Pooling,GAP)成预测分数后,会被输入到一个简单的全连接(FullConnectivity,FC)层来执行分类任务。而本发明在训练学生模型时,通过将全连接层转化为一维卷积核(1×1Conv)后,就可以在CNN的前向传播过程中得到类注意力图(ClassActivation Mapping,CAM)(例如,图2中的K个类注意力图)。
在一些实施例中,在S102之前,还包括以下步骤:
S201、获取多个带有真实标签的样本图像;真实标签表征样本图像中的物体的真实类别。
S202、获取第t次待训练的学生模型,以及预训练的教师模型;其中,当t为1时,待训练的学生模型为初始待训练的学生模型。
这里,当t为1时,进行学生模型的初始化,得到初始待训练的学生模型。
S203、将至少一个样本图像输入第t次待训练的学生模型和预训练的教师模型,得到第t次待训练的学生模型输出的预测分数、第t次待训练的学生模型输出的第一类注意力图、预训练的教师模型输出的第二类注意力图;t为大于或等于1的整数。
具体的,每次训练时,可以随机选择一个或多个样本图像,并将选择的样本图像输入这一次待训练的学生模型,得到这一次待训练的学生模型中间输出的类注意力图(称为第一类注意力图),以及这一次待训练的学生模型输出的预测分数;以及将选择的样本图像输入预训练的教师模型,得到预训练的教师模型,得到预训练的教师模型输出的类注意力图(称为第二类注意力图)。
S204、根据第t次待训练的学生模型输出的预测分数、第t次待训练的学生模型输出的第一类注意力图、预训练的教师模型输出的第二类注意力图,以及至少一个样本图像的真实标签,确定第t次的损失值。
这里,可以根据第t次待训练的学生模型输出的第一类注意力图、预训练的教师模型输出的第二类注意力图,确定第t次的知识蒸馏损失值;根据第t次待训练的学生模型输出预测分数和至少一个样本图像的真实标签,确定第t次的交叉熵损失值;对第t次的知识蒸馏损失值和第t次的交叉熵损失值进行求和,得到求和值;将求和值作为第t次的损失值。
具体的,确定第t次的知识蒸馏损失值的原理如下:对第t次待训练的学生模型输出的第一类注意力图进行池化操作,得到第一池化特征;对预训练的教师模型输出的第二类注意力图进行池化操作,得到第二池化特征;对第一池化特征和第二池化特征分别进行L2正则化处理,得到第一处理特征和第二处理特征;将第一处理特征和第二处理特征之间的均方差,作为第t次的知识蒸馏损失值。
示例性的,图3为确定知识蒸馏损失值的原理图。如图3所示,相同的样本图像分别经过预训练的教师模型和待训练的学生模型后,得到预训练的教师模型中间输出的类注意力图Transferred CAMs,以及待训练的学生模型中间输出的类注意力图CAMs,对Transferred CAMs和CAMs分别进行池化(pooling)处理后,得到预训练的教师模型对应的尺寸为W*H*K的池化特征(以下称为第一池化特征)和待训练的学生模型对应的尺寸为W*H*K的池化特征(以下称为第二池化特征),对第一池化特征和第二池化特征分别进行正则化(normalization)出后,分别得到预训练的教师模型对应的经过正则化的特征(以下称为第一处理特征)和待训练的学生模型对应的经过正则化的特征(以下称为第二处理特征),计算第一处理特征和第二处理特征之间的均方差,将该方差作为知识蒸馏损失值(CATloss)。
S205、根据第t次的损失值进行反向传播并更新第t次待训练的学生模型的参数,得到第t+1次待训练的学生模型,如此迭代,直至满足预设条件时停止训练,得到训练好的待转换学生模型。
这里,当训练次数达到预设次数,或者某一次的损失值达到预设阈值时,确定满足预设条件,此时可以停止训练,并将最后一次训练得到的学生模型作为训练好的待转换学生模型。
S206、将训练好的待转换学生模型中连接在全局池化层之前的一维卷积核,替换为连接在全局池化层之后的全连接层,得到训练好的学生模型。
这里,由于得到的训练好的待转换学生模型的结构如图2中的Convertedstructure所示,因而,通过将训练好的待转换学生模型中连接在全局池化层之前的一维卷积核,替换为连接在全局池化层之后的全连接层,可以得到训练好的学生模型,并且,这一转变不会改变模型输出的预测分数。
通过上述方法,本发明使得训练得到的学生模型能够捕捉到图中更多的与目标类别有关的辨识区域,在具有高度的可解释性的同时提高了模型的分类准确度。
以下通过实验数据,对本发明实施例所能达到的技术效果进行进一步说明。
图4为本方法(CAT-KD)的训练好的学生模型得到的类注意力图与普通训练模型的类注意力图的对比示意图。图4中的第一行的三个图为普通训练模型的类注意力图的可视化,图4中的第二行的三个图为本方法的训练好的学生模型的类注意力图的可视化。如图4所示,本发明预的训练的学生模型能够捕捉到图中更多的与目标类别有关的辨识区域。
以下表1为本方法(CAT-KD)与其他知识蒸馏方法(KD、DKD、CRD、OFD、FitNet、RKD、Review KD、AT)在CIFAR100数据集的效果比较。显然,本方法的效果更优。表2为对多个其他方法训练的模型和本方法训练的模型进行迁移学习所得到的结果比较。显然,本方法训练的模型有更好的泛化性。
表1
表2
图5为多个其他方法和本方法的训练消耗及效果对比示意图。显然,本方法是最优的。
以上内容是结合具体的优选实施方式对本发明所作的进一步详细说明,不能认定本发明的具体实施只局限于这些说明。对于本发明所属技术领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干简单推演或替换,都应当视为属于本发明的保护范围。

Claims (8)

1.一种基于类注意力传输的模型压缩方法,其特征在于,包括:
获取待识别图像;
采用训练好的学生模型进行所述待识别图像中的目标物体的识别,得到所述目标物体的类别;
所述训练好的学生模型是采用待训练的学生模型根据训练样本输出的预测分数、所述训练样本对应的真实标签、所述待训练的学生模型自身输出的第一类注意力图,以及预训练的教师模型输出的第二类注意力图,对所述待训练的学生模型进行训练得到的;所述待训练的学生模型和所述教师模型中连接在全局池化层之后的全连接层被替换为连接在所述全局池化层之前的一维卷积核。
2.根据权利要求1所述的基于类注意力传输的模型压缩方法,其特征在于,所述学生模型和所述教师模型均为用于进行目标分类的模型。
3.根据权利要求1所述的基于类注意力传输的模型压缩方法,其特征在于,所述待训练的学生模型和所述教师模型均包括:卷积层、一维卷积核和全局池化层;其中,所述卷积层用于对输入的图像进行特征提取,得到所述输入的图像的特征图;所述一维卷积核用于根据所述特征图生成类注意力图;所述全局池化层用于将所述类注意力图转换为预测分数。
4.根据权利要求1所述的基于类注意力传输的模型压缩方法,其特征在于,在所述采用训练好的学生模型进行所述待识别图像中的目标物体的识别,得到所述目标物体的类别之前,所述方法还包括:
获取多个带有真实标签的样本图像;所述真实标签表征样本图像中的物体的真实类别;
获取第t次待训练的学生模型,以及所述预训练的教师模型;其中,当t为1时,所述待训练的学生模型为初始待训练的学生模型;
将至少一个样本图像输入所述第t次待训练的学生模型和所述预训练的教师模型,得到所述第t次待训练的学生模型输出的预测分数、所述第t次待训练的学生模型输出的所述第一类注意力图、所述预训练的教师模型输出的所述第二类注意力图;t为大于或等于1的整数;
根据所述第t次待训练的学生模型输出的预测分数、所述第t次待训练的学生模型输出的所述第一类注意力图、所述预训练的教师模型输出的所述第二类注意力图,以及所述至少一个样本图像的真实标签,确定第t次的损失值;
根据所述第t次的损失值进行反向传播并更新所述第t次待训练的学生模型的参数,得到第t+1次待训练的学生模型,如此迭代,直至满足预设条件时停止训练,得到训练好的待转换学生模型;
将所述训练好的待转换学生模型中连接在所述全局池化层之前的一维卷积核,替换为连接在全局池化层之后的全连接层,得到所述训练好的学生模型。
5.根据权利要求4所述的基于类注意力传输的模型压缩方法,其特征在于,所述根据所述第t次待训练的学生模型输出的预测分数、所述第t次待训练的学生模型输出的所述第一类注意力图、所述预训练的教师模型输出的所述第二类注意力图,以及所述至少一个样本图像的真实标签,确定第t次的损失值,包括:
根据所述第t次待训练的学生模型输出的所述第一类注意力图、所述预训练的教师模型输出的所述第二类注意力图,确定第t次的知识蒸馏损失值;
根据所述第t次待训练的学生模型输出预测分数和所述至少一个样本图像的真实标签,确定第t次的交叉熵损失值;
根据所述第t次的知识蒸馏损失值和所述第t次的交叉熵损失值,确定所述第t次的损失值。
6.根据权利要求5所述的基于类注意力传输的模型压缩方法,其特征在于,所述根据所述第t次待训练的学生模型输出的所述第一类注意力图、所述预训练的教师模型输出的所述第二类注意力图,确定第t次的知识蒸馏损失值,包括:
对所述第t次待训练的学生模型输出的所述第一类注意力图进行池化操作,得到第一池化特征;
对所述预训练的教师模型输出的所述第二类注意力图进行池化操作,得到第二池化特征;
对所述第一池化特征和所述第二池化特征分别进行L2正则化处理,得到第一处理特征和第二处理特征;
将所述第一处理特征和所述第二处理特征之间的均方差,作为所述第t次的知识蒸馏损失值。
7.根据权利要求5所述的基于类注意力传输的模型压缩方法,其特征在于,所述根据所述第t次的知识蒸馏损失值和所述第t次的交叉熵损失值,确定所述第t次的损失值,包括:
对所述第t次的知识蒸馏损失值和所述第t次的交叉熵损失值进行求和,得到求和值;
将所述求和值作为所述第t次的损失值。
8.根据权利要求5所述的基于类注意力传输的模型压缩方法,其特征在于,所述获取第t次待训练的学生模型,包括:
当t为1时,进行学生模型的初始化,得到所述初始待训练的学生模型。
CN202310326399.1A 2023-03-29 2023-03-29 一种基于类注意力传输的模型压缩方法 Pending CN116543250A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310326399.1A CN116543250A (zh) 2023-03-29 2023-03-29 一种基于类注意力传输的模型压缩方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310326399.1A CN116543250A (zh) 2023-03-29 2023-03-29 一种基于类注意力传输的模型压缩方法

Publications (1)

Publication Number Publication Date
CN116543250A true CN116543250A (zh) 2023-08-04

Family

ID=87453172

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310326399.1A Pending CN116543250A (zh) 2023-03-29 2023-03-29 一种基于类注意力传输的模型压缩方法

Country Status (1)

Country Link
CN (1) CN116543250A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117237742A (zh) * 2023-11-08 2023-12-15 苏州元脑智能科技有限公司 一种针对初始模型的知识蒸馏方法和装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117237742A (zh) * 2023-11-08 2023-12-15 苏州元脑智能科技有限公司 一种针对初始模型的知识蒸馏方法和装置
CN117237742B (zh) * 2023-11-08 2024-02-20 苏州元脑智能科技有限公司 一种针对初始模型的知识蒸馏方法和装置

Similar Documents

Publication Publication Date Title
WO2020238293A1 (zh) 图像分类方法、神经网络的训练方法及装置
WO2021042828A1 (zh) 神经网络模型压缩的方法、装置、存储介质和芯片
CN110163258B (zh) 一种基于语义属性注意力重分配机制的零样本学习方法及系统
CN109815956B (zh) 一种基于自适应位置分割的车牌字符识别方法
CN109063719B (zh) 一种联合结构相似性和类信息的图像分类方法
CN110490236B (zh) 基于神经网络的自动图像标注方法、系统、装置和介质
CN111027576B (zh) 基于协同显著性生成式对抗网络的协同显著性检测方法
CN111652202B (zh) 利用自适应的时空图模型通过提升视频-语言表征学习来解决视频问答问题的方法及其系统
Hara et al. Attentional network for visual object detection
WO2014205231A1 (en) Deep learning framework for generic object detection
CN109242097B (zh) 无监督学习的视觉表示学习系统及方法
CN110321805B (zh) 一种基于时序关系推理的动态表情识别方法
CN115937655B (zh) 多阶特征交互的目标检测模型及其构建方法、装置及应用
CN109165658B (zh) 一种基于Faster-RCNN的强负样本水下目标检测方法
Yoo et al. Fast training of convolutional neural network classifiers through extreme learning machines
CN113627543B (zh) 一种对抗攻击检测方法
US20230104262A1 (en) Panoptic segmentation refinement network
CN113343989B (zh) 一种基于前景选择域自适应的目标检测方法及系统
CN112232395B (zh) 一种基于联合训练生成对抗网络的半监督图像分类方法
CN115147632A (zh) 基于密度峰值聚类算法的图像类别自动标注方法及装置
CN112149526A (zh) 一种基于长距离信息融合的车道线检测方法及系统
CN116543250A (zh) 一种基于类注意力传输的模型压缩方法
CN111782804A (zh) 基于TextCNN同分布文本数据选择方法、系统及存储介质
CN114612681A (zh) 基于gcn的多标签图像分类方法、模型构建方法及装置
Gao et al. Adaptive random down-sampling data augmentation and area attention pooling for low resolution face recognition

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination