CN110147456A - 一种图像分类方法、装置、可读存储介质及终端设备 - Google Patents

一种图像分类方法、装置、可读存储介质及终端设备 Download PDF

Info

Publication number
CN110147456A
CN110147456A CN201910292957.0A CN201910292957A CN110147456A CN 110147456 A CN110147456 A CN 110147456A CN 201910292957 A CN201910292957 A CN 201910292957A CN 110147456 A CN110147456 A CN 110147456A
Authority
CN
China
Prior art keywords
model
label
image
training
noise
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910292957.0A
Other languages
English (en)
Other versions
CN110147456B (zh
Inventor
乔宇
李青
彭小江
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Institute of Advanced Technology of CAS
Original Assignee
Shenzhen Institute of Advanced Technology of CAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Institute of Advanced Technology of CAS filed Critical Shenzhen Institute of Advanced Technology of CAS
Priority to CN201910292957.0A priority Critical patent/CN110147456B/zh
Publication of CN110147456A publication Critical patent/CN110147456A/zh
Application granted granted Critical
Publication of CN110147456B publication Critical patent/CN110147456B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/55Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Databases & Information Systems (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及图像处理技术领域,尤其涉及一种图像分类方法、装置、存储介质及终端设备。本发明提供的图像分类方法包括:获取待分类图像;将待分类图像输入至训练完成的图像分类模型,得到图像分类模型输出的图像标签;其中,图像分类模型包括老师模型和学生模型,老师模型为利用噪声数据和非噪声数据进行弱监督训练得到的卷积神经网络模型,学生模型为基于老师模型根据知识迁移机制和多任务学习机制共同训练获得的模型;根据图像标签得到待分类图像对应的分类结果,以使用老师模型来进行知识迁移,并利用噪声数据和非噪声数据进行多任务学习训练,提高图像分类模型的分类效率和分类准确性。

Description

一种图像分类方法、装置、可读存储介质及终端设备
技术领域
本发明涉及图像处理技术领域,尤其涉及一种图像分类方法、装置、计算机可读存储介质及终端设备。
背景技术
随着互联网大数据时代的发展,深度卷积神经网络技术已成功应用于人工智能领域,例如可通过深度卷积神经网络技术来识别图像的类别,以进行图像分类,现有的深度卷积神经网络技术能够实现图像分类的关键因素在于:在进行深度卷积神经网络技术的训练时,所采集的训练用的图像集需具有非常可靠的标签数据。在目前海量的网络数据图像和爬虫图像的情况下,获取可靠、高质量的标签数据是非常困难和费时的,而一旦训练用的图像集的标签数据变得不可靠时,将严重影响深度卷积神经网络技术的分类性能和分类准确性,从而使得现有图像分类的分类效率和分类准确性较低。
发明内容
本发明实施例提供了一种图像分类方法、装置、计算机可读存储介质及终端设备,能够解决现有的图像分类中分类效率和分类准确性较低的问题。
本发明实施例的第一方面,提供了一种图像分类方法,包括:
获取待分类图像;
将所述待分类图像输入至训练完成的图像分类模型,得到所述图像分类模型输出的图像标签;
其中,所述图像分类模型包括老师模型和学生模型,所述老师模型为利用噪声数据和非噪声数据进行弱监督训练得到的卷积神经网络模型,所述学生模型为基于所述老师模型根据知识迁移机制和多任务学习机制共同训练获得的模型;
根据所述图像标签得到所述待分类图像对应的分类结果。
进一步地,所述老师模型通过下述步骤训练得到:
获取第一训练样本集,并确定所述第一训练样本集中各训练数据对应的第一标准图像标签;
将所述第一训练样本集输入至初始的老师模型,得到所述初始的老师模型输出的各训练数据对应的第一预测图像标签;
利用下式根据所述第一标准图像标签与所述第一预测图像标签计算本轮训练的训练误差;
其中,Losst为训练误差,M为训练数据对应的总个数,yi为第i个训练数据对应的第一标准图像标签,y′i为第i个训练数据对应的第一预测图像标签;
若所述训练误差满足第一预设条件,则确定所述老师模型训练完成;
若所述训练误差不满足所述第一预设条件,则调整所述老师模型的第一模型参数,并将第一模型参数调整后的老师模型确定为初始的老师模型,返回执行将所述第一训练样本集输入至初始的老师模型的步骤以及后续步骤。
优选地,所述学生模型通过下述步骤训练得到:
获取第二训练样本集,并将所述第二训练样本集划分为噪声数据集和非噪声数据集;
将所述噪声数据集输入至所述老师模型,得到所述老师模型输出的各个噪声数据对应的第一输出值,并对所述第一输出值进行软化操作,得到各类噪声数据对应的第一软标签;
获取各个噪声数据对应的图像噪声标签,并将所述图像噪声标签与对应的第一软标签进行融合,得到各类噪声数据对应的引导知识标签;
将所述噪声数据集输入至初始的学生模型,得到所述初始的学生模型输出的各个噪声数据对应的第二输出值,并对所述第二输出值进行软化操作,得到各个噪声数据对应的第二软标签;
根据所述引导知识标签和所述第二软标签计算所述噪声数据集对应的KL散度;
将所述非噪声数据集输入至初始的学生模型,得到各个非噪声数据对应的第二预测图像标签;
获取各个非噪声数据对应的第二标准图像标签,并根据所述第二预测图像标签和所述第二标准图像标签计算所述非噪声数据集对应的交叉熵;
根据所述KL散度和所述交叉熵,确定所述第二训练样本集对应的总误差;
若所述总误差满足第二预设条件,则确定所述学生模型训练完成;
若所述总误差不满足所述第二预设条件,则调整所述学生模型的第二模型参数,并将第二模型参数调整后的学生模型确定为初始的学生模型,返回执行将所述噪声数据集输入至初始的学生模型,得到所述初始的学生模型输出的各个噪声数据对应的第二输出值的步骤以及后续步骤。
可选地,所述对所述第一输出值进行软化操作,得到各类噪声数据对应的第一软标签,包括:
通过下述公式对所述第一输出值进行软化操作,得到各类噪声数据对应的第一软标签:
其中,p′i为第i类噪声数据对应的第一软标签,z为噪声数据对应的第一输出值,T为温度系数。
进一步地,所述将所述图像噪声标签与对应的第一软标签进行融合,得到各类噪声数据对应的引导知识标签,包括:
通过下述公式将所述图像噪声标签与对应的第一软标签进行融合,得到各类噪声数据对应的引导知识标签:
其中,gi为第i类噪声数据对应的引导知识标签,p′i为第i类噪声数据对应的第一软标签,ti为第i类噪声数据对应的图像噪声标签,β为第一平衡权重参数。
优选地,所述根据所述引导知识标签和所述第二软标签计算所述噪声数据集对应的KL散度,包括:
根据下述公式计算所述噪声数据集对应的KL散度:
其中,Lossg为KL散度,N为噪声数据的总个数,gk为第k个噪声数据对应的引导知识标签,qk为第k个噪声数据对应的第二软标签。
可选地,所述根据所述KL散度和所述交叉熵,确定所述第二训练样本集对应的总误差,包括:
根据下述公式确定所述第二训练样本集对应的总误差:
Losstotal=α*T2*Lossg+Lossc
其中,Losstotal为总误差,T为温度系数,α为第二平衡权重参数,Lossg为KL散度,Lossc为交叉熵。
本发明实施例的第二方面,提供了一种图像分类装置,包括:
图像获取模块,用于获取待分类图像;
图像标签获取模块,用于将所述待分类图像输入至训练完成的图像分类模型,得到所述图像分类模型输出的图像标签;
其中,所述图像分类模型包括老师模型和学生模型,所述老师模型为利用噪声数据和非噪声数据进行弱监督训练得到的卷积神经网络模型,所述学生模型为基于所述老师模型根据知识迁移机制和多任务学习机制共同训练获得的模型;
分类结果确定模块,用于根据所述图像标签得到所述待分类图像对应的分类结果。
本发明实施例的第三方面,提供了一种终端设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现如前述第一方面所述图像分类方法的步骤。
本发明实施例的第四方面,提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现如前述第一方面所述图像分类方法的步骤。
从以上技术方案可以看出,本发明实施例具有以下优点:
本发明实施例的图像分类模型可包括老师模型和学生模型,其中,老师模型为利用噪声数据和非噪声数据进行弱监督训练得到的卷积神经网络模型,学生模型则为基于老师模型根据知识迁移机制和多任务学习机制共同训练所得到的模型,以通过在老师模型的基础上进行知识迁移,并利用多任务学习机制进行噪声数据和非噪声数据的训练来提高学生模型的分类性能,从而提高图像分类模型的分类效率和分类准确性。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例中一种图像分类方法的一个实施例流程图;
图2为本发明实施例中一种图像分类方法在一个应用场景下训练老师模型的流程示意图;
图3为本发明实施例中一种图像分类方法在一个应用场景下训练学生模型的流程示意图;
图4为本发明实施例中一种图像分类装置的一个实施例结构图;
图5为本发明实施例提供的一种终端设备的示意图。
具体实施方式
本发明实施例提供了一种图像分类方法、装置、计算机可读存储介质及终端设备,用于解决现有的图像分类中分类效率和分类准确性较低的问题。
为使得本发明的发明目的、特征、优点能够更加的明显和易懂,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,下面所描述的实施例仅仅是本发明一部分实施例,而非全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其它实施例,都属于本发明保护的范围。
此外,本发明实施例中所描述的“第一”、“第二”和“第三”等是用于区别不同对象,而非用于描述特定顺序。
为了说明本发明实施例所述的技术方案,下面将通过具体实施例来进行说明。
请参阅图1,本发明实施例提供了一种图像分类方法,所述图像分类方法包括:
步骤S101、获取待分类图像;
步骤S102、将所述待分类图像输入至训练完成的图像分类模型,得到所述图像分类模型输出的图像标签;
其中,所述图像分类模型包括老师模型和学生模型,所述老师模型为利用噪声数据和非噪声数据进行弱监督训练得到的卷积神经网络模型,所述学生模型为基于所述老师模型根据知识迁移机制和多任务学习机制共同训练获得的模型;
步骤S103、根据所述图像标签得到所述待分类图像对应的分类结果。
本发明实施例中,所述老师模型可以基于传统的深度卷积神经网络训练得到,如可以通过弱监督学习方法对各种真实噪声图像数据和非噪声图像数据进行训练得到,其中,所述弱监督学习方法可以是对人工验证过的极小数量干净数据(即非噪声图像数据)和海量噪声图像数据进行训练学习。
所述学生模型则可以是在所述老师模型的基础上根据知识迁移机制和多任务学习机制共同训练得到,其中,所述知识迁移机制可以是采用知识蒸馏方法的思想,即在老师模型的基础上训练学生模型时,可通过引入一个temperature参数来迁移老师模型的知识。另外,在进行学生模型的训练时还可采用多任务学习机制进行训练,例如,可以通过多任务学习机制来训练噪声数据和干净数据,得到噪声数据对应的KL-divergence Loss(KL散度)和干净数据对应的交叉熵(Cross Entropy loss),并可以将KL散度和交叉熵通过联合加权机制来对学生模型进行监督训练学习,以提高学生模型的分类性能,从而提高图像分类模型的分类效率和分类准确性。
进一步地,如图2所示,本发明实施例中,所述老师模型可通过下述步骤训练得到:
步骤S201、获取第一训练样本集,并确定所述第一训练样本集中各训练数据对应的第一标准图像标签;
可以理解的是,在训练所述老师模型之前,可以先采集训练用的第一训练样本集,而所述第一训练样本集中的各训练数据均具有对应的第一标准图像标签,例如,可获取各训练数据本身携带的原始图像标签来作为对应的第一标准图像标签,其中,所述训练数据可以包括海量的噪声图像数据和极少量的干净图像数据,海量的噪声图像数据可以为以万计的数据,极少量的干净图像数据可以为千以内的数据。
步骤S202、将所述第一训练样本集输入至初始的老师模型,得到所述初始的老师模型输出的各训练数据对应的第一预测图像标签;
本发明实施例中,在获取到各训练数据和对应的第一标准图像标签后,可在假定各第一标准图像标签为各训练数据对应的正确标签的前提下,将所述第一训练样本集中的所有训练数据输入至初始的老师模型中进行训练,以得到初始的老师模型输出的各训练数据对应的第一预测图像标签,由于初始时老师模型尚未训练完成,因此此时其输出的第一预测图像标签与第一标准图像标签之间会存在一定的偏差、误差。在此,第一预测图像标签可以为通过老师模型中各训练数据对应的softmax输出求取的score值。
步骤S203、利用下式根据所述第一标准图像标签与所述第一预测图像标签计算本轮训练的训练误差;
其中,Losst为训练误差,M为训练数据对应的总个数,yi为第i个训练数据对应的第一标准图像标签,y′i为第i个训练数据对应的第一预测图像标签;
步骤S204、判断所述训练误差是否满足第一预设条件;
对于上述步骤S203和步骤S204,可以理解的是,在得到第一标准图像标签和第一预测图像标签之后,可以根据第一标准图像标签和第一预测图像标签计算本轮训练的训练误差,如可通过来计算本轮训练的训练误差,并判断所述训练误差是否满足第一预设条件,例如判断所述训练误差是否达到最优值,或者是否不再下降。在此,所述第一预设条件可以在训练具体的老师模型时确定。
步骤S205、若所述训练误差满足所述第一预设条件,则确定所述老师模型训练完成;
步骤S206、若所述训练误差不满足所述第一预设条件,则调整所述老师模型的第一模型参数,并将第一模型参数调整后的老师模型确定为初始的老师模型,返回执行将所述第一训练样本集输入至初始的老师模型的步骤以及后续步骤。
对于上述步骤S205和步骤S206,本发明实施例中,当所述训练误差满足所述第一预设条件时,如当所述训练误差达到最优值时,则可确定所述老师模型训练完成;而当所述训练误差不满足所述第一预设条件时,如当所述训练误差未达到最优值时,则可调整所述老师模型的第一模型参数,并将第一模型参数调整后的老师模型确定为初始的老师模型,然后重新进行第一训练样本集的训练,以通过反复调整所述老师模型的第一模型参数,并进行多次第一训练样本集的训练,来使得后续得到的训练误差满足所述第一预设条件。
优选地,如图3所示,本发明实施例中,所述学生模型可通过下述步骤训练得到:
步骤S301、获取第二训练样本集,并将所述第二训练样本集划分为噪声数据集和非噪声数据集;
可以理解的是,在训练所述学生模型之前,也需要先采集训练用的第二训练样本集,当然所述第二训练样本集也可以为训练所述老师模型时所采集的第一训练样本集。在获取到所述第二训练样本集后,可以将所述第二训练样本集划分为噪声数据集(即噪声图像数据所在的数据集)和非噪声数据集(即干净图像数据所在的数据集),其中,非噪声数据集可以为极少数量的人工标注数据集,如在采集到所述第二训练样本集后,可首先通过人工对所述第二训练样本集中的极少部分训练数据进行重新标注,并将人工重新标注后的训练数据确定为非噪声数据集。
需要说明的是,本发明实施例中的“噪声图像数据”和“噪声数据”的含义相同,指代相同的图像数据。
步骤S302、将所述噪声数据集输入至所述老师模型,得到所述老师模型输出的各个噪声数据对应的第一输出值,并对所述第一输出值进行软化操作,得到各类噪声数据对应的第一软标签;
在所述第二训练样本集划分出噪声数据集后,可将所述噪声数据集输入至前述训练完成的老师模型中,以通过所述老师模型来得到各个噪声数据对应的第一输出值,并可对各个所述第一输出值进行软化操作,以得到各类噪声数据对应的第一软标签,所述软化操作采用的是知识蒸馏方法,通过引入一个temperature参数来迁移所述老师模型的知识。
具体地,所述对所述第一输出值进行软化操作,得到各类噪声数据对应的第一软标签,可以包括:
通过下述公式对所述第一输出值进行软化操作,得到各类噪声数据对应的第一软标签:
其中,p′i为第i类噪声数据对应的第一软标签,z为噪声数据对应的第一输出值,T为温度系数。
在此,温度系数即为前述所述的temperature参数,可以根据实际情况进行具体设置。
步骤S303、获取各个噪声数据对应的图像噪声标签,并将所述图像噪声标签与对应的第一软标签进行融合,得到各类噪声数据对应的引导知识标签;
可以理解的是,在采集所述第二训练样本集中的噪声数据时,可同时获取各个噪声数据所对应的图像噪声标签,即获取各个噪声数据对应的原始图像标签。因此,本发明实施例中,在得到各类噪声数据对应的第一软标签后,可将各所述第一软标签与对应的图像噪声标签进行融合,以得到各类噪声数据对应的引导知识标签,即可将各第一软标签与对应类别的噪声数据的图像噪声标签进行融合,从而得到各类噪声数据对应的引导知识标签。
需要说明的是,各类噪声数据对应的图像噪声标签需要通过独热编码向量进行表示。
具体地,所述将所述图像噪声标签与对应的第一软标签进行融合,得到各类噪声数据对应的引导知识标签,可以包括:
通过下述公式将所述图像噪声标签与对应的第一软标签进行融合,得到各类噪声数据对应的引导知识标签:
其中,gi为第i类噪声数据对应的引导知识标签,p′i为第i类噪声数据对应的第一软标签,ti为第i类噪声数据对应的图像噪声标签,β为第一平衡权重参数。
步骤S304、将所述噪声数据集输入至初始的学生模型,得到所述初始的学生模型输出的各个噪声数据对应的第二输出值,并对所述第二输出值进行软化操作,得到各个噪声数据对应的第二软标签;
本发明实施例中,可首先构建初始的学生模型,而在通过训练完成的老师模型获取所有噪声数据对应的引导知识标签的同时,还可将所有噪声数据输入至初始的学生模型中,以通过所述初始的学生模型来得到每一个噪声数据对应的第二输出值。也就是说,在训练所述学生模型时,可将各个噪声数据同时输入至已训练完成的老师模型和初始的学生模型中,以通过老师模型和学生模型同时对噪声数据进行预测、训练等。
可以理解的是,在得到初始的学生模型输出的每一个噪声数据对应的第二输出值后,也可对各第二输出值进行软化操作,从而得到每一个噪声数据所对应的第二软标签。
步骤S305、根据所述引导知识标签和所述第二软标签计算所述噪声数据集对应的KL散度;
本发明实施例中,在基于所述老师模型得到每一个噪声数据对应的引导知识标签以及基于所述初始的学生模型得到每一个噪声数据对应的第二软标签之后,可根据所有引导知识标签和所有第二软标签来确定所述噪声数据集所对应的KL散度(即KL-divergenceLoss)。
具体地,本发明实施例中,所述根据所述引导知识标签和所述第二软标签计算所述噪声数据集对应的KL散度,可以包括:
根据下述公式计算所述噪声数据集对应的KL散度:
其中,Lossg为KL散度,N为噪声数据的总个数,gk为第k个噪声数据对应的引导知识标签,qk为第k个噪声数据对应的第二软标签。
步骤S306、将所述非噪声数据集输入至初始的学生模型,得到各个非噪声数据对应的第二预测图像标签;
本发明实施例中,在划分出所述第二训练样本集中的非噪声数据集(即干净数据集)后,可将所述干净数据集输入至初始的学生模型,得到各个干净数据对应的第二预测图像标签,其中,此处所述的初始的学生模型可以与前述所述的初始的学生模型为同一个模型,也可以为不同的两个模型,而当为不同的两个模型时,这两个初始的学生模型之间则可共享参数,即可通过共享参数的两个学生模型来同时训练噪声数据集和非噪声数据集。
需要说明的是,本发明实施例中,在通过训练完成的老师模型训练噪声数据集、通过共享参数的学生模型训练噪声数据集以及通过共享参数的学生模型训练干净数据集时,这三个训练过程可同时进行,从而可提高模型训练的训练效率。
步骤S307、获取各个非噪声数据对应的第二标准图像标签,并根据所述第二预测图像标签和所述第二标准图像标签计算所述非噪声数据集对应的交叉熵;
可以理解的是,在获取所述第二训练样本集中的非噪声数据时,也可以同时获取各非噪声数据对应的第二标准图像标签,即获取各干净数据对应的原始图像标签。本发明实施例中,在得到所述初始的学生模型输出的各干净数据对应的第二预测图像标签之后,可根据各第二预测图像标签和各第二标准图像标签来确定所述非噪声数据集对应的交叉熵,在此,可通过来计算非噪声数据集对应的交叉熵,此时Lossc为交叉熵,M为非噪声数据对应的总个数,yi则为非噪声数据对应的第二标准图像标签,y′i则为非噪声数据对应的第二预测图像标签。
步骤S308、根据所述KL散度和所述交叉熵,确定所述第二训练样本集对应的总误差;
本发明实施例中,在采用多任务学习机制获取噪声数据集对应的KL散度和干净数据集对应的交叉熵后,可通过联合加权机制来最终确定所述第二训练样本集对应的总误差,即训练过程中,噪声数据的监督信息使用自身图像标签和老师模型的预测图像标签进行加权得到,以通过多任务学习机制和联合加权机制来进行学生模型的监督训练学习,从而提高学生模型的分类性能,提高图像分类模型的分类效率和分类准确性。
具体地,所述根据所述KL散度和所述交叉熵,确定所述第二训练样本集对应的总误差,可以包括:
根据下述公式确定所述第二训练样本集对应的总误差:
LoSStotal=α*T2*Lossg+LoSSc
其中,Losstotal为总误差,T为温度系数,α为第二平衡权重参数,Lossg为KL散度,Lossc为交叉熵。
步骤S309、判断所述总误差是否满足第二预设条件;
步骤S310、若所述总误差满足所述第二预设条件,则确定所述学生模型训练完成;
步骤S311、若所述总误差不满足所述第二预设条件,则调整所述学生模型的第二模型参数,并将第二模型参数调整后的学生模型确定为初始的学生模型,返回执行将所述噪声数据集输入至初始的学生模型,得到所述初始的学生模型输出的各个噪声数据对应的第二输出值的步骤以及后续步骤。
对于上述步骤S309至步骤S311,可以理解的是,在得到所述第二训练样本集当次训练的总误差后,可判断所述总误差是否满足第二预设条件,例如判断所述总误差是否达到最优值。在此,所述第二预设条件可以在训练具体的学生模型时确定。当所述总误差满足所述第二预设条件时,如当所述总误差达到最优值时,则可确定所述学生模型训练完成;而当所述总误差不满足所述第二预设条件时,如当所述总误差未达到最优值时,则可调整所述学生模型的第二模型参数,并将第二模型参数调整后的学生模型确定为初始的学生模型,然后重新进行第二训练样本集的训练,以通过反复调整学生模型的第二模型参数,并进行多次第二训练样本集的训练,来使得后续训练得到的总误差满足所述第二预设条件。
下表1显示了基于baseline方法的分类模型和本发明实施例中的图像分类模型(即下表中的Guidance Learning),在对唯品会提供的90类商品图像数据进行验证得到的分类结果,其中,分类结果采用Top1准确率的评价标准。由下表1的分类结果可知,单独使用本发明实施例中的图像分类模型时,分类准确率可达到68.86%,高于baseline方法的分类模型的分类准确率,而如果采用clean(干净)数据集在原图像分类模型的基础上进行finetuning操作时,本发明实施例中的图像分类模型的分类准确率可达到71.4%,仍然比在baseline方法的分类模型的基础上进行finetuning操作的分类准确性高,即本发明实施例提供的图像分类模型相对于现有的分类模型具有更强的分类性能,可有效地提高图像分类的分类效率和分类准确性。
表1
本发明实施例的图像分类模型可包括老师模型和学生模型,其中,老师模型为利用噪声数据和非噪声数据进行弱监督训练得到的卷积神经网络模型,学生模型则为基于老师模型根据知识迁移机制和多任务学习机制共同训练所得到的模型,以通过在老师模型的基础上进行知识迁移,并利用多任务学习机制进行噪声数据和非噪声数据的训练来提高学生模型的分类性能,从而提高图像分类模型的分类效率和分类准确性。
应理解,上述实施例中各步骤的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本发明实施例的实施过程构成任何限定。
上面主要描述了一种图像分类方法,下面将对一种图像分类装置进行详细描述。
如图4所示,本发明实施例提供了一种图像分类装置,所述图像分类装置包括:
图像获取模块401,用于获取待分类图像;
图像标签获取模块402,用于将所述待分类图像输入至训练完成的图像分类模型,得到所述图像分类模型输出的图像标签;
其中,所述图像分类模型包括老师模型和学生模型,所述老师模型为利用噪声数据和非噪声数据进行弱监督训练得到的卷积神经网络模型,所述学生模型为基于所述老师模型根据知识迁移机制和多任务学习机制共同训练获得的模型;
分类结果确定模块403,用于根据所述图像标签得到所述待分类图像对应的分类结果。
进一步地,所述图像分类装置,包括:
第一训练样本集获取模块,用于获取第一训练样本集,并确定所述第一训练样本集中各训练数据对应的第一标准图像标签;
预测图像标签获取模块,用于将所述第一训练样本集输入至初始的老师模型,得到所述初始的老师模型输出的各训练数据对应的第一预测图像标签;
训练误差计算模块,用于利用下式根据所述第一标准图像标签与所述第一预测图像标签计算本轮训练的训练误差;
其中,Losst为训练误差,M为训练数据对应的总个数,yi为第i个训练数据对应的第一标准图像标签,y′i为第i个训练数据对应的第一预测图像标签;
第一训练完成确定模块,用于若所述训练误差满足第一预设条件,则确定所述老师模型训练完成;
第一模型参数调整模块,用于若所述训练误差不满足所述第一预设条件,则调整所述老师模型的第一模型参数,并将第一模型参数调整后的老师模型确定为初始的老师模型,返回执行将所述第一训练样本集输入至初始的老师模型的步骤以及后续步骤。
优选地,所述图像分类装置,还包括:
第二训练样本集获取模块,用于获取第二训练样本集,并将所述第二训练样本集划分为噪声数据集和非噪声数据集;
第一噪声数据集训练模块,用于将所述噪声数据集输入至所述老师模型,得到所述老师模型输出的各个噪声数据对应的第一输出值,并对所述第一输出值进行软化操作,得到各类噪声数据对应的第一软标签;
标签融合模块,用于获取各个噪声数据对应的图像噪声标签,并将所述图像噪声标签与对应的第一软标签进行融合,得到各类噪声数据对应的引导知识标签;
第二噪声数据集训练模块,用于将所述噪声数据集输入至初始的学生模型,得到所述初始的学生模型输出的各个噪声数据对应的第二输出值,并对所述第二输出值进行软化操作,得到各个噪声数据对应的第二软标签;
KL散度计算模块,用于根据所述引导知识标签和所述第二软标签计算所述噪声数据集对应的KL散度;
非噪声数据集训练模块,用于将所述非噪声数据集输入至初始的学生模型,得到各个非噪声数据对应的第二预测图像标签;
交叉熵计算模块,用于获取各个非噪声数据对应的第二标准图像标签,并根据所述第二预测图像标签和所述第二标准图像标签计算所述非噪声数据集对应的交叉熵;
总误差确定模块,用于根据所述KL散度和所述交叉熵,确定所述第二训练样本集对应的总误差;
第二训练完成确定模块,用于若所述总误差满足第二预设条件,则确定所述学生模型训练完成;
第二模型参数调整模块,用于若所述总误差不满足所述第二预设条件,则调整所述学生模型的第二模型参数,并将第二模型参数调整后的学生模型确定为初始的学生模型,返回执行将所述噪声数据集输入至初始的学生模型,得到所述初始的学生模型输出的各个噪声数据对应的第二输出值的步骤以及后续步骤。
可选地,所述第一噪声数据集训练模块,用于通过下述公式对所述第一输出值进行软化操作,得到各类噪声数据对应的第一软标签:
其中,p′i为第i类噪声数据对应的第一软标签,z为噪声数据对应的第一输出值,T为温度系数。
进一步地,所述标签融合模块,具体用于通过下述公式将所述图像噪声标签与对应的第一软标签进行融合,得到各类噪声数据对应的引导知识标签:
其中,gi为第i类噪声数据对应的引导知识标签,p′i为第i类噪声数据对应的第一软标签,ti为第i类噪声数据对应的图像噪声标签,β为第一平衡权重参数。
优选地,所述KL散度计算模块,具体用于根据下述公式确定所述噪声数据集对应的KL散度:
其中,Lossg为KL散度,N为噪声数据的总个数,gki为第k个噪声数据对应的引导知识标签,qk为第k个噪声数据对应的第二软标签。
可选地,所述总误差确定模块,具体用于根据下述公式确定所述第二训练样本集对应的总误差:
Losstotal=α*T2*Lossg+Lossc
其中,Losstotal为总误差,T为温度系数,α为第二平衡权重参数,Lossg为KL散度,Lossc为交叉熵。
图5是本发明一实施例提供的一种终端设备的示意图。如图5所示,该实施例的终端设备5包括:处理器50、存储器51以及存储在所述存储器51中并可在所述处理器50上运行的计算机程序52,例如图像分类程序。所述处理器50执行所述计算机程序52时实现上述各个图像分类方法实施例中的步骤,例如图1所示的步骤101至步骤S103。或者,所述处理器50执行所述计算机程序52时实现上述各装置实施例中各模块/单元的功能,例如图4所示的模块401至模块403的功能。
示例性的,所述计算机程序52可以被分割成一个或多个模块/单元,所述一个或者多个模块/单元被存储在所述存储器51中,并由所述处理器50执行,以完成本发明。所述一个或多个模块/单元可以是能够完成特定功能的一系列计算机程序指令段,该指令段用于描述所述计算机程序52在所述终端设备5中的执行过程。例如,所述计算机程序52可以被分割成图像获取模块、图像标签获取模块、分类结果确定模块,各模块具体功能如下:
图像获取模块,用于获取待分类图像;
图像标签获取模块,用于将所述待分类图像输入至训练完成的图像分类模型,得到所述图像分类模型输出的图像标签;
其中,所述图像分类模型包括老师模型和学生模型,所述老师模型为利用噪声数据和非噪声数据进行弱监督训练得到的卷积神经网络模型,所述学生模型为基于所述老师模型根据知识迁移机制和多任务学习机制共同训练获得的模型;
分类结果确定模块,用于根据所述图像标签得到所述待分类图像对应的分类结果。
所述终端设备5可以是桌上型计算机、笔记本、掌上电脑及云端服务器等计算设备。所述终端设备可包括,但不仅限于,处理器50、存储器51。本领域技术人员可以理解,图5仅仅是终端设备5的示例,并不构成对终端设备5的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件,例如所述终端设备还可以包括输入输出设备、网络接入设备、总线等。
所述处理器50可以是图形处理单元(Graphics Processing Unit,GPU)或者中央处理单元(Central Processing Unit,CPU),还可以是其他通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific IntegratedCircuit,ASIC)、现成可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
所述存储器51可以是所述终端设备5的内部存储单元,例如终端设备5的硬盘或内存。所述存储器51也可以是所述终端设备5的外部存储设备,例如所述终端设备5上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)等。进一步地,所述存储器51还可以既包括所述终端设备5的内部存储单元也包括外部存储设备。所述存储器51用于存储所述计算机程序以及所述终端设备所需的其他程序和数据。所述存储器51还可以用于暂时地存储已经输出或者将要输出的数据。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统,装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述或记载的部分,可以参见其它实施例的相关描述。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各实施例的模块、单元和/或方法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
在本申请所提供的几个实施例中,应该理解到,所揭露的系统,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明实现上述实施例方法中的全部或部分流程,也可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一计算机可读存储介质中,该计算机程序在被处理器执行时,可实现上述各个方法实施例的步骤。其中,所述计算机程序包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,RandomAccess Memory)、电载波信号、电信信号以及软件分发介质等。需要说明的是,所述计算机可读介质包含的内容可以根据司法管辖区内立法和专利实践的要求进行适当的增减,例如在某些司法管辖区,根据立法和专利实践,计算机可读介质不包括电载波信号和电信信号。
以上所述,以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。

Claims (10)

1.一种图像分类方法,其特征在于,包括:
获取待分类图像;
将所述待分类图像输入至训练完成的图像分类模型,得到所述图像分类模型输出的图像标签;
其中,所述图像分类模型包括老师模型和学生模型,所述老师模型为利用噪声数据和非噪声数据进行弱监督训练得到的卷积神经网络模型,所述学生模型为基于所述老师模型根据知识迁移机制和多任务学习机制共同训练获得的模型;
根据所述图像标签得到所述待分类图像对应的分类结果。
2.根据权利要求1所述的图像分类方法,其特征在于,所述老师模型通过下述步骤训练得到:
获取第一训练样本集,并确定所述第一训练样本集中各训练数据对应的第一标准图像标签;
将所述第一训练样本集输入至初始的老师模型,得到所述初始的老师模型输出的各训练数据对应的第一预测图像标签;
利用下式根据所述第一标准图像标签与所述第一预测图像标签计算本轮训练的训练误差;
其中,Losst为训练误差,M为训练数据对应的总个数,yi为第i个训练数据对应的第一标准图像标签,y′i为第i个训练数据对应的第一预测图像标签;
若所述训练误差满足第一预设条件,则确定所述老师模型训练完成;
若所述训练误差不满足所述第一预设条件,则调整所述老师模型的第一模型参数,并将第一模型参数调整后的老师模型确定为初始的老师模型,返回执行将所述第一训练样本集输入至初始的老师模型的步骤以及后续步骤。
3.根据权利要求1所述的图像分类方法,其特征在于,所述学生模型通过下述步骤训练得到:
获取第二训练样本集,并将所述第二训练样本集划分为噪声数据集和非噪声数据集;
将所述噪声数据集输入至所述老师模型,得到所述老师模型输出的各个噪声数据对应的第一输出值,并对所述第一输出值进行软化操作,得到各类噪声数据对应的第一软标签;
获取各个噪声数据对应的图像噪声标签,并将所述图像噪声标签与对应的第一软标签进行融合,得到各类噪声数据对应的引导知识标签;
将所述噪声数据集输入至初始的学生模型,得到所述初始的学生模型输出的各个噪声数据对应的第二输出值,并对所述第二输出值进行软化操作,得到各个噪声数据对应的第二软标签;
根据所述引导知识标签和所述第二软标签计算所述噪声数据集对应的KL散度;
将所述非噪声数据集输入至初始的学生模型,得到各个非噪声数据对应的第二预测图像标签;
获取各个非噪声数据对应的第二标准图像标签,并根据所述第二预测图像标签和所述第二标准图像标签计算所述非噪声数据集对应的交叉熵;
根据所述KL散度和所述交叉熵,确定所述第二训练样本集对应的总误差;
若所述总误差满足第二预设条件,则确定所述学生模型训练完成;
若所述总误差不满足所述第二预设条件,则调整所述学生模型的第二模型参数,并将第二模型参数调整后的学生模型确定为初始的学生模型,返回执行将所述噪声数据集输入至初始的学生模型,得到所述初始的学生模型输出的各个噪声数据对应的第二输出值的步骤以及后续步骤。
4.根据权利要求3所述的图像分类方法,其特征在于,所述对所述第一输出值进行软化操作,得到各类噪声数据对应的第一软标签,包括:
通过下述公式对所述第一输出值进行软化操作,得到各类噪声数据对应的第一软标签:
其中,p′i为第i类噪声数据对应的第一软标签,z为噪声数据对应的第一输出值,T为温度系数。
5.根据权利要求4所述的图像分类方法,其特征在于,所述将所述图像噪声标签与对应的第一软标签进行融合,得到各类噪声数据对应的引导知识标签,包括:
通过下述公式将所述图像噪声标签与对应的第一软标签进行融合,得到各类噪声数据对应的引导知识标签:
其中,gi为第i类噪声数据对应的引导知识标签,p′i为第i类噪声数据对应的第一软标签,ti为第i类噪声数据对应的图像噪声标签,β为第一平衡权重参数。
6.根据权利要求3至5中任一项所述的图像分类方法,其特征在于,所述根据所述引导知识标签和所述第二软标签计算所述噪声数据集对应的KL散度,包括:
根据下述公式计算所述噪声数据集对应的KL散度:
其中,Lossg为KL散度,N为噪声数据的总个数,gk为第k个噪声数据对应的引导知识标签,qk为第k个噪声数据对应的第二软标签。
7.根据权利要求6所述的图像分类方法,其特征在于,所述根据所述KL散度和所述交叉熵,确定所述第二训练样本集对应的总误差,包括:
根据下述公式确定所述第二训练样本集对应的总误差:
Losstotal=α*T2*Lossg+Lossc
其中,Losstotal为总误差,T为温度系数,α为第二平衡权重参数,Lossg为KL散度,Lossc为交叉熵。
8.一种图像分类装置,其特征在于,包括:
图像获取模块,用于获取待分类图像;
图像标签获取模块,用于将所述待分类图像输入至训练完成的图像分类模型,得到所述图像分类模型输出的图像标签;
其中,所述图像分类模型包括老师模型和学生模型,所述老师模型为利用噪声数据和非噪声数据进行弱监督训练得到的卷积神经网络模型,所述学生模型为基于所述老师模型根据知识迁移机制和多任务学习机制共同训练获得的模型;
分类结果确定模块,用于根据所述图像标签得到所述待分类图像对应的分类结果。
9.一种终端设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至7中任一项所述图像分类方法的步骤。
10.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至7中任一项所述图像分类方法的步骤。
CN201910292957.0A 2019-04-12 2019-04-12 一种图像分类方法、装置、可读存储介质及终端设备 Active CN110147456B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910292957.0A CN110147456B (zh) 2019-04-12 2019-04-12 一种图像分类方法、装置、可读存储介质及终端设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910292957.0A CN110147456B (zh) 2019-04-12 2019-04-12 一种图像分类方法、装置、可读存储介质及终端设备

Publications (2)

Publication Number Publication Date
CN110147456A true CN110147456A (zh) 2019-08-20
CN110147456B CN110147456B (zh) 2023-01-24

Family

ID=67588569

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910292957.0A Active CN110147456B (zh) 2019-04-12 2019-04-12 一种图像分类方法、装置、可读存储介质及终端设备

Country Status (1)

Country Link
CN (1) CN110147456B (zh)

Cited By (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110598603A (zh) * 2019-09-02 2019-12-20 深圳力维智联技术有限公司 人脸识别模型获取方法、装置、设备和介质
CN110610310A (zh) * 2019-09-10 2019-12-24 北京字节跳动网络技术有限公司 一种教学考核的方法、装置、介质和电子设备
CN110674880A (zh) * 2019-09-27 2020-01-10 北京迈格威科技有限公司 用于知识蒸馏的网络训练方法、装置、介质与电子设备
CN110751170A (zh) * 2019-09-06 2020-02-04 武汉精立电子技术有限公司 面板质量检测方法、系统、终端设备及计算机可读介质
CN110929785A (zh) * 2019-11-21 2020-03-27 中国科学院深圳先进技术研究院 数据分类方法、装置、终端设备及可读存储介质
CN111079406A (zh) * 2019-12-13 2020-04-28 华中科技大学 自然语言处理模型训练方法、任务执行方法、设备及系统
CN111145026A (zh) * 2019-12-30 2020-05-12 第四范式(北京)技术有限公司 一种反洗钱模型的训练方法及装置
CN111291823A (zh) * 2020-02-24 2020-06-16 腾讯科技(深圳)有限公司 分类模型的融合方法、装置、电子设备及存储介质
CN111475797A (zh) * 2020-03-26 2020-07-31 深圳先进技术研究院 一种对抗图像生成方法、装置、设备以及可读存储介质
CN111488873A (zh) * 2020-04-03 2020-08-04 中国科学院深圳先进技术研究院 一种基于弱监督学习的字符级场景文字检测方法和装置
CN111507378A (zh) * 2020-03-24 2020-08-07 华为技术有限公司 训练图像处理模型的方法和装置
CN111598160A (zh) * 2020-05-14 2020-08-28 腾讯科技(深圳)有限公司 图像分类模型的训练方法、装置、计算机设备及存储介质
CN111832436A (zh) * 2020-06-24 2020-10-27 五邑大学 基于多任务与弱监督的美丽预测方法、装置及存储介质
CN112257855A (zh) * 2020-11-26 2021-01-22 Oppo(重庆)智能科技有限公司 一种神经网络的训练方法及装置、电子设备及存储介质
CN112347476A (zh) * 2020-11-13 2021-02-09 脸萌有限公司 数据保护方法、装置、介质及设备
CN112528109A (zh) * 2020-12-01 2021-03-19 中科讯飞互联(北京)信息科技有限公司 一种数据分类方法、装置、设备及存储介质
CN112784677A (zh) * 2020-12-04 2021-05-11 上海芯翌智能科技有限公司 模型训练方法及装置、存储介质、计算设备
WO2021140426A1 (en) * 2020-01-09 2021-07-15 International Business Machines Corporation Uncertainty guided semi-supervised neural network training for image classification
CN113239985A (zh) * 2021-04-25 2021-08-10 北京航空航天大学 一种面向分布式小规模医疗数据集的分类检测方法
CN114170461A (zh) * 2021-12-02 2022-03-11 匀熵教育科技(无锡)有限公司 基于特征空间重整化的师生架构含噪声标签图像分类方法
CN114529889A (zh) * 2022-01-28 2022-05-24 燕山大学 一种分心驾驶行为识别方法、装置及存储介质
CN115829980A (zh) * 2022-12-13 2023-03-21 深圳核韬科技有限公司 一种眼底照片的图像识别方法、装置、设备及存储介质
CN116030323A (zh) * 2023-03-27 2023-04-28 阿里巴巴(中国)有限公司 图像处理方法以及装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108416370A (zh) * 2018-02-07 2018-08-17 深圳大学 基于半监督深度学习的图像分类方法、装置和存储介质
US20180268292A1 (en) * 2017-03-17 2018-09-20 Nec Laboratories America, Inc. Learning efficient object detection models with knowledge distillation
CN109376786A (zh) * 2018-10-31 2019-02-22 中国科学院深圳先进技术研究院 一种图像分类方法、装置、终端设备及可读存储介质

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180268292A1 (en) * 2017-03-17 2018-09-20 Nec Laboratories America, Inc. Learning efficient object detection models with knowledge distillation
CN108416370A (zh) * 2018-02-07 2018-08-17 深圳大学 基于半监督深度学习的图像分类方法、装置和存储介质
CN109376786A (zh) * 2018-10-31 2019-02-22 中国科学院深圳先进技术研究院 一种图像分类方法、装置、终端设备及可读存储介质

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
GEOFFREY HINTON等: "Distilling the knowledge in a neural network", 《HTTP://ARXIV.ORG/ABS/1503.02531》 *
YUNCHENG LI等: "Learning from Noisy Labels with Distillation", 《HTTP://ARXIV:1703.02391V2》 *

Cited By (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110598603A (zh) * 2019-09-02 2019-12-20 深圳力维智联技术有限公司 人脸识别模型获取方法、装置、设备和介质
CN110751170A (zh) * 2019-09-06 2020-02-04 武汉精立电子技术有限公司 面板质量检测方法、系统、终端设备及计算机可读介质
CN110610310A (zh) * 2019-09-10 2019-12-24 北京字节跳动网络技术有限公司 一种教学考核的方法、装置、介质和电子设备
CN110674880A (zh) * 2019-09-27 2020-01-10 北京迈格威科技有限公司 用于知识蒸馏的网络训练方法、装置、介质与电子设备
CN110674880B (zh) * 2019-09-27 2022-11-11 北京迈格威科技有限公司 用于知识蒸馏的网络训练方法、装置、介质与电子设备
CN110929785B (zh) * 2019-11-21 2023-12-05 中国科学院深圳先进技术研究院 数据分类方法、装置、终端设备及可读存储介质
CN110929785A (zh) * 2019-11-21 2020-03-27 中国科学院深圳先进技术研究院 数据分类方法、装置、终端设备及可读存储介质
CN111079406A (zh) * 2019-12-13 2020-04-28 华中科技大学 自然语言处理模型训练方法、任务执行方法、设备及系统
CN111145026A (zh) * 2019-12-30 2020-05-12 第四范式(北京)技术有限公司 一种反洗钱模型的训练方法及装置
CN111145026B (zh) * 2019-12-30 2023-05-09 第四范式(北京)技术有限公司 一种反洗钱模型的训练方法及装置
WO2021140426A1 (en) * 2020-01-09 2021-07-15 International Business Machines Corporation Uncertainty guided semi-supervised neural network training for image classification
US11386298B2 (en) 2020-01-09 2022-07-12 International Business Machines Corporation Uncertainty guided semi-supervised neural network training for image classification
CN111291823B (zh) * 2020-02-24 2023-08-18 腾讯科技(深圳)有限公司 分类模型的融合方法、装置、电子设备及存储介质
CN111291823A (zh) * 2020-02-24 2020-06-16 腾讯科技(深圳)有限公司 分类模型的融合方法、装置、电子设备及存储介质
CN111507378A (zh) * 2020-03-24 2020-08-07 华为技术有限公司 训练图像处理模型的方法和装置
WO2021190451A1 (zh) * 2020-03-24 2021-09-30 华为技术有限公司 训练图像处理模型的方法和装置
CN111475797B (zh) * 2020-03-26 2023-09-29 深圳先进技术研究院 一种对抗图像生成方法、装置、设备以及可读存储介质
CN111475797A (zh) * 2020-03-26 2020-07-31 深圳先进技术研究院 一种对抗图像生成方法、装置、设备以及可读存储介质
CN111488873B (zh) * 2020-04-03 2023-10-24 中国科学院深圳先进技术研究院 一种基于弱监督学习的字符级场景文字检测方法和装置
CN111488873A (zh) * 2020-04-03 2020-08-04 中国科学院深圳先进技术研究院 一种基于弱监督学习的字符级场景文字检测方法和装置
CN111598160A (zh) * 2020-05-14 2020-08-28 腾讯科技(深圳)有限公司 图像分类模型的训练方法、装置、计算机设备及存储介质
CN111598160B (zh) * 2020-05-14 2023-04-07 腾讯科技(深圳)有限公司 图像分类模型的训练方法、装置、计算机设备及存储介质
WO2021258481A1 (zh) * 2020-06-24 2021-12-30 五邑大学 基于多任务与弱监督的美丽预测方法、装置及存储介质
CN111832436B (zh) * 2020-06-24 2023-06-16 五邑大学 基于多任务与弱监督的美丽预测方法、装置及存储介质
CN111832436A (zh) * 2020-06-24 2020-10-27 五邑大学 基于多任务与弱监督的美丽预测方法、装置及存储介质
US11721128B2 (en) 2020-06-24 2023-08-08 Wuyi University Beauty prediction method and device based on multitasking and weak supervision, and storage medium
CN112347476B (zh) * 2020-11-13 2024-02-02 脸萌有限公司 数据保护方法、装置、介质及设备
CN112347476A (zh) * 2020-11-13 2021-02-09 脸萌有限公司 数据保护方法、装置、介质及设备
CN112257855A (zh) * 2020-11-26 2021-01-22 Oppo(重庆)智能科技有限公司 一种神经网络的训练方法及装置、电子设备及存储介质
CN112257855B (zh) * 2020-11-26 2022-08-16 Oppo(重庆)智能科技有限公司 一种神经网络的训练方法及装置、电子设备及存储介质
CN112528109A (zh) * 2020-12-01 2021-03-19 中科讯飞互联(北京)信息科技有限公司 一种数据分类方法、装置、设备及存储介质
CN112528109B (zh) * 2020-12-01 2023-10-27 科大讯飞(北京)有限公司 一种数据分类方法、装置、设备及存储介质
CN112784677A (zh) * 2020-12-04 2021-05-11 上海芯翌智能科技有限公司 模型训练方法及装置、存储介质、计算设备
CN113239985A (zh) * 2021-04-25 2021-08-10 北京航空航天大学 一种面向分布式小规模医疗数据集的分类检测方法
CN114170461A (zh) * 2021-12-02 2022-03-11 匀熵教育科技(无锡)有限公司 基于特征空间重整化的师生架构含噪声标签图像分类方法
CN114170461B (zh) * 2021-12-02 2024-02-27 匀熵智能科技(无锡)有限公司 基于特征空间重整化的师生架构含噪声标签图像分类方法
CN114529889A (zh) * 2022-01-28 2022-05-24 燕山大学 一种分心驾驶行为识别方法、装置及存储介质
CN115829980A (zh) * 2022-12-13 2023-03-21 深圳核韬科技有限公司 一种眼底照片的图像识别方法、装置、设备及存储介质
CN116030323A (zh) * 2023-03-27 2023-04-28 阿里巴巴(中国)有限公司 图像处理方法以及装置
CN116030323B (zh) * 2023-03-27 2023-08-29 阿里巴巴(中国)有限公司 图像处理方法以及装置

Also Published As

Publication number Publication date
CN110147456B (zh) 2023-01-24

Similar Documents

Publication Publication Date Title
CN110147456A (zh) 一种图像分类方法、装置、可读存储介质及终端设备
US11386353B2 (en) Method and apparatus for training classification model, and method and apparatus for classifying data
CN106022237B (zh) 一种端到端的卷积神经网络的行人检测方法
CN111160474A (zh) 一种基于深度课程学习的图像识别方法
CN109902222A (zh) 一种推荐方法及装置
CN109754068A (zh) 基于深度学习预训练模型的迁移学习方法及终端设备
CN104462066A (zh) 语义角色标注方法及装置
CN107066445A (zh) 一种属性情感词向量的深度学习方法
CN109918642A (zh) 基于委员会查询的主动学习框架的情感分析方法及系统
CN110288007A (zh) 数据标注的方法、装置及电子设备
WO2019053052A1 (en) METHOD FOR (RE-) TRAINING MACHINE LEARNING COMPONENT
CN107274029A (zh) 一种利用动态场景内交互作用介质的未来预测方法
CN111160606B (zh) 试题难度预测方法及相关装置
CN107748898A (zh) 文件分类方法、装置、计算设备及计算机存储介质
CN115187772A (zh) 目标检测网络的训练及目标检测方法、装置及设备
CN111754370B (zh) 一种基于人工智能的在线教育课程管理方法及系统
CN112733552A (zh) 机器翻译模型构建方法、装置以及设备
KR102072757B1 (ko) 딥 러닝을 이용한 이종 센서 정보 융합 장치 및 방법
CN116304089A (zh) 一种融合权重与时态信息的知识图谱补全方法
CN113312445B (zh) 数据处理方法、模型构建方法、分类方法及计算设备
CN113255701B (zh) 一种基于绝对-相对学习架构的小样本学习方法和系统
CN115438658A (zh) 一种实体识别方法、识别模型的训练方法和相关装置
CN107992482A (zh) 数学主观题解答步骤的规约方法及系统
CN107704580A (zh) 基于用户时期的问答推送方法、装置、服务器及存储介质
CN114358579A (zh) 评阅方法、评阅装置、电子设备以及计算机可读存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant