CN113298152A - 模型训练方法、装置、终端设备及计算机可读存储介质 - Google Patents

模型训练方法、装置、终端设备及计算机可读存储介质 Download PDF

Info

Publication number
CN113298152A
CN113298152A CN202110578751.1A CN202110578751A CN113298152A CN 113298152 A CN113298152 A CN 113298152A CN 202110578751 A CN202110578751 A CN 202110578751A CN 113298152 A CN113298152 A CN 113298152A
Authority
CN
China
Prior art keywords
recognition model
model
loss value
training
label
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110578751.1A
Other languages
English (en)
Other versions
CN113298152B (zh
Inventor
林灿然
程骏
郭渺辰
邵池
庞建新
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ubtech Robotics Corp
Original Assignee
Ubtech Robotics Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ubtech Robotics Corp filed Critical Ubtech Robotics Corp
Priority to CN202110578751.1A priority Critical patent/CN113298152B/zh
Publication of CN113298152A publication Critical patent/CN113298152A/zh
Application granted granted Critical
Publication of CN113298152B publication Critical patent/CN113298152B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Analysis (AREA)

Abstract

本申请适用于图像处理技术领域,提供了一种模型训练方法、装置、终端设备及计算机可读存储介质,包括:获取训练图像的真实标签;根据预先训练后的第一识别模型获取所述训练图像的参考标签;由所述真实标签辅助所述参考标签,对待训练的第二识别模型进行迭代训练,获得训练后的所述第二识别模型,其中,所述第二识别模型的模型复杂度小于所述第一识别模型的模型复杂度。通过上述方法,训练得到的第二识别模型不仅图像识别精度较高,且模型复杂度较低,有效提高了图像识别方法的适用性。

Description

模型训练方法、装置、终端设备及计算机可读存储介质
技术领域
本申请属于图像处理技术领域,尤其涉及一种模型训练方法、装置、终端设备及计算机可读存储介质。
背景技术
随着图像处理技术的发展,对图像识别精度的要求也在逐渐提高。基于深度学习的图像识别方法因其数据处理速度快、识别精度高,而成为主流的图像识别方法。
现有的基于深度学习的图像识别方法中,为了实现较高的识别精度,需要构建模型复杂度较高的图像识别模型。而这样的模型往往需要运行在具有较大存储空间的终端设备上,很大程度上限制了图像识别的适用范围。因此,如何利用模型复杂度较低的图像识别模型实现较高的识别精度,是亟需解决的问题。
发明内容
本申请实施例提供了一种模型训练方法、装置、终端设备及计算机可读存储介质,能够训练得到图像识别精度较高、且模型复杂度较低的图像识别模型。
第一方面,本申请实施例提供了一种模型训练方法,包括:
获取训练图像的真实标签;
根据预先训练后的第一识别模型获取所述训练图像的参考标签;
由所述真实标签辅助所述参考标签,对待训练的第二识别模型进行迭代训练,获得训练后的所述第二识别模型,其中,所述第二识别模型的模型复杂度小于所述第一识别模型的模型复杂度。
在本申请实施例中,通过预先训练后的第一识别模型对第二识别模型进行训练,即利用模型复杂度较高的第一识别模型引导模型复杂度较低的第二识别模型学习相关特征,相当于将大而笨重的模型预先学习到的“知识”转移给小型模型;但由于第一识别模型识别出的参考标签与真实标签之间可能仍存在一定偏差,本申请实施例中,利用真实标签辅助训练第二识别模型,以纠正可能存在的偏差,进一步提高了第二识别模型的训练精度。通过上述方法,训练得到的第二识别模型不仅图像识别精度较高,且模型复杂度较低。
在第一方面的一种可能的实现方式中,在由所述真实标签辅助所述参考标签,对待训练的第二识别模型进行迭代训练,获得训练后的所述第二识别模型的步骤中,每一次迭代训练的过程包括:
根据所述第二识别模型获取所述训练图像的识别标签;
由所述真实标签辅助计算所述参考标签和所述识别标签之间的第一损失值;
根据所述第一损失值更新所述第二识别模型。
在第一方面的一种可能的实现方式中,所述由所述真实标签辅助计算所述参考标签和所述识别标签之间的第一损失值,包括:
计算所述参考标签和所述识别标签之间的第二损失值;
根据所述真实标签调整所述第二损失值,得到调整后的所述第二损失值;
将调整后的所述第二损失值确定为所述第一损失值。
在第一方面的一种可能的实现方式中,所述根据所述真实标签调整所述第二损失值,得到调整后的所述第二损失值,包括:
计算所述真实标签和所述识别标签之间的第三损失值;
将所述第二损失值和所述第三损失值加权求和,得到调整后的所述第二损失值。
在第一方面的一种可能的实现方式中,所述根据所述第一损失值更新所述第二识别模型,包括:
获取第一特征数据和第二特征数据,其中,所述第一特征数据为由所述第一识别模型提取出的所述训练图像的特征数据,所述第二特征数据为由所述第二识别模型提取出的所述训练图像的特征数据;
根据第三识别模型计算所述第一特征数据和所述第二特征数据之间的相似度;
根据所述第一损失值和所述相似度更新所述第二识别模型。
在第一方面的一种可能的实现方式中,所述根据第三识别模型计算所述第一特征数据和所述第二特征数据之间的相似度,包括:
将所述第一特征数据输入到所述第三识别模型中,得到第三特征数据;
将所述第二特征数据输入到所述第三识别模型中,得到第四特征数据;
计算所述第三特征数据和所述第四特征数据之间的相似度。
在第一方面的一种可能的实现方式中,所述根据所述第一损失值和所述相似度更新所述第二识别模型,包括:
根据所述第一损失值更新所述第二识别模型;
根据所述相似度再次更新所述第二识别模型;
根据所述相似度更新所述第三识别模型。
第二方面,本申请实施例提供了一种模型训练装置,包括:
标签获取单元,用于获取训练图像的真实标签;
标签识别单元,用于根据训练后的第一识别模型获取所述训练图像的第一识别标签;
模型训练单元,用于根据所述真实标签和所述第一识别标签迭代训练第二识别模型,获得训练后的所述第二识别模型,其中,所述第二识别模型的模型复杂度小于所述第一识别模型的模型复杂度。
第三方面,本申请实施例提供了一种终端设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如上述第一方面中任一项所述的模型训练方法。
第四方面,本申请实施例提供了一种计算机可读存储介质,本申请实施例提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如上述第一方面中任一项所述的模型训练方法。
第五方面,本申请实施例提供了一种计算机程序产品,当计算机程序产品在终端设备上运行时,使得终端设备执行上述第一方面中任一项所述的模型训练方法。
可以理解的是,上述第二方面至第五方面的有益效果可以参见上述第一方面中的相关描述,在此不再赘述。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1是本申请实施例提供的模型训练方法的流程示意图;
图2是本申请实施例提供的一次迭代训练的流程示意图;
图3是本申请实施例提供的模型训练的示意图;
图4是本申请实施例提供的模型训练装置的结构框图;
图5是本申请实施例提供的终端设备的结构示意图。
具体实施方式
以下描述中,为了说明而不是为了限定,提出了诸如特定系统结构、技术之类的具体细节,以便透彻理解本申请实施例。然而,本领域的技术人员应当清楚,在没有这些具体细节的其它实施例中也可以实现本申请。在其它情况中,省略对众所周知的系统、装置、电路以及方法的详细说明,以免不必要的细节妨碍本申请的描述。
应当理解,当在本申请说明书和所附权利要求书中使用时,术语“包括”指示所描述特征、整体、步骤、操作、元素和/或组件的存在,但并不排除一个或多个其它特征、整体、步骤、操作、元素、组件和/或其集合的存在或添加。
另外,在本申请说明书和所附权利要求书的描述中,术语“第一”、“第二”、“第三”等仅用于区分描述,而不能理解为指示或暗示相对重要性。
在本申请说明书中描述的参考“一个实施例”或“一些实施例”等意味着在本申请的一个或多个实施例中包括结合该实施例描述的特定特征、结构或特点。由此,在本说明书中的不同之处出现的语句“在一个实施例中”、“在一些实施例中”、“在其他一些实施例中”、“在另外一些实施例中”等不是必然都参考相同的实施例,而是意味着“一个或多个但不是所有的实施例”,除非是以其他方式另外特别强调。
图像处理技术近些年来发展迅速,其应用范围也随之广泛,如常用于人机交互、模式识别等领域。以人机交互中的人体姿态估计为例,在交互过程中,用户可以做出一些动作;机器人获取人物的动作图像后,需要进行图像识别,以此来估计人物的姿态,从而判断人物的行为,进而根据识别出的行为执行相应的操作。通过人机交互,用户可以通过自身的行为姿态控制机器人。
上述示例中图像处理的主要应用为人体姿态估计。现有的人体姿态估计方法通常采用关键点回归,即通过识别图像中的人体关键点来估计人体姿态。一般有两种思路:第一种是直接回归,即直接根据标签的坐标值去回归每个关键点的坐标值。这种方法简单直接、速度快,但缺点是过于简单,会缺少一些图像语义的信息。当关键点之间间隔较远、同时变化幅度较大时,该方法通常会带来较大的误差。第二种是热力图,其衡量关键点在图像某位置出现的置信度,由一系列二维的点组成,每个点表示关键点出现在该位置的置信度,关键点最终位置定义为置信度最高的位置。这种方法充分利用了图像信息,精度高,但提取热力图时间比直接回归慢。
上述的关键点回归方法均需要预先训练识别模型。现有技术中,为了提高模型的识别精度,通常需要构建模型复杂度较高的图像识别模型。但是这种模型所需的运行存储空间往往较大,无法部署在小型的、便携的边缘端设备上,很大程度上限制了图像识别的适用范围。因此,如何利用模型复杂度较低的图像识别模型实现较高的识别精度,是亟需解决的问题。本申请实施例提供了一种模型训练方法,能够训练得到图像识别精度较高、且模型复杂度较低的图像识别模型,进而提高图像识别的适用范围。
下面介绍图像识别过程中的模型训练过程。参见图1,是本申请实施例提供的模型训练方法的流程示意图,作为示例而非限定,所述方法可以包括以下步骤:
S101,获取训练图像的真实标签。
在实际应用中,可以预先建立数据库,在数据库中存储大量的图像,并且预先对这些图像进行人工标注,得到图像的真实标签。在训练过程中,可以从数据库中随机选取一张或多张图像,这些图像即可作为训练图像。本申请实施例中可以有一张训练图像,也可以有多张训练图像。当存在多张训练图像时,后续的训练过程中是指对每一张训练图像进行处理的过程。
S102,根据预先训练后的第一识别模型获取训练图像的参考标签。
第一识别模型为模型复杂度较高的识别模型,如堆叠了很多层的Hourglass网络。第二识别模型的模型复杂度小于第一识别模型的模型复杂度,第二识别模型可以是与第一识别模型结构相近、但体量较小的模型,如层数较少的Hourglass网络。
本申请实施例中的模型复杂度包括时间复杂度和空间复杂度。当然,通常情况下,模型的空间复杂度越高,相应的其时间复杂度也越高。本实施例中所述的模型复杂度较高是一个相对概念,是指第一识别模型与第二识别模型相比,网络层数较多、运算复杂度较高、所需运算时间相对较长。
S103,由真实标签辅助参考标签,对待训练的第二识别模型进行迭代训练,获得训练后的第二识别模型。
预先训练后的第一识别模型满足一定的识别精度,其识别出的训练图像的参考标签在一定程度上接近训练图像的真实标签。但参考标签与真实标签之间仍可能存在一定偏差,本申请实施例中,根据第一识别模型训练第二识别模型的过程中,利用真实标签监督学习,以纠正可能存在的偏差,进一步提高了第二识别模型的训练精度。通过上述方法,训练得到的第二识别模型不仅图像识别精度较高,且模型复杂度较低。
在一个实施例中,参见图2,是本申请实施例提供的一次迭代训练的流程示意图。如图2所示,每一次迭代训练的过程包括:
S201,根据第二识别模型获取训练图像的识别标签。
将训练图像输入到第二识别模型中,输出训练图像的识别标签。
本申请实施例中,当识别模型包括特征提取网络和分类网络时,模型输出的参考标签/识别标签指训练图像所属类别对应的类别信息,例如,参考标签/识别标签“1”指训练图像所属类别为猫,参考标签/识别标签“2”指训练图像所属类别为狗。当识别模型包括特征提取网络、而不包括分类网络时,识别模型输出的参考标签/识别标签指提取出的训练图像的特征信息,如训练图像的特征向量。
S202,由真实标签辅助计算参考标签和识别标签之间的第一损失值。
需要说明的是,由于真实标签为人工标注的,因此,真实标签通常指图像所属类别对应的类别信息。如S201中所述,计算损失值可以分为以下两种情况:
第一种情况,参考标签/识别标签指训练图像所属类别对应的类别信息。
此种情况下,计算真实标签、参考标签和识别标签两两标签之间的损失值。
例如:假设真实标签为“3”,参考标签为数字“1”,识别标签为数字“2”,那么计算参考标签和识别标签之间的损失值是指,计算数字1和2之间的损失值;计算真实标签和识别标签之间的损失值是指,计算数字3和2之间的损失值。
第二种情况,参考标签/识别标签指训练图像的特征信息。
此种情况下,计算参考标签和识别标签之间的损失值可以包括:计算参考标签表示的特征信息和识别标签表示的特征信息之间的损失值。例如:参考标签表示的特征信息为特征向量x,识别标签表示的特征信息为特征向量y,计算特征向量x和y之间的损失值。计算参考标签和识别标签之间的损失值还可以包括:将参考标签表示的特征信息输入到预设的分类网络中,输出对应的类别信息;将识别标签表示的特征信息输入到预设的分类网络中,输出对应的类别信息;然后再计算两个类别信息之间的损失值。例如:将参考标签表示的特征向量x输入到分类网络softmax中,输出类别信息为数字“1”;将识别标签表示的特征向量y输入到分类网络softmax中,输出类别信息为数字“2”;然后计算数字1和2之间的损失值。
而此时,计算真实标签与识别标签之间的损失值可以包括:将识别标签表示的特征信息输入到预设的分类网络中,输出对应的类别信息;然后计算真实标签表示的类别信息和识别标签表示的类别信息之间的损失值。例如:假设真实标签为“3”,将识别标签表示的特征向量y输入到分类网络softmax中,输出类别信息为数字“2”,然后计算数字3和2之间的损失值。
可选的,第一损失值的计算方式可以包括:
计算参考标签和识别标签之间的第二损失值;根据真实标签调整第二损失值,得到调整后的第二损失值;将调整后的第二损失值确定为第一损失值。
通过真实标签对第二损失值进行调整,即利用真实标签纠正损失偏差,相当于通过真实标签监督训练,有效提高了训练精度。
进一步的,根据真实标签调整第二损失值的一种实现方式为:
计算真实标签和识别标签之间的第三损失值;将第二损失值和第三损失值相加,得到调整后的第二损失值。
现有技术中,第二识别模型可以仅利用真实标签进行学习,但由于第二识别模型的模型复杂度较低,如果仅利用真实标签进行学习,训练难度较高,且往往达不到较高的训练精度。为了解决该问题,本申请实施例中引入预先训练后的第一识别模型,即令第二识别模型根据接近真实标签的参考标签进行训练,有效降低了训练难度。再由真实标签对训练中产生的偏差进行微调,从而实现降低训练难度、同时提高训练精度的目的。
上述实现方式中,第二损失值和第三损失值的权重相同,即参考标签和真实标签对识别标签的影响因子相同,这种情况下,真实标签对损失偏差的调整量较大,增加了训练难度,这违背了上述的训练目的。
为了解决上述问题,根据真实标签调整第二损失值的另一种实现方式为:
计算真实标签和识别标签之间的第三损失值;将第二损失值和第三损失值加权求和,得到调整后的第二损失值。
通过为第二损失值和第三损失值分配不同的权值,可以调节真实标签对识别标签的影响程度,进而达到调节训练难度的目的。
示例性的,可以通过以下公式计算调整后的第二损失值:
label_loss=α×loss2+(1-α)loss1
其中,label_loss表示调整后的第二损失值,loss1表示第三损失值,loss2表示调整前的第二损失值,α为权重。
本申请实施例中,可以利用损失函数计算损失值。例如,计算真实标签和识别标签之间的损失值时,将真实标签和识别标签作为损失函数中的自变量,输出的因变量即为计算真实标签和识别标签之间的损失值。
可选的,损失函数可以采用均方差损失函数、交叉熵损失函数、对数似然损失函数等等。根据实际需要选取,在此不做具体限定。另外,计算第二损失值和第三损失值时所采用的损失函数可以相同,也可以不同。但为了保证一致性,通常采用相同的损失函数。
S203,根据第一损失值更新第二识别模型。
上述步骤中,相当于采用知识蒸馏的思想,利用第一识别模型对第二识别模型进行由于信息的传递。但由于第一识别模型也是通过训练得到的,其识别精度无法达到100%,也会存在识别偏差。虽然上述步骤中,可以利用真实标签监督学习,但是当训练图像的数量较少时,训练精度仍无法保障。
为了进一步提高训练精度,可选的,本申请实施例中采用生成对抗思想对第二识别模型进行训练。具体的,S203的一种实现方式可以是:
获取第一特征数据和第二特征数据;根据第三识别模型计算第一特征数据和第二特征数据之间的相似度;根据第一损失值和相似度更新第二识别模型。
其中,第一特征数据为由第一识别模型提取出的训练图像的特征数据,第二特征数据为由第二识别模型提取出的训练图像的特征数据。
在生成对抗网络中存在生成器和判别器。生成器用于生成逼真的样本,判别器用于鉴别真实数据和生成数据。在训练过程中,生成器能够生成越来越逼真的样本,而判别器能够越来越准确地鉴别真假。通过这种对抗训练,来实现利用少量训练图像达到较高训练精度的目的。
本申请实施例中的第二识别模型可以看作是生成对抗网络中的生成器,第三识别模型可以看作是生成对抗网络中的判别器。
可选的,第一特征数据和第二特征数据之间的相似度的计算方式可以为:
将第一特征数据输入到第三识别模型中,得到第三特征数据;将第二特征数据输入到第三识别模型中,得到第四特征数据;计算第三特征数据和第四特征数据之间的相似度。
这里的相似度可以是损失值,如通过均方差损失函数计算第三特征数据和第四特征数据之间的损失值,将该损失值作为相似度。相似度也可以是两种数据之间的距离,如计算第三特征数据和第四特征数据之间的欧氏距离或余弦相似度等。
优选的,可以采用现有的生成对抗网络WGAN-gp中判别器的损失函数推土机损失函数(Wasserstein distance loss)来计算相似度。
由于生成对抗部分的优化器(即采用的损失函数)与知识蒸馏部分优化器不同,所以本申请实施例中不将调整后的第二损失值与相似度结合,而是各自单独梯度回传,作用在优化器上来更新第二识别模型和第三识别模型的参数,即整后的第二损失值更新第二识别模型,相似度更新第二识别模型和第三识别模型。具体的,根据第一损失值和相似度更新第二识别模型的实现方式有以下几种。
I.根据相似度更新第二识别模型;根据第一损失值再次更新第二识别模型;根据相似度更新第三识别模型。
II.根据第一损失值更新第二识别模型;根据相似度再次更新第二识别模型;根据相似度更新第三识别模型。
III.根据第一损失值和相似度更新第二识别模型;根据相似度更新第三识别模型。
在方式I和II中,根据相似度和第一损失值先后分别更新第二识别模型,即每次迭代训练过程中,第二识别模型更新两次。在方式III中,总和考虑相似度和第一损失值,只更新一次第二识别模型。相比可知,每次迭代过程中更新两次第二识别模型,更有利于提高训练精度。
更新的过程,可以通过梯度回传的方式,反向一层一层地更新第二识别模型中的每一层的模型参数。
S204,判断是否达到预设的迭代条件。
S205,若达到,则停止训练。当前的第二识别模型记为训练后的第二识别模型。
S206,若未达到,则将训练图像输入到更新后的第二识别模型中,继续下一次迭代训练。
其中,预设的迭代条件可以为达到预设的迭代次数,或者达到预设的识别精度。
由于第二识别模型的模型复杂度较低,其运行所需的存储空间较少,因此,可以将训练后的第二识别模型部署在存储空间较小、数据处理能力较弱的终端设备(如手机、笔记本电脑等)中。在应用时,将待识别图像输入到训练后的第二识别模型中,即可获得识别标签。
示例性的,参见图3,是本申请实施例提供的模型训练的示意图。如图3所示,将训练图像分别输入到第一识别模型和第二识别模型,得到第一特征数据(对应参考标签)和第二特征数据(对应识别标签)。根据第一特征数据和第二特征数据计算参考标签和识别标签之间的第二损失值。获取训练图像的真实标签,根据第二特征数据计算真实标签与识别标签之间的第三损失值,然后根据第二损失值和第三损失值确定调整后的第二损失值(即第一损失值)。根据第一损失值更新第二识别模型。之后,将第一特征数据和第二特征数据分别输入第三识别模型,获得第三特征数据和第四特征数据。计算第三特征数据和第四特征数据之间的相似度;然后根据相似度分别更新第二识别模型和第三识别模型。更新后,判断是否达到预设的迭代条件;若达到,则停止训练;若未达到,则将训练图像输入到更新后的第二识别模型中,继续下一次迭代训练。
在本申请实施例中,利用模型复杂度较高的第一识别模型引导模型复杂度较低的第二识别模型学习相关特征,相当于将大而笨重的模型预先学习到的“知识”转移给小型模型;同时利用真实标签辅助训练第二识别模型,以纠正可能存在的偏差,进一步提高了第二识别模型的训练精度。进一步的,根据第三识别模型和第二识别模型形成生成对抗网络,通过生成对抗训练,进一步提高训练精度。通过上述方法,训练得到的第二识别模型不仅图像识别精度较高,且模型复杂度较低。
应理解,上述实施例中各步骤的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本申请实施例的实施过程构成任何限定。
对应于上文实施例所述的模型训练方法,图4是本申请实施例提供的模型训练装置的结构框图,为了便于说明,仅示出了与本申请实施例相关的部分。
参照图4,该装置包括:
标签获取单元41,用于获取训练图像的真实标签。
标签识别单元42,用于根据训练后的第一识别模型获取所述训练图像的第一识别标签。
模型训练单元43,用于根据所述真实标签和所述第一识别标签迭代训练第二识别模型,获得训练后的所述第二识别模型,其中,所述第二识别模型的模型复杂度小于所述第一识别模型的模型复杂度。
可选的,模型训练单元43包括:
识别模块,用于根据所述第二识别模型获取所述训练图像的识别标签。
计算模块,用于由所述真实标签辅助计算所述参考标签和所述识别标签之间的第一损失值。
更新模块,用于根据所述第一损失值更新所述第二识别模型。
可选的,计算模块还用于:
计算所述参考标签和所述识别标签之间的第二损失值;根据所述真实标签调整所述第二损失值,得到调整后的所述第二损失值;将调整后的所述第二损失值确定为所述第一损失值。
可选的,计算模块还用于:
计算所述真实标签和所述识别标签之间的第三损失值;将所述第二损失值和所述第三损失值加权求和,得到调整后的所述第二损失值。
可选的,更新模块还用于:
获取第一特征数据和第二特征数据,其中,所述第一特征数据为由所述第一识别模型提取出的所述训练图像的特征数据,所述第二特征数据为由所述第二识别模型提取出的所述训练图像的特征数据;根据第三识别模型计算所述第一特征数据和所述第二特征数据之间的相似度;根据所述第一损失值和所述相似度更新所述第二识别模型。
可选的,更新模块还用于:
将所述第一特征数据输入到所述第三识别模型中,得到第三特征数据;将所述第二特征数据输入到所述第三识别模型中,得到第四特征数据;计算所述第三特征数据和所述第四特征数据之间的相似度。
可选的,更新模块还用于:
根据所述第一损失值更新所述第二识别模型;根据所述相似度再次更新所述第二识别模型;根据所述相似度更新所述第三识别模型。
需要说明的是,上述装置/单元之间的信息交互、执行过程等内容,由于与本申请方法实施例基于同一构思,其具体功能及带来的技术效果,具体可参见方法实施例部分,此处不再赘述。
另外,图4所示的模型训练装置可以是内置于现有的终端设备内的软件单元、硬件单元、或软硬结合的单元,也可以作为独立的挂件集成到所述终端设备中,还可以作为独立的终端设备存在。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将所述装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。实施例中的各功能单元、模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中,上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。另外,各功能单元、模块的具体名称也只是为了便于相互区分,并不用于限制本申请的保护范围。上述系统中单元、模块的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
图5是本申请实施例提供的终端设备的结构示意图。如图5所示,该实施例的终端设备5包括:至少一个处理器50(图5中仅示出一个)处理器、存储器51以及存储在所述存储器51中并可在所述至少一个处理器50上运行的计算机程序52,所述处理器50执行所述计算机程序52时实现上述任意各个模型训练方法实施例中的步骤。
所述终端设备可以是桌上型计算机、笔记本、掌上电脑及云端服务器等计算设备。该终端设备可包括,但不仅限于,处理器、存储器。本领域技术人员可以理解,图5仅仅是终端设备5的举例,并不构成对终端设备5的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件,例如还可以包括输入输出设备、网络接入设备等。
所称处理器50可以是中央处理单元(Central Processing Unit,CPU),该处理器50还可以是其他通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现成可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
所述存储器51在一些实施例中可以是所述终端设备5的内部存储单元,例如终端设备5的硬盘或内存。所述存储器51在另一些实施例中也可以是所述终端设备5的外部存储设备,例如所述终端设备5上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)等。进一步地,所述存储器51还可以既包括所述终端设备5的内部存储单元也包括外部存储设备。所述存储器51用于存储操作系统、应用程序、引导装载程序(Boot Loader)、数据以及其他程序等,例如所述计算机程序的程序代码等。所述存储器51还可以用于暂时地存储已经输出或者将要输出的数据。
本申请实施例还提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现可实现上述各个方法实施例中的步骤。
本申请实施例提供了一种计算机程序产品,当计算机程序产品在终端设备上运行时,使得终端设备执行时实现可实现上述各个方法实施例中的步骤。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请实现上述实施例方法中的全部或部分流程,可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一计算机可读存储介质中,该计算机程序在被处理器执行时,可实现上述各个方法实施例的步骤。其中,所述计算机程序包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质至少可以包括:能够将计算机程序代码携带到装置/终端设备的任何实体或装置、记录介质、计算机存储器、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random AccessMemory)、电载波信号、电信信号以及软件分发介质。例如U盘、移动硬盘、磁碟或者光盘等。在某些司法管辖区,根据立法和专利实践,计算机可读介质不可以是电载波信号和电信信号。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述或记载的部分,可以参见其它实施例的相关描述。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
在本申请所提供的实施例中,应该理解到,所揭露的装置/终端设备和方法,可以通过其它的方式实现。例如,以上所描述的装置/终端设备实施例仅仅是示意性的,例如,所述模块或单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通讯连接可以是通过一些接口,装置或单元的间接耦合或通讯连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
以上所述实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的精神和范围,均应包含在本申请的保护范围之内。

Claims (10)

1.一种模型训练方法,其特征在于,包括:
获取训练图像的真实标签;
根据预先训练后的第一识别模型获取所述训练图像的参考标签;
由所述真实标签辅助所述参考标签,对待训练的第二识别模型进行迭代训练,获得训练后的所述第二识别模型,其中,所述第二识别模型的模型复杂度小于所述第一识别模型的模型复杂度。
2.如权利要求1所述的模型训练方法,其特征在于,在由所述真实标签辅助所述参考标签,对待训练的第二识别模型进行迭代训练,获得训练后的所述第二识别模型的步骤中,每一次迭代训练的过程包括:
根据所述第二识别模型获取所述训练图像的识别标签;
由所述真实标签辅助计算所述参考标签和所述识别标签之间的第一损失值;
根据所述第一损失值更新所述第二识别模型。
3.如权利要求2所述的模型训练方法,其特征在于,所述由所述真实标签辅助计算所述参考标签和所述识别标签之间的第一损失值,包括:
计算所述参考标签和所述识别标签之间的第二损失值;
根据所述真实标签调整所述第二损失值,得到调整后的所述第二损失值;
将调整后的所述第二损失值确定为所述第一损失值。
4.如权利要求2所述的模型训练方法,其特征在于,所述根据所述真实标签调整所述第二损失值,得到调整后的所述第二损失值,包括:
计算所述真实标签和所述识别标签之间的第三损失值;
将所述第二损失值和所述第三损失值加权求和,得到调整后的所述第二损失值。
5.如权利要求2所述的模型训练方法,其特征在于,所述根据所述第一损失值更新所述第二识别模型,包括:
获取第一特征数据和第二特征数据,其中,所述第一特征数据为由所述第一识别模型提取出的所述训练图像的特征数据,所述第二特征数据为由所述第二识别模型提取出的所述训练图像的特征数据;
根据第三识别模型计算所述第一特征数据和所述第二特征数据之间的相似度;
根据所述第一损失值和所述相似度更新所述第二识别模型。
6.如权利要求5所述的模型训练方法,其特征在于,所述根据第三识别模型计算所述第一特征数据和所述第二特征数据之间的相似度,包括:
将所述第一特征数据输入到所述第三识别模型中,得到第三特征数据;
将所述第二特征数据输入到所述第三识别模型中,得到第四特征数据;
计算所述第三特征数据和所述第四特征数据之间的相似度。
7.如权利要求6所述的模型训练方法,其特征在于,所述根据所述第一损失值和所述相似度更新所述第二识别模型,包括:
根据所述第一损失值更新所述第二识别模型;
根据所述相似度再次更新所述第二识别模型;
根据所述相似度更新所述第三识别模型。
8.一种模型训练装置,其特征在于,包括:
标签获取单元,用于获取训练图像的真实标签;
标签识别单元,用于根据训练后的第一识别模型获取所述训练图像的第一识别标签;
模型训练单元,用于根据所述真实标签和所述第一识别标签迭代训练第二识别模型,获得训练后的所述第二识别模型,其中,所述第二识别模型的模型复杂度小于所述第一识别模型的模型复杂度。
9.一种终端设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至7任一项所述的方法。
10.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至7任一项所述的方法。
CN202110578751.1A 2021-05-26 2021-05-26 模型训练方法、装置、终端设备及计算机可读存储介质 Active CN113298152B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110578751.1A CN113298152B (zh) 2021-05-26 2021-05-26 模型训练方法、装置、终端设备及计算机可读存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110578751.1A CN113298152B (zh) 2021-05-26 2021-05-26 模型训练方法、装置、终端设备及计算机可读存储介质

Publications (2)

Publication Number Publication Date
CN113298152A true CN113298152A (zh) 2021-08-24
CN113298152B CN113298152B (zh) 2023-12-19

Family

ID=77325177

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110578751.1A Active CN113298152B (zh) 2021-05-26 2021-05-26 模型训练方法、装置、终端设备及计算机可读存储介质

Country Status (1)

Country Link
CN (1) CN113298152B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114745157A (zh) * 2022-03-15 2022-07-12 尚蝉(浙江)科技有限公司 一种基于生成对抗网络的抵御网络流量侦察方法、系统、终端和存储介质
CN114782987A (zh) * 2022-03-28 2022-07-22 西南交通大学 一种基于深度相机监督的毫米波雷达姿态识别方法
CN115936980A (zh) * 2022-07-22 2023-04-07 北京字跳网络技术有限公司 一种图像处理方法、装置、电子设备及存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111353514A (zh) * 2018-12-20 2020-06-30 马上消费金融股份有限公司 模型训练方法、图像识别方法、装置及终端设备
CN112712005A (zh) * 2020-12-25 2021-04-27 深圳市优必选科技股份有限公司 识别模型的训练方法、目标识别方法及终端设备

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111353514A (zh) * 2018-12-20 2020-06-30 马上消费金融股份有限公司 模型训练方法、图像识别方法、装置及终端设备
CN112712005A (zh) * 2020-12-25 2021-04-27 深圳市优必选科技股份有限公司 识别模型的训练方法、目标识别方法及终端设备

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114745157A (zh) * 2022-03-15 2022-07-12 尚蝉(浙江)科技有限公司 一种基于生成对抗网络的抵御网络流量侦察方法、系统、终端和存储介质
CN114745157B (zh) * 2022-03-15 2024-02-13 尚蝉(浙江)科技有限公司 一种基于生成对抗网络的抵御网络流量侦察方法、系统、终端和存储介质
CN114782987A (zh) * 2022-03-28 2022-07-22 西南交通大学 一种基于深度相机监督的毫米波雷达姿态识别方法
CN114782987B (zh) * 2022-03-28 2023-06-20 西南交通大学 一种基于深度相机监督的毫米波雷达姿态识别方法
CN115936980A (zh) * 2022-07-22 2023-04-07 北京字跳网络技术有限公司 一种图像处理方法、装置、电子设备及存储介质
CN115936980B (zh) * 2022-07-22 2023-10-20 北京字跳网络技术有限公司 一种图像处理方法、装置、电子设备及存储介质

Also Published As

Publication number Publication date
CN113298152B (zh) 2023-12-19

Similar Documents

Publication Publication Date Title
CN109522942B (zh) 一种图像分类方法、装置、终端设备和存储介质
CN110020620B (zh) 一种大姿态下的人脸识别方法、装置及设备
Yi et al. ASSD: Attentive single shot multibox detector
CN111797893B (zh) 一种神经网络的训练方法、图像分类系统及相关设备
CN108846077B (zh) 问答文本的语义匹配方法、装置、介质及电子设备
US20180336453A1 (en) Domain specific language for generation of recurrent neural network architectures
CN113298152A (zh) 模型训练方法、装置、终端设备及计算机可读存储介质
US11651214B2 (en) Multimodal data learning method and device
US11568212B2 (en) Techniques for understanding how trained neural networks operate
Ding et al. Open-vocabulary universal image segmentation with maskclip
CN114139637B (zh) 多智能体信息融合方法、装置、电子设备及可读存储介质
CN115859302A (zh) 源代码漏洞检测方法、装置、设备及存储介质
CN114925320B (zh) 一种数据处理方法及相关装置
CN115238909A (zh) 一种基于联邦学习的数据价值评估方法及其相关设备
CN113609819B (zh) 标点符号确定模型及确定方法
Yang et al. Random subspace supervised descent method for regression problems in computer vision
CN113065634A (zh) 一种图像处理方法、神经网络的训练方法以及相关设备
CN117315758A (zh) 面部表情的检测方法、装置、电子设备及存储介质
CN111126049A (zh) 对象关系预测方法、装置、终端设备及可读存储介质
CN114241411B (zh) 基于目标检测的计数模型处理方法、装置及计算机设备
CN112132269B (zh) 模型处理方法、装置、设备及存储介质
CN113326825A (zh) 伪标签生成方法、装置、电子设备及存储介质
Loong et al. Image‐based structural analysis for education purposes: A proof‐of‐concept study
CN117593613B (zh) 多任务学习方法和装置、存储介质及电子设备
CN112989801B (zh) 一种序列标注方法、装置及设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant