CN111950656A - 图像识别模型生成方法、装置、计算机设备和存储介质 - Google Patents

图像识别模型生成方法、装置、计算机设备和存储介质 Download PDF

Info

Publication number
CN111950656A
CN111950656A CN202010862911.0A CN202010862911A CN111950656A CN 111950656 A CN111950656 A CN 111950656A CN 202010862911 A CN202010862911 A CN 202010862911A CN 111950656 A CN111950656 A CN 111950656A
Authority
CN
China
Prior art keywords
image
sample
sample image
recognition model
trained
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010862911.0A
Other languages
English (en)
Other versions
CN111950656B (zh
Inventor
崔洁全
刘枢
田倬韬
贾佳亚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Smartmore Technology Co Ltd
Original Assignee
Shenzhen Smartmore Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Smartmore Technology Co Ltd filed Critical Shenzhen Smartmore Technology Co Ltd
Priority to CN202010862911.0A priority Critical patent/CN111950656B/zh
Publication of CN111950656A publication Critical patent/CN111950656A/zh
Application granted granted Critical
Publication of CN111950656B publication Critical patent/CN111950656B/zh
Priority to JP2022564577A priority patent/JP7376731B2/ja
Priority to PCT/CN2021/106635 priority patent/WO2022042123A1/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent

Abstract

本申请涉及一种图像识别模型生成方法、装置、计算机设备和存储介质,包括:获取样本图像集;样本图像集包括图像数量依次递减的多个样本图像子集,多个样本图像子集均包含相同数量的图像类别;根据样本图像集,对待训练的图像识别模型进行训练,得到待训练的图像识别模型的损失值;待训练的图像识别模型包括多个分支神经网络;损失值包括目标分类损失值以及分类损失值,目标分类损失值为模型针对样本图像集的损失值,分类损失值为分支神经网络针对对应的样本图像子集的损失值;根据损失值调整模型参数,直至损失值低于预设阈值。本申请使得训练过程中图像数量较少的图像类别也能得到充分训练,提升了图像识别模型生成的效果。

Description

图像识别模型生成方法、装置、计算机设备和存储介质
技术领域
本申请涉及人工智能技术领域,特别是涉及一种图像识别模型生成方法、装置、计算机设备和存储介质。
背景技术
在深度学习中,图像识别技术已经取得了巨大的进展。但是这些进展的取得离不开大规模的数据集,例如ImageNet、COCO等。通常情况下,这些大规模的数据集是类别均衡的;但在现实场景下,我们所能获得的数据通常是遵循长尾分布,即小部分类别包含的图像数据很多,而大部分类别包含的图像数据较少。
利用这种符合长尾分布的数据对神经网络进行训练,得到的结果通常是神经网络能够很好对小部分包含图像数据较多的类别进行识别,而识别包含的图像数据较少的大部分类别的准确性较差;可见,在图像识别模型生成中若忽略这种长尾分布特性会使得图像识别模型的性能在实际使用中大打折扣。
因此,通过现有的图像识别模型生成方法,得到的图像识别模型的识别效果还较差。
发明内容
基于此,有必要针对上述技术问题,提供一种能够提升图像识别模型生成效果的图像识别模型生成方法、装置、计算机设备和存储介质。
一种图像识别模型生成方法,所述方法包括:
获取样本图像集;所述样本图像集包括图像数量依次递减的多个样本图像子集,所述多个样本图像子集均包含相同数量的图像类别;
根据所述样本图像集,对待训练的图像识别模型进行训练,得到所述待训练的图像识别模型的损失值;所述待训练的图像识别模型包括多个分支神经网络,每个分支神经网络用于对相应的图像进行识别;所述损失值包括目标分类损失值以及与各个所述分支神经网络对应的分类损失值,所述目标分类损失值为所述待训练的图像识别模型针对所述样本图像集的损失值,所述分类损失值为相应的分支神经网络针对与所述分支神经网络对应的样本图像子集的损失值;
根据所述损失值调整所述待训练的图像识别模型的模型参数,直至所述损失值低于预设阈值时,将所述待训练的图像识别模型作为训练完成的图像识别模型。
在其中一个实施例中,所述根据所述样本图像集,对待训练的图像识别模型进行训练,得到所述待训练的图像识别模型的损失值,包括:
对所述样本图像集中的多个所述样本图像子集进行均匀采样,得到样本图像输入序列;
根据所述样本图像输入序列,将样本图像输入所述待训练的图像识别模型,得到所述样本图像的图像类别;
根据所述样本图像的图像类别以及对应的实际图像类别,确定所述待训练的图像识别模型的损失值。
在其中一个实施例中,所述待训练的图像识别模型中还包括基础神经网络,所述基础神经网络与所述分支神经网络相连接;
所述根据所述样本图像输入序列,将样本图像输入所述待训练的图像识别模型,得到所述样本图像的图像类别,包括:
将所述样本图像输入所述待训练的图像识别模型,使得所述基础神经网络获取所述样本图像的第一图像特征,以及使得所述分支神经网络根据所述第一图像特征得到所述样本图像的第二图像特征,并根据所述第二图像特征确定所述样本图像集中样本图像的图像类别。
在其中一个实施例中,所述根据所述样本图像的图像类别以及对应的实际图像类别,确定所述待训练的图像识别模型的损失值,包括:
根据所述样本图像集中样本图像的图像类别以及对应的实际图像类别,确定所述样本图像集中样本图像的损失值;
根据多个所述分支神经网络确定出的所述样本图像集中样本图像的损失值,得到与所述样本图像集对应的损失值,并作为所述目标分类损失值;
获取与多个所述分支神经网络对应的样本图像子集中所有样本图像的损失值,将所述样本图像子集中所有样本图像的损失值的和作为与多个所述分支神经网络对应的分类损失值;
根据所述目标分类损失值以及与多个所述分支神经网络对应的分类损失值,计算得到所述待训练的图像识别模型的损失值。
在其中一个实施例中,所述样本图像集中包括图像数量依次递减的三个样本图像子集;所述待训练的图像识别模型包括三个分支神经网络;
所述目标分类损失值通过下述方式计算得到:
Figure BDA0002648758020000031
其中,
Figure BDA0002648758020000032
为所述目标分类损失值;
Figure BDA0002648758020000033
为交叉熵损失函数,
Figure BDA0002648758020000034
为待训练的图像识别模型;X为所述样本图像输入序列中的样本图像,Y为所述样本图像的实际图像类别;h、m、t分别为图像数量依次递减的第一、第二以及第三样本图像子集;所述
Figure BDA0002648758020000035
为与三个样本图像子集对应的三个分支神经网络,角标为分支神经网络对应的样本图像子集;
所述与多个所述分支神经网络对应的分类损失值通过下述方式计算得到:
Figure BDA0002648758020000036
其中,
Figure BDA0002648758020000037
为多个所述分支神经网络对应的分类损失值的和;
Figure BDA00026487580200000312
为X的一个子集,包含所述样本图像输入序列中属于第二以及第三样本图像子集的样本图像;
Figure BDA00026487580200000313
为X的另一个子集,包含所述样本图像输入序列中属于第三样本图像子集的样本图像。
在其中一个实施例中,所述待训练的图像识别模型的损失值,通过下述方式计算得到:
Figure BDA0002648758020000038
其中,
Figure BDA0002648758020000039
为待训练的图像识别模型的损失值;α为超参数;n1是X中样本图像的数量;n2是X、
Figure BDA00026487580200000310
以及
Figure BDA00026487580200000311
中样本图像数量的总和。
在其中一个实施例中,在获取样本图像集之前,还包括:
获取样本图像,根据所述样本图像的图像类别,确定所述图像类别的图像数量;
根据所述图像类别的图像数量,得到所述图像类别的排列顺序,按照所述排列顺序将所述图像类别分为多个类别组合;多个所述类别组合包含相同数量的图像类别;
根据多个所述类别组合,以及与多个所述类别组合中的图像类别对应的样本图像,得到与多个所述类别组合对应的样本图像子集;将多个所述样本图像子集的组合作为所述样本图像集。
一种图像识别模型生成装置,所述装置包括:
获取模块,用于获取样本图像集;所述样本图像集包括图像数量依次递减的多个样本图像子集,所述多个样本图像子集均包含相同数量的图像类别;
训练模块,用于根据所述样本图像集,对待训练的图像识别模型进行训练,得到所述待训练的图像识别模型的损失值;所述待训练的图像识别模型包括多个分支神经网络,每个分支神经网络用于对相应的图像进行识别;所述损失值包括目标分类损失值以及与各个所述分支神经网络对应的分类损失值,所述目标分类损失值为所述待训练的图像识别模型针对所述样本图像集的损失值,所述分类损失值为相应的分支神经网络针对与所述分支神经网络对应的样本图像子集的损失值;
调整模块,用于根据所述损失值调整所述待训练的图像识别模型的模型参数,直至所述损失值低于预设阈值时,将所述待训练的图像识别模型作为训练完成的图像识别模型。
一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现以下步骤:
获取样本图像集;所述样本图像集包括图像数量依次递减的多个样本图像子集,所述多个样本图像子集均包含相同数量的图像类别;
根据所述样本图像集,对待训练的图像识别模型进行训练,得到所述待训练的图像识别模型的损失值;所述待训练的图像识别模型包括多个分支神经网络,每个分支神经网络用于对相应的图像进行识别;所述损失值包括目标分类损失值以及与各个所述分支神经网络对应的分类损失值,所述目标分类损失值为所述待训练的图像识别模型针对所述样本图像集的损失值,所述分类损失值为相应的分支神经网络针对与所述分支神经网络对应的样本图像子集的损失值;
根据所述损失值调整所述待训练的图像识别模型的模型参数,直至所述损失值低于预设阈值时,将所述待训练的图像识别模型作为训练完成的图像识别模型。
一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现以下步骤:
获取样本图像集;所述样本图像集包括图像数量依次递减的多个样本图像子集,所述多个样本图像子集均包含相同数量的图像类别;
根据所述样本图像集,对待训练的图像识别模型进行训练,得到所述待训练的图像识别模型的损失值;所述待训练的图像识别模型包括多个分支神经网络,每个分支神经网络用于对相应的图像进行识别;所述损失值包括目标分类损失值以及与各个所述分支神经网络对应的分类损失值,所述目标分类损失值为所述待训练的图像识别模型针对所述样本图像集的损失值,所述分类损失值为相应的分支神经网络针对与所述分支神经网络对应的样本图像子集的损失值;
根据所述损失值调整所述待训练的图像识别模型的模型参数,直至所述损失值低于预设阈值时,将所述待训练的图像识别模型作为训练完成的图像识别模型。
上述图像识别模型生成方法、装置、计算机设备和存储介质,包括:获取样本图像集;样本图像集包括图像数量依次递减的多个样本图像子集,多个样本图像子集均包含相同数量的图像类别;根据样本图像集,对待训练的图像识别模型进行训练,得到待训练的图像识别模型的损失值;待训练的图像识别模型包括多个分支神经网络,每个分支神经网络用于对相应的图像进行识别;损失值包括目标分类损失值以及与各个分支神经网络对应的分类损失值,目标分类损失值为待训练的图像识别模型针对样本图像集的损失值,分类损失值为相应的分支神经网络针对与分支神经网络对应的样本图像子集的损失值;根据损失值调整待训练的图像识别模型的模型参数,直至损失值低于预设阈值时,将待训练的图像识别模型作为训练完成的图像识别模型。本申请通过设置图像数量依次递减的多个样本图像子集,以及对相应样本图像子集的图像进行识别的分支神经网络,使得训练过程中图像数量较少的图像类别也能得到充分训练,避免了传统神经网络训练过程中对于长尾数据的忽视,提升了图像识别模型生成的效果。
附图说明
图1为一个实施例中图像识别模型生成方法的应用环境图;
图2为一个实施例中图像识别模型生成方法的流程示意图;
图3为一个实施例中分支神经网络的结构示意图;
图4为一个实施例中对待训练的图像识别模型进行训练得到损失值步骤的流程示意图;
图5为一个实施例中确定待训练的图像识别模型的损失值步骤的流程示意图;
图6为一个实施例中得到样本图像子集以及样本图像集方法的流程示意图;
图7为一个实施例中图像识别模型生成装置的结构框图;
图8为一个实施例中计算机设备的内部结构图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
本申请提供的图像识别模型生成方法,可以应用于如图1所示的应用环境中。其中,终端11通过网络与服务器12进行通信。服务器12通过网络获取终端11发送的样本图像集;样本图像集包括图像数量依次递减的多个样本图像子集,多个样本图像子集均包含相同数量的图像类别;服务器12根据样本图像集,对待训练的图像识别模型进行训练,得到待训练的图像识别模型的损失值;待训练的图像识别模型包括多个分支神经网络,每个分支神经网络用于对相应的图像进行识别;损失值包括目标分类损失值以及与各个分支神经网络对应的分类损失值,目标分类损失值为待训练的图像识别模型针对样本图像集的损失值,分类损失值为相应的分支神经网络针对与分支神经网络对应的样本图像子集的损失值;服务器12根据损失值调整待训练的图像识别模型的模型参数,直至损失值低于预设阈值时,将待训练的图像识别模型作为训练完成的图像识别模型。终端11能够将待识别的图像发送至服务器12,并得到服务器12返回的识别结果。
其中,终端11可以但不限于是各种个人计算机、笔记本电脑、智能手机、平板电脑和便携式可穿戴设备,服务器12可以用独立的服务器或者是多个服务器组成的服务器集群来实现。
在一个实施例中,如图2所示,提供了一种图像识别模型生成方法,以该方法应用于图1中的服务器12为例进行说明,包括以下步骤:
步骤21,获取样本图像集;样本图像集包括图像数量依次递减的多个样本图像子集,多个样本图像子集均包含相同数量的图像类别。
其中,样本图像集为包含所有样本图像的数据集,由多个样本图像子集组成,每个样本图像子集中都包含一个或多个图像类别的样本图像,且各个样本图像子集包含的图像类别不同;另外,样本图像子集包含的图像总数不相同,且成依次递减的数量趋势。
例如,样本图像中图像类别A有100张,图像类别B有80张,图像类别C有60张,图像类别D有40张,图像类别E有20张,图像类别F有10张;则图像类别A、B可以构成一个包含有180张样本图像的样本图像子集,图像类别C、D可以构成一个包含有100张样本图像的样本图像子集,图像类别E、F可以构成一个包含有30张样本图像的样本图像子集。可见,三个样本图像子集图像数量依次递减,且包含相同数量的图像类别。
具体地,服务器可以直接从终端处获取包括图像数量依次递减的多个样本图像子集的样本图像集;也可以从终端处获取大量样本图像,根据样本图像对应的图像类型将样本图像进行分类处理,得到包括图像数量依次递减的多个样本图像子集的样本图像集。样本图像集可以由符合长尾分布特性的样本图像(即小部分图像类别的图像数量较多,而大部分图像类别的图像数量较少)构成,也可以由符合正态分布特性的样本图像构成,此处对样本图像集中样本图像的类别分布特性不做限定。
本步骤通过获取包括图像数量依次递减的多个样本图像子集的样本图像集,实现了对样本图像的预处理,使得样本图像按照图像类别进行排序并处于不同的样本图像子集,便于后续分支神经网络进行特征学习,使得训练过程中图像数量较少的图像类别也能得到充分训练,避免了传统神经网络训练过程中对于长尾数据的忽视,提升了图像识别模型生成的效果。
步骤22,根据样本图像集,对待训练的图像识别模型进行训练,得到待训练的图像识别模型的损失值;待训练的图像识别模型包括多个分支神经网络,每个分支神经网络用于对相应的图像进行识别;损失值包括目标分类损失值以及与各个分支神经网络对应的分类损失值,目标分类损失值为待训练的图像识别模型针对样本图像集的损失值,分类损失值为相应的分支神经网络针对与分支神经网络对应的样本图像子集的损失值。
具体地,通过1×1的卷积可以实现分支神经网络的构建,因此分支神经网络构建的过程仅需很少的额外参数即可完成。由于在待训练的图像识别模型中构建了多个分支神经网络,分支神经网络能够将待训练的图像识别模型的参数分为两部分,一部分是用于提取样本图像公共特征的共享参数,另一部分是在共享参数基础上,进一步用于提取与分支神经网络对应的样本图像子集的样本图像的独享参数;其中,独享参数即是分支神经网络中的相应参数。
分支神经网络的构建好后,确定分支神经网络与样本图像子集的对应关系,对应关系可以根据分支神经网络的个数以及样本图像子集进行确定。较为常用的是三个分支神经网络与三个样本图像子集,且规定其中一个分支神经网络与三个样本图像子集对应,第二个分支神经网络与三个样本图像子集中的后两个样本图像子集对应,第三个分支神经网络与三个样本图像子集中最后一个样本图像子集(图像数量最少的样本图像子集)对应。
例如,一样本图像集中包括三个样本图像子集,分别为head classes(头部数据,简称h),medium classes(中部数据,简称m)以及tail classes(尾部数据,简称m);headclasses中包括图像数量最多的前1/3的图像类别,medium classes中包括图像数量处于中间1/3的图像类别,tail classes中包括图像数量最少的后1/3的图像类别。通过1×1卷积构建如图3所示的三个分支神经网络Nh+m+t、Nm+t以及Nt;其中,Nh+m+t与全部样本图像子集对应,用于对全部样本图像子集中的图像类别进行分类;Nm+t与二个样本图像子集对应,用于对图像数量相对较少medium classes以及tail classes样本图像子集中的图像类别进行分类;Nt与一个样本图像子集对应,用于对图像数量最少的tail classes样本图像子集中的图像类别进行分类;可见三个分支神经网络Nh+m+t、Nm+t以及Nt都能够通过自身的独享参数主导对应的样本图像子集中图像类别的学习;且图像数量较少的tail classes与三个分支神经网络均存在对应关系,而数量较多的head classes只与一个分支神经网络均存在对应关系,这在一定程度上实现了对长尾数据的利用程度,使得不同图像数量的图像类别在训练时趋于平衡。
待训练的图像识别模型的损失值包括分类损失值以及目标分类损失值,其中分类损失值是分支神经网络针对与分支神经网络对应的样本图像子集的损失值;目标分类损失值是待训练的图像识别模型针对样本图像集的损失值,可以调整。根据多个分类损失值以及目标分类损失值,可以得到对待训练的图像识别模型进行训练的损失值,判断整个图像识别模型的训练程度。
分类损失值即是分别与分支神经网络对应的样本图像子集的损失值,即分支神经网络Nh+m+t对应于head classes、medium classes以及tail classes样本图像子集的损失值,或者Nt对应于tail classes样本图像子集的损失值。目标分类损失值是待训练的图像识别模型整体输出的图像类别对应于整个样本图像集得到的损失值,即多个分支神经网识别样本图像集后输出的图像类别进行融合后,得到的图像类别对应于样本图像集的损失值。分类损失值和目标分类损失值的区别即是在计算损失值时考量的对象不同,分类损失值是将各个分支神经网路输出的图像类别与相对应的样本图像子集的样本图像的实际图像类别进行比较后得到的损失值;而目标分类损失值是将整个待训练的图像识别模型输出的图像类别(即多个分支神经网路输出的图像类别的融合结果)与样本图像集中样本图像的实际类别进行比较后得到的损失值。
本步骤通过分支神经网络对相应的图像进行识别,得到目标分类损失值以及与各个分支神经网络对应的分类损失值,对图像识别模型进行训练,得到待训练的图像识别模型的损失值,使得训练过程中图像数量较少的图像类别也能得到充分训练,避免了传统神经网络训练过程中对于长尾数据的忽视,提升了图像识别模型生成的效果。
步骤23,根据损失值调整待训练的图像识别模型的模型参数,直至损失值低于预设阈值时,将待训练的图像识别模型作为训练完成的图像识别模型。
具体地,服务器根据计算得到的损失值反向调整待训练的图像识别模型中包括但不限于卷积层、池化层、归一化层等的各项参数,例如权重和偏置;在正常情况下,经过多次训练迭代后各项损失值会逐渐减小,且趋近于一个定值。预设阈值可以设置在该定值附近,当损失值低于预设阈值时,即可判断图像识别模型训练完成。
本步骤通过损失值不断对图像识别模型中的参数做出调整,根据损失值与预设阈值的差距判断出图像识别模型的训练程度,直到图像识别模型计算出的损失值低于预设阈值时,可以判断图像识别模型训练完成;提升了图像识别模型生成的效果。
上述图像识别模型生成方法,包括:获取样本图像集;样本图像集包括图像数量依次递减的多个样本图像子集,多个样本图像子集均包含相同数量的图像类别;根据样本图像集,对待训练的图像识别模型进行训练,得到待训练的图像识别模型的损失值;待训练的图像识别模型包括多个分支神经网络,每个分支神经网络用于对相应的图像进行识别;损失值包括目标分类损失值以及与各个分支神经网络对应的分类损失值,目标分类损失值为待训练的图像识别模型针对样本图像集的损失值,分类损失值为相应的分支神经网络针对与分支神经网络对应的样本图像子集的损失值;根据损失值调整待训练的图像识别模型的模型参数,直至损失值低于预设阈值时,将待训练的图像识别模型作为训练完成的图像识别模型。本申请通过设置图像数量依次递减的多个样本图像子集,以及对相应样本图像子集的图像进行识别的分支神经网络,使得训练过程中图像数量较少的图像类别也能得到充分训练,避免了传统神经网络训练过程中对于长尾数据的忽视,提升了图像识别模型生成的效果。
在一个实施例中,如图4所示,上述步骤22,根据样本图像集,对待训练的图像识别模型进行训练,得到待训练的图像识别模型的损失值,包括:
步骤41,对样本图像集中的多个样本图像子集进行均匀采样,得到样本图像输入序列;
步骤42,根据样本图像输入序列,将样本图像输入待训练的图像识别模型,得到样本图像的图像类别;
步骤43,根据样本图像的图像类别以及对应的实际图像类别,确定待训练的图像识别模型的损失值。
具体地,服务器可以对样本图像集中的多个样本图像子集进行均匀采样,得到mini-batch数据;将mini-batch数据作为样本图像输入序列输入待训练的图像识别模型进行训练,得到图像识别模型输出的样本图像的图像类别;获取样本图像的实际图像类别,将样本图像的图像类别以及实际图像类别输入预设的损失函数,计算得到图像识别模型的损失值。
本实施例通过均匀采样,使得样本图像输入序列中各个图像类别的样本图像较为均衡;进一步使得确定出的待训练的图像识别模型的损失值更加准确,提升了图像识别模型生成的效果。
在一个实施例中,待训练的图像识别模型中还包括基础神经网络,基础神经网络与分支神经网络相连接;
上述步骤42,根据样本图像输入序列,将样本图像输入待训练的图像识别模型,得到样本图像的图像类别,包括:将样本图像输入待训练的图像识别模型,使得基础神经网络获取样本图像的第一图像特征,以及使得分支神经网络根据第一图像特征得到样本图像的第二图像特征,并根据第二图像特征确定样本图像集中样本图像的图像类别。
具体地,基础神经网络用于提取样本图像集中样本图像的特征信息,即提取样本图像集中所有图像类别的公共特征作为第一图像特征;分支神经网络获取基础神经网络提取出的第一图像特征,并进行再次提取,得到并输出第二图像特征。分支神经网络输出的第二图像特征通过分类器并进行融合后得到样本图像的图像类别。基础神经网络的参数为共享参数,各个分支神经网络都可取用;此处对基础神经网络的类型以及结构不做限定。
在一个实施例中,如图5所示,上述步骤43,根据样本图像的图像类别以及对应的实际图像类别,确定待训练的图像识别模型的损失值,包括:
步骤51,根据样本图像集中样本图像的图像类别以及对应的实际图像类别,确定样本图像集中样本图像的损失值;
步骤52,根据多个分支神经网络确定出的样本图像集中样本图像的损失值,得到与样本图像集对应的损失值,并作为目标分类损失值;
步骤53,获取与多个分支神经网络对应的样本图像子集中所有样本图像的损失值,将样本图像子集中所有样本图像的损失值的和作为与多个分支神经网络对应的分类损失值;
步骤54,根据目标分类损失值以及与多个分支神经网络对应的分类损失值,计算得到待训练的图像识别模型的损失值。
具体地,以样本图像集包括三个样本图像子集head classes,medium classes,tail classes为例进行说明;目标分类损失值是将整个待训练的图像识别模型输出的图像类别(即多个分支神经网路输出的图像类别的融合结果)与样本图像集中样本图像的实际类别进行比较后得到的损失值;因此,目标分类损失值计算的是三个分支神经网络输出的与样本图像集中样本图像对应的图像类别;再将全部图像类别与实际图像类别输入损失函数,得到的损失值即为目标分类损失值,如下式所示:
Figure BDA0002648758020000121
其中,
Figure BDA0002648758020000122
为目标分类损失值;
Figure BDA0002648758020000123
为交叉熵损失函数,
Figure BDA0002648758020000124
为待训练的图像识别模型;X为样本图像输入序列中的样本图像,Y为样本图像的实际图像类别;h、m、t分别为图像数量依次递减的第一、第二以及第三样本图像子集;
Figure BDA0002648758020000125
为与三个样本图像子集对应的三个分支神经网络,角标为分支神经网络对应的样本图像子集。
分类损失值是各个分支神经网络针对其对应的样本图像子集得到的损失值,并不是针对整个样本图像集。例如
Figure BDA0002648758020000126
分支神经网络与第一、第二以及第三样本图像子集为对应关系,那么计算
Figure BDA0002648758020000131
分支神经网络时相当于计算其与整个样本图像集的损失值。而
Figure BDA0002648758020000132
只与第三样本图像子集存在对应关系,因此计算
Figure BDA0002648758020000133
的损失值时只需根据第三样本图像子集中相应样本图像的实际图像类别计算损失值即可;得到全部分支神经网络计算出的分类损失值后进行加和运算,结果即为最终的图像类别的预测结果;具体如下式:
Figure BDA0002648758020000134
其中,
Figure BDA0002648758020000135
为多个分支神经网络对应的分类损失值的和;
Figure BDA0002648758020000136
为X的一个子集,包含样本图像输入序列中属于第二以及第三样本图像子集的样本图像;
Figure BDA0002648758020000137
为X的另一个子集,包含样本图像输入序列中属于第三样本图像子集的样本图像。
待训练的图像识别模型的损失值由分类损失值和目标分类损失值共同计算得到,具体如下式:
Figure BDA0002648758020000138
其中,
Figure BDA00026487580200001313
为待训练的图像识别模型的损失值;α为超参数;n1是X中样本图像的数量;n2是X、
Figure BDA00026487580200001310
以及
Figure BDA00026487580200001311
中样本图像数量的总和。
需要说明的是,对于长尾程度不同的数据集,可以通过
Figure BDA00026487580200001312
函数中的超参数α来调整;另外,当数据集为正常分布状态时(即各个图像类别的图像数量较为平均),将超参数α设置为0即可正常运行。
上述实施例通过样本图像的图像类别以及对应的实际图像类别的差异,计算出目标分类损失值以及分类损失值,并进一步得到待训练的图像识别模型的损失值,以此能够对待训练的图像识别模型中的参数进行调整,使得训练过程中图像数量较少的图像类别也能得到充分训练,避免了传统神经网络训练过程中对于长尾数据的忽视,提升了图像识别模型生成的效果。
在一个实施例中,如图6所示,上述步骤21,在获取样本图像集之前,还包括:
步骤61,获取样本图像,根据样本图像的图像类别,确定图像类别的图像数量;
步骤62,根据图像类别的图像数量,得到图像类别的排列顺序,按照排列顺序将图像类别分为多个类别组合;多个类别组合包含相同数量的图像类别;
步骤63,根据多个类别组合,以及与多个类别组合中的图像类别对应的样本图像,得到与多个类别组合对应的样本图像子集;将多个样本图像子集的组合作为样本图像集。
具体地,首先服务器从终端处获取样本图像,识别样本图像的图像类别,按照图像类别将样本图像进行归类,并统计各个图像类别对应样本图像的数量。根据图像类别对应样本图像的数量,对图像类别进行排序,从高到低依次排列,得到排列顺序。根据分支神经网络的数量以及图像类别的数量,将图像类别平均分配至多个类别组合。例如3个分支神经网络,6个图像类别,则可两个图像类别分为一组,得到三个类别组合。根据类别组合以及类别组合对应的样本图像得到与类别组合对应的样本图像子集,多个样本图像子集即组合为样本图像集。
本实施例根据图像类别的图像数量,按照从高到低或从低到高的顺序进行排列,根据排列顺序平均分组,得到包含有相同数量图像类别的样本图像子集,实现了样本图像的预处理,各个分支神经网络按照长尾数据分布的特性与样本图像子集相互对应;使得训练过程中图像数量较少的图像类别也能得到充分训练,避免了传统神经网络训练过程中对于长尾数据的忽视,提升了图像识别模型生成的效果。
应该理解的是,虽然图2、4-6的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,图2、4-6中的至少一部分步骤可以包括多个步骤或者多个阶段,这些步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤中的步骤或者阶段的至少一部分轮流或者交替地执行。
在一个实施例中,如图7所示,提供了一种图像识别模型生成装置,包括:
获取模块71,用于获取样本图像集;样本图像集包括图像数量依次递减的多个样本图像子集,多个样本图像子集均包含相同数量的图像类别;
训练模块72,用于根据样本图像集,对待训练的图像识别模型进行训练,得到待训练的图像识别模型的损失值;待训练的图像识别模型包括多个分支神经网络,每个分支神经网络用于对相应的图像进行识别;损失值包括目标分类损失值以及与各个分支神经网络对应的分类损失值,目标分类损失值为待训练的图像识别模型针对样本图像集的损失值,分类损失值为相应的分支神经网络针对与分支神经网络对应的样本图像子集的损失值;
调整模块73,用于根据损失值调整待训练的图像识别模型的模型参数,直至损失值低于预设阈值时,将待训练的图像识别模型作为训练完成的图像识别模型。
在一个实施例中,训练模块72还用于对样本图像集中的多个样本图像子集进行均匀采样,得到样本图像输入序列;根据样本图像输入序列,将样本图像输入待训练的图像识别模型,得到样本图像的图像类别;根据样本图像的图像类别以及对应的实际图像类别,确定待训练的图像识别模型的损失值。
在一个实施例中,训练模块72还用于将样本图像输入待训练的图像识别模型,使得基础神经网络获取样本图像的第一图像特征,以及使得分支神经网络根据第一图像特征得到样本图像的第二图像特征,并根据第二图像特征确定样本图像集中样本图像的图像类别。
在一个实施例中,训练模块72还用于根据样本图像集中样本图像的图像类别以及对应的实际图像类别,确定样本图像集中样本图像的损失值;根据多个分支神经网络确定出的样本图像集中样本图像的损失值,得到与样本图像集对应的损失值,并作为目标分类损失值;获取与多个分支神经网络对应的样本图像子集中所有样本图像的损失值,将样本图像子集中所有样本图像的损失值的和作为与多个分支神经网络对应的分类损失值;根据目标分类损失值以及与多个分支神经网络对应的分类损失值,计算得到待训练的图像识别模型的损失值。
在一个实施例中,获取模块71还用于获取样本图像,根据样本图像的图像类别,确定图像类别的图像数量;根据图像类别的图像数量,得到图像类别的排列顺序,按照排列顺序将图像类别分为多个类别组合;多个类别组合包含相同数量的图像类别;根据多个类别组合,以及与多个类别组合中的图像类别对应的样本图像,得到与多个类别组合对应的样本图像子集;将多个样本图像子集的组合作为样本图像集。
关于图像识别模型生成装置的具体限定可以参见上文中对于图像识别模型生成方法的限定,在此不再赘述。上述图像识别模型生成装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
在一个实施例中,提供了一种计算机设备,该计算机设备可以是服务器,其内部结构图可以如图8所示。该计算机设备包括通过系统总线连接的处理器、存储器和网络接口。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作系统、计算机程序和数据库。该内存储器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该计算机设备的数据库用于存储图像识别模型生成数据。该计算机设备的网络接口用于与外部的终端通过网络连接通信。该计算机程序被处理器执行时以实现一种图像识别模型生成方法。
本领域技术人员可以理解,图8中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备的限定,具体的计算机设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
在一个实施例中,提供了一种计算机设备,包括存储器和处理器,存储器中存储有计算机程序,该处理器执行计算机程序时实现上述各方法实施例中的步骤。
在一个实施例中,提供了一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现上述各方法实施例中的步骤。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,上述的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和易失性存储器中的至少一种。非易失性存储器可包括只读存储器(Read-Only Memory,ROM)、磁带、软盘、闪存或光存储器等。易失性存储器可包括随机存取存储器(Random Access Memory,RAM)或外部高速缓冲存储器。作为说明而非局限,RAM可以是多种形式,比如静态随机存取存储器(Static Random Access Memory,SRAM)或动态随机存取存储器(Dynamic Random Access Memory,DRAM)等。
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。

Claims (10)

1.一种图像识别模型生成方法,其特征在于,所述方法包括:
获取样本图像集;所述样本图像集包括图像数量依次递减的多个样本图像子集,所述多个样本图像子集均包含相同数量的图像类别;
根据所述样本图像集,对待训练的图像识别模型进行训练,得到所述待训练的图像识别模型的损失值;所述待训练的图像识别模型包括多个分支神经网络,每个分支神经网络用于对相应的图像进行识别;所述损失值包括目标分类损失值以及与各个所述分支神经网络对应的分类损失值,所述目标分类损失值为所述待训练的图像识别模型针对所述样本图像集的损失值,所述分类损失值为相应的分支神经网络针对与所述分支神经网络对应的样本图像子集的损失值;
根据所述损失值调整所述待训练的图像识别模型的模型参数,直至所述损失值低于预设阈值时,将所述待训练的图像识别模型作为训练完成的图像识别模型。
2.根据权利要求1所述的方法,其特征在于,所述根据所述样本图像集,对待训练的图像识别模型进行训练,得到所述待训练的图像识别模型的损失值,包括:
对所述样本图像集中的多个所述样本图像子集进行均匀采样,得到样本图像输入序列;
根据所述样本图像输入序列,将样本图像输入所述待训练的图像识别模型,得到所述样本图像的图像类别;
根据所述样本图像的图像类别以及对应的实际图像类别,确定所述待训练的图像识别模型的损失值。
3.根据权利要求2所述的方法,其特征在于,所述待训练的图像识别模型中还包括基础神经网络,所述基础神经网络与所述分支神经网络相连接;
所述根据所述样本图像输入序列,将样本图像输入所述待训练的图像识别模型,得到所述样本图像的图像类别,包括:
将所述样本图像输入所述待训练的图像识别模型,使得所述基础神经网络获取所述样本图像的第一图像特征,以及使得所述分支神经网络根据所述第一图像特征得到所述样本图像的第二图像特征,并根据所述第二图像特征确定所述样本图像集中样本图像的图像类别。
4.根据权利要求3所述的方法,其特征在于,所述根据所述样本图像的图像类别以及对应的实际图像类别,确定所述待训练的图像识别模型的损失值,包括:
根据所述样本图像集中样本图像的图像类别以及对应的实际图像类别,确定所述样本图像集中样本图像的损失值;
根据多个所述分支神经网络确定出的所述样本图像集中样本图像的损失值,得到与所述样本图像集对应的损失值,并作为所述目标分类损失值;
获取与多个所述分支神经网络对应的样本图像子集中所有样本图像的损失值,将所述样本图像子集中所有样本图像的损失值的和作为与多个所述分支神经网络对应的分类损失值;
根据所述目标分类损失值以及与多个所述分支神经网络对应的分类损失值,计算得到所述待训练的图像识别模型的损失值。
5.根据权利要求4所述的方法,其特征在于,所述样本图像集中包括图像数量依次递减的三个样本图像子集;所述待训练的图像识别模型包括三个分支神经网络;
所述目标分类损失值通过下述方式计算得到:
Figure FDA0002648758010000021
其中,
Figure FDA0002648758010000022
为所述目标分类损失值;
Figure FDA0002648758010000023
为交叉熵损失函数,
Figure FDA0002648758010000024
为待训练的图像识别模型;X为所述样本图像输入序列中的样本图像,Y为所述样本图像的实际图像类别;h、m、t分别为图像数量依次递减的第一、第二以及第三样本图像子集;所述
Figure FDA0002648758010000025
为与三个样本图像子集对应的三个分支神经网络,角标为分支神经网络对应的样本图像子集;
所述与多个所述分支神经网络对应的分类损失值通过下述方式计算得到:
Figure FDA0002648758010000026
其中,
Figure FDA0002648758010000027
为多个所述分支神经网络对应的分类损失值的和;
Figure FDA0002648758010000028
为X的一个子集,包含所述样本图像输入序列中属于第二以及第三样本图像子集的样本图像;
Figure FDA0002648758010000031
为X的另一个子集,包含所述样本图像输入序列中属于第三样本图像子集的样本图像。
6.根据权利要求5所述的方法,其特征在于,所述待训练的图像识别模型的损失值,通过下述方式计算得到:
Figure FDA0002648758010000032
其中,
Figure FDA0002648758010000033
为待训练的图像识别模型的损失值;α为超参数;n1是X中样本图像的数量;n2是X、
Figure FDA0002648758010000034
以及
Figure FDA0002648758010000035
中样本图像数量的总和。
7.根据权利要求1所述的方法,其特征在于,在获取样本图像集之前,还包括:
获取样本图像,根据所述样本图像的图像类别,确定所述图像类别的图像数量;
根据所述图像类别的图像数量,得到所述图像类别的排列顺序,按照所述排列顺序将所述图像类别分为多个类别组合;多个所述类别组合包含相同数量的图像类别;
根据多个所述类别组合,以及与多个所述类别组合中的图像类别对应的样本图像,得到与多个所述类别组合对应的样本图像子集;将多个所述样本图像子集的组合作为所述样本图像集。
8.一种图像识别模型生成装置,其特征在于,所述装置包括:
获取模块,用于获取样本图像集;所述样本图像集包括图像数量依次递减的多个样本图像子集,所述多个样本图像子集均包含相同数量的图像类别;
训练模块,用于根据所述样本图像集,对待训练的图像识别模型进行训练,得到所述待训练的图像识别模型的损失值;所述待训练的图像识别模型包括多个分支神经网络,每个分支神经网络用于对相应的图像进行识别;所述损失值包括目标分类损失值以及与各个所述分支神经网络对应的分类损失值,所述目标分类损失值为所述待训练的图像识别模型针对所述样本图像集的损失值,所述分类损失值为相应的分支神经网络针对与所述分支神经网络对应的样本图像子集的损失值;
调整模块,用于根据所述损失值调整所述待训练的图像识别模型的模型参数,直至所述损失值低于预设阈值时,将所述待训练的图像识别模型作为训练完成的图像识别模型。
9.一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1至7中任一项所述的方法的步骤。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至7中任一项所述的方法的步骤。
CN202010862911.0A 2020-08-25 2020-08-25 图像识别模型生成方法、装置、计算机设备和存储介质 Active CN111950656B (zh)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN202010862911.0A CN111950656B (zh) 2020-08-25 2020-08-25 图像识别模型生成方法、装置、计算机设备和存储介质
JP2022564577A JP7376731B2 (ja) 2020-08-25 2021-07-16 画像認識モデル生成方法、装置、コンピュータ機器及び記憶媒体
PCT/CN2021/106635 WO2022042123A1 (zh) 2020-08-25 2021-07-16 图像识别模型生成方法、装置、计算机设备和存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010862911.0A CN111950656B (zh) 2020-08-25 2020-08-25 图像识别模型生成方法、装置、计算机设备和存储介质

Publications (2)

Publication Number Publication Date
CN111950656A true CN111950656A (zh) 2020-11-17
CN111950656B CN111950656B (zh) 2021-06-25

Family

ID=73366432

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010862911.0A Active CN111950656B (zh) 2020-08-25 2020-08-25 图像识别模型生成方法、装置、计算机设备和存储介质

Country Status (3)

Country Link
JP (1) JP7376731B2 (zh)
CN (1) CN111950656B (zh)
WO (1) WO2022042123A1 (zh)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112966767A (zh) * 2021-03-19 2021-06-15 焦点科技股份有限公司 一种特征提取和分类任务分离的数据不均衡处理方法
CN113034368A (zh) * 2021-04-01 2021-06-25 深圳思谋信息科技有限公司 图像超分辨率模型训练方法、装置、计算机设备和介质
CN113240032A (zh) * 2021-05-25 2021-08-10 北京有竹居网络技术有限公司 一种图像分类方法、装置、设备及存储介质
WO2022042123A1 (zh) * 2020-08-25 2022-03-03 深圳思谋信息科技有限公司 图像识别模型生成方法、装置、计算机设备和存储介质
CN114155388A (zh) * 2022-02-10 2022-03-08 深圳思谋信息科技有限公司 一种图像识别方法、装置、计算机设备和存储介质
CN114581751A (zh) * 2022-03-08 2022-06-03 北京百度网讯科技有限公司 图像识别模型的训练方法和图像识别方法、装置
CN117457101A (zh) * 2023-12-22 2024-01-26 中国农业科学院烟草研究所(中国烟草总公司青州烟草研究所) 一种烘烤烟叶含水量预测方法、介质及系统
CN114581751B (zh) * 2022-03-08 2024-05-10 北京百度网讯科技有限公司 图像识别模型的训练方法和图像识别方法、装置

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115294644A (zh) * 2022-06-24 2022-11-04 北京昭衍新药研究中心股份有限公司 一种基于3d卷积参数重构的快速猴子行为识别方法
CN117036869B (zh) * 2023-10-08 2024-01-09 之江实验室 一种基于多样性和随机策略的模型训练方法及装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3324334A1 (en) * 2016-11-18 2018-05-23 HERE Global B.V. Detection of invariant features for localization
CN108921013A (zh) * 2018-05-16 2018-11-30 浙江零跑科技有限公司 一种基于深度神经网络的视觉场景识别系统及方法
CN110162556A (zh) * 2018-02-11 2019-08-23 陕西爱尚物联科技有限公司 一种有效发挥数据价值的方法
CN111125460A (zh) * 2019-12-24 2020-05-08 腾讯科技(深圳)有限公司 信息推荐方法及装置
CN111291841A (zh) * 2020-05-13 2020-06-16 腾讯科技(深圳)有限公司 图像识别模型训练方法、装置、计算机设备和存储介质

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11138724B2 (en) 2017-06-01 2021-10-05 International Business Machines Corporation Neural network classification
US11494687B2 (en) 2018-03-05 2022-11-08 Yodlee, Inc. Generating samples of transaction data sets
CN108875934A (zh) * 2018-05-28 2018-11-23 北京旷视科技有限公司 一种神经网络的训练方法、装置、系统及存储介质
US11372893B2 (en) 2018-06-01 2022-06-28 Ntt Security Holdings Corporation Ensemble-based data curation pipeline for efficient label propagation
CN108764370B (zh) * 2018-06-08 2021-03-12 Oppo广东移动通信有限公司 图像处理方法、装置、计算机可读存储介质和计算机设备
CN110097130B (zh) * 2019-05-07 2022-12-13 深圳市腾讯计算机系统有限公司 分类任务模型的训练方法、装置、设备及存储介质
CN111242158A (zh) * 2019-12-05 2020-06-05 北京迈格威科技有限公司 神经网络训练方法、图像处理方法及装置
CN111401307B (zh) * 2020-04-08 2022-07-01 中国人民解放军海军航空大学 基于深度度量学习的卫星遥感图像目标关联方法和装置
CN111950656B (zh) * 2020-08-25 2021-06-25 深圳思谋信息科技有限公司 图像识别模型生成方法、装置、计算机设备和存储介质

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3324334A1 (en) * 2016-11-18 2018-05-23 HERE Global B.V. Detection of invariant features for localization
CN110162556A (zh) * 2018-02-11 2019-08-23 陕西爱尚物联科技有限公司 一种有效发挥数据价值的方法
CN108921013A (zh) * 2018-05-16 2018-11-30 浙江零跑科技有限公司 一种基于深度神经网络的视觉场景识别系统及方法
CN111125460A (zh) * 2019-12-24 2020-05-08 腾讯科技(深圳)有限公司 信息推荐方法及装置
CN111291841A (zh) * 2020-05-13 2020-06-16 腾讯科技(深圳)有限公司 图像识别模型训练方法、装置、计算机设备和存储介质

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
BOYAN ZHOU 等: "BBN: Bilateral-Branch Network with Cumulative Learning for Long-Tailed Visual Recognition", 《2020 IEEE/CVF CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION (CVPR)》 *
ZIWEI LIU 等: "Large-Scale Long-Tailed Recognition in an Open World", 《CVPR2019》 *
范峰 等: "3D建模在数据增强中的应用研究", 《无线互联科技》 *

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022042123A1 (zh) * 2020-08-25 2022-03-03 深圳思谋信息科技有限公司 图像识别模型生成方法、装置、计算机设备和存储介质
CN112966767A (zh) * 2021-03-19 2021-06-15 焦点科技股份有限公司 一种特征提取和分类任务分离的数据不均衡处理方法
CN112966767B (zh) * 2021-03-19 2022-03-22 焦点科技股份有限公司 一种特征提取和分类任务分离的数据不均衡处理方法
CN113034368A (zh) * 2021-04-01 2021-06-25 深圳思谋信息科技有限公司 图像超分辨率模型训练方法、装置、计算机设备和介质
CN113240032A (zh) * 2021-05-25 2021-08-10 北京有竹居网络技术有限公司 一种图像分类方法、装置、设备及存储介质
CN113240032B (zh) * 2021-05-25 2024-01-30 北京有竹居网络技术有限公司 一种图像分类方法、装置、设备及存储介质
CN114155388A (zh) * 2022-02-10 2022-03-08 深圳思谋信息科技有限公司 一种图像识别方法、装置、计算机设备和存储介质
CN114155388B (zh) * 2022-02-10 2022-05-13 深圳思谋信息科技有限公司 一种图像识别方法、装置、计算机设备和存储介质
CN114581751A (zh) * 2022-03-08 2022-06-03 北京百度网讯科技有限公司 图像识别模型的训练方法和图像识别方法、装置
CN114581751B (zh) * 2022-03-08 2024-05-10 北京百度网讯科技有限公司 图像识别模型的训练方法和图像识别方法、装置
CN117457101A (zh) * 2023-12-22 2024-01-26 中国农业科学院烟草研究所(中国烟草总公司青州烟草研究所) 一种烘烤烟叶含水量预测方法、介质及系统
CN117457101B (zh) * 2023-12-22 2024-03-26 中国农业科学院烟草研究所(中国烟草总公司青州烟草研究所) 一种烘烤烟叶含水量预测方法、介质及系统

Also Published As

Publication number Publication date
JP7376731B2 (ja) 2023-11-08
WO2022042123A1 (zh) 2022-03-03
CN111950656B (zh) 2021-06-25
JP2023523029A (ja) 2023-06-01

Similar Documents

Publication Publication Date Title
CN111950656B (zh) 图像识别模型生成方法、装置、计算机设备和存储介质
CN112163465B (zh) 细粒度图像分类方法、系统、计算机设备及存储介质
US11537884B2 (en) Machine learning model training method and device, and expression image classification method and device
CN109241903B (zh) 样本数据清洗方法、装置、计算机设备及存储介质
CN113378632B (zh) 一种基于伪标签优化的无监督域适应行人重识别方法
CN109271958B (zh) 人脸年龄识别方法及装置
CN113593611B (zh) 语音分类网络训练方法、装置、计算设备及存储介质
CN112529146B (zh) 神经网络模型训练的方法和装置
KR20210032140A (ko) 뉴럴 네트워크에 대한 프루닝을 수행하는 방법 및 장치
CN111783997B (zh) 一种数据处理方法、装置及设备
CN110705489B (zh) 目标识别网络的训练方法、装置、计算机设备和存储介质
CN112434556A (zh) 宠物鼻纹识别方法、装置、计算机设备及存储介质
CN113705596A (zh) 图像识别方法、装置、计算机设备和存储介质
CN112817563B (zh) 目标属性配置信息确定方法、计算机设备和存储介质
CN113505797A (zh) 模型训练方法、装置、计算机设备和存储介质
Wang et al. Fusion network for face-based age estimation
CN111126501B (zh) 一种图像识别方法、终端设备及存储介质
CN111352926A (zh) 数据处理的方法、装置、设备及可读存储介质
CN113222014A (zh) 图像分类模型训练方法、装置、计算机设备和存储介质
CN113128664A (zh) 神经网络压缩方法、装置、电子设备及存储介质
CN113838076A (zh) 目标图像中的对象轮廓的标注方法及装置、存储介质
CN116129158A (zh) 一种输电线路铁塔小部件图像识别方法及装置
Unajan et al. A modified otsubased image segmentation algorithm (OBISA)
CN114065920A (zh) 一种基于通道级剪枝神经网络的图像识别方法及系统
CN113762506A (zh) 一种深度学习模型剪枝方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CB03 Change of inventor or designer information

Inventor after: Cui Jiequan

Inventor after: Liu Shu

Inventor after: Tian Zhuotao

Inventor before: Cui Jiequan

Inventor before: Liu Shu

Inventor before: Tian Zhuotao

Inventor before: Jia Jiaya

CB03 Change of inventor or designer information