CN110991496A - 一种训练模型的方法及装置 - Google Patents

一种训练模型的方法及装置 Download PDF

Info

Publication number
CN110991496A
CN110991496A CN201911116503.4A CN201911116503A CN110991496A CN 110991496 A CN110991496 A CN 110991496A CN 201911116503 A CN201911116503 A CN 201911116503A CN 110991496 A CN110991496 A CN 110991496A
Authority
CN
China
Prior art keywords
sample
label
image
trained
classification model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201911116503.4A
Other languages
English (en)
Other versions
CN110991496B (zh
Inventor
朱理
王博
谢存煌
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Sankuai Online Technology Co Ltd
Original Assignee
Beijing Sankuai Online Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Sankuai Online Technology Co Ltd filed Critical Beijing Sankuai Online Technology Co Ltd
Priority to CN201911116503.4A priority Critical patent/CN110991496B/zh
Publication of CN110991496A publication Critical patent/CN110991496A/zh
Application granted granted Critical
Publication of CN110991496B publication Critical patent/CN110991496B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Analysis (AREA)
  • Rehabilitation Tools (AREA)

Abstract

本说明书公开了一种训练模型的方法及装置,通过在样本集中选择若干样本图像构成样本子集,针对预设的各标签,确定具有该标签的样本图像在样本子集中的占比,根据具有该标签的样本图像在样本子集中的占比,确定交叉熵,由于不同的样本子集中,具有该标签的样本图像在样本子集中的占比可能不同,交叉熵也可能不同,解决了现有技术中标签权重固定不变的问题,另外,在根据交叉熵对待训练图像分类模型进行训练时,具有小概率标签的样本图像在样本子集中的占比不一定较小,因此上述方法尤其可以解决小概率标签的过拟合学习问题。

Description

一种训练模型的方法及装置
技术领域
本申请涉及图像处理领域,尤其涉及一种训练模型的方法及装置。
背景技术
图像中包含着丰富的信息,为了便于图像数据的查询与处理,一般会对图像设置标签,使图像具有直观的文本描述,例如,一份烛光晚餐的图像,可具有多个标签:食物、玫瑰、餐具等。
确定标签常用的方法,是将待确定标签的图像输入训练后的分类模型,得到该图像具有各标签的概率,根据得到的概率,确定图像标签。训练上述分类模型时所用的样本集,来源于现实生活,大多数的样本图像中包含蓝天、白云、房屋、树木等标签,少数样本图像中包括棒球、雪橇等标签,针对各标签,根据具有该标签的图像在样本集中出现的概率,对该标签设置权重,根据各标签对应的权重,对上述分类模型训练。
由于训练上述分类模型时,不同标签对应的样本图像在数量上不均衡,并且各标签的权重固定不变,这就导致样本数量少的小概率标签会出现过拟合学习,在确定未知图像的标签时,尤其当该未知图像中可能存在棒球等小概率标签时,利用按照上述方法训练完成的分类模型,得到的针对未知图像的标签中,可能会出现错误的标签。
发明内容
本说明书实施例提供一种训练模型的方法及装置,以部分解决现有技术存在的上述问题。
本说明书实施例采用下述技术方案:
本说明书提供的一种训练模型的方法,所述方法包括:
从包含多个图像的样本集中选择若干样本图像,确定由选择的所述若干样本图像构成的样本子集;
针对预设的各标签,确定具有该标签的样本图像在所述样本子集中的占比;
根据具有该标签的样本图像在所述样本子集中的占比,确定待训练图像分类模型的交叉熵;
根据针对各标签分别确定的交叉熵,采用所述样本子集中的样本图像对所述待训练图像分类模型进行训练。
可选地,根据具有该标签的样本图像在所述样本子集中的占比,确定待训练图像分类模型的交叉熵,具体包括:
根据具有该标签的样本图像在所述样本子集中的占比,确定该标签对应的交叉熵权重;
针对具有该标签的每个样本图像,确定所述待训练图像分类模型输出的该样本图像具有该标签的预估概率;
根据该标签对应的交叉熵权重、该样本图像具有该标签的真实概率以及所述预估概率,确定所述待训练图像分类模型的交叉熵。
可选地,所述方法还包括:
根据具有该标签的样本图像在所述样本子集中的占比、以及不具有该标签的样本图像在所述样本子集中的占比,确定具有该标签的样本图像在所述样本子集中的均衡度;
根据所述均衡度,确定所述待训练图像分类模型的均衡参数;
根据针对各标签分别确定的交叉熵,采用所述样本子集中的样本图像对所述待训练图像分类模型进行训练,具体包括:
根据针对各标签分别确定的交叉熵以及均衡参数,采用所述样本子集中的样本图像对所述待训练图像分类模型进行训练。
可选地,所述方法还包括:
根据预设的分类规则,确定该标签所属的子类;
确定所述子类的父类的数量;
根据所述数量,确定所述待训练图像分类模型的子类参数;
根据针对各标签分别确定的交叉熵,采用所述样本子集中的样本图像对所述待训练图像分类模型进行训练,具体包括:
根据针对各标签分别确定的交叉熵以及子类参数,采用所述样本子集中的样本图像对所述待训练图像分类模型进行训练。
可选地,所述方法还包括:
确定所述样本子集中具有该标签的样本图像的数量,作为第一数量;
确定上一次对所述待训练图像分类模型进行训练时所采用的样本子集中具有该标签的样本图像的数量,作为第二数量;
确定所述第一数量与所述第二数量的差值,作为具有该标签的样本图像在不同样本子集中的变化程度;
根据具有该标签的样本图像在不同样本子集中的变化程度,确定所述待训练图像分类模型的变化度参数;
根据针对各标签分别确定的交叉熵,采用所述样本子集中的样本图像对所述待训练图像分类模型进行训练,具体包括:
根据针对各标签分别确定的交叉熵以及变化度参数,采用所述样本子集中的样本图像对所述待训练图像分类模型进行训练。
可选地,根据针对各标签分别确定的交叉熵,采用所述样本子集中的样本图像对所述待训练图像分类模型进行训练,具体包括:
将所述样本子集中的样本图像输入所述待训练图像分类模型,得到所述待训练图像分类模型输出的所述样本子集中的样本图像具有各标签的预估概率;
根据针对各标签分别确定的交叉熵、所述预估概率、所述样本子集中的样本图像具有各标签的真实概率,确定所述待训练图像分类模型的损失;
以最小化损失为训练目标,对所述待训练图像分类模型进行训练。
可选地,在采用所述样本子集中的样本图像对所述待训练图像分类模型进行训练之后,所述方法还包括:
获取待分类图像;
将所述待分类图像输入训练后的图像分类模型,得到所述训练后的图像分类模型输出的所述待分类图像具有各标签的预估概率;
根据得到的所述待分类图像具有各标签的预估概率,确定所述待分类图像的标签。
本说明书提供一种训练模型的装置,其特征在于,所述装置包括:
样本子集确定模块,用于从包含多个图像的样本集中选择若干样本图像,确定由选择的所述若干样本图像构成的样本子集;
占比确定模块,用于针对预设的各标签,确定具有该标签的样本图像在所述样本子集中的占比;
交叉熵确定模块,用于根据具有该标签的样本图像在所述样本子集中的占比,确定待训练图像分类模型的交叉熵;
训练模块,用于根据针对各标签分别确定的交叉熵,采用所述样本子集中的样本图像对所述待训练图像分类模型进行训练。
本说明书提供的一种计算机可读存储介质,其特征在于,所述存储介质存储有计算机程序,所述计算机程序被处理器执行时实现上述训练模型的方法。
本说明书提供的一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现上述训练模型的方法。
本说明书实施例采用的上述至少一个技术方案能够达到以下有益效果:
本说明书通过在样本集中选择若干样本图像构成样本子集,针对预设的各标签,确定具有该标签的样本图像在样本子集中的占比,根据具有该标签的样本图像在样本子集中的占比,确定交叉熵,由于不同的样本子集中,具有该标签的样本图像在样本子集中的占比可能不同,交叉熵也可能不同,解决了现有技术中标签权重固定不变的问题,另外,在根据交叉熵对待训练图像分类模型进行训练时,具有小概率标签的样本图像在样本子集中的占比不一定较小,因此上述方法尤其可以解决小概率标签的过拟合学习问题。
附图说明
此处所说明的附图用来提供对本申请的进一步理解,构成本申请的一部分,本申请的示意性实施例及其说明用于解释本申请,并不构成对本申请的不当限定。在附图中:
图1为本说明书实施例提供的一种训练模型的方法流程图;
图2为本说明书实施例提供的标签分类示意图;
图3为本说明书实施例提供的一种训练模型的装置的结构示意图;
图4为本说明书实施例提供的对应于图1的电子设备示意图。
具体实施方式
为使本说明书的目的、技术方案和优点更加清楚,下面将结合本说明书具体实施例及相应的附图对本申请技术方案进行清楚、完整地描述。显然,所描述的实施例仅是本申请一部分实施例,而不是全部的实施例。基于本说明书中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
以下结合附图,详细说明本申请各实施例提供的技术方案。
图1为本说明书实施例提供的一种训练模型的方法流程图,具体可包括以下步骤:
S100:从包含多个图像的样本集中选择若干样本图像,确定由选择的所述若干样本图像构成的样本子集。
本说明书提供的样本集(也称图库)中包含许多不同内容的图像,这些图像大多来源于现实生活,从包含多个图像的样本集中选择若干样本图像时,可在样本集中随机选择样本图像,也可按照一定的规则在样本集中选择样本图像,例如,可将样本集中的图像等分若干份,在每份中随机选择样本图像。
然后,在将选择的若干图像构成样本子集时,由于在训练模型过程中,每次训练均采用一个样本子集进行训练,故,可确定多个样本子集,每个样本子集不完全相同,另外,还可预设样本子集中包含的样本图像的数量。例如,样本集中包含100万个图像,确定10个样本子集,预设样本子集中包含样本图像的数量为30个,则,可将样本集中包含的图像均分为10等份,在第一份中随机选择30个样本图像构成第一样本子集,在第二份中随机选择30个样本图像构成第二样本子集,以此类推,确定10个样本子集。
在本说明书中,可将一个样本子集称为一个batch,为便于描述,下文将样本子集统称为batch。
S102:针对预设的各标签,确定具有该标签的样本图像在所述样本子集中的占比。
在本说明书中,根据日常生活中常见的事物,可预设L个标签,每个图像均可具有一个或多个标签。在本说明书中,由于训练待训练图像分类模型采用的是有监督学习方式,故,可确定样本集中的每个图像具有的标签、以及每个图像具有各标签的真实概率,例如,可预设生物、动物、植物、花卉、玫瑰、食物、餐具、雪橇、棒球等100个标签,一份烛光晚餐的图像可具有食物、玫瑰、餐具等多个标签,但不具有雪橇、棒球等标签,则可知该烛光晚餐的图像具有食物标签的真实概率p为1,具有雪橇标签的真实概率p为0。
通过上述步骤S100确定由若干样本图像构成的batch,可确定batch中每个样本图像具有的标签、以及每个样本图像具有各标签的真实概率。针对预设的各标签,可确定具有该标签的样本图像在所述batch中的占比。具体的,可设batch中包含的样本图像的数量为N,由于可确定每个样本图像具有的标签,故,针对各标签,可确定具有第l个标签的样本图像的数量Ml,则具有第l个标签的样本图像在所述样本子集中的占比xl可如公式(1)确定。
Figure BDA0002274204790000071
当然,还可确定不具有第l个标签的样本图像在所述样本子集中的占比为1-xl,此处不再赘述。
通过上述方法确定的具有第l个标签的样本图像在所述batch中的占比xl可随着batch的不同而发生变化,而在现有技术中,xl表征具有第l个标签的样本图像在样本集(即,整个图库)中的占比,xl的值保持不变,导致当具有第l个标签的样本图像较少时,第l个标签在训练过程中会出现过拟合学习。步骤S102以训练所采用的batch为基础,改变了xl的确定方法,使xl的取值随着不同的batch而发生改变,解决了现有技术中可能出现的过拟合学习问题。
S104:根据具有该标签的样本图像在所述样本子集中的占比,确定待训练图像分类模型的交叉熵。
根据上述步骤S102确定出具有该标签的样本图像在batch中的占比,可确定待训练图像分类模型的模型参数,其中,待训练图像分类模型的模型参数可包括交叉熵α、均衡参数β、子类参数γ、变化度参数δ等中的至少一种。
在确定交叉熵时,首先,根据具有该标签的样本图像在所述样本子集中的占比,可确定该标签对应的交叉熵权重。具体的,由于当具有第l个标签的样本图像在所述batch中的数量较少时(也即,xl较小),训练待训练图像分类模型的过程中,第l个标签可能会出现过拟合学习,为了更加关注x较小的标签,可将x较小的标签设置较大的权重,也即,具有第l个标签的样本图像在batch中的占比与第l个标签对应的交叉熵权重负相关,则可将第l个标签对应的交叉熵权重ωl以xl的反比例函数表示,可将该标签对应的交叉熵权重ωl可如公式(2)所示。
Figure BDA0002274204790000072
另外,针对具有该标签的每个样本图像,确定所述待训练图像分类模型输出的该样本图像具有该标签的预估概率。具体的,针对batch中的具有第l个标签的每个样本图像,可将第n个样本图像输入待训练图像分类模型,得到待训练图像分类模型输出的第n个样本图像具有第l个标签的预估概率
Figure BDA0002274204790000081
由于在有监督学习中,第n个样本图像具有第l个标签的真实概率是确定的,即,当第n个样本图像具有第l个标签时,真实概率pn,l取值为1,或者,当第n个样本图像不具有第l个标签时,真实概率pn,l取值为0。但是,待训练图像分类模型输出的batch中第n个样本图像具有第l个标签的预估概率
Figure BDA0002274204790000082
是训练过程中待训练图像分类模型预估出来的,故,
Figure BDA0002274204790000083
的取值范围为[0,1]。
Figure BDA0002274204790000084
的取值越接近于pn,l,说明待训练图像分类模型越准确。
最后,根据该标签对应的交叉熵权重、该样本图像具有该标签的真实概率以及所述预估概率,确定所述待训练图像分类模型的交叉熵,其中,交叉熵表征该样本图像具有该标签的真实概率与所述预估概率之间的差值。具体的,可根据ωl、pn,l
Figure BDA0002274204790000085
确定第n个样本图像具有第l个标签的交叉熵αn,l,则交叉熵αn,l可表征第n个样本图像具有第l个标签的真实概率pn,l与预估概率
Figure BDA0002274204790000086
之间的差值,故,交叉熵αn,l可如公式(3)所示。
Figure BDA0002274204790000087
由于在训练待训练图像分类模型时,针对第l个标签,仅存在第n个样本图像具有第l个标签或者不具有第l个标签两种情况,故,第n个样本图像具有第l个标签的预估概率
Figure BDA0002274204790000088
服从0-1分布,则交叉熵αn,l可进行简化,简化后的交叉熵αn,l可如公式(4)所示。
Figure BDA0002274204790000089
其中,1-pn,l表示第n个样本图像不具有第l个标签的真实概率,
Figure BDA00022742047900000810
表示待训练图像分类模型输出的第n个样本图像不具有第l个标签的预估概率。
均衡参数β、子类参数γ、变化度参数δ的确定方法将在下文中详细描述。
S106:根据针对各标签分别确定的交叉熵,采用所述样本子集中的样本图像对所述待训练图像分类模型进行训练。
通过上述步骤S104,可确定出待训练图像分类模型的交叉熵α,在对待训练图像分类模型进行训练时,首先,可将所述样本子集中的样本图像输入所述待训练图像分类模型,得到所述待训练图像分类模型输出的所述样本子集中的样本图像具有各标签的预估概率。其次,根据针对各标签分别确定的交叉熵、所述预估概率、所述样本子集中的样本图像具有各标签的真实概率,可确定所述待训练图像分类模型的损失。最后,以最小化损失为训练目标,对所述待训练图像分类模型进行训练。
具体的,当采用batch中的样本图像作为输入信息时,待训练图像分类模型输出样本图像具有各标签的预估概率。这里需要说明的是,将batch包含的第n个样本图像输入待训练图像分类模型,得到的是待训练图像分类模型输出的第n个样本图像具有各标签的预估概率,因此,待训练图像分类模型输出的预估概率是一个由N个L维向量组成的矩阵,其中,L维向量由L个元素
Figure BDA0002274204790000091
组成,
Figure BDA0002274204790000092
代表第n个样本图像具有第l个标签的预估概率。
另外,由于训练待训练图像分类模型采用的是有监督训练,故,batch中的样本图像具有各标签的真实概率是已知的,batch中的样本图像具有各标签的真实概率也可以N个L维向量组成的矩阵表示。例如,N个L维向量组成的矩阵中的pn,l代表batch中第n个样本图像具有第l个标签的真实概率,当pn,l的值为1时,说明第n个样本图像具有第l个标签,当pn,l的值为0时,第n个样本图像不具有第l个标签。
因此,根据针对各标签分别确定的交叉熵、预估概率、所述样本子集中的样本图像具有各标签的真实概率,可确定样本子集中平均每个样本图像具有各标签的预估概率与真实概率的差值,作为待训练图像分类模型的损失Loss,则待训练图像分类模型的损失Loss可如公式(5)所示。
Figure BDA0002274204790000093
当然,在公式(5)的基础上,还可做一系列的变形,例如,可将公式(5)变形为公式(6),又如,可将公式(5)变形为公式(7)。
Figure BDA0002274204790000101
Figure BDA0002274204790000102
其中,公式(6)确定的待训练图像分类模型的损失Loss表征在batch包含的样本图像中平均每个标签的预估概率与真实概率的差值,公式(7)确定的待训练图像分类模型的损失Loss表征batch中平均每个样本图像平均每个标签的预估概率与真实概率的差值。
在以最小化损失Loss为训练目标时,也即,以min{Loss}为训练目标,由于待训练图像分类模型的损失Loss是在交叉熵α的基础上确定的,而交叉熵可表征样本子集包含的样本图像具有各标签的真实概率p与预估概率
Figure BDA0002274204790000103
之间的差值,待训练图像分类模型的损失Loss的值越小,说明样本子集包含的样本图像具有各标签的真实概率p与预估概率
Figure BDA0002274204790000104
越接近,待训练图像分类模型的训练效果越好。
本说明书中的待训练图像分类模型可以是卷积神经网络(Convolutional NeuralNetworks,CNN),由于本说明书采用的是有监督学习,故可采用反向传播算法(Backpropagation Algorithm,BP),在BP框架内进行学习。当然,本说明书中的待训练图像分类模型也可以是具有确定图像标签功能的其他机器学习模型,例如,支持向量机(Support Vector Machine,SVM)、朴素贝叶斯模型(Naive Bayesian Model,NBM)等,根据具有标签的样本图像在样本子集中的占比,确定交叉熵,根据交叉熵对机器学习模型进行训练,关于具体的训练方法,本说明书不再一一赘述。
基于上述训练模型的方法,本说明书还可在确定待训练图像分类模型的交叉熵α之后,确定均衡参数β。首先,根据具有该标签的样本图像在所述样本子集中的占比、以及未具有该标签的样本图像在所述样本子集中的占比,可确定具有该标签的样本图像在所述样本子集中的均衡度。然后,根据所述均衡度,可确定所述待训练图像分类模型的均衡参数。具体的,根据具有该标签的样本图像在所述样本子集中的占比、以及不具有该标签的样本图像在所述样本子集中的占比,可确定具有该标签的样本图像在所述样本子集中的占比与不具有该标签的样本图像在所述样本子集中的占比的乘积,作为具有该标签的样本图像在所述样本子集中的均衡度。根据具有该标签的样本图像在所述样本子集中的均衡度以及自然常数,确定所述待训练图像分类模型的均衡参数。则确定第l个标签在batch中样本图像的均衡度可如公式(8)所示,均衡参数可如公式(9)所示。
bl=xl(1-xl) (8)
Figure BDA0002274204790000111
其中,bl为具有第l个标签的样本图像在batch中的均衡度,βl为待训练图像分类模型的均衡参数。
具有第l个标签的样本图像在batch中的均衡度,表征在batch中具有第l个标签的样本图像的数量与不具有第l个标签的样本图像的数量的均衡关系。在公式(8)中,当具有第l个标签的样本图像在batch中的占比xl的取值为0.5时,第l个标签在batch中样本图像的均衡度bl取最大值,此时具有第l个标签的样本图像的数量与不具有第l个标签的样本图像的数量相同,占batch包含的样本图像数量的一半,当具有第l个标签的样本图像在batch中的占比xl的取值为0或1时,第l个标签在batch中样本图像的均衡度bl取最小值,此时batch中包含的样本图像均具有第l个标签或者均不具有第l个标签。
在公式(9)确定待训练图像分类模型的均衡参数后,可根据针对各标签分别确定的交叉熵以及均衡参数,采用所述样本子集中的样本图像对所述待训练图像分类模型进行训练。具体的,可根据针对各标签分别确定的交叉熵以及均衡参数,确定待训练图像分类模型的损失Loss,可如公式(10)所示。
Figure BDA0002274204790000112
由于公式(9)为单调递减函数,故,当第l个标签在batch中样本图像的均衡度bl最小时,均衡参数βl的值最大。根据公式(10),以min{Loss}为训练目标,对待训练图像分类模型进行训练时,训练过程中更关注在batch中样本图像的均衡度较小的标签,考虑了标签的样本均衡问题。这里需要说明的是,在训练时采用的batch中样本图像的均衡度较小的标签,并不一定是在样本集中均衡度较小的标签,例如,在样本集中具有植物标签的图像占大多数,但是,在训练时采用的样本子集中具有植物标签的样本图像较少,具有植物标签的样本图像在batch中的占比x较小,植物标签对应的交叉熵权重、均衡参数均较大,根据公式(10),以min{Loss}为训练目标时更关注植物标签。
基于上述训练模型的方法,本说明书还可在确定待训练图像分类模型的交叉熵α之后,确定子类参数γ。首先,根据预设的分类规则,可确定该标签所属的子类;其次,确定所述子类的父类的数量;最后,根据所述数量,确定所述待训练图像分类模型的子类参数。具体的,根据所述数量以及自然常数,确定所述待训练图像分类模型的子类参数。
本说明书可根据标签文字含义的抽象程度预设标签的分类,如图2所示,图2为本说明书实施例提供的标签分类示意图,在图2中,标签可分为生物、非生物等,针对生物标签,还可细分为动物、植物等子类,针对植物标签,还可细分为树木、花卉等子类,针对花卉标签,还可细分为玫瑰、百合等子类。文字含义越抽象的标签,父类的数量越少,文字含义越具象的标签,父类的数量越多,例如,植物标签的父类的数量有1个,玫瑰标签的父类的数量有3个。若设第l个标签所属的子类的父类的数量为dl,则子类参数γl可如公式(11)所示。
Figure BDA0002274204790000121
在公式(11)确定待训练图像分类模型的子类参数后,可根据针对各标签分别确定的交叉熵以及子类参数,采用所述样本子集中的样本图像对所述待训练图像分类模型进行训练。具体的,可根据针对各标签分别确定的交叉熵以及子类参数,确定待训练图像分类模型的损失Loss,可如公式(12)所示。
Figure BDA0002274204790000131
由于公式(11)为单调递增函数,故,当第l个标签文字含义越具象时,子类参数γl的值越大。根据公式(12),以min{Loss}为训练目标,对待训练图像分类模型进行训练时,训练过程中更关注文字含义更具象的标签,考虑了标签的文字含义具象问题,在确定待分类图像的标签时,使用该方法训练出的图像分类模型,更倾向于使待分类图像具有文字含义具象的标签。
基于上述训练模型的方法,本说明书还可在确定待训练图像分类模型的交叉熵α之后,确定变化度参数δ。首先,可确定所述样本子集中具有该标签的样本图像的数量,作为第一数量;其次,可确定上一次对所述待训练图像分类模型进行训练时所采用的样本子集中具有该标签的样本图像的数量,作为第二数量;再次,可确定所述第一数量与所述第二数量的差值,作为具有该标签的样本图像在不同样本子集中的变化程度;最后,根据具有该标签的样本图像在不同样本子集中的变化程度,可确定所述待训练图像分类模型的变化度参数。具体的,可确定所述第一数量与所述第二数量的差值绝对值,作为具有该标签的样本图像在不同样本子集中的变化程度,根据具有该标签的样本图像在不同样本子集中的变化程度以及自然常数,确定所述待训练图像分类模型的变化度参数。
本说明书训练待训练图像分类模型采用的是有监督学习,可确定多个batch,每次训练一个batch,对待训练图像分类模型迭代训练。针对各标签,在当前训练过程中,可确定当前训练过程所采用的batch中具有第l个标签的数量ul、以及上一次训练时所采用的batch中具有第l个标签的样本图像的数量vl,设第l个标签在batch中样本图像的变化程度为zl,则确定第l个标签在batch中样本图像的变化程度zl,可如公式(13)所示,确定待训练图像分类模型的变化度参数δl可如公式(14)所示。
zl=|ul-vl| (13)
Figure BDA0002274204790000142
在公式(14)确定待训练图像分类模型的变化度参数后,可根据针对各标签分别确定的交叉熵以及变化度参数,采用所述样本子集中的样本图像对所述待训练图像分类模型进行训练。具体的,可根据针对各标签分别确定的交叉熵以及变化度参数,确定待训练图像分类模型的损失Loss,可如公式(15)所示。
Figure BDA0002274204790000141
由于公式(14)为单调递减函数,故,当第l个标签在batch中样本图像的变化程度zl越小时,变化度参数δl的值越大,也即,在当前训练过程中所采用的batch具有该标签的样本图像的数量,与上一次训练过程中所采用的batch具有该标签的样本图像的数量差值越小时,变化度参数δl的值越大。根据公式(15),以min{Loss}为训练目标,对待训练图像分类模型进行训练时,训练过程中更关注在batch中样本图像的变化程度更小的标签,考虑了标签在样本集中的分布情况。以天空标签与雪橇标签为例,样本集中大多数图像具有天空标签,较少的图像具有雪橇标签,故,根据样本集确定若干个batch时,大部分的batch可能有较多的具有天空标签的样本图像,具有较少或者不具有雪橇标签的样本图像,则针对天空标签,在每个batch中样本图像的变化程度可能均会发生变化,但是,针对雪橇标签,在大多数的batch中样本图像的变化程度可能均为0。故,在待训练图像分类模型的损失Loss中加入变化度参数,更关注标签在样本集中的分布情况,尤其是雪橇标签等在样本集中的图像数量较少的标签。
本说明书还可根据针对各标签分别确定的交叉熵α、均衡参数β、子类参数γ、变化度参数δ,确定所述待训练图像分类模型的损失,则确定待训练图像分类模型的损失Loss,可如公式(16)所示。
Figure BDA0002274204790000151
另外,在公式(16)的基础上,还可做其他的变形,例如,可将公式(16)变形为公式(17)。
Figure BDA0002274204790000152
根据公式(17),以min{Loss}为训练目标,对待训练图像分类模型进行训练时,训练过程中更关注在batch中样本图像的均衡度较小的标签,和/或在batch中样本图像的变化程度更小的标签,和/或文字含义更具象的标签,考虑了标签的样本均衡问题、文字含义具象问题以及在样本集中的分布情况。
在本说明书中,按照上述方法训练完成待训练图像分类模型之后,可将训练后的图像分类模型应用于确定图像标签的场景。
首先,可获取待分类图像;其次,将所述待分类图像输入训练后的图像分类模型,可得到所述训练后的图像分类模型输出的所述待分类图像具有各标签的预估概率;最后,根据得到的所述待分类图像具有各标签的预估概率,可确定所述待分类图像的标签。
具体的,训练后的图像分类模型可输出待分类图像具有各标签的预估概率,预估概率可以向量表示。在确定待分类图像的标签时,可首先将向量中的各元素按照元素的数值按由大到小的方式进行排序,得到排序后的预估概率向量。之后,可预设概率阈值,判断排序后的预估概率向量中各元素数值与概率阈值的大小,并可将大于概率阈值的元素数值设置为1,将不大于概率阈值的元素数值设置为0,得到设置后的预估概率向量。最后,根据设置后的预估概率向量,将元素数值为1对应的标签设置为待分类图像的标签。
基于图1所示的训练模型的方法,本说明书实施例还对应提供一种训练模型的装置的结构示意图,如图3所示。
图3为本说明书实施例提供的一种训练模型的装置的结构示意图,所述装置包括:
样本子集确定模块301,用于从包含多个图像的样本集中选择若干样本图像,确定由选择的所述若干样本图像构成的样本子集;
占比确定模块302,用于针对预设的各标签,确定具有该标签的样本图像在所述样本子集中的占比;
交叉熵确定模块303,用于根据具有该标签的样本图像在所述样本子集中的占比,确定待训练图像分类模型的交叉熵;
训练模块304,用于根据针对各标签分别确定的交叉熵,采用所述样本子集中的样本图像对所述待训练图像分类模型进行训练。
可选地,所述交叉熵确定模块303具体用于,根据具有该标签的样本图像在所述样本子集中的占比,确定该标签对应的交叉熵权重;针对具有该标签的每个样本图像,确定所述待训练图像分类模型输出的该样本图像具有该标签的预估概率;根据该标签对应的交叉熵权重、该样本图像具有该标签的真实概率以及所述预估概率,确定所述待训练图像分类模型的交叉熵。
可选地,所述装置还包括:均衡参数确定模块305、子类参数确定模块306、变化度参数确定模块307、模型应用模块308;
所述均衡参数确定模块305具体用于,根据具有该标签的样本图像在所述样本子集中的占比、以及不具有该标签的样本图像在所述样本子集中的占比,确定具有该标签的样本图像在所述样本子集中的均衡度;根据所述均衡度,确定所述待训练图像分类模型的均衡参数;
所述训练模块304具体用于,根据针对各标签分别确定的交叉熵以及均衡参数,采用所述样本子集中的样本图像对所述待训练图像分类模型进行训练。
可选地,所述子类参数确定模块306具体用于,根据预设的分类规则,确定该标签所属的子类;确定所述子类的父类的数量;根据所述数量,确定所述待训练图像分类模型的子类参数;
所述训练模块304具体用于,根据针对各标签分别确定的交叉熵以及子类参数,采用所述样本子集中的样本图像对所述待训练图像分类模型进行训练。
可选地,所述变化度参数确定模块307具体用于,确定所述样本子集中具有该标签的样本图像的数量,作为第一数量;确定上一次对所述待训练图像分类模型进行训练时所采用的样本子集中具有该标签的样本图像的数量,作为第二数量;确定所述第一数量与所述第二数量的差值,作为具有该标签的样本图像在不同样本子集中的变化程度;根据具有该标签的样本图像在不同样本子集中的变化程度,确定所述待训练图像分类模型的变化度参数;
所述训练模块304具体用于,根据针对各标签分别确定的交叉熵以及变化度参数,采用所述样本子集中的样本图像对所述待训练图像分类模型进行训练。
可选地,所述训练模块304具体用于,将所述样本子集中的样本图像输入所述待训练图像分类模型,得到所述待训练图像分类模型输出的所述样本子集中的样本图像具有各标签的预估概率;根据针对各标签分别确定的交叉熵、所述预估概率、所述样本子集中的样本图像具有各标签的真实概率,确定所述待训练图像分类模型的损失;以最小化损失为训练目标,对所述待训练图像分类模型进行训练。
可选地,所述模型应用模块308具体用于,获取待分类图像;将所述待分类图像输入训练后的图像分类模型,得到所述训练后的图像分类模型输出的所述待分类图像具有各标签的预估概率;根据得到的所述待分类图像具有各标签的预估概率,确定所述待分类图像的标签。
本说明书实施例还提供了一种计算机可读存储介质,该存储介质存储有计算机程序,计算机程序可用于执行上述图1提供的训练模型的方法。
基于图1所示的训练模型的方法,本说明书实施例还提出了图4所示的电子设备的示意结构图。如图4,在硬件层面,该电子设备包括处理器、内部总线、网络接口、内存以及非易失性存储器,当然还可能包括其他业务所需要的硬件。处理器从非易失性存储器中读取对应的计算机程序到内存中然后运行,以实现上述图1所述的训练模型的方法。
当然,除了软件实现方式之外,本说明书并不排除其他实现方式,比如逻辑器件抑或软硬件结合的方式等等,也就是说以下处理流程的执行主体并不限定于各个逻辑单元,也可以是硬件或逻辑器件。
在20世纪90年代,对于一个技术的改进可以很明显地区分是硬件上的改进(例如,对二极管、晶体管、开关等电路结构的改进)还是软件上的改进(对于方法流程的改进)。然而,随着技术的发展,当今的很多方法流程的改进已经可以视为硬件电路结构的直接改进。设计人员几乎都通过将改进的方法流程编程到硬件电路中来得到相应的硬件电路结构。因此,不能说一个方法流程的改进就不能用硬件实体模块来实现。例如,可编程逻辑器件(Programmable Logic Device,PLD)(例如现场可编程门阵列(Field Programmable GateArray,FPGA))就是这样一种集成电路,其逻辑功能由用户对器件编程来确定。由设计人员自行编程来把一个数字系统“集成”在一片PLD上,而不需要请芯片制造厂商来设计和制作专用的集成电路芯片。而且,如今,取代手工地制作集成电路芯片,这种编程也多半改用“逻辑编译器(logic compiler)”软件来实现,它与程序开发撰写时所用的软件编译器相类似,而要编译之前的原始代码也得用特定的编程语言来撰写,此称之为硬件描述语言(Hardware Description Language,HDL),而HDL也并非仅有一种,而是有许多种,如ABEL(Advanced Boolean Expression Language)、AHDL(Altera Hardware DescriptionLanguage)、Confluence、CUPL(Cornell University Programming Language)、HDCal、JHDL(Java Hardware Description Language)、Lava、Lola、MyHDL、PALASM、RHDL(RubyHardware Description Language)等,目前最普遍使用的是VHDL(Very-High-SpeedIntegrated Circuit Hardware Description Language)与Verilog。本领域技术人员也应该清楚,只需要将方法流程用上述几种硬件描述语言稍作逻辑编程并编程到集成电路中,就可以很容易得到实现该逻辑方法流程的硬件电路。
控制器可以按任何适当的方式实现,例如,控制器可以采取例如微处理器或处理器以及存储可由该(微)处理器执行的计算机可读程序代码(例如软件或固件)的计算机可读介质、逻辑门、开关、专用集成电路(Application Specific Integrated Circuit,ASIC)、可编程逻辑控制器和嵌入微控制器的形式,控制器的例子包括但不限于以下微控制器:ARC 625D、Atmel AT91SAM、Microchip PIC18F26K20以及Silicone Labs C8051F320,存储器控制器还可以被实现为存储器的控制逻辑的一部分。本领域技术人员也知道,除了以纯计算机可读程序代码方式实现控制器以外,完全可以通过将方法步骤进行逻辑编程来使得控制器以逻辑门、开关、专用集成电路、可编程逻辑控制器和嵌入微控制器等的形式来实现相同功能。因此这种控制器可以被认为是一种硬件部件,而对其内包括的用于实现各种功能的装置也可以视为硬件部件内的结构。或者甚至,可以将用于实现各种功能的装置视为既可以是实现方法的软件模块又可以是硬件部件内的结构。
上述实施例阐明的系统、装置、模块或单元,具体可以由计算机芯片或实体实现,或者由具有某种功能的产品来实现。一种典型的实现设备为计算机。具体的,计算机例如可以为个人计算机、膝上型计算机、蜂窝电话、相机电话、智能电话、个人数字助理、媒体播放器、导航设备、电子邮件设备、游戏控制台、平板计算机、可穿戴设备或者这些设备中的任何设备的组合。
为了描述的方便,描述以上装置时以功能分为各种单元分别描述。当然,在实施本说明书时可以把各单元的功能在同一个或多个软件和/或硬件中实现。
本领域内的技术人员应明白,本发明的实施例可提供为方法、系统、或计算机程序产品。因此,本发明可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本发明是参照根据本发明实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
在一个典型的配置中,计算设备包括一个或多个处理器(CPU)、输入/输出接口、网络接口和内存。
内存可能包括计算机可读介质中的非永久性存储器,随机存取存储器(RAM)和/或非易失性内存等形式,如只读存储器(ROM)或闪存(flash RAM)。内存是计算机可读介质的示例。
计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带磁磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。按照本文中的界定,计算机可读介质不包括暂存电脑可读媒体(transitory media),如调制的数据信号和载波。
还需要说明的是,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、商品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、商品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、商品或者设备中还存在另外的相同要素。
本领域技术人员应明白,本说明书的实施例可提供为方法、系统或计算机程序产品。因此,本说明书可采用完全硬件实施例、完全软件实施例或结合软件和硬件方面的实施例的形式。而且,本说明书可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本说明书可以在由计算机执行的计算机可执行指令的一般上下文中描述,例如程序模块。一般地,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、组件、数据结构等等。也可以在分布式计算环境中实践本说明书,在这些分布式计算环境中,由通过通信网络而被连接的远程处理设备来执行任务。在分布式计算环境中,程序模块可以位于包括存储设备在内的本地和远程计算机存储介质中。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于系统实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
以上所述仅为本说明书的实施例而已,并不用于限制本说明书。对于本领域技术人员来说,本说明书可以有各种更改和变化。凡在本说明书的精神和原理之内所作的任何修改、等同替换、改进等,均应包含在本说明书的权利要求范围之内。

Claims (10)

1.一种训练模型的方法,其特征在于,所述方法包括:
从包含多个图像的样本集中选择若干样本图像,确定由选择的所述若干样本图像构成的样本子集;
针对预设的各标签,确定具有该标签的样本图像在所述样本子集中的占比;
根据具有该标签的样本图像在所述样本子集中的占比,确定待训练图像分类模型的交叉熵;
根据针对各标签分别确定的交叉熵,采用所述样本子集中的样本图像对所述待训练图像分类模型进行训练。
2.如权利要求1所述的方法,其特征在于,根据具有该标签的样本图像在所述样本子集中的占比,确定待训练图像分类模型的交叉熵,具体包括:
根据具有该标签的样本图像在所述样本子集中的占比,确定该标签对应的交叉熵权重;
针对具有该标签的每个样本图像,确定所述待训练图像分类模型输出的该样本图像具有该标签的预估概率;
根据该标签对应的交叉熵权重、该样本图像具有该标签的真实概率以及所述预估概率,确定所述待训练图像分类模型的交叉熵。
3.如权利要求1所述的方法,其特征在于,所述方法还包括:
根据具有该标签的样本图像在所述样本子集中的占比、以及不具有该标签的样本图像在所述样本子集中的占比,确定具有该标签的样本图像在所述样本子集中的均衡度;
根据所述均衡度,确定所述待训练图像分类模型的均衡参数;
根据针对各标签分别确定的交叉熵,采用所述样本子集中的样本图像对所述待训练图像分类模型进行训练,具体包括:
根据针对各标签分别确定的交叉熵以及均衡参数,采用所述样本子集中的样本图像对所述待训练图像分类模型进行训练。
4.如权利要求1所述的方法,其特征在于,所述方法还包括:
根据预设的分类规则,确定该标签所属的子类;
确定所述子类的父类的数量;
根据所述数量,确定所述待训练图像分类模型的子类参数;
根据针对各标签分别确定的交叉熵,采用所述样本子集中的样本图像对所述待训练图像分类模型进行训练,具体包括:
根据针对各标签分别确定的交叉熵以及子类参数,采用所述样本子集中的样本图像对所述待训练图像分类模型进行训练。
5.如权利要求1所述的方法,其特征在于,所述方法还包括:
确定所述样本子集中具有该标签的样本图像的数量,作为第一数量;
确定上一次对所述待训练图像分类模型进行训练时所采用的样本子集中具有该标签的样本图像的数量,作为第二数量;
确定所述第一数量与所述第二数量的差值,作为具有该标签的样本图像在不同样本子集中的变化程度;
根据具有该标签的样本图像在不同样本子集中的变化程度,确定所述待训练图像分类模型的变化度参数;
根据针对各标签分别确定的交叉熵,采用所述样本子集中的样本图像对所述待训练图像分类模型进行训练,具体包括:
根据针对各标签分别确定的交叉熵以及变化度参数,采用所述样本子集中的样本图像对所述待训练图像分类模型进行训练。
6.如权利要求1所述的方法,其特征在于,根据针对各标签分别确定的交叉熵,采用所述样本子集中的样本图像对所述待训练图像分类模型进行训练,具体包括:
将所述样本子集中的样本图像输入所述待训练图像分类模型,得到所述待训练图像分类模型输出的所述样本子集中的样本图像具有各标签的预估概率;
根据针对各标签分别确定的交叉熵、所述预估概率、所述样本子集中的样本图像具有各标签的真实概率,确定所述待训练图像分类模型的损失;
以最小化损失为训练目标,对所述待训练图像分类模型进行训练。
7.如权利要求1所述的方法,其特征在于,在采用所述样本子集中的样本图像对所述待训练图像分类模型进行训练之后,所述方法还包括:
获取待分类图像;
将所述待分类图像输入训练后的图像分类模型,得到所述训练后的图像分类模型输出的所述待分类图像具有各标签的预估概率;
根据得到的所述待分类图像具有各标签的预估概率,确定所述待分类图像的标签。
8.一种训练模型的装置,其特征在于,所述装置包括:
样本子集确定模块,用于从包含多个图像的样本集中选择若干样本图像,确定由选择的所述若干样本图像构成的样本子集;
占比确定模块,用于针对预设的各标签,确定具有该标签的样本图像在所述样本子集中的占比;
交叉熵确定模块,用于根据具有该标签的样本图像在所述样本子集中的占比,确定待训练图像分类模型的交叉熵;
训练模块,用于根据针对各标签分别确定的交叉熵,采用所述样本子集中的样本图像对所述待训练图像分类模型进行训练。
9.一种计算机可读存储介质,其特征在于,所述存储介质存储有计算机程序,所述计算机程序被处理器执行时实现上述权利要求1-7任一所述的方法。
10.一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现上述权利要求1-7任一所述的方法。
CN201911116503.4A 2019-11-15 2019-11-15 一种训练模型的方法及装置 Active CN110991496B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911116503.4A CN110991496B (zh) 2019-11-15 2019-11-15 一种训练模型的方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911116503.4A CN110991496B (zh) 2019-11-15 2019-11-15 一种训练模型的方法及装置

Publications (2)

Publication Number Publication Date
CN110991496A true CN110991496A (zh) 2020-04-10
CN110991496B CN110991496B (zh) 2023-05-30

Family

ID=70084342

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911116503.4A Active CN110991496B (zh) 2019-11-15 2019-11-15 一种训练模型的方法及装置

Country Status (1)

Country Link
CN (1) CN110991496B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112734035A (zh) * 2020-12-31 2021-04-30 成都佳华物链云科技有限公司 一种数据处理方法及装置、可读存储介质

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160096272A1 (en) * 2014-10-02 2016-04-07 Brain Corporation Apparatus and methods for training of robots
CN107633223A (zh) * 2017-09-15 2018-01-26 深圳市唯特视科技有限公司 一种基于深层对抗网络的视频人体属性识别方法
CN109359725A (zh) * 2018-10-24 2019-02-19 北京周同科技有限公司 卷积神经网络模型的训练方法、装置、设备及计算机可读存储介质
CN109447906A (zh) * 2018-11-08 2019-03-08 北京印刷学院 一种基于生成对抗网络的图片合成方法
KR20190053028A (ko) * 2017-11-09 2019-05-17 한국전자통신연구원 제약조건 영향력 제어 계층을 이용한 신경망 학습 기반의 신경망 기계 번역 장치 및 그 동작방법
CN109801636A (zh) * 2019-01-29 2019-05-24 北京猎户星空科技有限公司 声纹识别模型的训练方法、装置、电子设备及存储介质
CN110059734A (zh) * 2019-04-02 2019-07-26 唯思科技(北京)有限公司 一种目标识别分类模型的训练方法、物体识别方法、装置、机器人和介质
CN110084271A (zh) * 2019-03-22 2019-08-02 同盾控股有限公司 一种图片类别的识别方法和装置
CN110287850A (zh) * 2019-06-20 2019-09-27 北京三快在线科技有限公司 一种模型训练以及目标物识别的方法及装置
CN110348572A (zh) * 2019-07-09 2019-10-18 上海商汤智能科技有限公司 神经网络模型的处理方法及装置、电子设备、存储介质

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160096272A1 (en) * 2014-10-02 2016-04-07 Brain Corporation Apparatus and methods for training of robots
CN107633223A (zh) * 2017-09-15 2018-01-26 深圳市唯特视科技有限公司 一种基于深层对抗网络的视频人体属性识别方法
KR20190053028A (ko) * 2017-11-09 2019-05-17 한국전자통신연구원 제약조건 영향력 제어 계층을 이용한 신경망 학습 기반의 신경망 기계 번역 장치 및 그 동작방법
CN109359725A (zh) * 2018-10-24 2019-02-19 北京周同科技有限公司 卷积神经网络模型的训练方法、装置、设备及计算机可读存储介质
CN109447906A (zh) * 2018-11-08 2019-03-08 北京印刷学院 一种基于生成对抗网络的图片合成方法
CN109801636A (zh) * 2019-01-29 2019-05-24 北京猎户星空科技有限公司 声纹识别模型的训练方法、装置、电子设备及存储介质
CN110084271A (zh) * 2019-03-22 2019-08-02 同盾控股有限公司 一种图片类别的识别方法和装置
CN110059734A (zh) * 2019-04-02 2019-07-26 唯思科技(北京)有限公司 一种目标识别分类模型的训练方法、物体识别方法、装置、机器人和介质
CN110287850A (zh) * 2019-06-20 2019-09-27 北京三快在线科技有限公司 一种模型训练以及目标物识别的方法及装置
CN110348572A (zh) * 2019-07-09 2019-10-18 上海商汤智能科技有限公司 神经网络模型的处理方法及装置、电子设备、存储介质

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112734035A (zh) * 2020-12-31 2021-04-30 成都佳华物链云科技有限公司 一种数据处理方法及装置、可读存储介质
CN112734035B (zh) * 2020-12-31 2023-10-27 成都佳华物链云科技有限公司 一种数据处理方法及装置、可读存储介质

Also Published As

Publication number Publication date
CN110991496B (zh) 2023-05-30

Similar Documents

Publication Publication Date Title
CN107957989B (zh) 基于集群的词向量处理方法、装置以及设备
CN107679686B (zh) 一种业务执行方法及装置
CN114202370A (zh) 一种信息推荐方法和装置
CN109034183B (zh) 一种目标检测方法、装置及设备
CN111144126A (zh) 一种语义分析模型的训练方法、语义分析方法及装置
CN112308113A (zh) 一种基于半监督的目标识别方法、设备及介质
CN112860968A (zh) 一种异常检测的方法以及装置
CN114332873A (zh) 一种识别模型的训练方法及装置
CN116628198A (zh) 一种文本生成模型的训练方法、装置、介质及电子设备
CN114972774B (zh) 特定区域的图像描述生成方法、装置、设备及存储介质
CN115146601A (zh) 语言处理任务的执行方法、装置、可读存储介质以及设备
CN111652286A (zh) 一种基于图嵌入的物体识别方法、设备及介质
CN112966577B (zh) 一种模型训练以及信息提供的方法及装置
CN111368902A (zh) 一种数据标注的方法及装置
CN110991496A (zh) 一种训练模型的方法及装置
CN117036829A (zh) 一种基于原型学习实现标签增强的叶片细粒度识别方法和系统
CN114926687A (zh) 一种分类模型的训练方法及装置
CN114997277A (zh) 一种模型训练的方法、任务执行的方法及装置
CN114861665A (zh) 一种强化学习模型训练以及确定数据关系的方法及装置
CN112417275A (zh) 一种信息提供的方法、装置存储介质及电子设备
CN114860967A (zh) 一种模型训练的方法、信息推荐的方法以及装置
CN113344197A (zh) 一种识别模型的训练方法、业务执行的方法以及装置
CN113205377A (zh) 一种信息推荐的方法及装置
CN107844472B (zh) 词向量处理方法、装置以及电子设备
CN111539520A (zh) 增强深度学习模型鲁棒性的方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant