CN110874604A - 模型训练方法及终端设备 - Google Patents

模型训练方法及终端设备 Download PDF

Info

Publication number
CN110874604A
CN110874604A CN201811004580.6A CN201811004580A CN110874604A CN 110874604 A CN110874604 A CN 110874604A CN 201811004580 A CN201811004580 A CN 201811004580A CN 110874604 A CN110874604 A CN 110874604A
Authority
CN
China
Prior art keywords
training data
model
training
data set
sample
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201811004580.6A
Other languages
English (en)
Inventor
蒋佳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
TCL Corp
TCL Research America Inc
Original Assignee
TCL Research America Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by TCL Research America Inc filed Critical TCL Research America Inc
Priority to CN201811004580.6A priority Critical patent/CN110874604A/zh
Publication of CN110874604A publication Critical patent/CN110874604A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques

Landscapes

  • Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Probability & Statistics with Applications (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及计算机技术领域,提供了一种模型训练方法及终端设备。该方法包括:获取待训练模型和训练数据;所述训练数据包括多个样本,且每个样本对应一个概率值;根据各个样本的概率值从所述训练数据中选取若干个样本生成训练数据集;通过所述训练数据集对所述待训练模型进行训练,并获取所述待训练模型对所述训练数据集的识别结果;根据所述识别结果和所述训练数据集计算所述训练数据集的聚类效果评估值;根据所述聚类效果评估值对所述训练数据集中各样本对应的概率值进行调整。本发明通过将模型训练和训练数据的筛选相结合,能够提高模型训练的训练效率;在训练迭代过程中能够增强难识别样本对模型训练的效果,进而提高训练后模型的鲁棒性和准确率。

Description

模型训练方法及终端设备
技术领域
本发明涉及计算机技术领域,尤其涉及一种模型训练方法及终端设备。
背景技术
人工智能技术需要使用大量的训练数据进行模型训练。以人工智能人脸识别技术为例,如果要训练一个性能优越的模型,动辄需要成百万级的人脸图片。大量的人脸图片,需要耗费大量的人力物力对不同人的人脸进行人工采集及清理。而由于人眼疲劳等因素,人工采集到的大量图片中,很可能会有错误的图片,导致训练集里面的图片有很多噪声图片。
另外,训练数据中有一些人脸图片,可能因为光照、拍摄角度等,导致识别难度较高。但是在现实的应用中,这些场景下的人脸识别却往往需要识别准确。如果将这些难识别的样本专门挑出来进行对模型加强训练,会耗费较多的时间和人力。
现有的训练数据清理工作都是靠人工完成,清理成本较高且清理效率低下。对于难识别的样本,是通过先训练模型,然后再用训练好的模型对训练数据进行验证,将其中判定错误的样本作为难识别样本,用这些样本重新训练模型。这种训练方式的训练周期长,效率低。
发明内容
有鉴于此,本发明实施例提供了模型训练及终端设备,以解决目前由于训练数据中存在噪声样本及难识别的样本导致模型训练的训练周期长、效率低的问题。
本发明实施例的第一方面提供了模型训练方法,包括:
获取待训练模型和训练数据;所述训练数据包括多个样本,且每个样本对应一个概率值;
根据各个样本的概率值从所述训练数据中选取若干个样本生成训练数据集;
通过所述训练数据集对所述待训练模型进行训练,并获取所述待训练模型对所述训练数据集的识别结果;
根据所述识别结果和所述训练数据集计算所述训练数据集的聚类效果评估值;
根据所述聚类效果评估值对所述训练数据集中各样本对应的概率值进行调整。
本发明实施例的第二方面提供了模型训练装置,包括:
获取模块,用于获取待训练模型和训练数据;所述训练数据包括多个样本,且每个样本对应一个概率值;
选取模块,用于根据各个样本的概率值从所述训练数据中选取若干个样本生成训练数据集;
训练模块,用于通过所述训练数据集对所述待训练模型进行训练,并获取所述待训练模型对所述训练数据集的识别结果;
评估模块,用于根据所述识别结果和所述训练数据集计算所述训练数据集的聚类效果评估值;
调整模块,用于根据所述聚类效果评估值对所述训练数据集中各样本对应的概率值进行调整。
本发明实施例的第三方面提供了终端设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现第一方面中的模型训练方法。
本发明实施例的第四方面提供了计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现第一方面中的模型训练方法。
本发明实施例与现有技术相比存在的有益效果是:训练数据中每个样本对应一个概率值,根据概率值从训练数据中选取训练数据集,将概率值作为选取样本的参考能够对样本进行筛选;通过计算训练数据集的聚类效果评估值,再根据聚类效果评估值对训练数据集中各样本对应的概率值进行调整,能够利用聚类分析及时调整训练数据中样本的概率值,使每次选取到的训练数据集包含更多的对模型训练有效的训练样本,进而提高训练效率。本发明实施例将训练数据的筛选加入模型训练过程中,利用模型对样本的识别结果指导样本的概率值调整,通过概率值调整样本选取的优先级,实现对训练数据的筛选,通过将模型训练和训练数据的筛选相结合,能够提高模型训练的训练效率;在训练迭代过程中能够逐渐降低训练数据中噪声样本对模型训练的影响,增强难识别样本对模型训练的效果,进而提高训练后模型的鲁棒性和准确率。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1是本发明实施例提供的模型训练方法的实现流程图;
图2是本发明实施例提供的模型训练方法中选取训练数据集的实现流程图;
图3是本发明实施例提供的模型训练方法中对样本概率值进行调整的实现流程图;
图4是本发明实施例提供的模型训练方法中对损失函数进行调制的实现流程图;
图5是本发明实施例提供的模型训练装置的示意图;
图6是本发明实施例提供的终端设备的示意图。
具体实施方式
以下描述中,为了说明而不是为了限定,提出了诸如特定系统结构、技术之类的具体细节,以便透彻理解本发明实施例。然而,本领域的技术人员应当清楚,在没有这些具体细节的其它实施例中也可以实现本发明。在其它情况中,省略对众所周知的系统、装置、电路以及方法的详细说明,以免不必要的细节妨碍本发明的描述。
为了说明本发明所述的技术方案,下面通过具体实施例来进行说明。
图1为本发明实施例提供的模型训练方法的实现流程图,详述如下:
在S101中,获取待训练模型和训练数据;所述训练数据包括多个样本,且每个样本对应一个概率值。
在本实施例中,待训练模型为需要数据进行训练以提高性能的模型,例如待训练模型可以人脸识别模型、图像检测模型、语音识别模型、模式识别模型等,待训练模型可以是神经网络模型、决策树模型、聚类模型等,也可以是其它模型,在此不作限定。
训练数据用于训练待训练模型。训练数据可以为图像、语音、文字等,在此不作限定。训练数据包括多个样本,一个样本对应于一个概率值。概率值用于表征样本对模型性能的提升程度。概率值越大,表明将该样本对模型训练后对模型性能的提升程度越大,训练效果越好。在开始模型训练之前,可以为训练数据中每个样本设置一个初始概率值,在训练迭代过程中根据训练情况及时对样本的概率值进行调整。
在S102中,根据各个样本的概率值从所述训练数据中选取若干个样本生成训练数据集。
在本实施例中,可以根据概率值从训练数据中选取对模型性能有较大提升作用的样本,组成训练数据集,采用训练数据集对模型进行训练。
作为本发明的一个实施例,如图2所示,S102可以包括:
在S201中,按照样本的概率值对样本进行排序。
在S202中,选取概率值较高的预设数目的样本组成训练数据集。
在本实施例中,在需要从训练数据中选取预设数目的样本组成训练数据集时,可以按照概率值的大小对样本进行排序,选取其中概率值较大的预设数目的样本,这些样本对模型性能的提升效果更好,将这些样本组成训练数据集。
例如,可以首先从训练数据中随机选取N倍的预设数目的样本,N的取值范围可以包括但不限于4至10。将选取到的N倍的预设数目的样本按照概率值由大到小进行排序,从其中选出概率值较高的预设数目的样本组成训练数据集,将该训练数据集作为当前一轮的模型训练输入。
本实施例按照概率值对样本进行排序,能够根据概率值对训练数据中的样本进行筛选和区分,使选取到的训练数据集中包括对模型性能的提升效果较大的样本,从而提高模型训练效率。
在S103中,通过所述训练数据集对所述待训练模型进行训练,并获取所述待训练模型对所述训练数据集的识别结果。
在本实施例中,可以将训练数据集输入待训练模型,对待训练模型进行训练。可以根据待训练模型的结构或功能等确定具体的训练方式,例如可以涉及卷积、激励及池化层等,在此不作限定。
在训练数据集输入待训练模型后,可以获得当前待训练模型对训练数据集的识别结果。识别结果包括训练数据集中各样本的识别结果。例如,如果是分类模型,则识别结果可以为样本属于某类,如果是特征提取模型,则识别结果可以为样本中包含某特征等,在此不对识别结果进行限定。
在S104中,根据所述识别结果和所述训练数据集计算所述训练数据集的聚类效果评估值。
在本实施例中,训练数据集中包含多个样本及样本对应的真实数据。例如对于图像分类模型,样本可以为图像,样本对应的真实数据可以为图像实际所属的类型。识别结果是训练过程中待训练模型对样本的识别结果,识别结果可能与样本的真实数据一致,也可能与样本的真实数据不一致。将训练数据集作为一个聚类,通过聚类效果评价指标来评价该聚类的聚类效果。其中聚类效果评价指标可以为兰德系数(Rand Index,RI)、调整兰德系数(Adjusted Rand index)轮廓系数(Silhouette Coefficient,SC)、互信息评分(MutualInformation based scores)等,在此不作限定。可以根据训练数据集中各样本对应的识别结果、对应的真实数据及聚类效果评价指标计算训练数据集的聚类效果评估值。
作为本发明的一个实施例,所述聚类效果评估值为兰德系数或轮廓系数。
在本实施例中,待训练模型处理分类任务时,可以选用兰德系数作为聚类效果评价值。例如,可以根据公式(1)计算兰德系数:
RI=(TP+TN)/(TP+FP+FN+TN) (1)
其中,RI为兰德系数;TP为同一类中的样本,被分到同一类的数量;FN为同一类中的样本,被分到不同类的数量;FP为不同类中的样本,被分到同一类的数量;TN为不同类中的样本,被分到不同类的数量。
本实施例在训练模型的目的为识别具体标签的情况下,采用兰德系数评价聚类效果,通过聚类的效果实时调整训练数据中样本的概率值,通过概率值达到对训练数据筛选噪声样本和难识别样本的目的,从而实现对样本的筛选,提高训练效率和训练效果。
待训练模型处理回归问题时,可以选用轮廓系数作为聚类效果评价值。例如,可以根据公式(2)计算轮廓系数:
SC=mean(SCi);SCi=(DMi–SMi)/max(SMi,DMi) (2)
其中,SC为训练数据集的轮廓系数;mean(SCi)为训练数据集中各样本的轮廓系数的平均值;SCi为第i个样本的轮廓系数;SMi为第i个样本与其相同类的其他样本距离的平均值;DMi为第i个样本与其他不同类的其他样本之间的平均类间距离。
本实施例在训练模型的目的为提取特征向量时,采用轮廓系数评价方法,通过度量聚类效果的凝聚度和分离度的质量,实时调整训练数据的概率值。通过概率值,达到增减训练样本权重的效果,在训练数据中筛选出不要的噪声样本,保留和增强难识别样本,从而实现对样本的筛选,提高训练效率和训练效果。
从公式(1)和公式(2)可以看出,RI和SC的取值范围均为0至1。
在S105中,根据所述聚类效果评估值对所述训练数据集中各样本对应的概率值进行调整。
在本实施例中,聚类效果评估模块可以反映出训练数据集对模型性能的提升作用,可以根据聚类效果评估值对训练数据集中样本的概率值进行调整。这样在训练迭代过程中,每次对训练数据集中样本的概率值进行调整,以便下次选取到的训练数据集中包含更多对模型性能有提升作用的样本。经过多次训练迭代,训练数据中噪声样本的概率值逐渐减小,难识别样本的概率值逐渐增大,可以实现对训练数据中的样本进行筛选和区分。而采用难识别样本对模型进行训练能使模型性能得到更大的提升,将训练数据中对模型性能有提升作用的样本筛选出来对模型进行训练,使训练更为高效,训练后的模型准确性更高。
在本发明实施例中,训练数据中每个样本对应一个概率值,根据概率值从训练数据中选取训练数据集,将概率值作为选取样本的参考能够对样本进行筛选;通过计算训练数据集的聚类效果评估值,再根据聚类效果评估值对训练数据集中各样本对应的概率值进行调整,能够利用聚类分析及时调整训练数据中样本的概率值,使每次选取到的训练数据集包含更多的对模型训练有效的训练样本,进而提高训练效率。本发明实施例将训练数据的筛选加入模型训练过程中,利用模型对样本的识别结果指导样本的概率值调整,通过概率值调整样本选取的优先级,实现对训练数据的筛选,通过将模型训练和训练数据的筛选相结合,能够提高模型训练的训练效率;在训练迭代过程中能够逐渐降低训练数据中噪声样本对模型训练的影响,增强难识别样本对模型训练的效果,进而提高训练后模型的鲁棒性和准确率。
作为本发明的一个实施例,如图3所示,S105可以包括:
在S301中,将当前计算出的聚类效果评估值与上一次计算出的聚类效果评估值二者进行对比。
在每次训练迭代过程中,都会进行训练数据集的选取,根据训练数据集对待训练模型进行训练,以及计算训练数据集的聚类效果评估值。当前计算出的聚类效果评估值为当前次迭代过程中训练数据集的聚类效果评估值。上一次计算出的聚类效果评估值为上一次迭代过程中训练数据集的聚类效果评估值。
在S302中,若当前计算出的聚类效果评估值小于上一次计算出的聚类效果评估值,且二者的差值大于或等于第一预设阈值,则将所述训练数据集中各样本对应的概率值均减小第一预设调整量。
在本实施例中,如果当前计算出的聚类效果评估值与上一次计算出的聚类效果评估值相比,减小超过第一预设阈值,则判定当前次迭代过程中的训练数据集中存在噪声样本,可以将该训练数据集中所有样本的概率值均减小第一预设调整量。
在S303中,若当前计算出的聚类效果评估值大于上一次计算出的聚类效果评估值,且二者的差值大于或等于第二预设阈值,则将所述训练数据集中各样本对应的概率值均增大第二预设调整量。
在本实施例中,如果当前计算出的聚类效果评估值与上一次计算出的聚类效果评估值相比,增大超过第二预设阈值,则判定当前次迭代过程中的训练数据集中存在难识别样本,可以将该训练数据集中所有样本的概率值均增大第一预设调整量。
其中,第一预设阈值、第二预设阈值、第一预设调整量和第二预设调整量的值可以根据实际需求进行设置,在此不作限定。例如第一预设调整量和第二预设调整量可以均设为0.01。
可以用公式(3)表示上述概率调整过程:
Figure BDA0001783719700000091
其中,Ei为当前计算出的聚类效果评估值,Ei-1为上一次计算出的聚类效果评估值,TH1为第一预设阈值,TH2为第二预设阈值,Pchoose为训练数据集中样本的概率值,u1为第一预设调整量,u2为第二预设调整量。样本的概率值用于作为选取训练数据集的参考,因此也可称为选择概率值,用Pchoose表示。
可选地,根据当前计算出的聚类效果评估值与上一次计算出的聚类效果评估值之间的差值,可以评价当前聚类效果评估值受上一次聚类效果评估值的影响程度,如公式(4)所示:
Ei=Ei-1+m*Ei (4)
其中,m为惯性系数,用于表征当前聚类效果评估值受上一次聚类效果评估值的影响程度。m的取值范围可以包括但不限于0.5至0.9。
本实施例通过对比当前计算出的聚类效果评估值与上一次计算出的聚类效果评估值,并根据对比结果对训练数据集中样本的概率值进行调整。由于每次迭代选取的训练数据集并不相同,经过若干次迭代以后,噪声样本的概率值会慢慢下降,而难识别样本的概率值会逐渐上升,从而实现对样本的筛选。
作为本发明的一个实施例,如图4所示,上述方法还可以包括:
在S401中,根据所述聚类效果评估值确定损失函数调制系数。
在S402中,将所述损失函数调制系数与所述待训练模型对应的初始损失函数的乘积作为调制后的损失函数。
在本实施例中,损失函数调制系数为初始损失函数的权重。待训练模型对应的初始损失函数为没有设置损失函数调制系数时,待训练模型的损失函数,也就是通常用于训练模型的损失函数。
在每次训练迭代过程中,会根据损失函数计算损失值,并将损失值作为模型网络的反向传输的输入,对网络参数进行调整。本实施例不但利用聚类效果评估值对训练数据集中样本的概率值进行调整,还将聚类效果评估值加载到模型的损失函数的权重上,通过调制后的损失函数使对模型性能提升有帮助的样本在模型网络参数调整过程的权重增大,使对模型性能提升帮助不大的样本在模型网络参数调整过程的权重减小。
本实施例提出了一种调制后的损失函数,该调制后的损失函数受训练数据集聚类效果的影响,让每一次网络进行反向传输的时候,学习的力度随着聚类效果的离散度及聚合度等变化而变化,而不是单单只跟随损失函数变化。这样,可以在每次模型网络更新的时候,都充分考虑到了网络的离散聚合能力,可以在模型训练过程中,让模型学会“重视”学习价值较高的难识别样本,而“忽视”没有学习价值的噪声样本,通过增强难识别样本对模型网络的调整力度,减弱噪声样本对模型网络的调整力度,进一步提高训练效率,提高训练后模型的准确性。
作为本发明的一个实施例,所述待训练模型对应的初始损失函数为交叉熵损失函数;
所述调制后的损失函数为:
ML(pt)=-(1-E)rlog(pt) (5)
其中,ML(pt)为调制后的损失函数,E为所述聚类效果评估值,-(1-E)r为所述损失函数调制系数,r为指数调节系数,log(pt)为所述交叉熵损失函数。
在本实施例中,公式(5)以二元分类的交叉熵损失函数为例,但并不作为限定,容易想到地,可以将上述调制方法扩展到多元分类以及其它模型损失函数的调制。指数调节系数的取值范围可以包括但不限于2至4。从公式(5)可以看出,聚类效果评估值E越接近于1,损失函数调制系数-(1-E)r越接近于0,此时系统调制后的损失函数接近于0,表明当前模型网络不需要进行较大调整。
可选地,记录模型训练的迭代次数,若当前迭代次数小于预设最大迭代次数,则对训练数据集中样本的概率值进行调整,若当前迭代次数大于或等于预设最大迭代次数,则结束模型的训练过程,得到训练后的模型。通过设置最大迭代次数,可以在达到最大迭代次数后,停止对样本概率值的调整,结束训练。
本发明实施例可以针对不同训练目的的模型,选取不同的聚类判断准则,从而用聚类的结果,直接调整训练数据中样本的概率权重,达到提升训练精准度和鲁棒性的效果。将模型训练和数据筛选自然地结合起来,提高了训练效率,极大节省了准备和清理大量数据所需要的人力物力消耗。并且解决了现有模型训练中将所有样本的概率看成一样的,随机进行一个样本单元的数据选取,导致大量无效率的“简单样本”反复被训练,而模型并没有学习到有价值的信息,从而无法得到优化的问题。
在本发明实施例中,训练数据中每个样本对应一个概率值,根据概率值从训练数据中选取训练数据集,将概率值作为选取样本的参考能够对样本进行筛选;通过计算训练数据集的聚类效果评估值,再根据聚类效果评估值对训练数据集中各样本对应的概率值进行调整,能够利用聚类分析及时调整训练数据中样本的概率值,使每次选取到的训练数据集包含更多的对模型训练有效的训练样本,进而提高训练效率。本发明实施例将训练数据的筛选加入模型训练过程中,利用模型对样本的识别结果指导样本的概率值调整,通过概率值调整样本选取的优先级,实现对训练数据的筛选,通过将模型训练和训练数据的筛选相结合,能够提高模型训练的训练效率;在训练迭代过程中能够逐渐降低训练数据中噪声样本对模型训练的影响,增强难识别样本对模型训练的效果,进而提高训练后模型的鲁棒性和准确率。
应理解,上述实施例中各步骤的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本发明实施例的实施过程构成任何限定。
对应于上文实施例所述的模型训练方法,图5示出了本发明实施例提供的模型训练装置的示意图。为了便于说明,仅示出了与本实施例相关的部分。
参照图5,该装置包括获取模块51、选取模块52、训练模块53、评估模块54和调整模块55。
获取模块51,用于获取待训练模型和训练数据;所述训练数据包括多个样本,且每个样本对应一个概率值。
选取模块52,用于根据各个样本的概率值从所述训练数据中选取若干个样本生成训练数据集。
训练模块53,用于通过所述训练数据集对所述待训练模型进行训练,并获取所述待训练模型对所述训练数据集的识别结果。
评估模块54,用于根据所述识别结果和所述训练数据集计算所述训练数据集的聚类效果评估值。
调整模块55,用于根据所述聚类效果评估值对所述训练数据集中各样本对应的概率值进行调整。
可选地,所述选取模块52用于:
按照样本的概率值对样本进行排序;
选取概率值较高的预设数目的样本组成训练数据集。
可选地,所述聚类效果评估值为兰德系数或轮廓系数。
可选地,所述调整模块55用于:
将当前计算出的聚类效果评估值与上一次计算出的聚类效果评估值二者进行对比;
若当前计算出的聚类效果评估值小于上一次计算出的聚类效果评估值,且二者的差值大于或等于第一预设阈值,则将所述训练数据集中各样本对应的概率值均减小第一预设调整量;
若当前计算出的聚类效果评估值大于上一次计算出的聚类效果评估值,且二者的差值大于或等于第二预设阈值,则将所述训练数据集中各样本对应的概率值均增大第二预设调整量。
可选地,该装置还包括调制模块,所述调制模块用于:
根据所述聚类效果评估值确定损失函数调制系数;
将所述损失函数调制系数与所述待训练模型对应的初始损失函数的乘积作
可选地,所述待训练模型对应的初始损失函数为交叉熵损失函数;
所述调制后的损失函数为:
ML(pt)=-(1-E)rlog(pt)
其中,ML(pt)为调制后的损失函数,E为所述聚类效果评估值,-(1-E)r为所述损失函数调制系数,r为指数调节系数,log(pt)为所述交叉熵损失函数。
在本发明实施例中,训练数据中每个样本对应一个概率值,根据概率值从训练数据中选取训练数据集,将概率值作为选取样本的参考能够对样本进行筛选;通过计算训练数据集的聚类效果评估值,再根据聚类效果评估值对训练数据集中各样本对应的概率值进行调整,能够利用聚类分析及时调整训练数据中样本的概率值,使每次选取到的训练数据集包含更多的对模型训练有效的训练样本,进而提高训练效率。本发明实施例将训练数据的筛选加入模型训练过程中,利用模型对样本的识别结果指导样本的概率值调整,通过概率值调整样本选取的优先级,实现对训练数据的筛选,通过将模型训练和训练数据的筛选相结合,能够提高模型训练的训练效率;在训练迭代过程中能够逐渐降低训练数据中噪声样本对模型训练的影响,增强难识别样本对模型训练的效果,进而提高训练后模型的鲁棒性和准确率。
图6是本发明一实施例提供的终端设备的示意图。如图6所示,该实施例的终端设备6包括:处理器60、存储器61以及存储在所述存储器61中并可在所述处理器60上运行的计算机程序62,例如程序。所述处理器60执行所述计算机程序62时实现上述各个方法实施例中的步骤,例如图1所示的步骤101至104。或者,所述处理器60执行所述计算机程序62时实现上述各装置实施例中各模块/单元的功能,例如图5所示模块51至54的功能。
示例性的,所述计算机程序62可以被分割成一个或多个模块/单元,所述一个或者多个模块/单元被存储在所述存储器61中,并由所述处理器60执行,以完成本发明。所述一个或多个模块/单元可以是能够完成特定功能的一系列计算机程序指令段,该指令段用于描述所述计算机程序62在所述终端设备6中的执行过程。
所述终端设备6可以是桌上型计算机、笔记本、掌上电脑及云端服务器等计算设备。所述终端设备可包括,但不仅限于,处理器60、存储器61。本领域技术人员可以理解,图6仅仅是终端设备6的示例,并不构成对终端设备6的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件,例如所述终端设备还可以包括输入输出设备、网络接入设备、总线、显示器等。
所称处理器60可以是中央处理单元(Central Processing Unit,CPU),还可以是其他通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现成可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
所述存储器61可以是所述终端设备6的内部存储单元,例如终端设备6的硬盘或内存。所述存储器61也可以是所述终端设备6的外部存储设备,例如所述终端设备6上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)等。进一步地,所述存储器61还可以既包括所述终端设备6的内部存储单元也包括外部存储设备。所述存储器61用于存储所述计算机程序以及所述终端设备所需的其他程序和数据。所述存储器61还可以用于暂时地存储已经输出或者将要输出的数据。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将所述装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。实施例中的各功能单元、模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中,上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。另外,各功能单元、模块的具体名称也只是为了便于相互区分,并不用于限制本申请的保护范围。上述系统中单元、模块的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述或记载的部分,可以参见其它实施例的相关描述。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
在本发明所提供的实施例中,应该理解到,所揭露的装置/终端设备和方法,可以通过其它的方式实现。例如,以上所描述的装置/终端设备实施例仅仅是示意性的,例如,所述模块或单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通讯连接可以是通过一些接口,装置或单元的间接耦合或通讯连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明实现上述实施例方法中的全部或部分流程,也可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一计算机可读存储介质中,该计算机程序在被处理器执行时,可实现上述各个方法实施例的步骤。其中,所述计算机程序包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(Read-Only Memory,ROM)、随机存取存储器(RandomAccess Memory,RAM)、电载波信号、电信信号以及软件分发介质等。需要说明的是,所述计算机可读介质包含的内容可以根据司法管辖区内立法和专利实践的要求进行适当的增减,例如在某些司法管辖区,根据立法和专利实践,计算机可读介质不包括是电载波信号和电信信号。
以上所述实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围,均应包含在本发明的保护范围之内。

Claims (10)

1.一种模型训练方法,其特征在于,包括:
获取待训练模型和训练数据;所述训练数据包括多个样本,且每个样本对应一个概率值;
根据各个样本的概率值从所述训练数据中选取若干个样本生成训练数据集;
通过所述训练数据集对所述待训练模型进行训练,并获取所述待训练模型对所述训练数据集的识别结果;
根据所述识别结果和所述训练数据集计算所述训练数据集的聚类效果评估值;
根据所述聚类效果评估值对所述训练数据集中各样本对应的概率值进行调整。
2.如权利要求1所述的模型训练方法,其特征在于,所述根据各个样本的概率值从所述训练数据中选取若干个样本生成训练数据集包括:
按照样本的概率值对样本进行排序;
选取概率值较高的预设数目的样本组成训练数据集。
3.如权利要求1所述的模型训练方法,其特征在于,所述聚类效果评估值为兰德系数或轮廓系数。
4.如权利要求1所述的模型训练方法,其特征在于,所述根据所述聚类效果评估值对所述训练数据集中各样本对应的概率值进行调整包括:
将当前计算出的聚类效果评估值与上一次计算出的聚类效果评估值二者进行对比;
若当前计算出的聚类效果评估值小于上一次计算出的聚类效果评估值,且二者的差值大于或等于第一预设阈值,则将所述训练数据集中各样本对应的概率值均减小第一预设调整量;
若当前计算出的聚类效果评估值大于上一次计算出的聚类效果评估值,且二者的差值大于或等于第二预设阈值,则将所述训练数据集中各样本对应的概率值均增大第二预设调整量。
5.如权利要求1至4任一项所述的模型训练方法,其特征在于,还包括:
根据所述聚类效果评估值确定损失函数调制系数;
将所述损失函数调制系数与所述待训练模型对应的初始损失函数的乘积作为调制后的损失函数。
6.如权利要求5所述的模型训练方法,其特征在于,所述待训练模型对应的初始损失函数为交叉熵损失函数;
所述调制后的损失函数为:
ML(pt)=-(1-E)rlog(pt)
其中,ML(pt)为调制后的损失函数,E为所述聚类效果评估值,-(1-E)r为所述损失函数调制系数,r为指数调节系数,log(pt)为所述交叉熵损失函数。
7.一种模型训练装置,其特征在于,包括:
获取模块,用于获取待训练模型和训练数据;所述训练数据包括多个样本,且每个样本对应一个概率值;
选取模块,用于根据各个样本的概率值从所述训练数据中选取若干个样本生成训练数据集;
训练模块,用于通过所述训练数据集对所述待训练模型进行训练,并获取所述待训练模型对所述训练数据集的识别结果;
评估模块,用于根据所述识别结果和所述训练数据集计算所述训练数据集的聚类效果评估值;
调整模块,用于根据所述聚类效果评估值对所述训练数据集中各样本对应的概率值进行调整。
8.如权利要求7所述的模型训练装置,其特征在于,所述选取模块用于:
按照样本的概率值对样本进行排序;
选取概率值较高的预设数目的样本组成训练数据集。
9.一种终端设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至6任一项所述方法的步骤。
10.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至6任一项所述方法的步骤。
CN201811004580.6A 2018-08-30 2018-08-30 模型训练方法及终端设备 Pending CN110874604A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811004580.6A CN110874604A (zh) 2018-08-30 2018-08-30 模型训练方法及终端设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811004580.6A CN110874604A (zh) 2018-08-30 2018-08-30 模型训练方法及终端设备

Publications (1)

Publication Number Publication Date
CN110874604A true CN110874604A (zh) 2020-03-10

Family

ID=69715614

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811004580.6A Pending CN110874604A (zh) 2018-08-30 2018-08-30 模型训练方法及终端设备

Country Status (1)

Country Link
CN (1) CN110874604A (zh)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111507407A (zh) * 2020-04-17 2020-08-07 腾讯科技(深圳)有限公司 图像分类模型的训练方法及装置
CN111783869A (zh) * 2020-06-29 2020-10-16 杭州海康威视数字技术股份有限公司 训练数据筛选方法、装置、电子设备及存储介质
CN112418078A (zh) * 2020-11-20 2021-02-26 北京云从科技有限公司 分数调制方法、人脸识别方法、装置及介质
CN112508074A (zh) * 2020-11-30 2021-03-16 深圳市飞泉云数据服务有限公司 可视化展示方法、系统及可读存储介质
CN112561080A (zh) * 2020-12-18 2021-03-26 Oppo(重庆)智能科技有限公司 样本筛选方法、样本筛选装置及终端设备
CN112613553A (zh) * 2020-12-18 2021-04-06 中电金信软件有限公司 图片样本集生成方法、装置、计算机设备和存储介质
CN112766362A (zh) * 2021-01-18 2021-05-07 北京嘀嘀无限科技发展有限公司 数据处理方法、装置和设备
CN112991346A (zh) * 2021-05-13 2021-06-18 深圳科亚医疗科技有限公司 用于医学图像分析的学习网络的训练方法和训练系统
CN113538079A (zh) * 2020-04-17 2021-10-22 北京金山数字娱乐科技有限公司 一种推荐模型的训练方法及装置、一种推荐方法及装置
CN113642592A (zh) * 2020-04-27 2021-11-12 武汉Tcl集团工业研究院有限公司 一种训练模型的训练方法、场景识别方法、计算机设备
CN113723835A (zh) * 2021-09-02 2021-11-30 国网河北省电力有限公司电力科学研究院 火电厂用水评估方法和终端设备
CN111783869B (zh) * 2020-06-29 2024-06-04 杭州海康威视数字技术股份有限公司 训练数据筛选方法、装置、电子设备及存储介质

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111507407A (zh) * 2020-04-17 2020-08-07 腾讯科技(深圳)有限公司 图像分类模型的训练方法及装置
CN111507407B (zh) * 2020-04-17 2024-01-12 腾讯科技(深圳)有限公司 图像分类模型的训练方法及装置
CN113538079A (zh) * 2020-04-17 2021-10-22 北京金山数字娱乐科技有限公司 一种推荐模型的训练方法及装置、一种推荐方法及装置
CN113642592A (zh) * 2020-04-27 2021-11-12 武汉Tcl集团工业研究院有限公司 一种训练模型的训练方法、场景识别方法、计算机设备
CN111783869A (zh) * 2020-06-29 2020-10-16 杭州海康威视数字技术股份有限公司 训练数据筛选方法、装置、电子设备及存储介质
CN111783869B (zh) * 2020-06-29 2024-06-04 杭州海康威视数字技术股份有限公司 训练数据筛选方法、装置、电子设备及存储介质
CN112418078A (zh) * 2020-11-20 2021-02-26 北京云从科技有限公司 分数调制方法、人脸识别方法、装置及介质
CN112508074A (zh) * 2020-11-30 2021-03-16 深圳市飞泉云数据服务有限公司 可视化展示方法、系统及可读存储介质
CN112508074B (zh) * 2020-11-30 2024-05-14 深圳市飞泉云数据服务有限公司 可视化展示方法、系统及可读存储介质
CN112561080A (zh) * 2020-12-18 2021-03-26 Oppo(重庆)智能科技有限公司 样本筛选方法、样本筛选装置及终端设备
CN112613553B (zh) * 2020-12-18 2022-03-08 中电金信软件有限公司 图片样本集生成方法、装置、计算机设备和存储介质
CN112561080B (zh) * 2020-12-18 2023-03-03 Oppo(重庆)智能科技有限公司 样本筛选方法、样本筛选装置及终端设备
CN112613553A (zh) * 2020-12-18 2021-04-06 中电金信软件有限公司 图片样本集生成方法、装置、计算机设备和存储介质
CN112766362A (zh) * 2021-01-18 2021-05-07 北京嘀嘀无限科技发展有限公司 数据处理方法、装置和设备
CN112991346B (zh) * 2021-05-13 2022-04-26 深圳科亚医疗科技有限公司 用于医学图像分析的学习网络的训练方法和训练系统
CN112991346A (zh) * 2021-05-13 2021-06-18 深圳科亚医疗科技有限公司 用于医学图像分析的学习网络的训练方法和训练系统
CN113723835A (zh) * 2021-09-02 2021-11-30 国网河北省电力有限公司电力科学研究院 火电厂用水评估方法和终端设备
CN113723835B (zh) * 2021-09-02 2024-02-06 国网河北省电力有限公司电力科学研究院 火电厂用水评估方法和终端设备

Similar Documents

Publication Publication Date Title
CN110874604A (zh) 模型训练方法及终端设备
WO2020164282A1 (zh) 基于yolo的图像目标识别方法、装置、电子设备和存储介质
CN111950723B (zh) 神经网络模型训练方法、图像处理方法、装置及终端设备
Moallem et al. Optimal threshold computing in automatic image thresholding using adaptive particle swarm optimization
CN111027378A (zh) 行人重识别的方法、装置、终端及存储介质
CN108960314B (zh) 基于难样本的训练方法、装置及电子设备
CN109816043B (zh) 用户识别模型的确定方法、装置、电子设备及存储介质
CN111008640A (zh) 图像识别模型训练及图像识别方法、装置、终端及介质
CN108021908B (zh) 人脸年龄段识别方法及装置、计算机装置及可读存储介质
CN109872335A (zh) 一种用于pd-l1抗体染色切片的自动读片方法及其系统
CN109993221B (zh) 一种图像分类方法及装置
JP6897749B2 (ja) 学習方法、学習システム、および学習プログラム
CN111475613A (zh) 案件分类方法、装置、计算机设备及存储介质
CN110717554A (zh) 图像识别方法、电子设备及存储介质
CN104881675A (zh) 一种视频场景的识别方法和装置
CN111062036A (zh) 恶意软件识别模型构建、识别方法及介质和设备
CN108520261B (zh) 一种花生果仁数量的识别方法和装置
CN109117810A (zh) 疲劳驾驶行为检测方法、装置、计算机设备及存储介质
CN111784665A (zh) 基于傅里叶变换的oct图像质量评估方法、系统及装置
CN111488939A (zh) 模型训练方法、分类方法、装置及设备
CN108345942B (zh) 一种基于嵌入编码学习的机器学习识别方法
CN108510483B (zh) 一种采用vlad编码和svm的计算生成彩色图像篡改检测方法
CN111611781B (zh) 数据标注方法、问答方法、装置及电子设备
CN112818774A (zh) 一种活体检测方法及装置
CN107403199B (zh) 数据处理方法和装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
CB02 Change of applicant information

Address after: 516006 TCL technology building, No.17, Huifeng Third Road, Zhongkai high tech Zone, Huizhou City, Guangdong Province

Applicant after: TCL Technology Group Co.,Ltd.

Address before: 516006 Guangdong province Huizhou Zhongkai hi tech Development Zone No. nineteen District

Applicant before: TCL Corp.

CB02 Change of applicant information
REG Reference to a national code

Ref country code: HK

Ref legal event code: DE

Ref document number: 40018678

Country of ref document: HK

RJ01 Rejection of invention patent application after publication

Application publication date: 20200310

RJ01 Rejection of invention patent application after publication