CN112200218A - 一种模型训练方法、装置及电子设备 - Google Patents
一种模型训练方法、装置及电子设备 Download PDFInfo
- Publication number
- CN112200218A CN112200218A CN202010947015.4A CN202010947015A CN112200218A CN 112200218 A CN112200218 A CN 112200218A CN 202010947015 A CN202010947015 A CN 202010947015A CN 112200218 A CN112200218 A CN 112200218A
- Authority
- CN
- China
- Prior art keywords
- model
- image set
- image
- training
- target object
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
- G06F18/2155—Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the incorporation of unlabelled data, e.g. multiple instance learning [MIL], semi-supervised techniques using expectation-maximisation [EM] or naïve labelling
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computational Linguistics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Evolutionary Biology (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
Abstract
本发明实施例公开了一种模型训练方法、装置及电子设备,用于提高图片检测模型的准确性。所述方法包括:获取第一图像集合,所述第一图像集合中每张图像中的目标对象被标注类别;获取样本图像集合,所述样本图像集合中每张图像中的目标对象未被标注类别;利用初始模型对所述样本图像集合中的每张图像中的目标对象进行标注得到第二图像集合;基于所述第一图像集合和所述第二图像集合中满足条件的图像对所述初始模型进行训练,得到第一模型;确定所述第一模型对所述目标对象进行识别的准确度,当所述准确度高于预设值时,确定训练完成。
Description
技术领域
本发明涉及图像处理技术领域,尤其涉及一种模型训练方法、装置及电子设备。
背景技术
近几年深度学习在各个领域应用广泛,尤其在图像技术领域更是无处不在。其中,图像目标检测技术是计算机视觉任务中最基本最重要的技术之一,基于深度学习的图像目标检测技术的性能与模型的准确性密切相关,模型准确性的提升很大程度上依赖于训练数据的数量和质量,所以训练数据对于深度学习技术起着决定作用。
然而,目前的训练数据主要依赖人工标注,效率较低。
发明内容
本发明实施例提供了一种模型训练方法、装置及电子设备,用于在提高图像目标检测准确性。
第一方面,本发明实施例提供一种模型训练方法,包括:
获取第一图像集合,所述第一图像集合中每张图像中的目标对象被标注类别;
获取样本图像集合,所述样本图像集合中每张图像中的目标对象未被标注类别;
利用初始模型对所述样本图像集合中的每张图像中的目标对象进行标注得到第二图像集合;
基于所述第一图像集合和所述第二图像集合中满足条件的图像对所述初始模型进行训练,得到第一模型;
确定所述第一模型对所述目标对象的识别准确度,当所述准确度高于预设值时,确定训练完成。
可选的,所述第二图像集合中满足条件的图像,包括:
第二图像集合中分数高于预设分数的图像,其中,所述分数用于指示所述初始模型识别到所述样本图像集合中每张图像中包含目标对象的概率,概率越大所述分数越高。
可选的,所述基于所述第一图像集合和所述第二图像集合中满足条件的图像对所述初始模型进行训练,得到第一模型,包括:
获取第一样本和第二样本,所述第一样本是所述第一图像集合中的图像乘以第一权重系数得到的,所述第二样本是所述第二图像集合中满足条件的图像乘以第二权重系数得到的;其中,所述第一权重系数大于所述第二权重系数;
基于所述第一样本和所述第二样本对所述初始模型进行训练,得到第一模型。
可选的,所述确定所述第一模型对所述目标对象进行识别的准确率,当所述准确率高于预设值时,确定训练完成,包括:
判断所述第一模型对所述目标对象的识别准确度是否高于预设值;
若是,则停止训练;
否则,基于所述第一图像集合和所述第一模型输出的图像集合中满足条件的图像对所述第一模型进行下一次训练,得到第二模型,如果第二模型对图像中所述目标对象的识别准确度高于预设值,停止训练,否则基于所述第一图像集合和所述第二模型的输出图像中满足条件的图像对所述第二模型进行下一次训练,直到训练得到的最终模型对图像中所述目标对象的识别准确度高于预设值为止。
可选的,所述第一模型对图像中所述目标对象的识别准确度高于预设值,包括:
利用所述第一模型对测试图像集合中每张图像中的目标对象进行识别,对所述每张图像中的目标对象进行标注;其中,所述测试图像集合中标注结果准确的图像数量大于预设数量。
第二方面,本发明实施例提供一种模型训练装置,包括:
获取单元,用于获取所述第一图像集合,所述第一图像集合中每张图像中的目标对象被标注类别;
所述获取单元还用于,获取样本图像集合,所述样本图像集合中每张图像中的目标对象未被标注类别;
处理单元,用于利用所述初始模型对所述样本图像集合中的每张图像中的目标对象进行标注得到第二图像集合;
所述处理单元还用于,基于所述第一图像集合和所述第二图像集合中满足条件的图像对所述初始模型进行训练,得到第一模型;
所述处理单元还用于,确定所述第一模型对所述目标对象进行识别的准确度,当所述准确度高于预设值时,确定训练完成。
可选的,所述第二图像集合中满足条件的图像,包括:
第二图像集合中分数高于预设分数的图像,其中,所述分数用于指示所述初始模型识别到所述样本图像集合中每张图像中包含目标对象的概率,概率越大所述分数越高。
可选的,所述处理单元在基于所述第一图像集合和所述第二图像集合中满足条件的图像对所述初始模型进行训练,得到第一模型时,具体用于:获取所述第一样本和所述第二样本,所述第一样本是所述第一图像集合中的图像乘以第一权重系数得到的,所述第二样本是所述第二图像集合中满足条件的图像乘以第二权重系数得到的;其中,所述第一权重系数大于所述第二权重系数;
所述处理单元还用于基于所述第一样本和所述第二样本对所述初始模型进行训练,得到第一模型。
可选的,所述处理单元在确定所述第一模型对所述目标对象进行识别的准确率时,具体用于:
判断所述第一模型对所述目标对象的识别准确度是否高于预设值;
若是,则停止训练;
否则,基于所述第一图像集合和所述第一模型输出的图像集合中满足条件的图像对所述第一模型进行下一次训练,得到第二模型,如果第二模型对所述目标对象的识别准确度高于预设值,停止训练,否则基于所述第一图像集合和所述第二模型的输出图像中满足条件的图像对所述第二模型进行下一次训练,直到训练得到的最终模型对所述目标对象的识别准确度高于预设值为止。
第三方面,本发明实施例提供一种电子设备,包括:
存储器,用于存储计算机指令;
处理器,与所述存储器连接,用于执行所述存储器中的计算机指令,以在执行所述计算机指令时执行如上述第一方面提供的方法。
第四方面,本发明实施例提供一种计算机可读存储介质,所述计算机可读存储介质存储有计算机指令,当所述计算机指令在计算机上运行时,使得计算机执行如上述第一方面提供的方法。
第五方面,本发明实施例提供一种计算机程序产品,当所述计算机程序产品在计算机上运行时,使得计算机执行如上述第一方面提供的方法。
本发明的有益效果:本发明通过初始模型对未标注的样本图像集合进行标注得到第二图像集合,然后结合第一图像集合以及第二图像集合中满足条件的图像对初始模型进行训练,从而提高所述模型对图像中目标对象的识别准确度。本发明将已标注的图像与未标注的图像同时作为训练数据对模型进行训练优化,避免了由于已标注的图像数量较少而导致对模型的训练效果较差,同时,本发明利用了未标注的图像对模型进行训练,能够在训练优化模型的同时实现训练数据的扩充。
附图说明
图1为本发明实施例提供的一种模型训练方法的场景示意图;
图2为本发明实施例提供的一种模型训练方法的流程示意图;
图3为本发明实施例提供的一种模型训练方法的具体示例图;
图4为本发明实施例提供的一种模型训练装置的结构示意图;
图5为本发明实施例提供的另一种模型训练装置的结构示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明的技术方案进行清楚、完整地描述。显然,所描述的实施例是本发明技术方案的一部分实施例,而不是全部的实施例。基于本申请文件中记载的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明技术方案保护的范围。
如前文所述,在进行图像目标检测时,为了提高检测模型的准确性,需要大量的训练数据对模型进行训练。而在现如今的图像目标检测技术中,训练数据的获取比较昂贵,并需要大量的人工标注。目前的解决方案为通过对图片进行随机裁剪、水平翻转以及其他方式的处理,以实现训练数据的扩充,然后利用扩充后的训练数据对模型进行训练,然而该种方案效率低下,且主要基于已标注的图片来进行训练数据的扩充以及模型的训练。
鉴于此,本发明实施例提供了一种模型训练方法,该方法包括:获取第一图像集合,所述第一图像集合中每张图像中的目标对象被标注类别;获取样本图像集合,所述样本图像集合中每张图像中的目标对象未被标注类别;利用初始模型对所述样本图像集合中的每张图像中的目标对象进行标注得到第二图像集合;基于所述第一图像集合和所述第二图像集合中满足条件的图像对所述初始模型进行训练,得到第一模型;确定所述第一模型对所述目标对象的识别准确度,当所述准确度高于预设值时,确定训练完成。这种方式中,对模型训练所使用的训练数据不是全部依赖人工标注,提升效率。
下面结合说明书附图介绍本发明实施例提供的技术方案。
图1为本申请实施例提供的应用场景的示意图。该应用场景以模型对图像中的人物进行标注为例。一种可能的情况为,模型对图像中包含的人进行标注,例如,模型对一张街景图中所有可能为人的部分进行标注,以区分人物和其他物体;参见图1中的(a)所示,将一张图像输入到模型中,该模型对该图像进行处理,标注出该图像中的人(在人的附近加上标签‘人’)。
另一种可能的情况为,模型对图像中人物上的具体特性进行标注,例如,模型对人物的身体特征进行标注;比如,眼镜、嘴巴、耳朵等;又例如,模型对一张教室内部图像中举手的学生进行标注;参见图1中的(b)所示,将一张图像输入到模型中,模型对该图像进行处理,标注出该图片中的人的眼睛1(用矩形框将人的眼睛圈出)。
图1(a)中以对象(比如人)的标注形式是文字形式为例,图1(b)中以对象(比如眼睛)的标注形式是矩形框为例,实际应用中,还可以使用其他标注形式,比如对图像中目标对象的标注形式可以为圆形框或其他多边形框,本发明不对此做任何限定。
需要注意的是,上文提及的应用场景仅是为了便于理解本发明的精神和原理而示出,本发明示例在此方面不受任何限制。相反,本发明实施例可以应用于适用的任何场景。
参考图2为本发明实施例提供的一种模型训练方法的流程示意图,该方法可以适用于图1所示的场景,具体而言,该方法包括以下步骤:
步骤201:获取第一图像集合,所述第一图像集合中每张图像中的目标对象被标注类别。这里可以是人工标注,也可以是利用模型对其进行标注。总之,第一图像集合是已经被标注过的图像集合。
步骤202,获取样本图像集合,所述样本图像集合中每张图像中的目标对象未被标注类别。也就是说,样本图像集合是未被标注的图像集合。
步骤203,利用初始模型对所述样本图像集合中的每张图像中的目标对象进行标注得到第二图像集合。即第二图像集合是通过初始模型对样本图像集合进行标注之后的图像集合。
其中,初始模型可以是通过前文中的第一图像集合训练得到的,比如,一种可能的实施方式中,将第一图像集合中各个图像中目标对象以及对应的被标注的标签送入深度学习算法中进行监督训练,得到初始模型,其中,本发明实施例中的深度学习算法可以是快速基于区域的卷积神经网络(Faster Region-based Convolutional Neural Networks,Faster R-CNN)、或其他神经网络算法,本发明实施例不对此做任何限制。或者,初始模型也可以是默认模型,本发明实施例不作限定。以Faster R-CNN为例,将第一图像集合中各个图像中人物以及对应的被标注的标签送入Faster R-CNN框架中进行监督训练,得到初始模型。然后将样本图像集合中每张图像输入到初始模型中,初始模型对图像中的人物进行初次标注,标注方式为用矩形框将图像中的人物圈出来,也可以是文字标注,本发明对此不做限定。对样本图像集合中的每张图像进行标注后,得到第二图像集合。
步骤204:从第二图像集合中筛选满足条件的图像。
可选的,所述第二图像集合中满足条件的图像,包括:第二图像集合中分数高于预设分数的图像,其中,所述分数用于指示所述初始模型识别到所述样本图像集合中每张图像中包含目标对象的概率,概率越大所述分数越高。
在一种可能的实施方式中,可对第二图像集合中的图像进行非极大值抑制(Non-Maximum Suppression,NMS)处理。初始模型对样本图像集合中的图像进行标注时,同时会在图像中每个矩形框中添加该矩形框所得分数,分数越高,是目标对象的概率越大,然后利用NMS来选取矩形框中分数最高的矩形框,并抑制那些分数低的矩形框。在另一些可能的实施方式中,还可通过阈值过滤或者矩形宽高约束等方式去除第二图像集合的图像中质量不好的矩形框,本发明不对此做任何限制。
以图1中(b)为例,若第二图像集合的某一图像的第一矩形框中圈出了人物的眼睛1,而第二矩形框中圈出了人物的眼睛1以及鼻子2,可见第一矩形框比第二矩形框更加精确,由此便认定第一矩形框所得分数高于第二矩形框;通过步骤204所述的筛选处理后,去除第二矩形框,保留第一矩形框,得到处理后的图像,即图1中(b)所示。最后按照此种方法依次对第二图像集合中的所有图像进行类似处理,只保留得分最高的矩形框。
步骤205:基于所述第一图像集合和所述第二图像集合中满足条件的图像对所述初始模型进行训练,得到第一模型。
步骤206:确定所述第一模型对所述目标对象进行识别的准确度,当所述准确度高于预设值时,确定训练完成
可选的,在基于所述第一图像集合和所述第二图像集合中满足条件的图像对所述初始模型进行训练,得到第一模型时,还可以获取第一样本和第二样本,所述第一样本是所述第一图像集合中的图像乘以第一权重系数得到的,所述第二样本是所述第二图像集合中满足条件的图像乘以第二权重系数得到的;其中,所述第一权重系数大于所述第二权重系数;基于所述第一样本和所述第二样本对所述初始模型进行训练,得到第一模型。
可选的,所述确定所述第一模型对所述目标对象进行识别的准确率,当所述准确率高于预设值时,确定训练完成,包括:
判断所述第一模型对所述目标对象的识别准确度是否高于预设值;
若是,则停止训练;
否则,基于所述第一图像集合和所述第一模型输出的图像集合中满足条件的图像对所述第一模型进行下一次训练,得到第二模型,如果第二模型对所述目标对象的识别准确度高于预设值,停止训练,否则基于所述第一图像集合和所述第二模型的输出图像中满足条件的图像对所述第二模型进行下一次训练,直到训练得到的最终模型对所述目标对象的识别准确度高于预设值为止。
下面介绍步骤206中完成模型训练的过程,该过程中包括多次训练,得到的模型对图像中所述目标对象的识别准确度高于预设值。下面依次介绍每次训练过程。
第一次训练过程:
1、获取第一样本和第二样本,所述第一样本是所述第一图像集合中的图像乘以第一权重系数得到的,所述第二样本是所述第二图像集合中满足条件的图像乘以第二权重系数得到的;其中,所述第一权重系数大于所述第二权重系数;
2、基于所述第一样本和所述第二样本对所述初始模型进行训练,得到第一模型;
3、将第二图像集合中满足条件的图像输入到第一模型中,输出第四图像集合。
第二次训练过程:
1、获取第三样本和第四样本,第三样本是第一图像集合中的图像乘以第三权重系数得到的,第四样本是第四图像集合中满足条件的图像乘以第四权重系数得到的,其中第三权重系数大于第四权重系数;
2、基于第三样本和第四样本对第一模型进行训练,得到第二模型;
3、将第四图像集合中满足条件的图像输入到第二模型中,输出第五图像集合。
第三次训练同第二次训练过程原理相似,直到当在第N次训练时所得的模型对于图像中目标对象的识别准确度高于预设值时,停止对该模型的训练,并且确定该模型为最终模型。
在上述第一次训练过程中,第二图像集合中满足条件的图像里不可避免地会存在标注错误的图像,对第二图像集合中满足条件的图像赋予较低的权重系数,可以避免由于第二图像集合中满足条件的图像中所存在的错误标注导致的对模型训练的影响。
可选的,所述第一模型对所述目标对象的识别准确度高于预设值,包括:
利用所述第一模型对测试图像中的目标对象进行识别,并对所述每张图像中的目标对象进行标注;其中,所述测试图像中标注结果准确的图像数量大于预设数量。
在一种可能的实施方式中,可利用已标注的测试图像集合来确定第一模型对图像中目标对象的识别准确度。具体过程为:首先获取第一组图像集合,该组图像集合中图像中的目标对象已经被标注,然后获取第二组图像集合,第二组图像集合中的图像与第一组图像集合中的图像完全相同,但是第二组图像集合中图像的目标对象还未被标注,将该第二组图像集合中的图像输入到所要检测的模型中,最后将该模型输出的图像集合与上述已标注过的第一组图像集合进行比对,若该模型输出的图像中对目标对象的标注结果与第一组图像集合的图像中目标对象的标注信息相同,则认为所检测的模型对该图片的标注结果准确,若标注结果准确的图像数量达到预设的数量,则认为该模型对图像中目标对象的识别准确度高于预设值,该模型已达到训练目标要求,否则,将认为该模型对图像中目标对象的识别准确度未达到目标要求,需要对该模型继续进行训练。
具体以图1为例,为检测模型对图像中人的识别准确度的高低,先获取一组图像,该组图像中的人已被标注出,再获取另一组图像,该组图像中的人未被标注出,两组图像中内容相同。未标记的图像输入到待检测的模型中,通过将输出的图像与人已被标注出的图像进行一一比对,发现标注结果准确的图像数量未达到预设值,则可认为该模型对图像中目标对象的识别准确度未达到需求。
图3为本发明实施例提供的一种具体示例图。下面将以图3为例,对本发明实施例提供的模型训练方法做详细的说明,参考图3,将未标记图像(比如样本图像集合)输入模型(比如初始模型)中,该模型对输入图像中的目标对象进行标注,即图3中的模型打标过程;标注后所得的图像称为弱标记图像(比如第二图像集合);对该弱标记图像进行处理(获取第二图像中满足条件的图像),其具体方法可参考图2所示的实施例中的相应描述;基于处理后的弱标记图像(即满足条件的图像)与已标注图像(第一图像集合)对该模型进行第一次训练,得到第一模型。
然后判断第一模型对目标对象的识别准确度是否高于预设值,具体方法可参考图2所示的实施例中的相应描述,若否,则进行第二次训练,第二次训练过程为:将处理后的弱标记图像(即满足条件的图像)输入到第一模型中,该模型对输入图像中的目标对象进行标注,即模型打标过程;对标注后所得的图像进行处理,然后基于处理后的图像与已标注图像(第一图像集合)对第一模型进行训练,得到第二模型,并再次判断所得的第二模型对目标对象的识别准确度是否高于预设值。
循环上述过程,不断对模型进行训练,直到模型对目标对象的识别准确度高于预设值时,停止训练。
基于同一发明构思,本发明实施例提供了一种模型训练装置,该模型训练装置能够实现前述的模型训练方法对应的功能。该模型训练装置可以是硬件结构、软件模块、或硬件结构加软件模块。该模型训练装置可以由芯片系统实现,芯片系统可以由芯片构成,也可以包含芯片和其他分立器件。请参见图4,该装置包括获取单元401和处理单元402,其中:
获取单元401,用于获取所述第一图像集合,所述第一图像集合中每张图像中的目标对象被标注类别;
所述获取单元401还用于,获取样本图像集合,所述样本图像集合中每张图像中的目标对象未被标注类别;
处理单元402,用于利用所述初始模型对所述样本图像集合中的每张图像中的目标对象进行标注得到第二图像集合;
所述处理单元402还用于,基于所述第一图像集合和所述第二图像集合中满足条件的图像对所述初始模型进行训练,得到第一模型;
所述处理单元还用于,确定所述第一模型对所述目标对象进行识别的准确度,当所述准确度高于预设值时,确定训练完成。
在一种可能的实施方式中,所述第二图像集合中满足条件的图像,包括:
第二图像集合中分数高于预设分数的图像,其中,所述分数用于指示所述初始模型识别到所述样本图像集合中每张图像中包含目标对象的概率,概率越大所述分数越高。
在一种可能的实施方式中,所述处理单元402在基于所述第一图像集合和所述第二图像集合中满足条件的图像对所述初始模型进行训练,得到第一模型时,具体用于:获取所述第一样本和所述第二样本,所述第一样本是所述第一图像集合中的图像乘以第一权重系数得到的,所述第二样本是所述第二图像集合中满足条件的图像乘以第二权重系数得到的;其中,所述第一权重系数大于所述第二权重系数;基于所述第一样本和所述第二样本对所述初始模型进行训练,得到第一模型。
在一种可能的实施方式中,所述处理单元402在确定所述第一模型对所述目标对象进行识别的准确率时,具体用于:
判断所述第一模型对所述目标对象的识别准确度是否高于预设值;
若是,则停止训练;
否则,基于所述第一图像集合和所述第一模型输出的图像集合中满足条件的图像对所述第一模型进行下一次训练,得到第二模型,如果第二模型对所述目标对象的识别准确度高于预设值,停止训练,否则基于所述第一图像集合和所述第二模型的输出图像中满足条件的图像对所述第二模型进行下一次训练,直到训练得到的最终模型对所述目标对象的识别准确度高于预设值为止
前述的模型训练方法的实施例涉及的各步骤的所有相关内容均可援引到本申请施例中的模型训练装置所对应的功能模块的功能描述,在此不再赘述。
本发明实施例中对模块的划分是示意性的,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,另外,在本申请各个实施例中的各功能模块可以集成在一个处理器中,也可以是单独物理存在,也可以两个或两个以上模块集成在一个模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。
请参见图5,基于同一发明构思,本发明实施例提供一种电子设备,该电子设备包括至少一个处理器501,处理器501用于执行存储器中存储的计算机程序,实现本发明实施例提供的如图3所示的模型训练方法的步骤。
可选的,处理器501可以是通用处理器,例如中央处理器(CPU)、数字信号处理器、专用集成电路、现场可编程门阵列或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件,可以实现或者执行本发明实施例中公开的各方法、步骤及逻辑框图。通用处理器可以是微处理器或者任何常规的处理器等。结合本发明实施例所公开的模型训练方法的步骤可以直接体现为硬件处理器执行完成,或者用处理器中的硬件及软件模块组合执行完成。
可选的,该电子设备还可以包括与至少一个处理器501连接的存储器502,存储器502存储有可被至少一个处理器501执行的指令,至少一个处理器501通过执行存储器502存储的指令,可以执行前述的模型训练方法中所包括的步骤。
本发明实施例中不限定处理器501与存储器502之间的具体连接介质,存储器502可以包括至少一种类型的存储介质,例如可以包括闪存、硬盘、多媒体卡、卡型存储器、随机访问存储器(Random Access Memory,RAM)、静态随机访问存储器(Static Random AccessMemory,SRAM)、可编程只读存储器(Programmable Read Only Memory,PROM)、只读存储器(Read Only Memory,ROM)、带电可擦除可编程只读存储器(Electrically ErasableProgrammable Read-Only Memory,EEPROM)、磁性存储器、磁盘、光盘等等。存储器502是能够用于携带或存储具有指令或数据结构形式的期望的程序代码并能够由计算机存取的任何其他介质,但不限于此。本发明实施例中的存储器502还可以是电路或者其它任意能够实现存储功能的装置,用于存储程序指令和/或数据。
通过对处理器501进行设计编程,可以将前述实施例中介绍的模型训练方法所对应的代码固化到芯片内,从而使芯片在运行时能够执行前述的模型训练方法的步骤,如何对处理器501进行设计编程为本领域技术人员所公知的技术,这里不再赘述。其中,获取单元401和处理单元402所对应的实体设备均可以是前述的处理器501。该模型训练装置可以用于执行图2所示的实施例所提供的方法。因此关于该设备中各功能模块所能够实现的功能,可参考图2所示的实施例中的相应描述,不多赘述。
基于同一发明构思,本发明实施例还提供一种计算可读存储介质,该计算可读存储介质存储有计算机指令,当该计算机指令在计算机上运行时,使得计算机执行如前述的模型训练方法的步骤。
在一些可能的实施方式中,本申请提供的模型训练方法的各个方面还可以实现为一种程序产品的形式,其包括程序代码,当程序产品在电子设备上运行时,程序代码用于使该检测设备执行本说明书上述描述的根据本申请各种示例性实施方式的模型训练方法中的步骤。
本领域内的技术人员应明白,本申请的实施例可提供为方法、系统、或计算机程序产品。因此,本申请可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本申请是参照根据本申请的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
显然,本领域的技术人员可以对本申请进行各种改动和变型而不脱离本申请的精神和范围。这样,倘若本申请的这些修改和变型属于本申请权利要求及其等同技术的范围之内,则本申请也意图包含这些改动和变型在内。
Claims (11)
1.一种模型训练方法,其特征在于,包括:
获取第一图像集合;所述第一图像集合中每张图像中的目标对象被标注类别;
获取样本图像集合,所述样本图像集合中每张图像中的目标对象未被标注类别;
利用初始模型对所述样本图像集合中的每张图像中的目标对象进行标注得到第二图像集合;
基于所述第一图像集合和所述第二图像集合中满足条件的图像对所述初始模型进行训练,得到第一模型;
确定所述第一模型对所述目标对象进行识别的准确度,当所述准确度高于预设值时,确定训练完成。
2.如权利要求1所述的方法,其特征在于,所述第二图像集合中满足条件的图像,包括:
第二图像集合中分数高于预设分数的图像,其中,所述分数用于指示所述初始模型识别到所述样本图像集合中每张图像中包含目标对象的概率,概率越大所述分数越高。
3.如权利要求1所述的方法,其特征在于,所述基于所述第一图像集合和所述第二图像集合中满足条件的图像对所述初始模型进行训练,得到第一模型,包括:
获取第一样本和第二样本,所述第一样本是所述第一图像集合中的图像乘以第一权重系数得到的,所述第二样本是所述第二图像集合中满足条件的图像乘以第二权重系数得到的;其中,所述第一权重系数大于所述第二权重系数;
基于所述第一样本和所述第二样本对所述初始模型进行训练,得到第一模型。
4.如权利要求1所述的方法,其特征在于,所述确定所述第一模型对所述目标对象进行识别的准确率,当所述准确率高于预设值时,确定训练完成,包括:
判断所述第一模型对所述目标对象的识别准确度是否高于预设值;
若是,则停止训练;
否则,基于所述第一图像集合和所述第一模型输出的图像集合中满足条件的图像对所述第一模型进行下一次训练,得到第二模型,如果第二模型对所述目标对象的识别准确度高于预设值,停止训练,否则基于所述第一图像集合和所述第二模型的输出图像中满足条件的图像对所述第二模型进行下一次训练,直到训练得到的最终模型对所述目标对象的识别准确度高于预设值为止。
5.如权利要求1或4所述的方法,其特征在于,所述第一模型对所述目标对象的识别准确度高于预设值,包括:
利用所述第一模型对测试图像集合中每张图像中的目标对象进行识别,并对所述每张图像中的目标对象进行标注;其中,所述测试图像集合中标注结果准确的图像的数量大于预设数量。
6.一种模型训练装置,其特征在于,包括:
获取单元,用于获取所述第一图像集合,所述第一图像集合中每张图像中的目标对象被标注类别;
所述获取单元还用于,获取样本图像集合,所述样本图像集合中每张图像中的目标对象未被标注类别;
处理单元,用于利用所述初始模型对所述样本图像集合中的每张图像中的目标对象进行标注得到第二图像集合;
所述处理单元还用于,基于所述第一图像集合和所述第二图像集合中满足条件的图像对所述初始模型进行训练,得到第一模型;
所述处理单元还用于,确定所述第一模型对所述目标对象进行识别的准确度,当所述准确度高于预设值时,确定训练完成。
7.如权利要求6所述的装置,其特征在于,所述第二图像集合中满足条件的图像,包括:
第二图像集合中分数高于预设分数的图像,其中,所述分数用于指示所述初始模型识别到所述样本图像集合中每张图像中包含目标对象的概率,概率越大所述分数越高。
8.如权利要求6所述的装置,其特征在于,所述处理单元在基于所述第一图像集合和所述第二图像集合中满足条件的图像对所述初始模型进行训练,得到第一模型,时,具体用于:
获取所述第一样本和所述第二样本,所述第一样本是所述第一图像集合中的图像乘以第一权重系数得到的,所述第二样本是所述第二图像集合中满足条件的图像乘以第二权重系数得到的;其中,所述第一权重系数大于所述第二权重系数;
所述处理单元还用于基于所述第一样本和所述第二样本对所述初始模型进行训练,得到第一模型。
9.如权利要求6所述的装置,其特征在于,所述处理单元在确定所述第一模型对所述目标对象进行识别的准确率时,具体用于:
判断所述第一模型对所述目标对象的识别准确度是否高于预设值;
若是,则停止训练;
否则,基于所述第一图像集合和所述第一模型输出的图像集合中满足条件的图像对所述第一模型进行下一次训练,得到第二模型,如果第二模型对所述目标对象的识别准确度高于预设值,停止训练,否则基于所述第一图像集合和所述第二模型的输出图像中满足条件的图像对所述第二模型进行下一次训练,直到训练得到的最终模型对所述目标对象的识别准确度高于预设值为止。
10.一种电子设备,其特征在于,包括:
存储器,用于存储计算机指令;
处理器,与所述存储器连接,用于执行所述存储器中的计算机指令,且在执行所述计算机指令时实现如权利要求1至5中任一项所述的方法。
11.一种计算机可读存储介质,其特征在于,
所述计算机可读存储介质存储有计算机指令,当所述计算机指令在计算机上运行时,使得计算机执行如权利要求1至5中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010947015.4A CN112200218B (zh) | 2020-09-10 | 2020-09-10 | 一种模型训练方法、装置及电子设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010947015.4A CN112200218B (zh) | 2020-09-10 | 2020-09-10 | 一种模型训练方法、装置及电子设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112200218A true CN112200218A (zh) | 2021-01-08 |
CN112200218B CN112200218B (zh) | 2023-06-20 |
Family
ID=74014965
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010947015.4A Active CN112200218B (zh) | 2020-09-10 | 2020-09-10 | 一种模型训练方法、装置及电子设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112200218B (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113807434A (zh) * | 2021-09-16 | 2021-12-17 | 中国联合网络通信集团有限公司 | 布匹的瑕疵识别方法及模型训练方法 |
CN114120048A (zh) * | 2022-01-26 | 2022-03-01 | 中兴通讯股份有限公司 | 图像处理方法、电子设备及计算存储介质 |
CN114445682A (zh) * | 2022-01-28 | 2022-05-06 | 北京百度网讯科技有限公司 | 训练模型的方法、装置、电子设备、存储介质及产品 |
CN114492765A (zh) * | 2022-02-24 | 2022-05-13 | 腾讯科技(深圳)有限公司 | 一种模型优化方法、装置、设备及存储介质、程序产品 |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170351952A1 (en) * | 2016-06-01 | 2017-12-07 | Kla-Tencor Corporation | Systems and methods incorporating a neural network and a forward physical model for semiconductor applications |
CN108764372A (zh) * | 2018-06-08 | 2018-11-06 | Oppo广东移动通信有限公司 | 数据集的构建方法和装置、移动终端、可读存储介质 |
CN109284313A (zh) * | 2018-08-10 | 2019-01-29 | 深圳前海微众银行股份有限公司 | 基于半监督学习的联邦建模方法、设备及可读存储介质 |
CN109582793A (zh) * | 2018-11-23 | 2019-04-05 | 深圳前海微众银行股份有限公司 | 模型训练方法、客服系统及数据标注系统、可读存储介质 |
CN109902678A (zh) * | 2019-02-12 | 2019-06-18 | 北京奇艺世纪科技有限公司 | 模型训练方法、文字识别方法、装置、电子设备及计算机可读介质 |
WO2019237657A1 (zh) * | 2018-06-15 | 2019-12-19 | 北京字节跳动网络技术有限公司 | 用于生成模型的方法和装置 |
CN110909803A (zh) * | 2019-11-26 | 2020-03-24 | 腾讯科技(深圳)有限公司 | 图像识别模型训练方法、装置和计算机可读存储介质 |
CN110909784A (zh) * | 2019-11-15 | 2020-03-24 | 北京奇艺世纪科技有限公司 | 一种图像识别模型的训练方法、装置及电子设备 |
US20200210769A1 (en) * | 2018-12-27 | 2020-07-02 | Didi Research America, Llc | Using image pre-processing to generate a machine learning model |
US20200250821A1 (en) * | 2017-11-30 | 2020-08-06 | Tencent Technology(Shenzhen) Company Limited | Image feature recognition method and apparatus, storage medium, and electronic apparatus |
WO2020164270A1 (zh) * | 2019-02-15 | 2020-08-20 | 平安科技(深圳)有限公司 | 基于深度学习的行人检测方法、系统、装置及存储介质 |
-
2020
- 2020-09-10 CN CN202010947015.4A patent/CN112200218B/zh active Active
Patent Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170351952A1 (en) * | 2016-06-01 | 2017-12-07 | Kla-Tencor Corporation | Systems and methods incorporating a neural network and a forward physical model for semiconductor applications |
US20200250821A1 (en) * | 2017-11-30 | 2020-08-06 | Tencent Technology(Shenzhen) Company Limited | Image feature recognition method and apparatus, storage medium, and electronic apparatus |
CN108764372A (zh) * | 2018-06-08 | 2018-11-06 | Oppo广东移动通信有限公司 | 数据集的构建方法和装置、移动终端、可读存储介质 |
WO2019233297A1 (zh) * | 2018-06-08 | 2019-12-12 | Oppo广东移动通信有限公司 | 数据集的构建方法、移动终端、可读存储介质 |
WO2019237657A1 (zh) * | 2018-06-15 | 2019-12-19 | 北京字节跳动网络技术有限公司 | 用于生成模型的方法和装置 |
CN109284313A (zh) * | 2018-08-10 | 2019-01-29 | 深圳前海微众银行股份有限公司 | 基于半监督学习的联邦建模方法、设备及可读存储介质 |
CN109582793A (zh) * | 2018-11-23 | 2019-04-05 | 深圳前海微众银行股份有限公司 | 模型训练方法、客服系统及数据标注系统、可读存储介质 |
US20200210769A1 (en) * | 2018-12-27 | 2020-07-02 | Didi Research America, Llc | Using image pre-processing to generate a machine learning model |
CN109902678A (zh) * | 2019-02-12 | 2019-06-18 | 北京奇艺世纪科技有限公司 | 模型训练方法、文字识别方法、装置、电子设备及计算机可读介质 |
WO2020164270A1 (zh) * | 2019-02-15 | 2020-08-20 | 平安科技(深圳)有限公司 | 基于深度学习的行人检测方法、系统、装置及存储介质 |
CN110909784A (zh) * | 2019-11-15 | 2020-03-24 | 北京奇艺世纪科技有限公司 | 一种图像识别模型的训练方法、装置及电子设备 |
CN110909803A (zh) * | 2019-11-26 | 2020-03-24 | 腾讯科技(深圳)有限公司 | 图像识别模型训练方法、装置和计算机可读存储介质 |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113807434A (zh) * | 2021-09-16 | 2021-12-17 | 中国联合网络通信集团有限公司 | 布匹的瑕疵识别方法及模型训练方法 |
CN113807434B (zh) * | 2021-09-16 | 2023-07-25 | 中国联合网络通信集团有限公司 | 布匹的瑕疵识别方法及模型训练方法 |
CN114120048A (zh) * | 2022-01-26 | 2022-03-01 | 中兴通讯股份有限公司 | 图像处理方法、电子设备及计算存储介质 |
CN114445682A (zh) * | 2022-01-28 | 2022-05-06 | 北京百度网讯科技有限公司 | 训练模型的方法、装置、电子设备、存储介质及产品 |
CN114492765A (zh) * | 2022-02-24 | 2022-05-13 | 腾讯科技(深圳)有限公司 | 一种模型优化方法、装置、设备及存储介质、程序产品 |
Also Published As
Publication number | Publication date |
---|---|
CN112200218B (zh) | 2023-06-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112200218B (zh) | 一种模型训练方法、装置及电子设备 | |
CN109117848B (zh) | 一种文本行字符识别方法、装置、介质和电子设备 | |
CN105608456A (zh) | 一种基于全卷积网络的多方向文本检测方法 | |
CN110582783B (zh) | 训练装置、图像识别装置、训练方法和计算机可读信息存储介质 | |
CN111738036B (zh) | 图像处理方法、装置、设备及存储介质 | |
CN110533018A (zh) | 一种图像的分类方法及装置 | |
CN107944478A (zh) | 图像识别方法、系统以及电子设备 | |
CN112686243A (zh) | 智能识别图片文字的方法、装置、计算机设备及存储介质 | |
CN110705531A (zh) | 缺失字符检测、缺失字符检测模型的建立方法及装置 | |
CN113705460A (zh) | 图像中人脸睁眼闭眼检测方法、装置、设备及存储介质 | |
CN113378852A (zh) | 关键点检测方法、装置、电子设备及存储介质 | |
CN111178363A (zh) | 文字识别方法、装置、电子设备以及可读存储介质 | |
CN112533060B (zh) | 一种视频处理方法及装置 | |
CN112434585A (zh) | 一种车道线的虚实识别方法、系统、电子设备及存储介质 | |
CN111008295A (zh) | 书页检索方法、装置、电子设备和存储介质 | |
CN111046262A (zh) | 一种数据标注方法、装置及计算机存储介质 | |
CN108021918B (zh) | 文字识别方法及装置 | |
CN113989759B (zh) | 用于自动驾驶的基于BiSeNet的车道线识别方法及装置 | |
CN111428724B (zh) | 一种试卷手写统分方法、装置及存储介质 | |
CN112989869B (zh) | 人脸质量检测模型的优化方法、装置、设备及存储介质 | |
CN113902960A (zh) | 神经网络训练及分类方法、装置、电子设备及存储介质 | |
CN113780116A (zh) | 发票分类方法、装置、计算机设备和存储介质 | |
CN112733741A (zh) | 交通标识牌识别方法、装置和电子设备 | |
CN111783811A (zh) | 伪标签生成方法和装置 | |
CN117953206B (zh) | 一种基于点标注指引的混合监督目标检测方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |