CN114881149A - 一种模型训练方法及装置、目标检测方法及装置 - Google Patents
一种模型训练方法及装置、目标检测方法及装置 Download PDFInfo
- Publication number
- CN114881149A CN114881149A CN202210507932.XA CN202210507932A CN114881149A CN 114881149 A CN114881149 A CN 114881149A CN 202210507932 A CN202210507932 A CN 202210507932A CN 114881149 A CN114881149 A CN 114881149A
- Authority
- CN
- China
- Prior art keywords
- label
- data
- model
- labels
- confidence
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
- G06F18/2155—Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the incorporation of unlabelled data, e.g. multiple instance learning [MIL], semi-supervised techniques using expectation-maximisation [EM] or naïve labelling
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Computational Linguistics (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本申请实施例提供了一种模型训练方法及装置、目标检测方法及装置,该方法包括:利用第一模型,对第一无标签数据进行预测,得到第一无标签数据的多个第一预测标签和每个第一预测标签的置信度;根据有标签数据的标签集中每种标签类别的分布情况,确定该标签类别的第一置信度阈值;利用第一模型,对第二无标签数据进行预测,得到第二无标签数据的多个第二预测标签和每个第二预测标签的置信度;在第二预测标签中,确定置信度大于所属标签类别的第一置信度阈值的第二预测标签,作为候选标签;利用有标签数据、第二无标签数据以及候选标签,对第二模型进行训练。应用本申请实施例提供的技术方案,能够降低模型训练所需耗费的人力资源。
Description
技术领域
本申请涉及深度学习技术领域,特别是涉及一种模型训练方法及装置、目标检测方法及装置。
背景技术
随着深度学习技术的快速发展,在目标检测、人脸识别等非常多领域,深度学习技术取得了较好的效果。但训练深度学习模型使得深度学习模型取得好的性能,依赖于大规模的有标签数据和运算资源。但是对大规模的数据进行标注获得有标签数据,需要耗费大量的人力资源。
发明内容
本申请实施例的目的在于提供一种模型训练方法及装置、目标检测方法及装置,以降低模型训练所需耗费的人力资源。具体技术方案如下:
第一方面,本申请实施例提供了一种模型训练方法,所述方法包括:
利用第一模型,对至少一个第一无标签数据进行预测,得到每个第一无标签数据的多个第一预测标签和每个第一预测标签的置信度;
根据有标签数据的标签集中每种标签类别的分布情况以及属于该标签类别的所有第一预测标签的置信度,确定该标签类别的置信度阈值;
利用所述第一模型,对至少一个第二无标签数据进行预测,得到每个第二无标签数据的多个第二预测标签和每个第二预测标签的置信度;
在每个第二无标签数据的多个第二预测标签中,确定置信度大于所属标签类别的置信度阈值的第二预测标签,作为该第二无标签数据的候选标签;
利用所述有标签数据、所述至少一个第二无标签数据以及每个第二无标签数据的候选标签,对所述第二模型进行训练。
可选的,所述置信度阈值包括第一置信度阈值;所述根据有标签数据的标签集中每种标签类别的分布情况以及属于该标签类别的所有第一预测标签的置信度,确定该标签类别的置信度阈值的步骤,包括:
确定所述至少一个第一无标签数据的总数与有标签数据的总数之间的倍数关系;
根据有标签数据的标签集中每种标签类别的标签的第一数量,确定该标签类别的标签的第二数量,该标签类别的标签的第二数量与该标签类别的标签的第一数量之间满足所述倍数关系;
确定每种标签类别的标签的第二数量与预设可靠系数的乘积,得到该标签类别的标签的第三数量;
按照从大到小的顺序,从属于每种标签类别的所有第一预测标签的置信度中,确定位于对应的第三数量的位置处的置信度,作为该标签类别的第一置信度阈值。
可选的,所述利用所述有标签数据、所述至少一个第二无标签数据以及每个第二无标签数据的候选标签,对所述第二模型进行训练的步骤,包括:
将所述有标签数据、所述至少一个第二无标签数据分别输入所述第二模型,得到多个第一候选框的标签为对应的候选标签的置信度,所述第一候选框为与候选标签所标注的检测框的交并比大于第一预设交并比的检测框;
利用所述多个第一候选框对应的置信度,确定第一损失;
利用所述第一损失,更新所述第二模型的参数。
可选的,所述置信度阈值包括第二置信度阈值;所述根据有标签数据的标签集中每种标签类别的分布情况以及属于该标签类别的所有第一预测标签的置信度,确定该标签类别的置信度阈值的步骤,包括:
确定所述至少一个第一无标签数据的总数与有标签数据的总数之间的倍数关系;
根据有标签数据的标签集中每种标签类别的标签的第一数量,确定该标签类别的标签的第二数量,该标签类别的标签的第二数量与该标签类别的标签的第一数量之间满足所述倍数关系;
按照从大到小的顺序,从属于每种标签类别的所有第一预测标签的置信度中,确定位于对应的第二数量的位置处的置信度,作为该标签类别的第二置信度阈值。
可选的,所述利用所述有标签数据、所述至少一个第二无标签数据以及每个第二无标签数据的候选标签,对所述第二模型进行训练的步骤,包括:
将所述至少一个第二无标签数据输入所述第一模型和第二模型,得到多个第二候选框的标签为对应的候选标签的第一置信度和第二置信度,所述第二候选框为与候选标签所标注的检测框的交并比大于第二预设交并比的检测框;
利用每个第二候选框对应的第一置信度和第二置信度,确定第二损失;
利用所述第二损失,更新所述第二模型的参数。
可选的,所述置信度阈值包括第一置信度阈值和第二置信度阈值;所述根据有标签数据的标签集中每种标签类别的分布情况以及属于该标签类别的所有第一预测标签的置信度,确定该标签类别的置信度阈值的步骤,包括:
确定所述至少一个第一无标签数据的总数与有标签数据的总数之间的倍数关系;
根据有标签数据的标签集中每种标签类别的标签的第一数量,确定该标签类别的标签的第二数量,该标签类别的标签的第二数量与该标签类别的标签的第一数量之间满足所述倍数关系;
确定每种标签类别的标签的第二数量与预设可靠系数的乘积,得到该标签类别的标签的第三数量;
按照从大到小的顺序,从属于每种标签类别的所有第一预测标签的置信度中,确定位于对应的第三数量的位置处的置信度,作为该标签类别的第一置信度阈值,并确定位于对应的第二数量的位置处的置信度,作为该标签类别的第二置信度阈值。
可选的,所述在每个第二无标签数据的多个第二预测标签中,确定置信度大于所属标签类别的置信度阈值的第二预测标签,作为该第二无标签数据的候选标签的步骤,包括:
在每个第二无标签数据的多个第二预测标签中,确定置信度大于所属标签类别的第一置信度阈值的第二预测标签,作为该第二无标签数据的可靠标签;
在除所述可靠标签外的每个第二无标签数据多个第二预测标签中,确定置信度大于所属标签类别的第二置信度阈值的第二预测标签,作为该第二无标签数据的不确定标签。
可选的,所述利用所述有标签数据、所述至少一个第二无标签数据以及每个第二无标签数据的候选标签,对所述第二模型进行训练的步骤,包括:
将所述有标签数据、所述至少一个第二无标签数据分别输入所述第二模型,得到多个第一候选框的标签为对应的可靠标签的置信度,所述第一候选框为与可靠标签所标注的检测框的交并比大于第一预设交并比的检测框;
利用所述多个第一候选框对应的置信度,确定第一损失;
将所述至少一个第二无标签数据输入所述第一模型和第二模型,得到多个第二候选框的标签为对应的不确定标签的第一置信度和第二置信度,所述第二候选框为与不确定标签所标注的检测框的交并比大于第二预设交并比的检测框;
利用每个第二候选框对应的第一置信度和第二置信度,确定第二损失;
利用所述第一损失和所述第二损失,更新所述第二模型的参数。
可选的,在对所述第二模型进行训练的过程中,所述方法还包括:
在每次更新所述第二模型的参数之后,对所述第二模型更新后的参数以及所述第一模型的参数进行加权处理,得到加权参数;
利用所述加权参数,更新所述第一模型的参数。
可选的,所述方法还包括:
若检测到所述第二模型的参数更新次数达到预设次数阈值,则清空所述参数更新次数,并重新执行所述利用第一模型,对至少一个第一无标签数据进行预测,得到每个第一无标签数据的多个第一预测标签和每个第一预测标签的置信度的步骤;
若检测到所述第二模型的参数更新次数未达到预设次数阈值,则重新执行所述利用所述第一模型,对至少一个第二无标签数据进行预测,得到每个第二无标签数据的多个第二预测标签和每个第二预测标签的置信度的步骤。
可选的,在利用第一模型,对至少一个第一无标签数据进行预测之前,所述方法还包括:
利用所述有标签数据,对所述第三模型进行有监督训练;
将训练完成的第三模型的参数赋予所述第一模型和所述第二模型。
第二方面,本申请实施例提供了一种目标检测方法,所述方法包括:
获取待检测数据;
将所述待检测数据输入上述任一项所述的模型训练方法训练得到的第二模型中,得到所述待检测数据的目标检测结果。
可选的,所述待检测数据包括图像、视频、音频、文字中的至少一种。
第三方面,本申请实施例提供了一种模型训练装置,所述装置包括:
第一预测模块,用于利用第一模型,对至少一个第一无标签数据进行预测,得到每个第一无标签数据的多个第一预测标签和每个第一预测标签的置信度;
第一确定模块,用于根据有标签数据的标签集中每种标签类别的分布情况以及属于该标签类别的所有第一预测标签的置信度,确定该标签类别的置信度阈值;
第二预测模块,用于利用所述第一模型,对至少一个第二无标签数据进行预测,得到每个第二无标签数据的多个第二预测标签和每个第二预测标签的置信度;
第二确定模块,用于在每个第二无标签数据的多个第二预测标签中,确定置信度大于所属标签类别的置信度阈值的第二预测标签,作为该第二无标签数据的候选标签;
第一训练模块,用于利用所述有标签数据、所述至少一个第二无标签数据以及每个第二无标签数据的候选标签,对所述第二模型进行训练。
可选的,所述置信度阈值包括第一置信度阈值;所述第一确定模块,具体用于:
确定所述至少一个第一无标签数据的总数与有标签数据的总数之间的倍数关系;
根据有标签数据的标签集中每种标签类别的标签的第一数量,确定该标签类别的标签的第二数量,该标签类别的标签的第二数量与该标签类别的标签的第一数量之间满足所述倍数关系;
确定每种标签类别的标签的第二数量与预设可靠系数的乘积,得到该标签类别的标签的第三数量;
按照从大到小的顺序,从属于每种标签类别的所有第一预测标签的置信度中,确定位于对应的第三数量的位置处的置信度,作为该标签类别的第一置信度阈值。
可选的,所述第一训练模块,具体用于:
将所述有标签数据、所述至少一个第二无标签数据分别输入所述第二模型,得到多个第一候选框的标签为对应的候选标签的置信度,所述第一候选框为与候选标签所标注的检测框的交并比大于第一预设交并比的检测框;
利用所述多个第一候选框对应的置信度,确定第一损失;
利用所述第一损失,更新所述第二模型的参数。
可选的,所述置信度阈值包括第二置信度阈值;所述第一确定模块,具体用于:
确定所述至少一个第一无标签数据的总数与有标签数据的总数之间的倍数关系;
根据有标签数据的标签集中每种标签类别的标签的第一数量,确定该标签类别的标签的第二数量,该标签类别的标签的第二数量与该标签类别的标签的第一数量之间满足所述倍数关系;
按照从大到小的顺序,从属于每种标签类别的所有第一预测标签的置信度中,确定位于对应的第二数量的位置处的置信度,作为该标签类别的第二置信度阈值。
可选的,所述第一训练模块,具体用于:
将所述至少一个第二无标签数据输入所述第一模型和第二模型,得到多个第二候选框的标签为对应的候选标签的第一置信度和第二置信度,所述第二候选框为与候选标签所标注的检测框的交并比大于第二预设交并比的检测框;
利用每个第二候选框对应的第一置信度和第二置信度,确定第二损失;
利用所述第二损失,更新所述第二模型的参数。
可选的,所述置信度阈值包括第一置信度阈值和第二置信度阈值;所述第一确定模块,具体用于:
确定所述至少一个第一无标签数据的总数与有标签数据的总数之间的倍数关系;
根据有标签数据的标签集中每种标签类别的标签的第一数量,确定该标签类别的标签的第二数量,该标签类别的标签的第二数量与该标签类别的标签的第一数量之间满足所述倍数关系;
确定每种标签类别的标签的第二数量与预设可靠系数的乘积,得到该标签类别的标签的第三数量;
按照从大到小的顺序,从属于每种标签类别的所有第一预测标签的置信度中,确定位于对应的第三数量的位置处的置信度,作为该标签类别的第一置信度阈值,并确定位于对应的第二数量的位置处的置信度,作为该标签类别的第二置信度阈值。
可选的,所述第二确定模块,具体用于:
在每个第二无标签数据的多个第二预测标签中,确定置信度大于所属标签类别的第一置信度阈值的第二预测标签,作为该第二无标签数据的可靠标签;
在除所述可靠标签外的每个第二无标签数据多个第二预测标签中,确定置信度大于所属标签类别的第二置信度阈值的第二预测标签,作为该第二无标签数据的不确定标签。
可选的,所述第一训练模块,具体用于:
将所述有标签数据、所述至少一个第二无标签数据分别输入所述第二模型,得到多个第一候选框的标签为对应的可靠标签的置信度,所述第一候选框为与可靠标签所标注的检测框的交并比大于第一预设交并比的检测框;
利用所述多个第一候选框对应的置信度,确定第一损失;
将所述至少一个第二无标签数据输入所述第一模型和第二模型,得到多个第二候选框的标签为对应的不确定标签的第一置信度和第二置信度,所述第二候选框为与不确定标签所标注的检测框的交并比大于第二预设交并比的检测框;
利用每个第二候选框对应的第一置信度和第二置信度,确定第二损失;
利用所述第一损失和所述第二损失,更新所述第二模型的参数。
可选的,所述装置还包括:
第二训练模块,用于在对所述第二模型进行训练的过程中,在每次更新所述第二模型的参数之后,对所述第二模型更新后的参数以及所述第一模型的参数进行加权处理,得到加权参数;利用所述加权参数,更新所述第一模型的参数。
可选的,所述装置还包括处理模块,用于:
若检测到所述第二模型的参数更新次数达到预设次数阈值,则清空所述参数更新次数,并重新执行所述利用第一模型,对至少一个第一无标签数据进行预测,得到每个第一无标签数据的多个第一预测标签和每个第一预测标签的置信度的步骤;
若检测到所述第二模型的参数更新次数未达到预设次数阈值,则重新执行所述利用所述第一模型,对至少一个第二无标签数据进行预测,得到每个第二无标签数据的多个第二预测标签和每个第二预测标签的置信度的步骤。
可选的,所述装置还包括第三训练模块,用于:
在利用第一模型,对至少一个第一无标签数据进行预测之前,利用所述有标签数据,对所述第三模型进行有监督训练;将训练完成的第三模型的参数赋予所述第一模型和所述第二模型。
第四方面,本申请实施例提供了一种目标检测装置,所述装置包括:
获取模块,用于获取待检测数据;
第三预测模块,用于将所述待检测数据输入任一项所述的模型训练方法训练得到的第二模型中,得到所述待检测数据的目标检测结果。
可选的,所述待检测数据包括图像、视频、音频、文字中的至少一种。
第五方面,本申请实施例提供了一种电子设备,包括处理器、通信接口、存储器和通信总线,其中,处理器,通信接口,存储器通过通信总线完成相互间的通信;
存储器,用于存放计算机程序;
处理器,用于执行存储器上所存放的程序时,实现任一所述的模型训练方法步骤,或实现上述目标检测方法步骤。
第六方面,本申请实施例提供了一种计算机可读存储介质,所述计算机可读存储介质内存储有计算机程序,所述计算机程序被处理器执行时实现任一所述的模型训练方法步骤,或实现上述目标检测方法步骤。
第七方面,本申请实施例还提供了一种包含指令的计算机程序产品,当其在计算机上运行时,使得计算机执行上述任一所述的模型训练方法步骤,或使得计算机执行上述目标检测方法步骤。
本申请实施例有益效果:
本申请实施例提供的技术方案中,利用第一模型对第二无标签数据进行预测,结合置信度阈值,确定第二无标签数据的候选标签,进而利用有标签数据、以及具有候选标签的第二无标签数据,对第二模型进行训练。可见,本申请实施例提供的技术方案中,采用半监督的方式,完成对第二模型的训练,即利用第一模型,为无标签数据添加候选标签,完成对第二模型的训练,无需人工对无标签数据进行标注,降低了模型训练所需耗费的人力资源。
当然,实施本申请的任一产品或方法并不一定需要同时达到以上所述的所有优点。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,还可以根据这些附图获得其他的实施例。
图1为本申请实施例提供的模型训练方法的第一种流程示意图;
图2为本申请实施例提供的模型训练方法的第二种流程示意图;
图3为本申请实施例提供的模型训练方法的第三种流程示意图;
图4为本申请实施例提供的模型训练方法的第四种流程示意图;
图5为本申请实施例提供的模型训练方法的第五种流程示意图;
图6为本申请实施例提供的模型训练方法的第六种流程示意图;
图7为本申请实施例提供的模型训练方法的第七种流程示意图;
图8为图7所示的模型训练方法中步骤S79的一种实现方式的示意图;
图9为本申请实施例提供的模型训练方法的第八种流程示意图;
图10为本申请实施例提供的模型训练方法的第九种流程示意图;
图11为本申请实施例提供的模型训练方法的第十种流程示意图;
图12为本申请实施例提供的目标检测方法的一种流程示意图;
图13为本申请实施例提供的模型训练装置的一种流程示意图;
图14为本申请实施例提供的目标检测装置的一种流程示意图;
图15为用来实现本申请实施例提供的模型训练方法或目标检测方法的电子设备的一种结构示意图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员基于本申请所获得的所有其他实施例,都属于本申请保护的范围。
训练深度学习模型使得深度学习模型取得好的性能,依赖于大规模的有标签数据和运算资源。但是对大规模的数据进行标注获得有标签数据,需要耗费大量的人力资源。
为解决上述问题,本申请实施例提供了一种模型训练方法,该方法可以应用于服务器、云平台、服务器集群等。为便于描述,下面以电子设备为执行主体进行说明,并不起限定作用。
该模型训练方法中,电子设备利用第一模型对第二无标签数据进行预测,结合置信度阈值,确定第二无标签数据的候选标签,进而利用有标签数据、以及具有候选标签的第二无标签数据,对第二模型进行训练。可见,本申请实施例提供的技术方案中,电子设备采用半监督的方式,完成对第二模型的训练,即利用第一模型,为无标签数据添加候选标签,完成对第二模型的训练,无需人工对无标签数据进行标注,降低了模型训练所需耗费的人力资源。
此外,该模型训练方法中,电子设备根据有标签数据的标签集中每种标签类别的分布情况,确定每种标签类别的置信度阈值,进而估算无标签数据在各种标签类别上的潜在对象,这使得电子设备所确定的无标签数据的候选标签的分布与有标签数据的标签集中标签的分布情况一致,避免出现过多的伪正标签和伪负标签,提高了模型的泛化能力。
下面通过具体实施例,对本申请实施例提供的模型训练方法进行详细说明。
如图1所示,提供了一种模型训练方法,包括如下步骤。
步骤S11,利用第一模型,对至少一个第一无标签数据进行预测,得到每个第一无标签数据的多个第一预测标签和每个第一预测标签的置信度。
本申请实施例中,第一模型为深度学习模型,如卷积神经网络模型、深度神经网络模型等。第一无标签数据为未标注标签的数据,第一无标签数据可以为图像、视频、音频、文字中的至少一种。
电子设备获取至少一个第一无标签数据,针对每个第一无标签数据,将该第一无标签数据输入第一模型,得到该第一无标签数据的多个第一预测标签和每个第一预测标签的置信度。
本申请实施例中,一个第一无标签数据上可以包括一个或多个检测框,相应的,一个第一无标签数据的第一预测标签包括一个或多个检测框的第一预测标签,其中,一个检测框对应一个或多个第一预测标签。例如,第一无标签数据为Xi表示第一无标签数据i,Yi表示第一无标签数据i的第一预测标签集合,Yi表示第一无标签数据i包括的所有检测框的第一预测标签集合。
步骤S12,根据有标签数据的标签集中每种标签类别的分布情况以及属于该标签类别的所有第一预测标签的置信度,确定该标签类别的置信度阈值。
本申请实施例中,有标签数据为带标签的数据,有标签数据可以为图像、或文本等,有标签数据和第一无标签数据的类型相同,如有标签数据和第一无标签数据均为图像。有标签数据可以表示为其中,X'i表示有标签数据i,Y'i表示有标签数据i的标签集合。标签类别为标签的种类,例如,标签类别包括车辆、人和动物三种类别等。
针对每种标签类别,电子设备根据有标签数据的标签集中该标签类别的分布情况以及属于该标签类别的所有第一预测标签的置信度,确定该标签类别的置信度阈值。该置信度阈值可以包括第一置信度阈值和/或第二置信度阈值。对于第一置信度阈值和第二置信度阈值,后面会进行详细描述,此处不进行展开说明。
其中,标签类别的分布情况可以采用标签类别的标签的第一数量表示,也可以采用标签类别的标签在标签集中的占比表示,例如,标签类别的分布情况可以记为ri表示标签类别i的标签在标签集中的占比,也可以理解为,标签类别i的标签在标签集中出现的频率。
其中,N表示有标签数据的个数,sum(Yj==i)表示有标签数据j包含的标签类别i的检测框的个数,len(Yj)表示有标签数据j包含的检测框的个数。
步骤S13,利用第一模型,对至少一个第二无标签数据进行预测,得到每个第二无标签数据的多个第二预测标签和每个第二预测标签的置信度。
本申请实施例中,第二无标签数据与上述第一无标签数据可以相同,也可以不同。一个示例中,至少一个第二无标签数据为上述至少一个第一无标签数据的部分或全部。
针对每个第二无标签数据,电子设备将该第二无标签数据输入第一模型,得到该第二无标签数据的多个第二预测标签和每个第二预测标签的置信度。例如,第二无标签数据为Xi表示第二无标签数据i,Yi表示第二无标签数据i的第二预测标签集合。
在一些可选的实施例中,针对每个第二无标签数据,电子设备可以对该第二无标签数据进行随机变换,得到第一变换后数据,将第一变换后数据输入第一模型,得到该第二无标签数据的多个第二预测标签和每个第二预测标签的置信度。这里,随机变换包括旋转角度,调节亮度,调节分辨率等。
步骤S14,在每个第二无标签数据的多个第二预测标签中,确定置信度大于所属标签类别的置信度阈值的第二预测标签,作为该第二无标签数据的候选标签。
其中,候选标签为伪标签,该候选标签可以包括可靠标签和/或不确定标签。对于可靠标签和不确定标签,后面会进行详细描述,此处不进行展开说明。
在得到每个第二无标签数据的多个第二预测标签和每个第二预测标签的置信度之后,针对每个第二无标签数据,在该第二无标签数据的多个第二预测标签中,确定置信度大于所属标签类别的置信度阈值的第二预测标签,作为该第二无标签数据的候选标签。
例如,标签a的置信度阈值为0.9,标签b的置信度阈值为0.6,标签c的置信度阈值为0.7。电子设备利用第一模型,对第二无标签数据1进行预测,得到第二无标签数据1中:检测框1的标签为标签a的置信度为0.98;检测框1的标签为标签b的置信度为0.01;检测框1的标签为标签c的置信度为0.01;检测框2标签为标签a的置信度为0.5;检测框2的标签为标签b的置信度为0.5,检测框2的标签为标签c的置信度为0;检测框3签为标签a的置信度为0.03;检测框3的标签为标签b的置信度为0.85,检测框3的标签为标签c的置信度为0.12。
对于标签a,0.98>0.9,因此,0.98对应的检测框1的标签a为候选标签,也就是,第二无标签数据1的候选标签包括检测框1的标签a;对于标签b,0.85>0.6,因此,0.85对应的检测框3的标签b为候选标签,也就是,第二无标签数据1的候选标签包括检测框3的标签b;对于标签c,上述所有检测框的标签为标签c的置信度均小于0.7,因此,任一检测框的标签c均不属于候选标签,也就是,第二无标签数据1的候选标签不包括任一检测框的标签c。综上,第二无标签数据1的候选标签包括检测框1的标签a和检测框3的标签b。
步骤S15,利用有标签数据、至少一个第二无标签数据以及每个第二无标签数据的候选标签,对第二模型进行训练。
在确定第二无标签数据的候选标签后,该候选标签可以被添加为第二无标签数据的标签,得到伪标签数据。电子设备利用有标签数据和伪标签数据,对第二模型进行训练。
在对第二模型训练完成之后,电子设备可利用训练完成的第二模型,进行目标检测或人脸识别等深度学习处理。
本申请实施例中,上述第一模型指导着第二模型的训练,第一模型与第二模型满足Teacher-Student机制,即第一模型相当于教师模型,第二模型相当于学生模型。
本申请实施例提供的技术方案中,电子设备利用第一模型对第二无标签数据进行预测,结合置信度阈值,确定第二无标签数据的候选标签,进而利用有标签数据、以及具有候选标签的第二无标签数据,对第二模型进行训练。可见,本申请实施例提供的技术方案中,电子设备采用半监督的方式,完成对第二模型的训练,即利用第一模型,为无标签数据添加候选标签,完成对第二模型的训练,无需人工对无标签数据进行标注,降低了模型训练所需耗费的人力资源。
此外,本申请实施例提供的技术方案中,电子设备根据有标签数据的标签集中每种标签类别的分布情况,确定每种标签类别的置信度阈值,进而估算无标签数据在各种标签类别上的潜在对象,这使得电子设备所确定的无标签数据的候选标签的分布与有标签数据的标签集中标签的分布情况一致,避免出现过多的伪正标签和伪负标签,提高了模型的泛化能力。
在一些实施例中,如图2所示,还提供了一种模型训练方法,该方法中,置信度阈值包括第一置信度阈值。这种情况下,该模型训练方法可以包括步骤S21-S28。其中,步骤S21、步骤S26-S28与上述步骤S11、步骤S13-S15相同,此处不再赘述。步骤S22-步骤S25为步骤S12的一种实现方式。
步骤S22,确定至少一个第一无标签数据的总数与有标签数据的总数之间的倍数关系。
步骤S23,根据有标签数据的标签集中每种标签类别的标签的第一数量,确定该标签类别的标签的第二数量,该标签类别的标签的第二数量与该标签类别的标签的第一数量之间满足倍数关系。
本申请实施例中,一种标签类别的标签的第一数量即为标签属于该标签类别的检测框的个数。针对每种标签类别,电子设备根据有标签数据的标签集中该标签类别的标签的第一数量,确定该标签类别的标签的第二数量,该标签类别的标签的第二数量与第一数量之间满足前述的倍数关系。
例如,至少一个第一无标签数据的总数为U,有标签数据的总数为N,二者的倍数关系为U/N,标签类别c的标签的第一数量为nc,则电子设备可确定标签类别c的标签的第二数量n'c为nc*U/N。
再例如,至少一个第一无标签数据的总数为1000,有标签数据的总数为100,二者的倍数关系为1000/100=10,标签类别c的标签的第一数量为60,则电子设备可确定标签类别c的标签的第二数量为60*10=600。
实际应用中,有标签数据中存在一定数量的某一标签类别的标签,当有标签数据成倍增加时,该标签类别的标签也相应的成倍增加,例如,100个有标签数据中存在60个标签类别c的标签,则当有标签数据增加10倍,即有1000个有标签数据,理论上,这个1000个有标签数据就应该存在60*10=600个标签类别c的标签。
本申请实施例中,电子设备按照第一无标签数据的总数与有标签数据的总数之间的倍数关系,确定每种标签类别的标签的第二数量,可以使得有标签数据的标签与无标签数据的标签达到实例级别的一致。
步骤S24,确定每种标签类别的标签的第二数量与预设可靠系数的乘积,得到该标签类别的标签的第三数量。
其中,预设可靠系数为小于1的正值。例如,预设可靠系数为α,标签类别c的标签的第二数量n'c为nc*U/N,则电子设备可确定标签类别c的标签的第三数量n”c为n'c*α=nc*U/N*α。
再例如,预设可靠系数α为0.6,标签类别c的标签的第二数量n'c为600,则标签类别c的标签的第三数量n”c为600*0.6=360。
步骤S25,按照从大到小的顺序,从属于每种标签类别的所有第一预测标签的置信度中,确定位于对应的第三数量的位置处的置信度,作为该标签类别的第一置信度阈值。
本申请实施例中,针对每种标签类别,电子设备可以按照置信度从大到小的顺序,对属于该标签类别的所有第一预测标签的置信度进行排序,确定排序在第三数量的位置处的置信度,作为该标签类别的第一置信度阈值。基于此,第一置信度阈值可以表示为:
htc=sort(Ac)[n”c]=sort(Ac)[n'c*α]
其中,htc表示标签类别c的第一置信度阈值,sort(Ac)表示按照从大到小的顺序,对标签类别c的所有第一预测标签的置信度进行排序所得到的排序结果,n”c表示标签类别c的标签的第三数量,n'c表示标签类别c的标签的第二数量,α表示预设可靠系数。
例如,电子设备利用第一模型,对第一无标签数据进行预测,得到1000个检测框的第一预测标签为标签类别c的预测标签,以及相应的1000个标签类别c的预测标签的置信度。若电子设备确定标签类别c的标签的第三数量n”c为360,则按照从大到小的顺序,从属于标签类别c的1000个第一预测标签的置信度中,选择第360位的置信度,如置信度1,将置信度1标签类别c的第一置信度阈值。
本申请实施例提供的技术方案中,电子设备在确定标签类别的第一置信度阈值时,既考虑了每种标签类别的分布情况,同时也考虑有标签数据与无标签数据的数量级关系,这可以使得有标签数据的标签与无标签数据的标签达到分布级别的一致以及实例级别的一致。电子设备按照此方式确定第一置信度阈值,以确定无标签数据的候选标签,将这些候选标签的检测框作为待检测的前景内容,其他标签的检测框作为背景内容,使得候选标签的无标签数据与有标签数据满足相同的标签类别分布以及前景和背景分布,依据此候选标签的无标签数据与有标签数据训练第二模型,可以提高第二模型的检测准确性。
在一些实施例中,置信度阈值包括第一置信度阈值。电子设备可以预先设定预测标签的数量,即预设数量。预设数量可以根据实际需求进行设定。预设数量可以为1000、2000或10000等。
这种情况下,上述步骤S12可以为:根据有标签数据的标签集中每种标签类别的标签的第一数量,确定该标签类别的标签在标签集中的占比;根据每种标签类别的标签在标签集中的占比和预设数量,确定该标签类别的标签的第四数量,该标签类别的标签的第四数量与预设数量的比值等于该标签类别的标签在标签集中的占比;确定每种标签类别的标签的第四数量与预设可靠系数的乘积,得到该标签类别的标签的第五数量;按照从大到小的顺序,从属于每种标签类别的所有第一预测标签的置信度中,确定位于对应的第五数量的位置处的置信度,作为该标签类别的第一置信度阈值。
例如,电子设备确定标签类别c的标签在标签集中的占比为rc,预设数量为N',预设可靠系数为α,则标签类别c的标签的第四数量n”'c为rc*N',标签类别c的标签的第五数量n””c为n”'c*α=rc*N'*α。按照从大到小的顺序,电子设备从属于标签类别c的所有第一预测标签的置信度中,选择第n””c位的置信度,如置信度2,将置信度2标签类别c的第一置信度阈值。
本申请实施例中,电子设备还可以采用其他方式确定每种标签类别的第一置信度阈值,对此不进行限定。
在一些实施例中,还提供了一种模型训练方法,如图3所示,该方法可以包括步骤S31-S310。其中,步骤S31-S37与上述步骤S21-S27相同,此处不再赘述。步骤S38-S310为步骤S28的一种实现方式。
步骤S38,将有标签数据、至少一个第二无标签数据分别输入第二模型,得到多个第一候选框的标签为对应的候选标签的置信度,第一候选框为与候选标签所标注的检测框的交并比大于第一预设交并比的检测框。
本申请实施例中,交并比可以表示为两个检测框的重叠面积与两个检测框所占面积的比值。第一预设交并比可以根据实际需求进行设定,例如,第一预设交并比为0.5、0.6或0.8等。步骤S38中,候选标签又可以称为可靠标签,与可靠标签所标注的检测框的交并比大于第一预设交并比的检测框称为第一候选框。
电子设备将有标签数据、至少一个第二无标签数据分别作为第二模型的输入数据,将输入数据输入第二模型,第二模型对输入数据进行预测,输出每个第一候选框的标签为对应的可靠标签的置信度。
例如,输入数据1中检测框1的标签a为可靠标签,除检测框1外,与检测框1的交并比大于第一预设交并比的检测框有检测框2-5,则检测框1-5分别作为第一候选框,第二模型对输入数据1进行预测,得到检测框1的标签为标签a的置信度,检测框2的标签为标签a的置信度,检测框3的标签为标签a的置信度,检测框4的标签为标签a的置信度,检测框5的标签为标签a的置信度。
本申请实施例中,针对每个输入数据,电子设备可以对该输入数据进行随机变换,得到第二变换后数据,将第二变换后数据输入第二模型,得到该输入数据中多个第一候选框的标签为对应的可靠标签的置信度。这里,随机变换包括旋转角度,调节亮度,调节分辨率等。这可以有效提高了第二模型的泛化能力。
步骤S39,利用多个第一候选框对应的置信度,确定第一损失。
电子设备在得到多个第一候选框的标签为对应的可靠标签的置信度之后,利用多个第一候选框对应的置信度,确定第一损失。
本申请实施例中,电子设备计算第一损失的损失函数可以根据具体的采用的第二模型(用于检测的模型)有所区别。一个示例中,计算第一损失的损失函数可以表示为:
L1=Lloc+Lcle
其中,L1表示第一损失,Lloc表示坐标框的损失,Lcle表示标签类别的损失。
步骤S310,利用第一损失,更新第二模型的参数。
其中,参数包括学习率和权重等。电子设备基于第一损失确定第二模型是否收敛;若收敛,则结束第二模型的训练;若未收敛,则采用反向传播法、梯度下降法,利用第一损失,更新第二模型的参数,直至第二模型收敛。完成一次参数更新,即完成了一次第二模型的训练。
本申请实施例提供的技术方案中,电子设备联合有标签数据和第二无标签数据,对第二模型进行有监督训练,如上述步骤S38-S310,这可以使得第二模型充分学习到数据的变化规律,提高了第二模型后续进行检测的准确率。
在一些实施例中,还提供了一种模型训练方法,如图4所示,该方法中,置信度阈值包括第二置信度阈值。这种情况下,该模型训练方法可以包括步骤S41-S47。其中,步骤S41、步骤S45-S47与上述步骤S11、步骤S13-S15相同,此处不再赘述。步骤S42-步骤S44为步骤S12的一种实现方式。
步骤S42,确定至少一个第一无标签数据的总数与有标签数据的总数之间的倍数关系。具体可参见步骤S22部分的相关描述。
步骤S43,根据有标签数据的标签集中每种标签类别的标签的第一数量,确定该标签类别的标签的第二数量,该标签类别的标签的第二数量与该标签类别的标签的第一数量之间满足倍数关系。具体可参见步骤S23部分的相关描述。
步骤S44,按照从大到小的顺序,从属于每种标签类别的所有第一预测标签的置信度中,确定位于对应的第二数量的位置处的置信度,作为该标签类别的第二置信度阈值。具体可参见步骤S25部分的相关描述,此处不再赘述。
本申请实施例中,针对每种标签类别,电子设备可以按照置信度从大到小的顺序,对属于该标签类别的所有第一预测标签的置信度进行排序,确定排序在第二数量的位的置信度,作为该标签类别的第二置信度阈值。基于此,第二置信度阈值可以表示为:
tc=sort(Ac)[n'c]
其中,tc表示标签类别c的第二置信度阈值,sort(Ac)表示按照从大到小的顺序,对标签类别c的所有第一预测标签的置信度进行排序所得到的排序结果,n'c表示标签类别c的标签的第二数量。
本申请实施例提供的技术方案中,电子设备在确定标签类别的第二置信度阈值时,既考虑了每种标签类别的分布情况,同时也考虑有标签数据与无标签数据的数量级关系,这可以使得有标签数据的标签与无标签数据的标签达到分布级别的一致以及实例级别的一致。电子设备按照此方式确定第二置信度阈值以确定无标签数据的候选标签,将这些候选标签的检测框作为待检测的前景内容,其他标签的检测框作为背景内容,使得候选标签的无标签数据与有标签数据满足相同的标签类别分布以及前景和背景分布,依据此候选标签的无标签数据与有标签数据训练第二模型,可以提高第二模型的检测准确性。
在一些实施例中,置信度阈值包括第二置信度阈值。步骤S12还可以为:根据有标签数据的标签集中每种标签类别的标签的第一数量,确定该标签类别的标签在标签集中的占比;根据每种标签类别的标签在标签集中的占比和预设数量,确定该标签类别的标签的第四数量,该标签类别的标签的第四数量与预设数量的比值等于该标签类别的标签在标签集中的占比;按照从大到小的顺序,从属于每种标签类别的所有第一预测标签的置信度中,确定位于对应的第四数量的位置处的置信度,作为该标签类别的第二置信度阈值。
本申请实施例中,电子设备还可以采用其他方式确定每种标签类别的第二置信度阈值,对此不进行限定。
在一些实施例中,还提供了一种模型训练方法,如图5所示,该方法可以包括步骤S51-S59。其中,步骤S51-S56与上述步骤S41-S46相同,此处不再赘述。步骤S57-S59为步骤S47的一种实现方式。
步骤S57,将至少一个第二无标签数据输入第一模型和第二模型,得到多个第二候选框的标签为对应的候选标签的第一置信度和第二置信度,第二候选框为与候选标签所标注的检测框的交并比大于第二预设交并比的检测框。
本申请实施例中,第二预设交并比与第一预设交并比可以相同,也可以不同,具体可以根据实际需求进行设定,例如,第二预设交并比为0.5、0.6或0.8等。步骤S57中,候选标签又可以称为不确定标签,与不确定标签所标注的检测框的交并比大于第二预设交并比的检测框称为第二候选框。
电子设备将至少一个第二无标签数据分别作为第一模型和第二模型的输入数据,将输入数据输入第一模型,第一模型对输入数据进行预测,输出每个第二候选框的标签为对应的不确定标签的第一置信度;将输入数据输入第二模型,第二模型对输入数据进行预测,输出每个第二候选框的标签为对应的不确定标签的第二置信度。
例如,输入数据1中检测框1的标签a为不确定标签,除检测框1外,与检测框1的交并比大于第二预设交并比的检测框有检测框2-3,则检测框1-3分别作为第二候选框,第一模型对输入数据1进行预测,得到检测框1的标签为标签a的第一置信度,检测框2的标签为标签a的第一置信度,检测框3的标签为标签a的第一置信度;第二模型对输入数据1进行预测,得到检测框1的标签为标签a的第二置信度,检测框2的标签为标签a的第二置信度,检测框3的标签为标签a的第二置信度。
本申请实施例中,针对每个输入数据,电子设备可以对该输入数据进行随机变换,得到第三变换后数据和第四变换后数据,将第三变换后数据输入第一模型,得到该输入数据中每个第二候选框的标签为对应的不确定标签的第一置信度;将第四变换后数据输入第二模型,得到该输入数据中每个第二候选框的标签为对应的不确定标签的第二置信度。这里,随机变换包括旋转角度,调节亮度,调节分辨率等。这可以有效提高了第二模型的泛化能力。
本申请实施例中,对获得第三变换后数据和第四变换后数据的随机变换不进行限定,只要保证第三变换后数据和第四变换后数据所采用的随机变换方式不同即可,例如,电子设备采用旋转输入数据90度的方式,获得第三变换后数据,采用旋转输入数据180度的方式,获得第四变换后数据,等等。
步骤S58,利用每个第二候选框对应的第一置信度和第二置信度,确定第二损失。
电子设备在得到多个第二候选框的标签为对应的不确定标签的第一置信度和第二置信度之后,利用多个第二候选框对应的第一置信度和第二置信度,确定第二损失。
本申请实施例中,电子设备计算第二损失的损失函数可以根据具体的采用的第二模型(用于检测的模型)有所区别。一个示例中,计算第二损失的损失函数可以表示为:
其中,L2表示第二损失,C表示不确定标签的个数,表示第二模型预测的第二候选框的标签为不确定标签i的第二置信度,表示第一模型预测的第二候选框的标签为不确定标签i的第一置信度。第二候选框为与不确定标签i所标注的检测框的交并比大于第二预设交并比的检测框。
步骤S59,利用第二损失,更新第二模型的参数。
电子设备基于第二损失确定第二模型是否收敛;若收敛,则结束第二模型的训练;若未收敛,则采用反向传播法、梯度下降法,利用第二损失,更新第二模型的参数,直至第二模型收敛。完成一次参数更新,即完成了一次第二模型的训练。
本申请实施例提供的技术方案中,针对不可靠的伪标签,即不确定标签,电子设备将不确定标签作为无标签数据的软标签,采用检测框级别的自训练方式,对第二模型进行对比训练,提高了第二模型的学习精度,提高了标签分配的合理性,使得第二模型学习到高质量的回归框,以及高质量的标签,降低了第二模型后续检测的误检率。
在一些实施例中,还提供了一种模型训练方法,如图6所示,该方法中,置信度阈值包括第一置信度阈值和第二置信度阈值。这种情况下,上述模型训练方法可以包括步骤S61-S68。其中,步骤S61、S66-S68与上述步骤S11、S13-S15相同,此处不再赘述。步骤S62-S65为步骤S12的一种实现方式。
步骤S62,确定至少一个第一无标签数据的总数与有标签数据的总数之间的倍数关系。具体可参见步骤S22部分的描述。
步骤S63,根据有标签数据的标签集中每种标签类别的标签的第一数量,确定该标签类别的标签的第二数量,该标签类别的标签的第二数量与该标签类别的标签的第一数量之间满足倍数关系。具体可参见步骤S23部分的相关描述。
步骤S64,确定每种标签类别的标签的第二数量与预设可靠系数的乘积,得到该标签类别的标签的第三数量。具体可参见步骤S24部分的相关描述。
步骤S65,按照从大到小的顺序,从属于每种标签类别的所有第一预测标签的置信度中,确定位于对应的第三数量的位置处的置信度,作为该标签类别的第一置信度阈值,并确定位于对应的第二数量的位置处的置信度,作为该标签类别的第二置信度阈值。具体可参见步骤S25和步骤S44部分的相关描述。
本申请实施例提供的技术方案中,电子设备在确定标签类别的第一置信度阈值和第二置信度阈值时,既考虑了每种标签类别的分布情况,同时也考虑有标签数据与无标签数据的数量级关系,这可以使得有标签数据的标签与无标签数据的标签达到分布级别的一致以及实例级别的一致。电子设备按照此方式确定第一置信度阈值和第二置信度阈值,以确定无标签数据的候选标签,将这些候选标签的检测框作为待检测的前景内容,其他标签的检测框作为背景内容,使得候选标签的无标签数据与有标签数据满足相同的标签类别分布以及前景和背景分布,依据此候选标签的无标签数据与有标签数据训练第二模型,可以提高第二模型的检测准确性。
在一些实施例中,还提供了一种模型训练方法,如图7所示,该方法中,候选标签包括可以包括可靠标签和不确定标签,这种情况下,步骤S71-S79。其中,步骤S71-S76、S79与步骤S61-S66、S68相同,此处不再赘述,步骤S77-S78为步骤S67的一种实现方式。
步骤S77,在每个第二无标签数据的多个第二预测标签中,确定置信度大于所属标签类别的第一置信度阈值的第二预测标签,作为该第二无标签数据的可靠标签。
步骤S78,在除可靠标签外的每个第二无标签数据多个第二预测标签中,确定置信度大于所属标签类别的第二置信度阈值的第二预测标签,作为该第二无标签数据的不确定标签。
在得到每个第二无标签数据的多个第二预测标签和每个第二预测标签的置信度之后,针对每个第二无标签数据,在除可靠标签外的该第二无标签数据的多个第二预测标签中,确定置信度大于所属标签类别的第二置信度阈值的第二预测标签,作为该第二无标签数据的不确定标签。
例如,标签a的第一置信度阈值为0.9,标签b的第一置信度阈值为0.6,标签c的第一置信度阈值为0.7。标签a的第二置信度阈值为0.4,标签b的第二置信度阈值为0.4,标签c的第二置信度阈值为0.3。
电子设备利用第一模型,对第二无标签数据1进行预测,得到第二无标签数据1中:检测框1的标签为标签a的置信度为0.98;检测框1的标签为标签b的置信度为0.01;检测框1的标签为标签c的置信度为0.01;检测框2标签为标签a的置信度为0.5;检测框2的标签为标签b的置信度为0.5,检测框2的标签为标签c的置信度为0;检测框3签为标签a的置信度为0.03;检测框3的标签为标签b的置信度为0.85,检测框3的标签为标签c的置信度为0.12。
对于标签a,0.98>0.9,因此,0.98对应的检测框1的标签a为可靠标签,也就是,第二无标签数据1的可靠标签包括检测框1的标签a;0.9>0.5>0.4,因此,0.5对应的检测框2的标签a为不确定标签;对于标签b,0.85>0.6,因此,0.85对应的检测框3的标签b为可靠标签,也就是,第二无标签数据1的可靠标签包括检测框3的标签b;0.6>0.5>0.4,因此,0.5对应的检测框2的标签b为不确定标签;对于标签c,上述所有检测框的标签为标签c的置信度均小于0.7,且均小于0.3,因此,任一检测框的标签c均不属于可靠标签,也不属于不确定标签,也就是,第二无标签数据1的可靠标签不包括任一检测框的标签c,第二无标签数据1的不确定标签不包括任一检测框的标签c。
综上,第二无标签数据1的可靠标签包括检测框1的标签a和检测框3的标签b,第二无标签数据1的不确定标签包括检测框2的标签a和检测框2的标签b。
本申请实施例提供的技术方案中,电子设备将第二预测标签分为可靠标签和不确定标签,便于后续针对不同的标签进行不同的、合适的训练,提高了训练模型的准确性。
在一些实施例中,还提供了一种模型训练方法,如图8所示,图8为图7所示的模型训练方法中步骤S79的一种实现方式的示意图,步骤S79可以细化为如下步骤。
步骤S81,将有标签数据、至少一个第二无标签数据分别输入第二模型,得到多个第一候选框的标签为对应的可靠标签的置信度,第一候选框为与可靠标签所标注的检测框的交并比大于第一预设交并比的检测框。具体可参见步骤S38部分的相关描述。
步骤S82,利用多个第一候选框对应的置信度,确定第一损失。具体可参见步骤S39部分的相关描述。
步骤S83,将至少一个第二无标签数据输入第一模型和第二模型,得到多个第二候选框的标签为对应的不确定标签的第一置信度和第二置信度,第二候选框为与不确定标签所标注的检测框的交并比大于第二预设交并比的检测框。具体可参见步骤S57部分的相关描述。
步骤S84,利用每个第二候选框对应的第一置信度和第二置信度,确定第二损失。具体可参见步骤S58部分的相关描述。
步骤S85,利用第一损失和第二损失,更新第二模型的参数。具体可参见步骤S310和步骤S59部分的相关描述。
本申请实施例提供的技术方案中,针对不同的标签,电子设备采用不同的训练方式,联合对第二模型进行训练,提高了训练得到的第二模型的准确性,降低了第二模型后续检测的误检率。
在一些实施例中,还提供了一种模型训练方法,如图9所示,该方法可以包括步骤S91-S97,其中,步骤S91-S95与上述步骤S11-S15相同。
步骤S96,在对第二模型进行训练的过程中,在每次更新第二模型的参数之后,对第二模型更新后的参数以及第一模型的参数进行加权处理,得到加权参数。
在对第二模型进行训练的过程中,每完成一次训练,电子设备更新一次第二模型的参数。在每次更新第二模型的参数之后,电子设备可以采用EMA(Exponential MovingAverage,指数移动平均值)算法,对第二模型更新后的参数以及第一模型当前的参数进行加权处理,得到加权参数。
本申请实施例中,第二模型更新后的参数的第二权重和第一模型的参数的第一权重,可以根据实际需求进行设定。例如,第一权重为0.1,第二权重为0.9,或者,第一权重为0.05,第二权重为0.95,或者,第一权重为0.01,第二权重为0.99,等等。
步骤S97,利用加权参数,更新第一模型的参数。
本申请实施例提供的技术方案中,在更新第二模型的参数的同时,基于第二模型更新后的参数,更新第一模型的参数,这使得第一模型综合考虑的历史参数与当前的新学习到的参数,使得第一模型对第二模型的训练更具有指导意义,提高第二模型的训练效率。
在一些实施例中,电子设备中预先设置次数阈值,即预设次数阈值,预设次数阈值可以根据实际需求进行设定,例如预设次数阈值可以为1、2或3等。
在更新第一模型的参数之后,电子设备可检测第一模型或第二模型的参数更新次数是否达到预设次数阈值。若是,即第一模型的参数更新次数达到预设次数阈值,或第二模型的参数更新次数达到预设次数阈值,则电子设备清空参数更新次数,并重新执行步骤S11;若否,即第一模型和第二模型的参数更新次数未达到预设次数阈值,则重新执行步骤S13。
本申请实施例中,电子设备在训练第二模型的过程中,迭代预设次数阈值后,更新一次第一置信度阈值和第二置信度阈值,这可以使得无标签数据的标签分布与有标签数据的标签分布始终保持一致。
在一些实施例中,还提供了一种模型训练方法,如图10所示,该方法可以包括步骤S101-S107,其中,步骤S103-S107与步骤S11-S15相同。
步骤S101,利用有标签数据,对第三模型进行有监督训练。
本申请实施例中,第三模型与上述第一模型和第二模型的结构相同,第三模型为一个基线模型。电子设备利用有标签数据,对第三模型进行有监督训练的流程,可参见上述图3部分的相关描述。
步骤S102,将训练完成的第三模型的参数赋予第一模型和第二模型。
在训练完成第三模型后,电子设备将训练完成的第三模型的参数赋予第一模型和第二模型。此时,第一模型、第二模型和第三模型的参数一致。
本申请实施例提供的技术方案中,电子设备采用有标签数据,对第三模型进行有监督训练,并将训练完成的第三模型的参数赋予第一模型和第二模型,第一模型和第二模型基于初步学习到的第三模型的参数,可以有效提高模型的训练速度。
下面结合图11所示的模型训练流程图,对本申请实施例提供的模型训练方法进行详细说明。图11中,有标签数据表示为X'i,有标签数据的标签表示为Y'i,无标签数据表示为Xi,有标签数据的标签表示为Yi,N、U、B、C表示相应数据的数量。
步骤一、电子设备将有标签数据输入模型M1(如上述第三模型),基于模型M1的输出与计算第一损失L1,完成对模型M1的训练,将训练完成的模型M1的参数赋予模型M2(如上述第二模型)和模型M3(如上述第一模型)。另外,电子设备利用有标签数据统计各个标签类别的分布情况,如上述各种标签类别的标签在标签集中的占比具体可参见上述图7部分的相关描述。第一损失L1的表示方式可参见步骤S36部分的描述。
步骤三、电子设备将有标签数据和无标签数据进行联合训练,具体如下:
4)获取不确定标签对应的候选框,将无标签数据输入模型M2和M3,利用相同候选框在模型M2和M3分别输出的预测标签PM2和PM3和置信度,对模型M2进行对比训练,其损失可以采用步骤S59部分所描述的L2。
步骤四、电子设备结合上述2)-4)部分计算得到的损失,完成对模型M2的一次训练,若此时模型M2的训练次数(即上述第二模型的参数更新次数)未达到预设次数阈值,则重新执行步骤三;若此时模型M2的训练次数(即上述第二模型的参数更新次数)达到预设次数阈值,则重新执行步骤二,更新动态阈值。
与上述模型训练方法对应,本申请实施例还提供了一种目标检测方法,如图12所示,包括如下步骤:
步骤S121,获取待检测数据。其中,待检测数据可以包括图像、视频、音频、文字中的至少一种。
步骤S122,将待检测数据输入上述模型训练方法训练得到的第二模型中,得到待检测数据的目标检测结果。
本申请实施例提供的技术方案中,电子设备利用第一模型对第二无标签数据进行预测,结合置信度阈值,确定第二无标签数据的候选标签,进而利用有标签数据、以及具有候选标签的第二无标签数据,对第二模型进行训练。可见,本申请实施例提供的技术方案中,电子设备采用半监督的方式,完成对第二模型的训练,即利用第一模型,为无标签数据添加候选标签,完成对第二模型的训练,无需人工对无标签数据进行标注,降低了模型训练所需耗费的人力资源。
此外,本申请实施例提供的技术方案中,电子设备根据有标签数据的标签集中每种标签类别的分布情况,确定每种标签类别的置信度阈值,进而估算无标签数据在各种标签类别上的潜在对象,这使得电子设备所确定的无标签数据的候选标签的分布与有标签数据的标签集中标签的分布情况一致,避免出现过多的伪正标签和伪负标签,提高了模型的泛化能力。
与上述模型训练方法对应,本申请实施例提供了一种模型训练装置,如图13所示,该装置可以包括:
第一预测模块131,用于利用第一模型,对至少一个第一无标签数据进行预测,得到每个第一无标签数据的多个第一预测标签和每个第一预测标签的置信度;
第一确定模块132,用于根据有标签数据的标签集中每种标签类别的分布情况以及属于该标签类别的所有第一预测标签的置信度,确定该标签类别的置信度阈值;
第二预测模块133,用于利用第一模型,对至少一个第二无标签数据进行预测,得到每个第二无标签数据的多个第二预测标签和每个第二预测标签的置信度;
第二确定模块134,用于在每个第二无标签数据的多个第二预测标签中,确定置信度大于所属标签类别的置信度阈值的第二预测标签,作为该第二无标签数据的候选标签;
第一训练模块135,用于利用有标签数据、至少一个第二无标签数据以及每个第二无标签数据的候选标签,对第二模型进行训练。
可选的,置信度阈值包括第一置信度阈值;第一确定模块132,具体可以用于:
确定至少一个第一无标签数据的总数与有标签数据的总数之间的倍数关系;
根据有标签数据的标签集中每种标签类别的标签的第一数量,确定该标签类别的标签的第二数量,该标签类别的标签的第二数量与该标签类别的标签的第一数量之间满足倍数关系;
确定每种标签类别的标签的第二数量与预设可靠系数的乘积,得到该标签类别的标签的第三数量;
按照从大到小的顺序,从属于每种标签类别的所有第一预测标签的置信度中,确定位于对应的第三数量的位置处的置信度,作为该标签类别的第一置信度阈值。
可选的,第一训练模块135,具体可以用于:
将有标签数据、至少一个第二无标签数据分别输入第二模型,得到多个第一候选框的标签为对应的候选标签的置信度,第一候选框为与候选标签所标注的检测框的交并比大于第一预设交并比的检测框;
利用多个第一候选框对应的置信度,确定第一损失;
利用第一损失,更新第二模型的参数。
可选的,置信度阈值包括第二置信度阈值;第一确定模块132,具体可以用于:
确定至少一个第一无标签数据的总数与有标签数据的总数之间的倍数关系;
根据有标签数据的标签集中每种标签类别的标签的第一数量,确定该标签类别的标签的第二数量,该标签类别的标签的第二数量与该标签类别的标签的第一数量之间满足倍数关系;
按照从大到小的顺序,从属于每种标签类别的所有第一预测标签的置信度中,确定位于对应的第二数量的位置处的置信度,作为该标签类别的第二置信度阈值。
可选的,第一训练模块135,具体可以用于:
将至少一个第二无标签数据输入第一模型和第二模型,得到多个第二候选框的标签为对应的候选标签的第一置信度和第二置信度,第二候选框为与候选标签所标注的检测框的交并比大于第二预设交并比的检测框;
利用每个第二候选框对应的第一置信度和第二置信度,确定第二损失;
利用第二损失,更新第二模型的参数。
可选的,置信度阈值包括第一置信度阈值和第二置信度阈值;第一确定模块132,具体可以用于:
确定至少一个第一无标签数据的总数与有标签数据的总数之间的倍数关系;
根据有标签数据的标签集中每种标签类别的标签的第一数量,确定该标签类别的标签的第二数量,该标签类别的标签的第二数量与该标签类别的标签的第一数量之间满足倍数关系;
确定每种标签类别的标签的第二数量与预设可靠系数的乘积,得到该标签类别的标签的第三数量;
按照从大到小的顺序,从属于每种标签类别的所有第一预测标签的置信度中,确定位于对应的第三数量的位置处的置信度,作为该标签类别的第一置信度阈值,并确定位于对应的第二数量的位置处的置信度,作为该标签类别的第二置信度阈值。
可选的,第二确定模块134,具体可以用于:
在每个第二无标签数据的多个第二预测标签中,确定置信度大于所属标签类别的第一置信度阈值的第二预测标签,作为该第二无标签数据的可靠标签;
在除可靠标签外的每个第二无标签数据多个第二预测标签中,确定置信度大于所属标签类别的第二置信度阈值的第二预测标签,作为该第二无标签数据的不确定标签。
可选的,第一训练模块135,具体可以用于:
将有标签数据、至少一个第二无标签数据分别输入第二模型,得到多个第一候选框的标签为对应的可靠标签的置信度,第一候选框为与可靠标签所标注的检测框的交并比大于第一预设交并比的检测框;
利用多个第一候选框对应的置信度,确定第一损失;
将至少一个第二无标签数据输入第一模型和第二模型,得到多个第二候选框的标签为对应的不确定标签的第一置信度和第二置信度,第二候选框为与不确定标签所标注的检测框的交并比大于第二预设交并比的检测框;
利用每个第二候选框对应的第一置信度和第二置信度,确定第二损失;
利用第一损失和第二损失,更新第二模型的参数。
可选的,上述模型训练装置还可以包括:
第二训练模块,用于在对第二模型进行训练的过程中,在每次更新第二模型的参数之后,对第二模型更新后的参数以及第一模型的参数进行加权处理,得到加权参数;利用加权参数,更新第一模型的参数。
模型训练,上述模型训练装置还可以包括处理模块,用于:
若检测到第二模型的参数更新次数达到预设次数阈值,则清空参数更新次数,并重新执行利用第一模型,对至少一个第一无标签数据进行预测,得到每个第一无标签数据的多个第一预测标签和每个第一预测标签的置信度的步骤;
若检测到第二模型的参数更新次数未达到预设次数阈值,则重新执行利用第一模型,对至少一个第二无标签数据进行预测,得到每个第二无标签数据的多个第二预测标签和每个第二预测标签的置信度的步骤。
上述模型训练,上述模型训练装置还可以包括第三训练模块,用于:
在利用第一模型,对至少一个第一无标签数据进行预测之前,利用有标签数据,对第三模型进行有监督训练;将训练完成的第三模型的参数赋予第一模型和第二模型。
本申请实施例提供的技术方案中,电子设备利用第一模型对第二无标签数据进行预测,结合置信度阈值,确定第二无标签数据的候选标签,进而利用有标签数据、以及具有候选标签的第二无标签数据,对第二模型进行训练。可见,本申请实施例提供的技术方案中,电子设备采用半监督的方式,完成对第二模型的训练,即利用第一模型,为无标签数据添加候选标签,完成对第二模型的训练,无需人工对无标签数据进行标注,降低了模型训练所需耗费的人力资源。
此外,本申请实施例提供的技术方案中,电子设备根据有标签数据的标签集中每种标签类别的分布情况,确定每种标签类别的置信度阈值,进而估算无标签数据在各种标签类别上的潜在对象,这使得电子设备所确定的无标签数据的候选标签的分布与有标签数据的标签集中标签的分布情况一致,避免出现过多的伪正标签和伪负标签,提高了模型的泛化能力。
与上述目标检测方法对应,本申请实施例提供了一种目标检测装置,如图14所示,该装置可以包括:
获取模块141,用于获取待检测数据;
第三预测模块142,用于将待检测数据输入上述任一项的模型训练装置训练得到的第二模型中,得到待检测数据的目标检测结果。
可选的,待检测数据包括图像、视频、音频、文字中的至少一种。
本申请实施例提供的技术方案中,电子设备利用第一模型对第二无标签数据进行预测,结合置信度阈值,确定第二无标签数据的候选标签,进而利用有标签数据、以及具有候选标签的第二无标签数据,对第二模型进行训练。可见,本申请实施例提供的技术方案中,电子设备采用半监督的方式,完成对第二模型的训练,即利用第一模型,为无标签数据添加候选标签,完成对第二模型的训练,无需人工对无标签数据进行标注,降低了模型训练所需耗费的人力资源。
此外,本申请实施例提供的技术方案中,电子设备根据有标签数据的标签集中每种标签类别的分布情况,确定每种标签类别的置信度阈值,进而估算无标签数据在各种标签类别上的潜在对象,这使得电子设备所确定的无标签数据的候选标签的分布与有标签数据的标签集中标签的分布情况一致,避免出现过多的伪正标签和伪负标签,提高了模型的泛化能力。
与上述模型训练方法和目标检测方法对应,本申请实施例还提供了一种电子设备,如图15所示,包括处理器151、通信接口152、存储器153和通信总线154,其中,处理器151,通信接口152,存储器153通过通信总线154完成相互间的通信;
存储器153,用于存放计算机程序;
处理器151,用于执行存储器153上所存放的程序时,实现上述任一模型训练方法的步骤,或实现上述目标检测方法的步骤。
上述电子设备提到的通信总线可以是外设部件互连标准(Peripheral ComponentInterconnect,PCI)总线或扩展工业标准结构(Extended Industry StandardArchitecture,EISA)总线等。该通信总线可以分为地址总线、数据总线、控制总线等。为便于表示,图中仅用一条粗线表示,但并不表示仅有一根总线或一种类型的总线。
通信接口用于上述电子设备与其他设备之间的通信。
存储器可以包括随机存取存储器(Random Access Memory,RAM),也可以包括非易失性存储器(Non-Volatile Memory,NVM),例如至少一个磁盘存储器。可选的,存储器还可以是至少一个位于远离前述处理器的存储装置。
上述的处理器可以是通用处理器,包括中央处理器(Central Processing Unit,CPU)、网络处理器(Network Processor,NP)等;还可以是数字信号处理器(Digital SignalProcessor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。
在本申请提供的又一实施例中,还提供了一种计算机可读存储介质,该计算机可读存储介质内存储有计算机程序,所述计算机程序被处理器执行时实现上述任一模型训练方法的步骤,或实现上述目标检测方法的步骤。
在本申请提供的又一实施例中,还提供了一种包含指令的计算机程序产品,当其在计算机上运行时,使得计算机执行上述实施例中任一模型训练方法的步骤,或使得计算机执行上述实施例中目标检测方法的步骤。
在上述实施例中,可以全部或部分地通过软件、硬件、固件或者其任意组合来实现。当使用软件实现时,可以全部或部分地以计算机程序产品的形式实现。所述计算机程序产品包括一个或多个计算机指令。在计算机上加载和执行所述计算机程序指令时,全部或部分地产生按照本申请实施例所述的流程或功能。所述计算机可以是通用计算机、专用计算机、计算机网络、或者其他可编程装置。所述计算机指令可以存储在计算机可读存储介质中,或者从一个计算机可读存储介质向另一个计算机可读存储介质传输,例如,所述计算机指令可以从一个网站站点、计算机、服务器或数据中心通过有线(例如同轴电缆、光纤、数字用户线(DSL))或无线(例如红外、无线、微波等)方式向另一个网站站点、计算机、服务器或数据中心进行传输。所述计算机可读存储介质可以是计算机能够存取的任何可用介质或者是包含一个或多个可用介质集成的服务器、数据中心等数据存储设备。所述可用介质可以是磁性介质,(例如,软盘、硬盘、磁带)、光介质(例如,DVD)、或者半导体介质(例如固态硬盘Solid State Disk(SSD))等。
需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
本说明书中的各个实施例均采用相关的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于装置、电子设备、计算机可读存储介质和计算机程序产品实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
以上所述仅为本申请的较佳实施例,并非用于限定本申请的保护范围。凡在本申请的精神和原则之内所作的任何修改、等同替换、改进等,均包含在本申请的保护范围内。
Claims (15)
1.一种模型训练方法,其特征在于,所述方法包括:
利用第一模型,对至少一个第一无标签数据进行预测,得到每个第一无标签数据的多个第一预测标签和每个第一预测标签的置信度;
根据有标签数据的标签集中每种标签类别的分布情况以及属于该标签类别的所有第一预测标签的置信度,确定该标签类别的置信度阈值;
利用所述第一模型,对至少一个第二无标签数据进行预测,得到每个第二无标签数据的多个第二预测标签和每个第二预测标签的置信度;
在每个第二无标签数据的多个第二预测标签中,确定置信度大于所属标签类别的置信度阈值的第二预测标签,作为该第二无标签数据的候选标签;
利用所述有标签数据、所述至少一个第二无标签数据以及每个第二无标签数据的候选标签,对所述第二模型进行训练。
2.根据权利要求1所述的方法,其特征在于,所述置信度阈值包括第一置信度阈值;所述根据有标签数据的标签集中每种标签类别的分布情况以及属于该标签类别的所有第一预测标签的置信度,确定该标签类别的置信度阈值的步骤,包括:
确定所述至少一个第一无标签数据的总数与有标签数据的总数之间的倍数关系;
根据有标签数据的标签集中每种标签类别的标签的第一数量,确定该标签类别的标签的第二数量,该标签类别的标签的第二数量与该标签类别的标签的第一数量之间满足所述倍数关系;
确定每种标签类别的标签的第二数量与预设可靠系数的乘积,得到该标签类别的标签的第三数量;
按照从大到小的顺序,从属于每种标签类别的所有第一预测标签的置信度中,确定位于对应的第三数量的位置处的置信度,作为该标签类别的第一置信度阈值。
3.根据权利要求2所述的方法,其特征在于,所述利用所述有标签数据、所述至少一个第二无标签数据以及每个第二无标签数据的候选标签,对所述第二模型进行训练的步骤,包括:
将所述有标签数据、所述至少一个第二无标签数据分别输入所述第二模型,得到多个第一候选框的标签为对应的候选标签的置信度,所述第一候选框为与候选标签所标注的检测框的交并比大于第一预设交并比的检测框;
利用所述多个第一候选框对应的置信度,确定第一损失;
利用所述第一损失,更新所述第二模型的参数。
4.根据权利要求1所述的方法,其特征在于,所述置信度阈值包括第二置信度阈值;所述根据有标签数据的标签集中每种标签类别的分布情况以及属于该标签类别的所有第一预测标签的置信度,确定该标签类别的置信度阈值的步骤,包括:
确定所述至少一个第一无标签数据的总数与有标签数据的总数之间的倍数关系;
根据有标签数据的标签集中每种标签类别的标签的第一数量,确定该标签类别的标签的第二数量,该标签类别的标签的第二数量与该标签类别的标签的第一数量之间满足所述倍数关系;
按照从大到小的顺序,从属于每种标签类别的所有第一预测标签的置信度中,确定位于对应的第二数量的位置处的置信度,作为该标签类别的第二置信度阈值。
5.根据权利要求4所述的方法,其特征在于,所述利用所述有标签数据、所述至少一个第二无标签数据以及每个第二无标签数据的候选标签,对所述第二模型进行训练的步骤,包括:
将所述至少一个第二无标签数据输入所述第一模型和第二模型,得到多个第二候选框的标签为对应的候选标签的第一置信度和第二置信度,所述第二候选框为与候选标签所标注的检测框的交并比大于第二预设交并比的检测框;
利用每个第二候选框对应的第一置信度和第二置信度,确定第二损失;
利用所述第二损失,更新所述第二模型的参数。
6.根据权利要求1所述的方法,其特征在于,所述置信度阈值包括第一置信度阈值和第二置信度阈值;所述根据有标签数据的标签集中每种标签类别的分布情况以及属于该标签类别的所有第一预测标签的置信度,确定该标签类别的置信度阈值的步骤,包括:
确定所述至少一个第一无标签数据的总数与有标签数据的总数之间的倍数关系;
根据有标签数据的标签集中每种标签类别的标签的第一数量,确定该标签类别的标签的第二数量,该标签类别的标签的第二数量与该标签类别的标签的第一数量之间满足所述倍数关系;
确定每种标签类别的标签的第二数量与预设可靠系数的乘积,得到该标签类别的标签的第三数量;
按照从大到小的顺序,从属于每种标签类别的所有第一预测标签的置信度中,确定位于对应的第三数量的位置处的置信度,作为该标签类别的第一置信度阈值,并确定位于对应的第二数量的位置处的置信度,作为该标签类别的第二置信度阈值。
7.根据权利要求6所述的方法,其特征在于,所述在每个第二无标签数据的多个第二预测标签中,确定置信度大于所属标签类别的置信度阈值的第二预测标签,作为该第二无标签数据的候选标签的步骤,包括:
在每个第二无标签数据的多个第二预测标签中,确定置信度大于所属标签类别的第一置信度阈值的第二预测标签,作为该第二无标签数据的可靠标签;
在除所述可靠标签外的每个第二无标签数据多个第二预测标签中,确定置信度大于所属标签类别的第二置信度阈值的第二预测标签,作为该第二无标签数据的不确定标签。
8.根据权利要求7所述的方法,其特征在于,所述利用所述有标签数据、所述至少一个第二无标签数据以及每个第二无标签数据的候选标签,对所述第二模型进行训练的步骤,包括:
将所述有标签数据、所述至少一个第二无标签数据分别输入所述第二模型,得到多个第一候选框的标签为对应的可靠标签的置信度,所述第一候选框为与可靠标签所标注的检测框的交并比大于第一预设交并比的检测框;
利用所述多个第一候选框对应的置信度,确定第一损失;
将所述至少一个第二无标签数据输入所述第一模型和第二模型,得到多个第二候选框的标签为对应的不确定标签的第一置信度和第二置信度,所述第二候选框为与不确定标签所标注的检测框的交并比大于第二预设交并比的检测框;
利用每个第二候选框对应的第一置信度和第二置信度,确定第二损失;
利用所述第一损失和所述第二损失,更新所述第二模型的参数。
9.根据权利要求1所述的方法,其特征在于,在对所述第二模型进行训练的过程中,所述方法还包括:
在每次更新所述第二模型的参数之后,对所述第二模型更新后的参数以及所述第一模型的参数进行加权处理,得到加权参数;
利用所述加权参数,更新所述第一模型的参数。
10.根据权利要求1-9任一项所述的方法,其特征在于,所述方法还包括:
若检测到所述第二模型的参数更新次数达到预设次数阈值,则清空所述参数更新次数,并重新执行所述利用第一模型,对至少一个第一无标签数据进行预测,得到每个第一无标签数据的多个第一预测标签和每个第一预测标签的置信度的步骤;
若检测到所述第二模型的参数更新次数未达到预设次数阈值,则重新执行所述利用所述第一模型,对至少一个第二无标签数据进行预测,得到每个第二无标签数据的多个第二预测标签和每个第二预测标签的置信度的步骤。
11.根据权利要求1-9任一项所述的方法,其特征在于,在利用第一模型,对至少一个第一无标签数据进行预测之前,所述方法还包括:
利用所述有标签数据,对所述第三模型进行有监督训练;
将训练完成的第三模型的参数赋予所述第一模型和所述第二模型。
12.一种目标检测方法,其特征在于,所述方法包括:
获取待检测数据;
将所述待检测数据输入应用权利要求1-11任一项所述的方法训练得到的第二模型中,得到所述待检测数据的目标检测结果。
13.根据权利要求12所述的方法,其特征在于,所述待检测数据包括图像、视频、音频、文字中的至少一种。
14.一种模型训练装置,其特征在于,所述装置包括:
第一预测模块,用于利用第一模型,对至少一个第一无标签数据进行预测,得到每个第一无标签数据的多个第一预测标签和每个第一预测标签的置信度;
第一确定模块,用于根据有标签数据的标签集中每种标签类别的分布情况以及属于该标签类别的所有第一预测标签的置信度,确定该标签类别的置信度阈值;
第二预测模块,用于利用所述第一模型,对至少一个第二无标签数据进行预测,得到每个第二无标签数据的多个第二预测标签和每个第二预测标签的置信度;
第二确定模块,用于在每个第二无标签数据的多个第二预测标签中,确定置信度大于所属标签类别的置信度阈值的第二预测标签,作为该第二无标签数据的候选标签;
第一训练模块,用于利用所述有标签数据、所述至少一个第二无标签数据以及每个第二无标签数据的候选标签,对所述第二模型进行训练。
15.一种目标检测装置,其特征在于,所述装置包括:
获取模块,用于获取待检测数据;
第三预测模块,用于将所述待检测数据输入应用权利要求14所述的装置训练得到的第二模型中,得到所述待检测数据的目标检测结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210507932.XA CN114881149A (zh) | 2022-05-10 | 2022-05-10 | 一种模型训练方法及装置、目标检测方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210507932.XA CN114881149A (zh) | 2022-05-10 | 2022-05-10 | 一种模型训练方法及装置、目标检测方法及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114881149A true CN114881149A (zh) | 2022-08-09 |
Family
ID=82674937
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210507932.XA Pending CN114881149A (zh) | 2022-05-10 | 2022-05-10 | 一种模型训练方法及装置、目标检测方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114881149A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115482418A (zh) * | 2022-10-09 | 2022-12-16 | 宁波大学 | 基于伪负标签的半监督模型训练方法、系统及应用 |
-
2022
- 2022-05-10 CN CN202210507932.XA patent/CN114881149A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115482418A (zh) * | 2022-10-09 | 2022-12-16 | 宁波大学 | 基于伪负标签的半监督模型训练方法、系统及应用 |
CN115482418B (zh) * | 2022-10-09 | 2024-06-07 | 北京呈创科技股份有限公司 | 基于伪负标签的半监督模型训练方法、系统及应用 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110674880B (zh) | 用于知识蒸馏的网络训练方法、装置、介质与电子设备 | |
CN114912433B (zh) | 文本层级多标签分类方法、装置、电子设备以及存储介质 | |
Stone | Calibrating rough volatility models: a convolutional neural network approach | |
CN106471525A (zh) | 增强神经网络以生成附加输出 | |
CN114600117A (zh) | 通过样本一致性评估的主动学习 | |
CN110991556B (zh) | 一种基于多学生合作蒸馏的高效图像分类方法、装置、设备及介质 | |
JP7342242B2 (ja) | 学習を転移させるための学習のためのフレームワーク | |
CN110390408A (zh) | 交易对象预测方法和装置 | |
US20210166106A1 (en) | Residual binary neural network | |
CN116450813B (zh) | 文本关键信息提取方法、装置、设备以及计算机存储介质 | |
CN110414005A (zh) | 意图识别方法、电子设备及存储介质 | |
CN111191825A (zh) | 用户违约预测方法、装置及电子设备 | |
CN113139051A (zh) | 文本分类模型训练方法、文本分类方法、设备和介质 | |
CN115829058A (zh) | 训练样本处理方法、跨模态匹配方法、装置、设备和介质 | |
CN115994223A (zh) | 序列化多标签分类方法、装置、设备和介质 | |
CN114881149A (zh) | 一种模型训练方法及装置、目标检测方法及装置 | |
CN117391497A (zh) | 一种新闻稿件质量主客观评分一致性评价方法及系统 | |
CN110781929B (zh) | 信用预测模型的训练方法、预测方法及装置、介质和设备 | |
CN111259673A (zh) | 一种基于反馈序列多任务学习的法律判决预测方法及系统 | |
CN110851600A (zh) | 基于深度学习的文本数据处理方法及装置 | |
US20230052540A1 (en) | Trend-informed demand forecasting | |
Hu et al. | An attention-mechanism-based traffic flow prediction scheme for smart city | |
CN115544210A (zh) | 基于持续学习的事件抽取的模型训练、事件抽取的方法 | |
Feng et al. | An attention-gru based gas price prediction model for ethereum transactions | |
CN115359468A (zh) | 一种目标网站识别方法、装置、设备及介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |