CN115186773A - 一种无源的主动领域自适应模型训练方法及装置 - Google Patents

一种无源的主动领域自适应模型训练方法及装置 Download PDF

Info

Publication number
CN115186773A
CN115186773A CN202211106684.4A CN202211106684A CN115186773A CN 115186773 A CN115186773 A CN 115186773A CN 202211106684 A CN202211106684 A CN 202211106684A CN 115186773 A CN115186773 A CN 115186773A
Authority
CN
China
Prior art keywords
data set
target
data
target domain
neural network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202211106684.4A
Other languages
English (en)
Other versions
CN115186773B (zh
Inventor
吕梦遥
陈辉
赵思成
邵天予
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hangzhou Zhuoxi Brain And Intelligence Research Institute
Original Assignee
Hangzhou Zhuoxi Brain And Intelligence Research Institute
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hangzhou Zhuoxi Brain And Intelligence Research Institute filed Critical Hangzhou Zhuoxi Brain And Intelligence Research Institute
Priority to CN202211106684.4A priority Critical patent/CN115186773B/zh
Publication of CN115186773A publication Critical patent/CN115186773A/zh
Application granted granted Critical
Publication of CN115186773B publication Critical patent/CN115186773B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/088Non-supervised learning, e.g. competitive learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)

Abstract

本申请公开了一种无源的主动领域自适应模型训练方法及装置,其方法包括:基于源域数据集对目标域神经网络模型进行初始化处理;获取目标域数据集,并基于目标域神经网络模型从目标域数据集中提取出第一数据集;对第一数据集中每个目标数据进行标注处理,并基于处理后的第一数据集、第二数据集以及目标域神经网络模型对处理后的第一数据集进行更新;根据更新后的第一数据集判断目标域神经网络模型迭代是否结束。通过在训练过程中不要求源数据的存在,又可利用有限的标注数据集对模型进行高效的领域自适应训练方式,不仅没有假设源数据在适应过程中的可用性,还可有效地克服无监督领域自适应的限制,进而提高训练出的模型的准确性。

Description

一种无源的主动领域自适应模型训练方法及装置
技术领域
本申请属于深度神经网络技术领域,特别的涉及一种无源的主动领域自适应模型训练方法及装置。
背景技术
近年来,深度神经网络在各种计算机视觉领域取得了显著的成果,然而它们往往假设用于训练和测试的数据是从一个独立同分布(independent and identicaldistribution, i.i.d.)中随机抽样获得的,这与许多现实世界的场景相违背,导致良好训练的模型的性能在应用中显著下降。对于这种情况,领域自适应(Domain Adaptation, DA)发挥了作用,它能使知识从源领域转移到目标领域。
领域自适应(Domain Adaptation, DA)作为迁移学习的一个特例,能使知识从源域泛化到相关的目标域。根据源域和目标域之间类别集关系的假设不同,即语义迁移,领域自适应主要可分为闭集领域自适应、开集领域自适应、局部领域自适应和通用领域自适应。其还可根据目标数据可达性的假设被分为无监督领域自适应、半监督领域自适应、弱监督领域自适应、零样本领域自适应,单样本领域自适应,少样本领域自适应以及主动领域自适应。在这些子领域中,主动领域自适应的目标是寻找信息量最大的目标样本进行标注,使得其最益于目标域的分类。
在现有的技术中,对于主动领域自适应模型的训练方式需要源域和目标域的数据并存,以利用域间关系优化模型,而源数据可及性的假设在实际应用中可能会失效,因为源数据可能被保护或分散存储;其次,在一些应用无源无监督领域自适应的技术中,唯一的知识来源来自在源域训练好的模型,它以假设的形式迁移,而在没有任何来自源域或目标域的“图像-类别”对的情况下,无源无监督领域自适应使得对齐问题更具挑战性,且加剧了该问题的不适定性。
发明内容
本申请为解决上述提到的源数据可及性的假设在实际应用中可能会失效以及无监督领域自适应过程中对模型训练的限制等技术问题,提出一种无源的主动领域自适应模型训练方法及装置,其具体技术方案如下:
第一方面,本申请实施例提供了一种无源的主动领域自适应模型训练方法,包括:
基于源域数据集对目标域神经网络模型进行初始化处理;其中,源域数据集中包括至少两种类别的样本数据;
获取目标域数据集,并基于目标域神经网络模型从目标域数据集中提取出第一数据集;其中,目标数据集中任意一个目标数据未标注有类别,目标数据集包括第一数据集以及第二数据集,第一数据集对应的标注价值大于第二数据集对应的标注价值;
对第一数据集中每个目标数据进行标注处理,并基于处理后的第一数据集、第二数据集以及目标域神经网络模型对处理后的第一数据集进行更新;
根据更新后的第一数据集判断目标域神经网络模型迭代是否结束。
在第一方面的一种可选方案中,基于源域数据集对目标域神经网络模型进行初始化处理,包括:
采集源域数据集;
基于源域数据集包含的类别对每个样本数据进行平滑正则化处理;
基于处理后的源域数据集对神经网络模型进行训练,并根据源域数据集训练的神经网络模型对目标域神经网络模型的结构和参数进行初始化处理。
在第一方面的又一种可选方案中,基于目标域神经网络模型从目标域数据集中提取出第一数据集,包括:
将目标域数据集中每个目标数据输入至目标域神经网络模型中,预测出每个目标数据中每种类别的概率分布;
基于每个目标数据中每种类别的概率分布得到概率差值,并将概率差值作为每个目标数据的第一困难指标;
根据每个目标数据的第一困难指标的大小对目标域数据集中所有目标数据进行排序,并按照预设选取方式从排序后的目标域数据集中提取出第一数据集。
在第一方面的又一种可选方案中,在将概率差值作为每个目标数据的第一困难指标之后,在根据每个目标数据的第一困难指标的大小对目标域数据集中所有目标数据进行排序,并按照预设选取方式从排序后的目标域数据集中提取出第一数据集之前,还包括:
基于每个目标数据中预测概率最大的类别,统计出每种类别在目标域数据集中的预测概率分布,并根据每种类别在目标域数据集中的预测概率分布确定出每种类别在目标域数据集中的迁移困难程度;
根据每种类别在目标域数据集中的迁移困难程度确定出每个目标数据的第二困难指标;
根据每个目标数据的第一困难指标的大小对目标域数据集中所有目标数据进行排序,并按照预设选取方式从排序后的目标域数据集中提取出第一数据集,包括:
根据每个目标数据的第一困难指标以及第二困难指标,对目标域数据集中所有目标数据进行排序,并按照预设选取方式从排序后的目标域数据集中提取出第一数据集。
在第一方面的又一种可选方案中,基于处理后的第一数据集、第二数据集以及目标域神经网络模型对处理后的第一数据集进行更新,包括:
将处理后的第一数据集以及第二数据集分别输入至目标域神经网络模型,并根据目标域神经网络模型的预测结果分别建立交叉熵损失函数、类间分离损失函数以及类内集中损失函数;
基于交叉熵损失函数、类间分离损失函数以及类内集中损失函数对目标域神经网络模型进行参数优化处理;
基于处理后的目标域神经网络模型从第二数据集中提取出第三数据集,并对第三数据集进行标注处理;
将处理后的第三数据集添加至处理后的第一数据集中。
在第一方面的又一种可选方案中,基于处理后的目标域神经网络模型从第二数据集中提取出第三数据集,包括:
将第二数据集中每个目标数据输入至处理后的目标域神经网络模型中,预测出每个目标数据中每种类别的概率分布;
基于每个目标数据中每种类别的概率分布得到概率差值,并将概率差值作为每个目标数据的第一困难指标;
基于每个目标数据中预测概率最大的类别,统计出每种类别在第二数据集中的预测概率分布,并根据每种类别在第二数据集中的预测概率分布确定出每种类别在第二数据集中的迁移困难程度;
根据每种类别在第二数据集中的迁移困难程度确定出每个目标数据的第二困难指标;
根据每个目标数据的第一困难指标以及第二困难指标,对第二数据集中所有目标数据进行排序,并按照预设选取方式从排序后的第二数据集中提取出第三数据集。
在第一方面的又一种可选方案中,根据更新后的第一数据集判断目标域神经网络模型迭代是否结束,包括:
判断更新后的第一数据集中所有目标数据的个数是否超过预设阈值;
当检测到所有目标数据的个数超过预设阈值时,确定目标域神经网络模型迭代结束;
当检测到所有目标数据的个数未超过预设阈值时,返回至基于处理后的第一数据集、第二数据集以及目标域神经网络模型对处理后的第一数据集进行更新的步骤,直至更新后的第一数据集中所有目标数据的个数超过预设阈值。
第二方面,本申请实施例提供了一种无源的主动领域自适应模型训练装置,包括:
第一处理模块,用于基于源域数据集对目标域神经网络模型进行初始化处理;其中,源域数据集中包括至少两种类别的样本数据;
第二处理模块,用于获取目标域数据集,并基于目标域神经网络模型从目标域数据集中提取出第一数据集;其中,目标数据集中任意一个目标数据未标注有类别,目标数据集包括第一数据集以及第二数据集,第一数据集对应的标注价值大于第二数据集对应的标注价值;
数据集更新模块,用于对第一数据集中每个目标数据进行标注处理,并基于处理后的第一数据集、第二数据集以及目标域神经网络模型对处理后的第一数据集进行更新;
迭代判断模块,用于根据更新后的第一数据集判断目标域神经网络模型迭代是否结束。
在第二方面的一种可选方案中,第一处理模块包括:
数据采集单元,用于采集源域数据集;
第一处理单元,用于基于源域数据集中每个样本数据的类别进行平滑正则化处理;
第二处理单元,用于基于处理后的源域数据集对神经网络模型进行训练,并根据源域数据集训练的神经网络模型对目标域神经网络模型的结构和参数进行初始化处理。
在第二方面的又一种可选方案中,第二处理模块包括:
模型输出单元,用于将目标域数据集中每个目标数据输入至目标域神经网络模型中,预测出每个目标数据中每种类别的概率分布;
第一计算单元,用于基于每个目标数据中每种类别的概率分布得到概率差值,并将概率差值作为每个目标数据的第一困难指标;
数据提取单元,用于根据每个目标数据的第一困难指标的大小对目标域数据集中所有目标数据进行排序,并按照预设选取方式从排序后的目标域数据集中提取出第一数据集。
在第二方面的又一种可选方案中,第二处理模块还包括:
第二计算单元,用于在将概率差值作为每个目标数据的第一困难指标之后,在根据每个目标数据的第一困难指标的大小对目标域数据集中所有目标数据进行排序,并按照预设选取方式从排序后的目标域数据集中提取出第一数据集之前,基于每个目标数据中预测概率最大的类别,统计出每种类别在目标域数据集中的预测概率分布,并根据每种类别在目标域数据集中的预测概率分布确定出每种类别在目标域数据集中的迁移困难程度;
第三计算单元,用于根据每种类别在目标域数据集中的迁移困难程度确定出每个目标数据的第二困难指标;
数据提取单元具体用于:
根据每个目标数据的第一困难指标以及第二困难指标,对目标域数据集中所有目标数据进行排序,并按照预设选取方式从排序后的目标域数据集中提取出第一数据集。
在第二方面的又一种可选方案中,数据集更新模块包括:
数据建立单元,用于将处理后的第一数据集以及第二数据集分别输入至目标域神经网络模型,并根据目标域神经网络模型的预测结果分别建立交叉熵损失函数、类间分离损失函数以及类内集中损失函数;
模型优化单元,用于基于交叉熵损失函数、类间分离损失函数以及类内集中损失函数对目标域神经网络模型进行参数优化处理;
数据采集单元,用于基于处理后的目标域神经网络模型从第二数据集中提取出第三数据集,并对第三数据集进行标注处理;
数据更新单元,用于将处理后的第三数据集添加至处理后的第一数据集中。
在第二方面的又一种可选方案中,数据采集单元具体用于:
将第二数据集中每个目标数据输入至处理后的目标域神经网络模型中,预测出每个目标数据中每种类别的概率分布;
基于每个目标数据中每种类别的概率分布得到概率差值,并将概率差值作为每个目标数据的第一困难指标;
基于每个目标数据中预测概率最大的类别,统计出每种类别在第二数据集中的预测概率分布,并根据每种类别在第二数据集中的预测概率分布确定出每种类别在第二数据集中的迁移困难程度;
根据每种类别在第二数据集中的迁移困难程度确定出每个目标数据的第二困难指标;
根据每个目标数据的第一困难指标以及第二困难指标,对第二数据集中所有目标数据进行排序,并按照预设选取方式从排序后的第二数据集中提取出第三数据集。
在第二方面的又一种可选方案中,迭代判断模块包括:
判断单元,用于判断更新后的第一数据集中所有目标数据的个数是否超过预设阈值;
第一检测单元,用于当检测到所有目标数据的个数超过预设阈值时,确定目标域神经网络模型迭代结束;
第二判断单元,用于当检测到所有目标数据的个数未超过预设阈值时,返回至基于处理后的第一数据集、第二数据集以及目标域神经网络模型对处理后的第一数据集进行更新的步骤,直至更新后的第一数据集中所有目标数据的个数超过预设阈值。
第三方面,本申请实施例还提供了一种无源的主动领域自适应模型训练装置,包括处理器以及存储器;
处理器与存储器连接;
存储器,用于存储可执行程序代码;
处理器通过读取存储器中存储的可执行程序代码来运行与可执行程序代码对应的程序,以用于实现本申请实施例第一方面或第一方面的任意一种实现方式提供的无源的主动领域自适应模型训练方法。
第四方面,本申请实施例提供了一种计算机存储介质,计算机存储介质存储有计算机程序,计算机程序包括程序指令,程序指令当被处理器执行时,可实现本申请实施例第一方面或第一方面的任意一种实现方式提供的无源的主动领域自适应模型训练方法。
在本申请实施例中,可在对神经网络模型进行训练时,先基于源域数据集对目标域神经网络模型进行初始化处理;接着获取目标域数据集,并基于目标域神经网络模型从目标域数据集中提取出第一数据集;接着对第一数据集中每个目标数据进行标注处理,并基于处理后的第一数据集、第二数据集以及目标域神经网络模型对处理后的第一数据集进行更新;接着根据更新后的第一数据集判断目标域神经网络模型迭代是否结束。通过在训练过程中不要求源数据的存在,又可利用有限的标注数据集对模型进行高效的领域自适应训练方式,不仅没有假设源数据在适应过程中的可用性,还可有效地克服无监督领域自适应的限制,进而提高训练出的模型的准确性。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例中所需使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本申请实施例提供的一种无源的主动领域自适应模型训练方法的流程示意图;
图2为本申请实施例提供的一种基于确定第一数据集的效果示意图;
图3为本申请实施例提供的一种目标域神经网络模型的训练效果示意图;
图4为本申请实施例提供的一种无源的主动领域自适应模型训练方法的效果示意图;
图5为本申请实施例提供的一种无源的主动领域自适应模型训练装置的结构示意图;
图6为本申请实施例提供的一种无源的主动领域自适应模型的结构示意图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述。
在下述介绍中,术语“第一”、“第二”仅为用于描述的目的,而不能理解为指示或暗示相对重要性。下述介绍提供了本申请的多个实施例,不同实施例之间可以替换或者合并组合,因此本申请也可认为包含所记载的相同和/或不同实施例的所有可能组合。因而,如果一个实施例包含特征A、B、C,另一个实施例包含特征B、D,那么本申请也应视为包括含有A、B、C、D的一个或多个所有其他可能的组合的实施例,尽管该实施例可能并未在以下内容中有明确的文字记载。
下面的描述提供了示例,并且不对权利要求书中阐述的范围、适用性或示例进行限制。可以在不脱离本申请内容的范围的情况下,对描述的元素的功能和布置做出改变。各个示例可以适当省略、替代或添加各种过程或组件。例如所描述的方法可以以所描述的顺序不同的顺序来执行,并且可以添加、省略或组合各种步骤。此外,可以将关于一些示例描述的特征组合到其他示例中。
请参阅图1,图1示出了本申请实施例提供的一种无源的主动领域自适应模型训练方法的流程示意图。
如图1所示,该无源的主动领域自适应模型训练方法至少可以包括以下步骤:
步骤102、基于源域数据集对目标域神经网络模型进行初始化处理。
在本申请实施例中提到的目标域神经网络模型可为本领域中任意一种常见的深度神经网络,该目标域神经网络模型可以但不局限于应用在自动驾驶汽车领域,例如可将自动驾驶汽车所采集到的图像输入至该目标域神经网络模型中,以得到标注有至少两种类别的数据集。其中,该类别可以但不局限于为出现在图像中的人物、车辆、树木等对象。可以理解的是,在基于目标域神经网络模型得到标注有类别的图像之后,可由自动驾驶汽车的控制系统根据该标注有类别的图像进行后续处理。
具体地,在对目标域神经网络模型进行多次迭代训练时,可先确定出用于对未训练的目标域神经网络模型进行初始化处理的源域数据集,该源域数据集中包括多个样本数据以及多种类别,每个样本数据可标注有一种类别。可以理解的是,在本申请实施例中提到的源域数据集不局限于真实的采集到的图像,还可以是人工进行合成的图像或是经过其它生成方式所得到的模拟图像。
进一步的,在采集到标注有至少两种类别的源域数据集之后,考虑到现代神经网络普遍存在误校准问题,可根据该源域数据集中每个样本数据所标注的类别进行平滑正则化处理,以提高该源域数据集在目标域神经网络模型中的泛化能力以及校准有效性,例如但不局限于该源域数据集可存在六种类别的标注数据,对一个特定类别的样本进行平滑正则化处理使该每种类别在目标域神经网络模型中的响应概率分别为0.9、0.02、0.02、0.02、0.02、0.02。
进一步的,可基于经过平滑正则化处理的源域数据集对神经网络模型进行训练,并根据经过源域数据集训练的神经网络模型对目标域神经网络模型的结构和参数进行初始化处理。其中,目标域神经网络模型可以但不局限于由经过源域数据集训练的神经网络模型基于知识迁移的学习过程得到,或是可直接将经过平滑正则化处理的源域数据集对目标域神经网络模型进行训练,以得到训练后的目标域神经网络模型(也即经过初始化处理的目标域神经网络模型),此处神经网络模型的结构可以但不局限于与目标域神经网络模型的结构一致。
在本申请实施例中提到的源域数据集可以但不局限于表示为:
Figure 216036DEST_PATH_IMAGE001
经过初始化处理的目标域神经网络模型可以但不局限于表示为:
Figure 701375DEST_PATH_IMAGE002
步骤104、获取目标域数据集,并基于目标域神经网络模型从目标域数据集中提取出第一数据集。
具体地,在得到经过初始化处理的目标域神经网络模型之后,可获取目标域数据集,并基于该经过初始化处理的目标域神经网络模型的预测结果从该目标域数据集中提取出第一数据集,其中,目标域数据集可包括多个目标数据,例如但不局限于可由自动驾驶车辆的相机所拍摄到的道路图像,且该目标数据未标注有任何类别。此处,目标域数据集中除第一数据集外的其它所有目标数据可统称为第二数据集,且从该目标域数据集中提取出的第一数据集所对应的标注价值大于该第二数据集所对应的标注价值,也即是说第一数据集经过标注后训练得到的目标域神经网络模型准确性高于第二数据集中任一同样数量的子集训练目标域神经网络模型所得到的准确性。
作为本申请实施例的一种可选,基于目标域神经网络模型从目标域数据集中提取出第一数据集,包括:
将目标域数据集中每个目标数据输入至目标域神经网络模型中,预测出每个目标数据中每种类别的概率分布;
基于每个目标数据中每种类别的概率分布得到概率差值,并将概率差值作为每个目标数据的第一困难指标;
根据每个目标数据的第一困难指标的大小对目标域数据集中所有目标数据进行排序,并按照预设选取方式从排序后的目标域数据集中提取出第一数据集。
具体地,在从目标域数据集中提取出第一数据集时,为了量化目标域数据集的预测不确定性,可先将该目标域数据集中每个目标数据输入至目标域神经网络模型中,以预测出每个标注有每种类别的概率分布的目标数据,并通过该标注的每种类别的概率分布确定出最大概率值与第二大概率值之间的概率差值,此处每个目标数据中所标注的每种类别的概率之和为1。其中,概率差值越大可表示目标域神经网络模型预测出的最有把握的两个类别之间不存在犹豫,也即是说该目标域神经网络模型对该两个类别的预测结果更加自信;概率差值越小可表示目标域神经网络模型预测出的最有把握的两个类别之间存在犹豫,也即是说该目标域神经网络模型对该两个类别的预测结果并不确定。此处,在本申请实施例中可将每个目标数据对应的概率差值作为每个目标数据的第一困难指标,其表达式可以但不局限于参照如下:
Figure 12402DEST_PATH_IMAGE003
Figure 846366DEST_PATH_IMAGE004
Figure 610054DEST_PATH_IMAGE005
进一步的,可根据该每个目标数据对应的第一困难指标对该目标域数据集中所有的目标数据进行排序,相应概率差值较小的目标数据可以但不局限于排在该目标域数据集中的前部分,相应概率差值较大的目标数据可以但不局限于排在该目标域数据集中的后部分,并可按照预设的从前到后的选取顺序从目标域数据集中选取预设数量的目标数据作为第一数据集。此处排序的计算方式可以但不局限于参照如下:
Figure 554876DEST_PATH_IMAGE006
需要说明的是,在样本级不确定性的估计中,虽然不确定性估计的常见做法是基于预测熵,但它已被证明对小的概率值更敏感,并且这种情况在语义空间扩大时会加剧。在领域自适应的情况下这种问题会进一步恶化,因为所有的分类超平面在适应过程中都会波动,可能导致更严重的错误积累。基于此,本发明利用的差数只关注最有信心的两个预测类别,降低了其他类别预测概率的干扰。
作为本申请实施例的又一种可选,在将概率差值作为每个目标数据的第一困难指标之后,在根据每个目标数据的第一困难指标的大小对目标域数据集中所有目标数据进行排序,并按照预设选取方式从排序后的目标域数据集中提取出第一数据集之前,还包括:
基于每个目标数据中预测概率最大的类别,统计出每种类别在目标域数据集中的预测概率分布,并根据每种类别在目标域数据集中的预测概率分布确定出每种类别在目标域数据集中的迁移困难程度;
根据每种类别在目标域数据集中的迁移困难程度确定出每个目标数据的第二困难指标;
根据每个目标数据的第一困难指标的大小对目标域数据集中所有目标数据进行排序,并按照预设选取方式从排序后的目标域数据集中提取出第一数据集,包括:
根据每个目标数据的第一困难指标以及第二困难指标,对目标域数据集中所有目标数据进行排序,并按照预设选取方式从排序后的目标域数据集中提取出第一数据集。
在本申请实施例中,由于对样本的独立评估缺乏全局视角,使结果容易受到个别离群值的干扰,这促使本申请引入一个更全局的视角。换句话说,本申请用类级的统计数据来补充样本级的不确定性估计,并倾向于属于困难类别的样本,这些目标数据不太可能成为离群值。相反,属于简单类别的样本呈现出的识别挑战可能是源于其特殊性或罕见性,而非其携带信息的价值。
具体地,在预测出每个目标数据中所标注的每种类别的概率分布之后,可根据每个目标数据中预测概率最大的类别统计出每种类别在目标域数据集中的预测概率分布,并可根据该每种类别在目标域数据集中的预测概率分布确定出每种类别在目标域数据集中所对应的迁移困难程度。此处以目标域数据集中标注有A、B、C以及D四种类别为例,A类别的概率统计为0.1,B类别的概率统计为0.2,C类别的概率统计为0.3,D类别的概率统计为0.4,则可确定出A类别所对应的迁移困难程度为困难,B类别所对应的迁移困难程度为较难,C类别所对应的迁移困难程度为一般,D类别所对应的迁移困难程度为简单。
可以理解的是,对于迁移困难程度为简单的类别,表明目标域神经网络模型对于这种类别的预测结果的准确性较高,可相应降低该类别对应的权重;对于迁移困难程度为困难的类别,表明目标域神经网络模型对于这种类别的预测结果的准确性较低,可相应提高该类别对应的权重,基于此可根据该目标域数据集中所标注的每种类别的迁移困难程度计算出每个目标数据的第二困难指标,其表达式可以但不局限于参照如下:
Figure 189251DEST_PATH_IMAGE007
在上式中,在
Figure 194116DEST_PATH_IMAGE008
个最有把握的差数中,目标域神经网络模型推断未标记样本为第
Figure 445100DEST_PATH_IMAGE008
类的频率,其中
Figure 662454DEST_PATH_IMAGE008
是控制统计范围的一个参数。
进一步的,可在得到每个目标数据的第二困难指标之后,根据每个目标数据的第一困难指标以及第二困难指标,对目标域数据集中所有的目标数据进行排序,其中,排序方式可以但不局限于可参照下式:
Figure 541549DEST_PATH_IMAGE009
上式中,
Figure 468047DEST_PATH_IMAGE010
可对应为上述提到的
Figure 455595DEST_PATH_IMAGE011
Figure 492952DEST_PATH_IMAGE012
可对应为上述提到的
Figure 616766DEST_PATH_IMAGE013
,且可将计算出数值较小的目标数据排在该目标域数据集中的前部分,将 计算出数值较大的目标数据排在该目标域数据集中的后部分。
进一步的,可按照预设的从前到后的选取顺序从目标域数据集中选取预设数量的目标数据作为第一数据集。
本申请所提出的主动学习评估标准根据实例特征和类的统计数据来估计未标记样本的预测难度,它关注的是更大的目标域空间,而不是单个实例。其中,属于简单类别的高排名样本更有可能是离群值,因此在双重困难度挖掘过程中会被降低权重。同时,具有挑战性的类的困难样本仍然保持高排名,使它们被标记的可能性更高,因此在接下来的主动学习迭代中有益于少数类的训练。
此处还可参阅图2示出的本申请实施例提供的一种基于确定第一数据集的效果示意图。如图2所示,对于目标域数据集中某个目标数据,基于第一困难指标可将该目标数据排在目标域数据集中的第二位(可结合图2的左图以及中图),基于第二困难指标可将该目标数据所属类别排在目标域数据集所有类别中的第二位(可结合图2的右图以及中图),并结合第一困难指标以及第二困难指标可将该目标数据排在目标域数据集中的第四位。
步骤106、对第一数据集中每个目标数据进行标注处理,并基于处理后的第一数据集、第二数据集以及目标域神经网络模型对处理后的第一数据集进行更新。
具体地,在从目标域数据集中提取出第一数据集之后,可以但不局限于通过人工或是自动化程序对该第一数据集中每个目标数据进行标注处理,接着可将处理后的第一数据集以及第二数据集分别输入至目标域神经网络模型,并根据目标域神经网络模型的预测结果分别建立交叉熵损失函数、类间分离损失函数以及类内集中损失函数,以基于交叉熵损失函数、类间分离损失函数以及类内集中损失函数对目标域神经网络模型进行参数优化处理。
为了促进知识从源域转移到无类别领域,低密度假设被广泛采用,即分类的决策边界不应该通过目标域中边缘分布的高密度区域,然而在以往的研究中往往是通过对抗性训练将不同域的样本在嵌入空间中对齐,这无法推广到本申请的无源领域自适应场景。因此在本申请实施例中提出类间分离和类内集中的优化方法来实现对目标域神经网络模型的训练。
其中,可在对目标域神经网络模型进行训练的过程中,先通过主动学习选择出的有类别数据来建立交叉熵损失函数,其表达式可以但不局限于可参照如下:
Figure 183008DEST_PATH_IMAGE014
在本申请实施例中,虽然主动学习所得的样本可能不代表整个目标域的分布,但仍然可以发挥重要的锚点作用。此外,鉴于各不同域的语义相似性,目标域神经网络模型已经能够识别较多的目标样本。
进一步的,为了鼓励无类别样本的预测在源约束的假设空间中形成聚类,本申请提出了类间分离和类内集中的方法。其中,类间分离的实现基于理想的迁移条件下模型会输出高置信度的预测结果,即在类别上呈现出独热(one-hot)模式,通过对上述提到的交叉熵损失函数最小化,得到分离损失函数,其表达式可以但不局限于可参照如下:
Figure 657852DEST_PATH_IMAGE015
可以理解的是,有了上述提到的惩罚项,目标域神经网络模型就会对未标记的样本预测出较高的置信度分数,而学习到的流形空间中的特征就会有更强的类间区分性。
进一步的,为了鼓励同一类别的已标注和未标注的样本形成一个更集中的簇(也即类内集中),根据目标域神经网络模型的输出结果建立类内集中损失函数,其表达式可以但不局限于可参照如下:
Figure 498900DEST_PATH_IMAGE016
Figure 89937DEST_PATH_IMAGE017
上式中,
Figure 341926DEST_PATH_IMAGE018
可表示为第二数据集中目标数据
Figure 54799DEST_PATH_IMAGE019
的特征,
Figure 683226DEST_PATH_IMAGE020
为一个
Figure 797944DEST_PATH_IMAGE021
矩阵,每一行代表一个第一数据集中目标数据
Figure 299463DEST_PATH_IMAGE022
的d维特征,
Figure 748899DEST_PATH_IMAGE023
可表示为归一化 函数,D表示一种距离度量。
为简单起见,在不丧失一般性的情况下,本申请实施例还可采用余弦相似度来衡量不同实例之间的关系,并利用softmax函数将距离转化至[0,1]。为了避免波动干扰并确保来自源域的长期知识迁移,本申请还可为标记样本的特征建立了一个记忆库,其中每个表征都通过指数移动平均进行时域上的组合,其表达式可以但不局限于可参照如下:
Figure 931750DEST_PATH_IMAGE024
上式中,
Figure 884663DEST_PATH_IMAGE025
可表示为动量参数,以用于控制预测结果的权重下降。基于上述,本申请 实施例可用记忆库
Figure 494767DEST_PATH_IMAGE026
代替公式
Figure 634761DEST_PATH_IMAGE027
为了减少潜在空间中的距离熵,每个未标记的样本都将靠近其最近的标记锚点,同时与其他类别簇保持相当的距离。
进一步的,可将上述提到的交叉熵损失函数、分离损失函数以及类内集中损失函数进行结合,其结合表达式可以但不局限于可参照如下:
Figure 621303DEST_PATH_IMAGE028
上式中,超参数
Figure 694301DEST_PATH_IMAGE029
以及
Figure 475306DEST_PATH_IMAGE030
可用于控制不同的交互作用力。可以理解的是,此处
Figure 368176DEST_PATH_IMAGE031
可用少量的标记样本建立高质量的类别感知引导锚点,
Figure 486305DEST_PATH_IMAGE032
以及
Figure 164542DEST_PATH_IMAGE033
用于在潜在 空间同时分离不同类别并集中同一类别的特征,从而得到通过低密度区域的分类面。
需要说明的是,本申请在优化过程中没有对无标记数据施加显式的监督(如伪标签),因此在无源数据和目标域类别稀缺的情况下,可以避免错误积累问题。
此处还可参阅图3示出的本申请实施例提供的一种目标域神经网络模型的训练效果示意图,图3中a可表示为主动标注的不同类别的样本示意图,b可表示为基于类间分离的不同类别的分类示意图,c可表示为基于类间分离以及类间集中的不同类别的分类示意图。
进一步的,在对目标域神经网络模型进行参数优化处理之后,可将第二数据集中每个目标数据输入至处理后的目标域神经网络模型中,以预测出第二数据集中每个目标数据中每种类别的概率分布,并通过该标注的每种类别的概率分布确定出最大概率值与第二大概率值之间的概率差值,此处第二数据集中每个目标数据中所标注的每种类别的概率之和为1。其中,概率差值越大可表示目标域神经网络模型预测出的概率最高的一个类别很有把握,也即是说该目标域神经网络模型对该类别的预测结果更加自信;概率差值越小可表示目标域神经网络模型预测出的最有把握的两个类别之间存在犹豫,也即是说该目标域神经网络模型对该两个类别的预测结果并不确定。
进一步的,还可根据第二数据集中每个目标数据中预测概率最大的类别统计出每种类别在第二数据集中的预测概率分布,并可根据该每种类别在第二数据集中的预测概率分布确定出每种类别在第二数据集中所对应的迁移困难程度。此处以目标域数据集中标注有A、B、C以及D四种类别为例,A类别的概率统计为0.1,B类别的概率统计为0.2,C类别的概率统计为0.3,D类别的概率统计为0.4,则可确定出A类别所对应的迁移困难程度为困难,B类别所对应的迁移困难程度为较难,C类别所对应的迁移困难程度为一般,D类别所对应的迁移困难程度为简单。
进一步的,可在得到第二数据集中每个目标数据的第二困难指标之后,根据每个目标数据的第一困难指标以及第二困难指标,对第二数据集中所有的目标数据进行排序,可以但不局限于将计算出数值较小的目标数据排在该第二数据集中的前部分,将计算出数值较大的目标数据排在该第二数据集中的后部分。
进一步的,可按照预设的从前到后的选取顺序从第二数据集中选取预设数量的目标数据作为第三数据集,并对该第三数据集中每个目标数据进行标注处理。可以理解的是,第一数据集中每个目标数据也是经过标注处理的,基于此可将第三数据集中所有目标数据添加值该第一数据集中,以实现对该第一数据集的更新。
步骤108、根据更新后的第一数据集判断目标域神经网络模型迭代是否结束。
具体地,当检测到更新后的第一数据集中所有的目标数据个数未超过预设阈值时,可表明该目标域神经网络模型还未达到训练量,返回至基于处理后的第一数据集、第二数据集以及目标域神经网络模型对处理后的第一数据集进行更新的步骤,可以但不局限于将更新后的第一数据集以及提取出第三数据集的第二数据集分别输入至目标域神经网络模型;接着根据目标域神经网络模型的预测结果分别建立交叉熵损失函数、类间分离损失函数以及类内集中损失函数,接着基于交叉熵损失函数、类间分离损失函数以及类内集中损失函数对目标域神经网络模型进行参数优化处理;接着基于处理后的目标域神经网络模型从该提取出第三数据集的第二数据集中再次提取出多个目标数据(也可作为新的第三数据集),并对该多个目标数据进行标注处理;接着将处理后的多个目标数据添加至第一数据集中。重复执行上述步骤多次,直至多次更新后的第一数据集中所有目标数据的个数超过预设阈值。例如,在本申请实施例中可设定预设阈值为500个目标数据,第一数据集与第二数据集的目标数据总个数为1000,每次加入至第一数据集中的第三数据集的目标数据个数可设定为100,可在目标域神经网络模型经过5次迭代训练后,使得该目标域神经网络模型所标注的目标数据个数达到预设阈值。
可能的,当检测到更新后的第一数据集中所有的目标数据个数达到预设阈值时,可表明该目标域神经网络模型已达到训练量,进而可确定目标域神经网络模型迭代结束。
可以理解的是,在本申请实施例中还可记录目标域神经网络模型的迭代训练次数,并可以但不局限于当该目标域神经网络模型的迭代训练次数达到预设次数时,确定该目标域神经网络模型已训练完成。其中,在将标注有至少两种类别的第三数据集加入至第一数据集时,可增加一次该目标域神经网络模型的迭代训练次数,以实现对该目标域神经网络模型的迭代训练次数的更新。
此处还可参阅图4示出的本申请实施例提供的一种无源的主动领域自适应模型训练方法的效果示意图。如图4所示,图4中左侧可表示为基于样本数据集对目标域神经网络模型训练后所得到的预测结果,其中不同形状的符号可表示为样本数据集中标注的类别,虚线部分可表示为分类面;图4中右侧可表示为本申请实施例中目标域神经网络模型的训练过程,其先将未标注的目标域数据集输入至基于样本数据集训练后的目标域神经网络模型中,得到标注有不同类别的预测结果,并基于人工对该样本数据集中预测标注难度较大的目标数据进行标注,接着结合将该标注的目标数据以及未标注的目标数据对目标域神经网络模型进行至少两次迭代训练,直至该目标域神经网络模型训练完成。
在本申请实施例中,利用无源主动领域自适应范式考虑到了源域数据在迁移中的不可获取性,同时利用主动学习最大限度地利用目标域有限的标注资源,并可根据不同应用和性能需求灵活调整标注成本,实现模型性能和注释成本之间获得良好的权衡。在实际应用过程中,采用本申请的模型训练方式可在VisDA-C、Office-Home和Office-31三个数据集上分别利用1%、10%和10%的标记成本获得了最先进的识别性能,并且其训练时间比目前业内最佳方法快28倍。
请参阅图5,图5示出了本申请实施例提供的一种无源的主动领域自适应模型训练装置的结构示意图。
如图5所示,该无源的主动领域自适应模型训练装置至少可以包括第一处理模块501、第二处理模块502、数据集更新模块503以及迭代判断模块504,其中:
第一处理模块501,用于基于源域数据集对目标域神经网络模型进行初始化处理;其中,源域数据集中包括至少两种类别的样本数据;
第二处理模块502,用于获取目标域数据集,并基于目标域神经网络模型从目标域数据集中提取出第一数据集;其中,目标数据集中任意一个目标数据未标注有类别,目标数据集包括第一数据集以及第二数据集,第一数据集对应的标注价值大于第二数据集对应的标注价值;
数据集更新模块503,用于对第一数据集中每个目标数据进行标注处理,并基于处理后的第一数据集、第二数据集以及目标域神经网络模型对处理后的第一数据集进行更新;
迭代判断模块504,用于根据更新后的第一数据集判断目标域神经网络模型迭代是否结束。
在一些可能的实施例中,第一处理模块包括:
数据采集单元,用于采集源域数据集;
第一处理单元,用于基于源域数据集中每个样本数据的类别进行平滑正则化处理;
第二处理单元,用于基于处理后的源域数据集对神经网络模型进行训练,并根据源域数据集训练的神经网络模型对目标域神经网络模型的结构和参数进行初始化处理。
在一些可能的实施例中,第二处理模块包括:
模型输出单元,用于将目标域数据集中每个目标数据输入至目标域神经网络模型中,预测出每个目标数据中每种类别的概率分布;
第一计算单元,用于基于每个目标数据中每种类别的概率分布得到概率差值,并将概率差值作为每个目标数据的第一困难指标;
数据提取单元,用于根据每个目标数据的第一困难指标的大小对目标域数据集中所有目标数据进行排序,并按照预设选取方式从排序后的目标域数据集中提取出第一数据集。
在一些可能的实施例中,第二处理模块还包括:
第二计算单元,用于在将概率差值作为每个目标数据的第一困难指标之后,在根据每个目标数据的第一困难指标的大小对目标域数据集中所有目标数据进行排序,并按照预设选取方式从排序后的目标域数据集中提取出第一数据集之前,基于每个目标数据中预测概率最大的类别,统计出每种类别在目标域数据集中的预测概率分布,并根据每种类别在目标域数据集中的预测概率分布确定出每种类别在目标域数据集中的迁移困难程度;
第三计算单元,用于根据每种类别在目标域数据集中的迁移困难程度确定出每个目标数据的第二困难指标;
数据提取单元具体用于:
根据每个目标数据的第一困难指标以及第二困难指标,对目标域数据集中所有目标数据进行排序,并按照预设选取方式从排序后的目标域数据集中提取出第一数据集。
在一些可能的实施例中,数据集更新模块包括:
数据建立单元,用于将处理后的第一数据集以及第二数据集分别输入至目标域神经网络模型,并根据目标域神经网络模型的预测结果分别建立交叉熵损失函数、类间分离损失函数以及类内集中损失函数;
模型优化单元,用于基于交叉熵损失函数、类间分离损失函数以及类内集中损失函数对目标域神经网络模型进行参数优化处理;
数据采集单元,用于基于处理后的目标域神经网络模型从第二数据集中提取出第三数据集,并对第三数据集进行标注处理;
数据更新单元,用于将处理后的第三数据集添加至处理后的第一数据集中。
在一些可能的实施例中,数据采集单元具体用于:
将第二数据集中每个目标数据输入至处理后的目标域神经网络模型中,预测出每个目标数据中每种类别的概率分布;
基于每个目标数据中每种类别的概率分布得到概率差值,并将概率差值作为每个目标数据的第一困难指标;
基于每个目标数据中预测概率最大的类别,统计出每种类别在第二数据集中的预测概率分布,并根据每种类别在第二数据集中的预测概率分布确定出每种类别在第二数据集中的迁移困难程度;
根据每种类别在第二数据集中的迁移困难程度确定出每个目标数据的第二困难指标;
根据每个目标数据的第一困难指标以及第二困难指标,对第二数据集中所有目标数据进行排序,并按照预设选取方式从排序后的第二数据集中提取出第三数据集。
在一些可能的实施例中,迭代判断模块包括:
判断单元,用于判断更新后的第一数据集中所有目标数据的个数是否超过预设阈值;
第一检测单元,用于当检测到所有目标数据的个数超过预设阈值时,确定目标域神经网络模型迭代结束;
第二判断单元,用于当检测到所有目标数据的个数未超过预设阈值时,返回至基于处理后的第一数据集、第二数据集以及目标域神经网络模型对处理后的第一数据集进行更新的步骤,直至更新后的第一数据集中所有目标数据的个数超过预设阈值。
本领域的技术人员可以清楚地了解到本申请实施例的技术方案可借助软件和/或硬件来实现。本说明书中的“单元”和“模块”是指能够独立完成或与其他部件配合完成特定功能的软件和/或硬件,其中硬件例如可以是现场可编程门阵列(Field-ProgrammableGate Array,FPGA)、集成电路(Integrated Circuit,IC)等。
请参阅图6,图6示出了本申请实施例提供的一种无源的主动领域自适应模型的结构示意图。
如图6所示,该无源的主动领域自适应模型600可以包括:至少一个处理器601、至少一个网络接口604、用户接口603、存储器605以及至少一个通信总线602。
其中,通信总线602可用于实现上述各个组件的连接通信。
其中,用户接口603可以包括按键,可选用户接口还可以包括标准的有线接口、无线接口。
其中,网络接口604可以但不局限于包括蓝牙模块、NFC模块、Wi-Fi模块等。
其中,处理器601可以包括一个或者多个处理核心。处理器601利用各种接口和线路连接整个电子设备600内的各个部分,通过运行或执行存储在存储器605内的指令、程序、代码集或指令集,以及调用存储在存储器605内的数据,执行路由设备600的各种功能和处理数据。可选的,处理器601可以采用DSP、FPGA、PLA中的至少一种硬件形式来实现。处理器601可集成CPU、GPU和调制解调器等中的一种或几种的组合。其中,CPU主要处理操作系统、用户界面和应用程序等;GPU用于负责显示屏所需要显示的内容的渲染和绘制;调制解调器用于处理无线通信。可以理解的是,上述调制解调器也可以不集成到处理器601中,单独通过一块芯片进行实现。
其中,存储器605可以包括RAM,也可以包括ROM。可选的,该存储器605包括非瞬时性计算机可读介质。存储器605可用于存储指令、程序、代码、代码集或指令集。存储器605可包括存储程序区和存储数据区,其中,存储程序区可存储用于实现操作系统的指令、用于至少一个功能的指令(比如触控功能、声音播放功能、图像播放功能等)、用于实现上述各个方法实施例的指令等;存储数据区可存储上面各个方法实施例中涉及到的数据等。存储器605可选的还可以是至少一个位于远离前述处理器601的存储装置。如图6所示,作为一种计算机存储介质的存储器605中可以包括操作系统、网络通信模块、用户接口模块以及无源的主动领域自适应模型训练应用程序。
具体地,处理器601可以用于调用存储器605中存储的无源的主动领域自适应模型训练应用程序,并具体执行以下操作:
基于源域数据集对目标域神经网络模型进行初始化处理;其中,源域数据集中包括至少两种类别的样本数据;
获取目标域数据集,并基于目标域神经网络模型从目标域数据集中提取出第一数据集;其中,目标数据集中任意一个目标数据未标注有类别,目标数据集包括第一数据集以及第二数据集,第一数据集对应的标注价值大于第二数据集对应的标注价值;
对第一数据集中每个目标数据进行标注处理,并基于处理后的第一数据集、第二数据集以及目标域神经网络模型对处理后的第一数据集进行更新;
根据更新后的第一数据集判断目标域神经网络模型迭代是否结束。
在一些可能的实施例中,基于源域数据集对目标域神经网络模型进行初始化处理,包括:
采集源域数据集;
基于源域数据集中每个样本数据的类别进行平滑正则化处理;
基于处理后的源域数据集对神经网络模型进行训练,并根据源域数据集训练的神经网络模型对目标域神经网络模型的结构和参数进行初始化处理。
在一些可能的实施例中,基于目标域神经网络模型从目标域数据集中提取出第一数据集,包括:
将目标域数据集中每个目标数据输入至目标域神经网络模型中,预测出每个目标数据中每种类别的概率分布;
基于每个目标数据中每种类别的概率分布得到概率差值,并将概率差值作为每个目标数据的第一困难指标;
根据每个目标数据的第一困难指标的大小对目标域数据集中所有目标数据进行排序,并按照预设选取方式从排序后的目标域数据集中提取出第一数据集。
在一些可能的实施例中,在将概率差值作为每个目标数据的第一困难指标之后,在根据每个目标数据的第一困难指标的大小对目标域数据集中所有目标数据进行排序,并按照预设选取方式从排序后的目标域数据集中提取出第一数据集之前,还包括:
基于每个目标数据中预测概率最大的类别,统计出每种类别在目标域数据集中的预测概率分布,并根据每种类别在目标域数据集中的预测概率分布确定出每种类别在目标域数据集中的迁移困难程度;
根据每种类别在目标域数据集中的迁移困难程度确定出每个目标数据的第二困难指标;
根据每个目标数据的第一困难指标的大小对目标域数据集中所有目标数据进行排序,并按照预设选取方式从排序后的目标域数据集中提取出第一数据集,包括:
根据每个目标数据的第一困难指标以及第二困难指标,对目标域数据集中所有目标数据进行排序,并按照预设选取方式从排序后的目标域数据集中提取出第一数据集。
在一些可能的实施例中,基于处理后的第一数据集、第二数据集以及目标域神经网络模型对处理后的第一数据集进行更新,包括:
将处理后的第一数据集以及第二数据集分别输入至目标域神经网络模型,并根据目标域神经网络模型的预测结果分别建立交叉熵损失函数、类间分离损失函数以及类内集中损失函数;
基于交叉熵损失函数、类间分离损失函数以及类内集中损失函数对目标域神经网络模型进行参数优化处理;
基于处理后的目标域神经网络模型从第二数据集中提取出第三数据集,并对第三数据集进行标注处理;
将处理后的第三数据集添加至处理后的第一数据集中。
在一些可能的实施例中,基于处理后的目标域神经网络模型从第二数据集中提取出第三数据集,包括:
将第二数据集中每个目标数据输入至处理后的目标域神经网络模型中,预测出每个目标数据中每种类别的概率分布;
基于每个目标数据中每种类别的概率分布得到概率差值,并将概率差值作为每个目标数据的第一困难指标;
基于每个目标数据中预测概率最大的类别,统计出每种类别在第二数据集中的预测概率分布,并根据每种类别在第二数据集中的预测概率分布确定出每种类别在第二数据集中的迁移困难程度;
根据每种类别在第二数据集中的迁移困难程度确定出每个目标数据的第二困难指标;
根据每个目标数据的第一困难指标以及第二困难指标,对第二数据集中所有目标数据进行排序,并按照预设选取方式从排序后的第二数据集中提取出第三数据集。
在一些可能的实施例中,根据更新后的第一数据集判断目标域神经网络模型迭代是否结束,包括:
判断更新后的第一数据集中所有目标数据的个数是否超过预设阈值;
当检测到所有目标数据的个数超过预设阈值时,确定目标域神经网络模型迭代结束;
当检测到所有目标数据的个数未超过预设阈值时,返回至基于处理后的第一数据集、第二数据集以及目标域神经网络模型对处理后的第一数据集进行更新的步骤,直至更新后的第一数据集中所有目标数据的个数超过预设阈值。
本申请还提供一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现上述方法的步骤。其中,计算机可读存储介质可以包括但不限于任何的盘,包括软盘、光盘、DVD、CD-ROM、微型驱动器以及磁光盘、ROM、RAM、EPROM、EEPROM、DRAM、VRAM、闪速存储器设备、磁卡或光卡、纳米系统(包括分子存储器IC),或适合于存储指令和/或数据的任何的媒介或设备。
需要说明的是,对于前述的各方法实施例,为了简单描述,故将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本申请并不受所描述的动作顺序的限制,因为依据本申请,某些步骤可以采用其他顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作和模块并不一定是本申请所必须的。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其他实施例的相关描述。
在本申请所提供的几个实施例中,应该理解到,所揭露的装置,可通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些服务接口,装置或单元的间接耦合或通信连接,可以是电性或其它的形式。
作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储器中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储器中,包括若干指令用以使得一台计算机设备(可为个人计算机、服务器或者网络设备等)执行本申请各个实施例方法的全部或部分步骤。而前述的存储器包括:U盘、只读存储器(Read-Only Memory, ROM)、随机存取存储器(RandomAccess Memory,RAM)、移动硬盘、磁碟或者光盘等各种可以存储程序代码的介质。
本领域普通技术人员可以理解上述实施例的各种方法中的全部或部分步骤是可以通进程序来指令相关的硬件来完成,该程序可以存储于一计算机可读存储器中,存储器可以包括:闪存盘、只读存储器(Read-Only Memory, ROM)、随机存取器(Random AccessMemory,RAM)、磁盘或光盘等。
以上者,仅为本公开的示例性实施例,不能以此限定本公开的范围。即但凡依本公开教导所作的等效变化与修饰,皆仍属本公开涵盖的范围内。本领域技术人员在考虑说明书及实践这里的公开后,将容易想到本公开的其实施方案。本申请旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未记载的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的范围和精神由权利要求限定。

Claims (10)

1.一种无源的主动领域自适应模型训练方法,其特征在于,包括:
基于源域数据集对目标域神经网络模型进行初始化处理;其中,所述源域数据集中包括至少两种类别的样本数据;
获取目标域数据集,并基于所述目标域神经网络模型从所述目标域数据集中提取出第一数据集;其中,所述目标数据集中任意一个目标数据未标注有类别,所述目标数据集包括第一数据集以及第二数据集,所述第一数据集对应的标注价值大于所述第二数据集对应的标注价值;
对所述第一数据集中每个目标数据进行标注处理,并基于处理后的所述第一数据集、所述第二数据集以及所述目标域神经网络模型对处理后的所述第一数据集进行更新;
根据更新后的所述第一数据集判断所述目标域神经网络模型迭代是否结束。
2.根据权利要求1所述的方法,其特征在于,所述基于源域数据集对目标域神经网络模型进行初始化处理,包括:
采集源域数据集;
基于所述源域数据集中每个样本数据的类别进行平滑正则化处理;
基于处理后的所述源域数据集对神经网络模型进行训练,并根据所述源域数据集训练的神经网络模型对目标域神经网络模型的结构和参数进行初始化处理。
3.根据权利要求1所述的方法,其特征在于,所述基于所述目标域神经网络模型从所述目标域数据集中提取出第一数据集,包括:
将所述目标域数据集中每个所述目标数据输入至所述目标域神经网络模型中,预测出每个所述目标数据中每种类别的概率分布;
基于每个所述目标数据中每种类别的概率分布得到概率差值,并将所述概率差值作为每个所述目标数据的第一困难指标;
根据每个所述目标数据的第一困难指标的大小对所述目标域数据集中所有所述目标数据进行排序,并按照预设选取方式从排序后的所述目标域数据集中提取出第一数据集。
4.根据权利要求3所述的方法,其特征在于,在所述将所述概率差值作为每个所述目标数据的第一困难指标之后,在所述根据每个所述目标数据的第一困难指标的大小对所述目标域数据集中所有所述目标数据进行排序,并按照预设选取方式从排序后的所述目标域数据集中提取出第一数据集之前,还包括:
基于每个所述目标数据中预测概率最大的类别,统计出每种类别在所述目标域数据集中的预测概率分布,并根据所述每种类别在所述目标域数据集中的预测概率分布确定出每种类别在所述目标域数据集中的迁移困难程度;
根据所述每种类别在所述目标域数据集中的迁移困难程度确定出每个所述目标数据的第二困难指标;
所述根据每个所述目标数据的第一困难指标的大小对所述目标域数据集中所有所述目标数据进行排序,并按照预设选取方式从排序后的所述目标域数据集中提取出第一数据集,包括:
根据每个所述目标数据的第一困难指标以及第二困难指标,对所述目标域数据集中所有所述目标数据进行排序,并按照预设选取方式从排序后的所述目标域数据集中提取出第一数据集。
5.根据权利要求1所述的方法,其特征在于,所述基于处理后的所述第一数据集、所述第二数据集以及所述目标域神经网络模型对处理后的所述第一数据集进行更新,包括:
将处理后的所述第一数据集以及所述第二数据集分别输入至所述目标域神经网络模型,并根据所述目标域神经网络模型的预测结果分别建立交叉熵损失函数、类间分离损失函数以及类内集中损失函数;
基于所述交叉熵损失函数、所述类间分离损失函数以及所述类内集中损失函数对所述目标域神经网络模型进行参数优化处理;
基于处理后的所述目标域神经网络模型从所述第二数据集中提取出第三数据集,并对所述第三数据集进行标注处理;
将处理后的所述第三数据集添加至处理后的所述第一数据集中。
6.根据权利要求5所述的方法,其特征在于,所述基于处理后的所述目标域神经网络模型从所述第二数据集中提取出第三数据集,包括:
将所述第二数据集中每个所述目标数据输入至处理后的所述目标域神经网络模型中,预测出每个所述目标数据中每种类别的概率分布;
基于每个所述目标数据中每种类别的概率分布得到概率差值,并将所述概率差值作为每个所述目标数据的第一困难指标;
基于每个所述目标数据中预测概率最大的类别,统计出每种类别在所述第二数据集中的预测概率分布,并根据所述每种类别在所述第二数据集中的预测概率分布确定出每种类别在所述第二数据集中的迁移困难程度;
根据所述每种类别在所述第二数据集中的迁移困难程度确定出每个所述目标数据的第二困难指标;
根据每个所述目标数据的第一困难指标以及第二困难指标,对所述第二数据集中所有所述目标数据进行排序,并按照预设选取方式从排序后的所述第二数据集中提取出第三数据集。
7.根据权利要求5所述的方法,其特征在于,所述根据更新后的所述第一数据集判断所述目标域神经网络模型迭代是否结束,包括:
判断更新后的所述第一数据集中所有所述目标数据的个数是否超过预设阈值;
当检测到所有所述目标数据的个数超过所述预设阈值时,确定所述目标域神经网络模型迭代结束;
当检测到所有所述目标数据的个数未超过所述预设阈值时,返回至所述基于处理后的所述第一数据集、所述第二数据集以及所述目标域神经网络模型对处理后的所述第一数据集进行更新的步骤,直至更新后的所述第一数据集中所有所述目标数据的个数超过所述预设阈值。
8.一种无源的主动领域自适应模型训练装置,其特征在于,包括:
第一处理模块,用于基于源域数据集对目标域神经网络模型进行初始化处理;其中,所述源域数据集中包括至少两种类别的样本数据;
第二处理模块,用于获取目标域数据集,并基于所述目标域神经网络模型从所述目标域数据集中提取出第一数据集;其中,所述目标数据集中任意一个目标数据未标注有类别,所述目标数据集包括第一数据集以及第二数据集,所述第一数据集对应的标注价值大于所述第二数据集对应的标注价值;
数据集更新模块,用于对所述第一数据集中每个目标数据进行标注处理,并基于处理后的所述第一数据集、所述第二数据集以及所述目标域神经网络模型对处理后的所述第一数据集进行更新;
迭代判断模块,用于根据更新后的所述第一数据集判断所述目标域神经网络模型迭代是否结束。
9.一种无源的主动领域自适应模型训练装置,其特征在于,包括处理器以及存储器;
所述处理器与所述存储器连接;
所述存储器,用于存储可执行程序代码;
所述处理器通过读取所述存储器中存储的可执行程序代码来运行与所述可执行程序代码对应的程序,以用于执行如权利要求1-7任一项所述方法的步骤。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机可读存储介质中存储有指令,当所述指令在计算机或处理器上运行时,使得所述计算机或处理器执行如权利要求1-7任一项所述方法的步骤。
CN202211106684.4A 2022-09-13 2022-09-13 一种无源的主动领域自适应模型训练方法及装置 Active CN115186773B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211106684.4A CN115186773B (zh) 2022-09-13 2022-09-13 一种无源的主动领域自适应模型训练方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211106684.4A CN115186773B (zh) 2022-09-13 2022-09-13 一种无源的主动领域自适应模型训练方法及装置

Publications (2)

Publication Number Publication Date
CN115186773A true CN115186773A (zh) 2022-10-14
CN115186773B CN115186773B (zh) 2022-12-09

Family

ID=83524231

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211106684.4A Active CN115186773B (zh) 2022-09-13 2022-09-13 一种无源的主动领域自适应模型训练方法及装置

Country Status (1)

Country Link
CN (1) CN115186773B (zh)

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108898218A (zh) * 2018-05-24 2018-11-27 阿里巴巴集团控股有限公司 一种神经网络模型的训练方法、装置、及计算机设备
CN110321926A (zh) * 2019-05-24 2019-10-11 北京理工大学 一种基于深度残差修正网络的迁移方法及系统
CN112308158A (zh) * 2020-11-05 2021-02-02 电子科技大学 一种基于部分特征对齐的多源领域自适应模型及方法
CN113128620A (zh) * 2021-05-11 2021-07-16 北京理工大学 一种基于层次关系的半监督领域自适应图片分类方法
CN113191478A (zh) * 2020-01-14 2021-07-30 阿里巴巴集团控股有限公司 神经网络模型的训练方法、装置和系统
CN113420775A (zh) * 2021-03-31 2021-09-21 中国矿业大学 基于非线性度自适应子域领域适应的极少量训练样本下图片分类方法
CN113435546A (zh) * 2021-08-26 2021-09-24 广东众聚人工智能科技有限公司 基于区分置信度水平的可迁移图像识别方法及系统
US11188795B1 (en) * 2018-11-14 2021-11-30 Apple Inc. Domain adaptation using probability distribution distance
CN113807371A (zh) * 2021-10-08 2021-12-17 中国人民解放军国防科技大学 一种类条件下的有益特征对齐的无监督域自适应方法
CN114528913A (zh) * 2022-01-10 2022-05-24 清华大学 基于信任和一致性的模型迁移方法、装置、设备及介质
CN114663725A (zh) * 2022-03-21 2022-06-24 合肥工业大学 多领域自适应模型的训练方法、系统、设备及存储介质
CN115019106A (zh) * 2022-06-27 2022-09-06 中山大学 基于对抗蒸馏的鲁棒无监督域自适应图像分类方法及装置

Patent Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108898218A (zh) * 2018-05-24 2018-11-27 阿里巴巴集团控股有限公司 一种神经网络模型的训练方法、装置、及计算机设备
US11188795B1 (en) * 2018-11-14 2021-11-30 Apple Inc. Domain adaptation using probability distribution distance
CN110321926A (zh) * 2019-05-24 2019-10-11 北京理工大学 一种基于深度残差修正网络的迁移方法及系统
CN113191478A (zh) * 2020-01-14 2021-07-30 阿里巴巴集团控股有限公司 神经网络模型的训练方法、装置和系统
CN112308158A (zh) * 2020-11-05 2021-02-02 电子科技大学 一种基于部分特征对齐的多源领域自适应模型及方法
US20220138495A1 (en) * 2020-11-05 2022-05-05 University Of Electronic Science And Technology Of China Model and method for multi-source domain adaptation by aligning partial features
CN113420775A (zh) * 2021-03-31 2021-09-21 中国矿业大学 基于非线性度自适应子域领域适应的极少量训练样本下图片分类方法
CN113128620A (zh) * 2021-05-11 2021-07-16 北京理工大学 一种基于层次关系的半监督领域自适应图片分类方法
CN113435546A (zh) * 2021-08-26 2021-09-24 广东众聚人工智能科技有限公司 基于区分置信度水平的可迁移图像识别方法及系统
CN113807371A (zh) * 2021-10-08 2021-12-17 中国人民解放军国防科技大学 一种类条件下的有益特征对齐的无监督域自适应方法
CN114528913A (zh) * 2022-01-10 2022-05-24 清华大学 基于信任和一致性的模型迁移方法、装置、设备及介质
CN114663725A (zh) * 2022-03-21 2022-06-24 合肥工业大学 多领域自适应模型的训练方法、系统、设备及存储介质
CN115019106A (zh) * 2022-06-27 2022-09-06 中山大学 基于对抗蒸馏的鲁棒无监督域自适应图像分类方法及装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
姚明海等: "基于主动学习的半监督领域自适应方法研究", 《高技术通讯》 *
闫美阳等: "多源域混淆的双流深度迁移学习", 《中国图象图形学报》 *

Also Published As

Publication number Publication date
CN115186773B (zh) 2022-12-09

Similar Documents

Publication Publication Date Title
CN113378632B (zh) 一种基于伪标签优化的无监督域适应行人重识别方法
CN110472675B (zh) 图像分类方法、图像分类装置、存储介质与电子设备
CN111553399A (zh) 特征模型训练方法、装置、设备及存储介质
CN109960808B (zh) 一种文本识别方法、装置、设备及计算机可读存储介质
CN109800717B (zh) 基于强化学习的行为识别视频帧采样方法及系统
JP6897749B2 (ja) 学習方法、学習システム、および学習プログラム
CN103415825A (zh) 用于手势识别的系统和方法
CN112949693B (zh) 图像分类模型的训练方法、图像分类方法、装置和设备
CN112149705A (zh) 分类模型的训练方法、系统、计算机设备及存储介质
CN112201300B (zh) 基于深度图像特征和阈值学习策略的蛋白质亚细胞定位的方法
JP2011248876A (ja) 画像をオブジェクト及びそのパーツに関して効率的に解釈するためのシステムと方法
CN107798351B (zh) 一种基于深度学习神经网络的身份识别方法和系统
CN110969526A (zh) 重叠社群处理方法、装置以及电子设备
US8488873B2 (en) Method of computing global-to-local metrics for recognition
CN112232395B (zh) 一种基于联合训练生成对抗网络的半监督图像分类方法
CN115147632A (zh) 基于密度峰值聚类算法的图像类别自动标注方法及装置
CN113902944A (zh) 模型的训练及场景识别方法、装置、设备及介质
CN110175500B (zh) 指静脉比对方法、装置、计算机设备及存储介质
CN112836753B (zh) 用于域自适应学习的方法、装置、设备、介质和产品
CN107688822A (zh) 基于深度学习的新增类别识别方法
Jiang et al. Dynamic proposal sampling for weakly supervised object detection
CN114037886A (zh) 图像识别方法、装置、电子设备和可读存储介质
CN113177554A (zh) 甲状腺结节识别与分割方法、系统、存储介质及设备
CN115186773B (zh) 一种无源的主动领域自适应模型训练方法及装置
CN109657710B (zh) 数据筛选方法、装置、服务器及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
EE01 Entry into force of recordation of patent licensing contract
EE01 Entry into force of recordation of patent licensing contract

Application publication date: 20221014

Assignee: CSIC PRIDE(Nanjing)Intelligent Equipment System Co.,Ltd

Assignor: Hangzhou zhuoxi brain and Intelligence Research Institute

Contract record no.: X2023320000121

Denomination of invention: A Passive Active Domain Adaptation Model Training Method and Device

Granted publication date: 20221209

License type: Common License

Record date: 20230323