CN113177576A - 一种用于目标检测的多示例主动学习方法 - Google Patents

一种用于目标检测的多示例主动学习方法 Download PDF

Info

Publication number
CN113177576A
CN113177576A CN202110352225.3A CN202110352225A CN113177576A CN 113177576 A CN113177576 A CN 113177576A CN 202110352225 A CN202110352225 A CN 202110352225A CN 113177576 A CN113177576 A CN 113177576A
Authority
CN
China
Prior art keywords
uncertainty
active learning
training
image
learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110352225.3A
Other languages
English (en)
Other versions
CN113177576B (zh
Inventor
叶齐祥
袁天宁
万方
付梦莹
焦建彬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Chinese Academy of Sciences
Original Assignee
University of Chinese Academy of Sciences
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Chinese Academy of Sciences filed Critical University of Chinese Academy of Sciences
Priority to CN202110352225.3A priority Critical patent/CN113177576B/zh
Publication of CN113177576A publication Critical patent/CN113177576A/zh
Application granted granted Critical
Publication of CN113177576B publication Critical patent/CN113177576B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种用于目标检测的多示例主动学习方法,所述方法在已标注集上训练两个对抗性示例分类器,将未标注的图像视为示例包,通过以多示例学习的方式对两个分类器的差异重加权,以此预测未标注集的示例不确定性,并使其与图像不确定性相一致。本发明公开的用于目标检测的多示例主动学习方法,能高效利用数据标注,减少人工标注成本,有效利用无标注数据,提高相等已标注数据量下神经网络对测试图像的检测精度;同时对于主动学习、半监督学习等有重要意义,对于复杂背景下自然图像的目标检测具有应用价值。

Description

一种用于目标检测的多示例主动学习方法
技术领域
本发明属于主动学习与计算机视觉技术领域,具体涉及一种用于目标检测的多示例主动学习方法,其通过计算未标注样本的不确定性挑选需要学习的样本,实现利用少量已标注样本达到较高性能的目标检测。
背景技术
深度神经网络例如卷积神经网络(CNN)已经在计算机视觉、目标检测中取得了巨大成就,其很大程度上依赖于网络在大数据集的训练。然而,在有些目标检测任务中,标注大数据集的目标边界框耗时费力、成本昂贵且不切实际。现有技术中多采用主动学习的方法来解决这一问题。
主动学习的关键思想是:如果允许一个机器学习算法选择它想要学习的数据,那么它就可以通过较少的训练样本来达到更好的性能。主动目标检测的目的是选择信息量最大的图像进行检测器训练,但是,目前的主动学习方法大多通过简单地将示例或像素的不确定性综合或平均为图像的不确定性来解决该问题。这样会忽略已标注集和未标注集之间存在的分布偏差,以及忽略目标检测中负示例所产生的较大的不平衡,导致背景中存在大量噪声高的示例,并干扰图像不确定性的学习,如图1中的(a)所示。
因此,亟需提供一种专门适用于目标检测的主动学习方法,其能够有效利用无标注数据,提高相等已标注数据量下神经网络对图像的检测精度。
发明内容
为了克服上述问题,本发明人进行了锐意研究,设计出一种用于目标检测的多示例主动学习方法,所述方法利用插入在检测网络顶部的两个对抗性示例分类器来学习未标注示例的不确定性,通过最大化两个示例分类器的预测差异预测示例的不确定性,通过最小化分类器的差异学习特征,从而减少已标注和未标注示例之间的分布偏差。然后,引入了一个与示例分类器并列的多示例学习模块,将每个未标注的图像视为一个示例包,并通过评估各个图像之间的示例外观一致性来进行示例不确定性的重加权。通过反复进行示例不确定性的学习和重加权缩小示例级观察和图像级评估之间的差距。本发明提供的方法能够有效利用无标注数据,提高了相等已标注数据量下神经网络对图像的检测精度,从而完成了本发明。
具体来说,本发明的目的在于提供以下方面:
第一方面,提供一种用于目标检测的多示例主动学习方法,所述方法包括训练部分和测试部分,其中,所述训练部分包括以下步骤:
步骤1,建立用于目标检测的网络模型,并进行数据初始化;
步骤2,对已标注集进行训练;
步骤3,减少已标注集和未标注集之间的分布偏差;
步骤4,对齐已标注集和未标注集的示例分布;
步骤5,对网络模型进行迭代训练。
第二方面,提供一种计算机可读存储介质,所述存储介质存储有用于目标检测的多示例主动学习训练程序,所述程序被处理器执行时,使得处理器执行所述用于目标检测的多示例主动学习方法的步骤。
第三方面,提供一种计算机设备,包括存储器和处理器,所述存储器存储有用于目标检测的多示例主动学习训练程序,所述程序被处理器执行时,使得处理器执行所述用于目标检测的多示例主动学习方法的步骤。
本发明所具有的有益效果包括:
(1)本发明提供的用于目标检测的多示例主动学习方法,能高效利用数据标注,减少了神经网络训练的数据标注量,降低了人工成本;
(2)本发明提供的用于目标检测的多示例主动学习方法,有效利用了无标注数据,提高了相等已标注数据量下神经网络对测试图像的检测精度;
(3)本发明提供的用于目标检测的多示例主动学习方法,通过建模示例不确定性和图像不确定性之间关系的方法,改善了主动目标检测中示例和图像间存在间隔的问题;
(4)本发明提供的用于目标检测的多示例主动学习方法,通过示例不确定性重加权,提高了主动目标检测的精度,对于主动学习、半监督学习等有重要意义,对于复杂背景下自然图像的目标检测具有应用价值。
附图说明
图1示出本发明所述方法与传统检测器的比较图,其中,(a)示出了传统检测器的检测原理图,(b)示出了本发明所述方法的检测原理图;
图2示出本发明所述用于目标检测的多示例主动学习方法的检测过程图;
图3示出本发明示例不确定性学习的网络架构图,其中,(a)、(b)和(c)示出了不同阶段的已标注数据和未标注数据的状态;
图4示出本发明示例不确定性重加权的网络架构图,其中,(a)、(b)和(c)示出了不同阶段的已标注数据和未标注数据的状态;
图5示出本发明实施例1中不同方法在各数据集上不同基网下的性能比较图;
图6示出本发明实施例1中示例不确定性和图像分类分数的可视化图;
图7示出本发明实施例1中各主动学习周期中选择的真实正示例数量统计图。
具体实施方式
下面通过优选实施方式和实施例对本发明进一步详细说明。通过这些说明,本发明的特点和优点将变得更为清楚明确。
在这里专用的词“示例性”意为“用作例子、实施例或说明性”。这里作为“示例性”所说明的任何实施例不必解释为优于或好于其它实施例。
本发明的第一方面,提供了一种用于目标检测的多示例主动学习方法,所述方法包括训练部分和测试部分,其中,所述训练部分包括以下步骤,如图1中的(b)和图2所示:
步骤1,建立用于目标检测的网络模型,并进行数据初始化;
步骤2,对已标注集进行训练;
步骤3,减少已标注集和未标注集之间的分布偏差;
步骤4,对齐已标注集和未标注集的示例分布;
步骤5,对网络模型进行迭代训练;
步骤6,在未标注集内选择信息量最大的图像,合并到已标注集内,形成新的已标注集;
步骤7,利用新的已标注集重新初始化和训练网络模型。
以下进一步详细描述所述训练部分的步骤:
步骤1,建立用于目标检测的网络模型,并进行数据初始化。
根据本发明一种优选的实施方式,所述建立的用于目标检测的网络模型,包括基础网络和示例分类器。
其中,所述基础网络可以为一般深度检测网络,例如RetinaNet神经网络、SSD神经网络等。根据本发明的实施例,可以使用基网为Resnet-50的RetinaNet神经网络和基网为VGG-16的SSD神经网络作为基础的检测器。
在进一步优选的实施方式中,所述示例分类器包括一个差异学习示例分类器和一个多示例学习分类器。
其中,上述两个示例分类器的结构与基础网络的结构相同,但分别进行初始化。
在本发明中,在一般深度检测网络的基础上加入另一个结构相同但独立初始化的示例分类器以实现差异学习(即示例不确定性学习,Instance Uncertainty Learning,简称IUL),然后再平行地添加一个多示例学习分类器以计算同一图像中多个示例的图像分类得分(即示例不确定性重加权,Instance Uncertainty Reweighting,简称IUR)。
在更进一步优选的实施方式中,在训练集中随机挑选固定数量的一组图像,用于已标注集的初始化。
具体地,根据本发明的实施例,对于RetinaNet检测器,使用从训练集中随机选择的5.0%的图像作为PASCAL VOC已标注集的初始化;对于MS COCO数据集,使用训练集中随机选择的2.0%的图像作为已标注集的初始化。对于SSD检测器,选择PASCAL VOC数据集中的1000张图像作为已标注集的初始化。
步骤2,对已标注集进行训练。
在本发明中,如图3中的(a)和图4中的(a)所示,将现有的已标注图像输入到目标检测的训练网络,优选利用两个示例分类器之间的预测差异来学习未标注集上的示例不确定性。
根据本发明一种优选的实施方式,通过优化检测损失来训练目标检测的网络模型,
其中,所述网络模型的检测损失通过下式(一)获得:
Figure BDA0003002446660000061
其中,
Figure BDA0003002446660000062
表示示例分类器f1的参数
Figure BDA0003002446660000063
示例分类器f2的参数
Figure BDA0003002446660000064
边界框回归器fr的参数
Figure BDA0003002446660000065
特征提取器g的参数θg的集合;FL(·)表示示例分类的焦点损失函数;SmoothL1(·)是边界框回归的平滑L1损失函数;
Figure BDA0003002446660000066
Figure BDA0003002446660000067
Figure BDA0003002446660000068
分别表示分类器f1对示例的预测结果、示例分类器f2对示例的预测结果和边界框回归器fr对示例的定位结果;
Figure BDA0003002446660000069
Figure BDA00030024466600000610
分别表示真实的类别标签和边界框标签。
在本发明中,f1表示差异学习示例分类器,f2表示多示例学习分类器。
根据本发明一种优选的实施方式,所述多示例学习分类器将每个图像视为一个示例包,利用示例分类预测来估计包标签,
优选地,通过下式(二)来估计包标签:
Figure BDA0003002446660000071
其中,
Figure BDA0003002446660000072
表示一个N×C的得分矩阵,fmil表示引入的多示例学习分类器,
Figure BDA0003002446660000073
Figure BDA0003002446660000074
中的元素,表示第i个示例属于类别c的得分。
在本发明中,仅在示例xi属于类别c(式(二)中的第一项,
Figure BDA0003002446660000075
且该示例的示例分类得分
Figure BDA0003002446660000076
Figure BDA0003002446660000077
远大于其他示例的得分(式(二)中的第二项,
Figure BDA0003002446660000078
)时,图像分类得分才会比较大。
在进一步优选的实施方式中,步骤2中,通过最小化图像分类损失获得初始的多示例学习分类器;
优选地,通过下式(三)最小化图像分类损失:
Figure BDA0003002446660000079
其中,
Figure BDA00030024466600000710
表示图像类别标签,其可以从已标注集中的示例类别标签
Figure BDA00030024466600000711
中直接获得。
在本发明中,通过上式(三)的最小化优化,能够使多示例学习分类器激活具有较大多示例学习得分
Figure BDA00030024466600000712
和分类输出
Figure BDA00030024466600000713
的示例。其中,分类输出大但多示例学习得分较小的示例将被作为背景。
步骤3,减少已标注集和未标注集之间的分布偏差。
在本发明中,如图3中的(b)和图4中的(b)所示,在已标注集可以准确表示未标注集之前,通常在已标注集和未标注集之间会存在分布偏差,信息丰富的示例位于有偏差的分布区域。
本发明人发现,通过在基础网络中引入差异学习示例分类器f1和多示例学习分类器f2(二者为对抗性示例分类器),能够有效解决分布偏差的问题,它们在靠近类别边界的示例上更倾向于有更大的预测差异,即更大的示例不确定性。
在本发明中,优选按照包括以下步骤的方法减少已标注集和未标注集之间的分布偏差:
步骤3-1,优化预测差异损失,最大化示例不确定性。
在本发明中,为了找出信息量最大的示例,需优化预测差异损失,以最大化对抗性分类器(f1和f2)的预测差异,同时还可以保持在已标注集上的检测性能。
根据本发明一种优选的实施方式,通过下式(四)优化预测差异损失,以最大化对抗性分类器的预测差异:
Figure BDA0003002446660000081
其中,
Figure BDA0003002446660000082
表示在预测差异上定义的预测差异损失,
Figure BDA0003002446660000083
是两个分类器对于图像x中第i个示例的示例分类预测,C表示数据集中物体类别的数量,λ表示正则化参数,优选取值为0.5。
步骤3-2,对示例不确定性进行重加权。
在本发明中,为了确保示例不确定性与图像不确定性相一致,优选对示例不确定性进行重加权,使得网络将会优先估计具有较大图像分类得分示例的差异,而抑制具有较小图像分类得分示例的差异。
根据本发明一种优选的实施方式,经过示例不确定性重加权后,通过下式(五)获得预测差异损失:
Figure BDA0003002446660000091
其中,
Figure BDA0003002446660000092
在进一步优选的实施方式中,通过下式(六)获得最大化示例不确定性重加权损失:
Figure BDA0003002446660000093
其中,
Figure BDA0003002446660000094
Figure BDA0003002446660000095
是fmil的参数。
在本发明中,利用插入在检测基础网络顶部的两个对抗性示例分类器(f1和f2)来学习未标注示例的不确定性,最大化两个示例分类器的预测差异可预测示例的不确定性。
步骤4,对齐已标注集和未标注集的示例分布。
在本发明中,如图3中的(c)和图4中的(c)所示,在步骤3的基础上,需要最小化两个示例分类器的预测差异,以对齐已标注集和未标注集的示例分布。
优选地,所述步骤4包括以下子步骤:
步骤4-1,最小化示例不确定性并对示例不确定性进行重加权。
其中,对示例不确定性进行重加权,即采用最大期望算法来重加权包与包之间的示例不确定性,以突出显示具有相同类别的信息量大的物体示例。
根据本发明一种优选的实施方式,通过下式(七)获得最小化示例不确定性的损失:
Figure BDA0003002446660000101
在进一步优选的实施方式中,经过示例不确定性重加权后,通过下式(八)获得最小化示例不确定性重加权损失:
Figure BDA0003002446660000102
在本发明中,通过最小化示例分类器的差异可学习特征。
步骤4-2,通过图像伪标签估计缩小示例级不确定性和图像级不确定性之间的差距。
在本发明的多示例学习中,根据未标注集中的图像类别标签(或伪标签)定义的分类损失,示例不确定性和图像不确定性被强制一致性地进行学习。
优选地,所述伪图像标签是使用示例分类器的输出估计的,优选通过下式(九)获得:
Figure BDA0003002446660000103
其中,
Figure BDA0003002446660000104
是一个二值化函数,当a>b时,返回1;否则为0。
在本发明中,通过优化图像级的分类损失,有助于抑制噪声高的示例,同时突出显示真正具有代表性的示例。
步骤5,对网络模型进行迭代训练。
在本发明中,所述对网络模型进行迭代训练即为重复步骤2~步骤4。具体地:在每个主动学习周期中,最大化-最小化预测差异的过程会重复几次,以便学习示例的不确定性,并逐步对齐已标注集和未标注集的示例分布。
本发明所述的迭代训练过程实际上为一种无监督的学习过程,该过程利用了未标注集的信息(即预测差异)来改善检测模型。
根据本发明的实施例,当采用RetinaNet检测器时,在每个主动学习周期中,最小批尺寸为2,学习率为0.001,共迭代训练26个时期,20个时期后,学习率降低至0.0001,动量和权重衰减分别设置为0.9和0.0005;当使用SSD检测器时,共迭代训练300个时期,前240个时期的学习率是0.001,后60个时期的学习率是0.0001。
步骤6,在未标注集内选择信息量最大的图像,合并到已标注集内,形成新的已标注集。
在本发明中,优选地,在每个主动学习周期中,在步骤3和4之后(即示例不确定性学习和示例不确定性重新加权之后),通过观察每个图像中部分不确定性较高的示例,从未标注集内选择信息量最大的图像。
本发明人研究发现,在经过示例不确定性学习和示例不确定性重新加权之后,噪声高的示例已经被抑制掉,且示例不确定性与图像不确定性相一致,选出的图像将合并到已标注集,用于下一个主动学习周期。
根据本发明一种优选的实施方式,将每个图像的
Figure BDA0003002446660000111
所示的预测差异损失(即示例不确定性)作为决定图像信息量的依据,
优选地,将每个图像中前k高的示例不确定性作为选择依据,其中,k是超参数,优选设定为10000。
本发明人研究发现,将每个图像中前k高的示例不确定性作为选择依据(k优选设定为10000),能够最大限度地滤除背景信息。
在本发明中,通过反复进行示例不确定性的学习和重加权,缩小了示例级观察和图像级评估之间的差距,以便选择信息量最大的图像进行训练。
在步骤6中,将选出的图像合并到已标注集,获得新的已标注集。
步骤7,利用新的已标注集重新初始化和训练网络模型。
根据本发明一种优选的实施方式,在获得新的已标注集之后,重复步骤2~步骤6,迭代进行主动学习,即重新初始化与训练网络模型,选择下一个主动学习周期所需的样本,直至已标注图像的数量达到标注预算。
具体地,所述迭代进行主动学习的过程为:
在步骤1的初始化中,已经生成了一个较小的图像集合
Figure BDA0003002446660000121
(已标注集),带有示例标注
Figure BDA0003002446660000122
同时剩余的图像组成了一个较大的图像集合
Figure BDA0003002446660000123
(未标注集),其中没有任何标注。
经过步骤2~步骤5之后,基于用已标注集
Figure BDA0003002446660000124
初次训练过的模型M0,主动学习可以如步骤6所述从
Figure BDA0003002446660000125
中选择要手动标注的一组信息量最大的图像
Figure BDA0003002446660000126
并将其与
Figure BDA0003002446660000127
合并形成新的已标注集
Figure BDA0003002446660000128
Figure BDA0003002446660000129
在更新后的已标注集
Figure BDA00030024466600001210
的基础上,任务模型被重新训练并更新为M1
检测模型训练和样本选择过程重复几个周期,直到已标注图像的数量达到标注预算。
优选地,所述标注预算由不同的检测任务及数据集决定,例如,根据本发明的实施例,对于RetinaNet检测器,在每个主动学习周期中从未标注集内选择2.5%的图像,直到已标注的图像数量达到训练集的20.0%。对于MS COCO数据集,在每个周期中从未标注集内选择2.0%的图像,直到已标注集达到训练集的10.0%。对于SSD检测器,在每个周期中各选择1000张图像,直到已标注集达到10000张图像。
本发明所述用于目标检测的多示例主动学习方法,训练部分采用示例不确定性学习(IUL)和示例不确定性重加权(IUR)实现,具体在给定已划分好的已标注集和未标注集下,利用已标注集训练用于目标检测的网络模型,从未标注集内选出信息量最大的图像集,合并到已标注集中,直到已标注的图像数量达到标注预算。
根据本发明一种优选的实施方式,所述测试部分为在每个主动学习周期的步骤之前,将训练得到的模型应用到测试集的目标检测任务上,以验证模型的有效性。
在进一步优选的实施方式中,在每个主动学习周期中,所选用的测试数据完全一致。
本发明提供的用于目标检测的多示例主动学习方法,减少了神经网络训练的数据标注量,降低了人工成本;通过建模示例不确定性和图像不确定性之间的关系,改善了主动目标检测中示例和图像间存在间隔的问题;通过进行示例不确定性重加权,进一步提高了主动目标检测的精度。
本发明的第二方面,提供了一种计算机可读存储介质,存储有用于目标检测的多示例主动学习训练程序,所述程序被处理器执行时,使得处理器执行所述用于目标检测的多示例主动学习方法的步骤。
本发明中所述的用于目标检测的多示例主动学习方法可借助软件加必需的通用硬件平台的方式来实现,所述软件存储在计算机可读存储介质(包括ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机、计算机、服务器、网络设备等)执行本发明所述方法。
本发明的第三方面,提供了一种计算机设备,包括存储器和处理器,所述存储器存储有用于目标检测的多示例主动学习训练程序,所述程序被处理器执行时,使得处理器执行所述用于目标检测的多示例主动学习方法的步骤。
实施例
以下通过具体实例进一步描述本发明,不过这些实例仅仅是范例性的,并不对本发明的保护范围构成任何限制。
实施例1
1、数据集
本实施例中将PASCAL VOC 2007和2012数据集的trainval集用作训练集,分别包含5011张和11540张图像;将PASCAL VOC 2007数据集的test集用于评估检测性能。
使用MS COCO数据集11.7万张图像的train集进行主动学习,使用0.5万张图像的val集来评估检测性能。其中,MS COCO数据集包含80个具有挑战性的物体类别,体现在密集物体、有遮挡的小物体等。
2、任务描述
主动目标检测,使用从训练集中随机选择的部分图像作为已标注集的初始化进行训练测试,在每个主动学习周期中从其余未标注集内选择固定数量的图像加入到已标注集中训练测试,直到已标注集中图像的数量达到训练集的固定比例为止,实现主动学习的目标检测;每次测试使用平均精确率(mAP)或平均精度(AP)进行性能评测。
在本实施例中,将所有实验重复5次并使用性能的平均值,与其他方法比较时共享相同的随机种子和初始化以实现公平性。
具体地,所述训练部分:
步骤1,建立用于目标检测的网络模型,并进行数据初始化:对于RetinaNet检测器,使用从训练集中随机选择的5.0%的图像作为PASCAL VOC已标注集的初始化;对于MSCOCO数据集,使用训练集中随机选择的2.0%的图像作为已标注集的初始化。对于SSD检测器,选择PASCAL VOC数据集中的1000张图像作为已标注集的初始化
步骤2,对已标注集进行训练:
训练网络时的检测损失为:
Figure BDA0003002446660000151
利用示例分类预测来估计包标签的具体过程为:
Figure BDA0003002446660000152
最小化图像分类损失的损失函数为:
Figure BDA0003002446660000153
步骤3,减少已标注集和未标注集之间的分布偏差:
最大化示例不确定性的损失函数为:
Figure BDA0003002446660000161
其中,
Figure BDA0003002446660000162
λ取值为0.5。
经过示例不确定性重加权后的预测差异损失为:
Figure BDA0003002446660000163
最大化示例不确定性重加权损失函数为:
Figure BDA0003002446660000164
步骤4,对齐已标注集和未标注集的示例分布:
最小化示例不确定性的损失函数为:
Figure BDA0003002446660000165
最小化示例不确定性重加权损失函数为:
Figure BDA0003002446660000166
伪图像标签通过下式获得:
Figure BDA0003002446660000167
步骤5,对网络模型进行迭代训练:当使用RetinaNet检测器时,在每个主动学习周期中,最小批尺寸为2,学习率为0.001,共迭代训练26个时期,20个时期后,学习率降低至0.0001,动量和权重衰减分别设置为0.9和0.0005。当使用SSD检测器时,共迭代训练300个时期,前240个时期的学习率是0.001,后60个时期的学习率是0.0001。
步骤6,在未标注集内选择信息量最大的图像,合并到已标注集内,形成新的已标注集:将每个图像中前k高的示例不确定性作为选择依据,其中,k设定为10000。
步骤7,利用新的已标注集重新初始化和训练网络模型:对于RetinaNet检测器,在每个主动学习周期中从未标注集内选择2.5%的图像,直到已标注的图像数量达到训练集的20.0%。对于MS COCO数据集,在每个周期中从未标注集内选择2.0%的图像,直到已标注集达到训练集的10.0%。对于SSD检测器,在每个周期中各选择1000张图像,直到已标注集达到10000张图像。
测试部分:每个主动学习周期的步骤6之前,将训练得到的模型应用到测试集的目标检测任务上,以验证模型的有效性。
其中,PASCAL VOC数据集的评测指标为平均精确率(mAP),即各个类别的平均精度对于类别的均值,MS COCO数据集的评测指标为平均精度(AP)。
3、结果与分析
本实施例中使用基网为Resnet-50的RetinaNet神经网络和基网为VGG-16的SSD神经网络作为基础的检测器,在PASCAL VOC、MS COCO数据集上进行学习与评测,检测结果如表1。
表1 PASCAL VOC测试性能
Figure BDA0003002446660000171
Figure BDA0003002446660000181
其中,“最大”和“平均”分别代表图像不确定性由最大或平均示例不确定性所表示,“√”表示使用此模块。
由表1可知,在使用IUL模块(即差异学习示例分类器)的情况下,在最后一个周期中,检测性能提高到了70.1%,比基线高出3.0个百分点(从67.1%到70.1%);在使用IUR模块(即多示例学习分类器)的情况下,检测性能将会提高到72.0%,比基线高出4.9个百分点(从67.1%到72.0%)。当使用标注比例为100%的图像进行训练时,带有IUR的检测器比没有IUR的检测器性能高出1.1个百分点(从77.3%到78.4%)。上述表明了本发明所述方法的有效性。
进一步地,将本实施例所述方法(MIAL)与现有的多个主动目标检测方法进行性能比较,结果如表2和图5所示。
表2 PASCAL VOC数据集上的时间消耗比较结果
Figure BDA0003002446660000182
其中,随机采样方法(即基线方法)为随机选择图像并使用RetinaNet网络直接训练;
熵采样方法(即LL4AL)具体如文献“Yoo D,Kweon I S.Learning loss foractive learning[C]//Proceedings of the IEEE/CVF Conference on Computer Visionand Pattern Recognition.2019:93-102”中所述;
Core-set具体如文献“Sener O,Savarese S.Active learning forconvolutional neural networks:A core-set approach[C]//InternationalConference on Learning Representations.2018”中所述;
CDAL具体如文献“Agarwal S,Arora H,Anand S,et al.Contextual Diversityfor Active Learning[C]//European Conference on Computer Vision.Springer,Cham,2020:137-153.”中所述。
由表2可以看出,本实施例所述的多示例主动学习虽然在后期几个周期(15.0%、17.5%、20.0%)会花费略多的时间,但在早期几个周期(5.0%、7.5%、10.0%、12.5%)花费的时间更少。
图5示出了本实施例所述方法与现有技术的方法在不同数据集不同及网下的性能比较。由图5可以看出,无论使用RetinaNet还是SSD检测器,本实施例所述的多示例主动学习都能以明显的优势胜过现有技术的最新方法。具体地,在PASCAL VOC数据集上使用RetinaNet神经网络时,特别是在使用5.0%、7.5%和10.0%的样本时,本实施例方法的性能分别比最新方法高出18.08、7.78和5.19个百分点。在最后一个周期中,MIAL使用20.0%的样本达到了72.27%的检测平均精确率,比CDAL显著高出3.20个百分点。当使用SSD检测器时,本实施例所述的多示例主动学习在几乎所有周期中都优于最新方法。在MS COCO数据集上使用RetinaNet神经网络时,特别是当使用2.0%、4.0%和10.0%的已标注图像时,它分别比Core-set高出了0.6、0.5和2.0个百分点,比CDAL高出了0.6、1.3和2.6个百分点。以上数据均表明了本发明所述方法超过了当前最新技术的性能,且在一般目标检测器上具有普遍适用性。
更进一步地,对学习到和重加权后的示例的不确定性和图像分类分数进行了可视化分析,如图6所示,可以看出,仅使用IUL模块时,会存在来自背景(第1行)或真实正示例(第2行)周围的干扰示例,结果往往会遗漏真实正示例(第3行)或示例的一部分(第4行)。多示例学习可以在抑制背景的同时为感兴趣的示例分配较高的图像分类分数。在此基础上,IUR模块可利用图像分类分数对示例重加权,以实现准确的示例不确定性预测。
统计计算在每个主动学习周期中选择的真实正示例的数量,结果如图7所示,可以看出,在所有学习周期中,本发明所述的多示例主动学习选用了明显更多的真实正样本。说明本发明所述的方法可以在滤除干扰示例的同时更好地激活真实正目标,从而为选择信息量大的图像以供检测器训练提供了便利。
以上结合具体实施方式和范例性实例对本发明进行了详细说明,不过这些说明并不能理解为对本发明的限制。本领域技术人员理解,在不偏离本发明精神和范围的情况下,可以对本发明技术方案及其实施方式进行多种等价替换、修饰或改进,这些均落入本发明的范围内。

Claims (10)

1.一种用于目标检测的多示例主动学习方法,其特征在于,所述方法包括训练部分和测试部分,其中,所述训练部分包括以下步骤:
步骤1,建立用于目标检测的网络模型,并进行数据初始化;
步骤2,对已标注集进行训练;
步骤3,减少已标注集和未标注集之间的分布偏差;
步骤4,对齐已标注集和未标注集的示例分布;
步骤5,对网络模型进行迭代训练。
2.根据权利要求1所述的方法,其特征在于,在步骤5之后,还包括以下步骤:
步骤6,在未标注集内选择信息量最大的图像,合并到已标注集内,形成新的已标注集;
步骤7,利用新的已标注集重新初始化和训练网络模型。
3.根据权利要求1所述的方法,其特征在于,步骤1中,所述建立的用于目标检测的网络模型,包括基础网络和示例分类器;
优选地,所述示例分类器包括一个差异学习示例分类器和一个多示例学习分类器。
4.根据权利要求1所述的方法,其特征在于,步骤2中,通过优化检测损失来训练目标检测的网络模型,
其中,所述网络模型的检测损失通过下式获得:
Figure FDA0003002446650000011
其中,
Figure FDA0003002446650000012
表示示例分类器f1的参数
Figure FDA0003002446650000013
示例分类器f2的参数
Figure FDA0003002446650000014
边界框回归器fr的参数
Figure FDA0003002446650000015
特征提取器g的参数θg的集合;FL(·)表示示例分类的焦点损失函数;SmoothL1(·)是边界框回归的平滑L1损失函数;
Figure FDA0003002446650000021
Figure FDA0003002446650000022
Figure FDA0003002446650000023
分别表示示例分类器f1对示例的预测结果、示例分类器f2对示例的预测结果和边界框回归器fr对示例的定位结果;
Figure FDA0003002446650000024
Figure FDA0003002446650000025
分别表示真实的类别标签和边界框标签。
5.根据权利要求1所述的方法,其特征在于,步骤3中,按照包括以下步骤的方法减少已标注集和未标注集之间的分布偏差:
步骤3-1,优化预测差异损失,最大化示例不确定性;
步骤3-2,对示例不确定性进行重加权。
6.根据权利要求5所述的方法,其特征在于,步骤3-1中,通过下式优化预测差异损失,以最大化对抗性分类器的预测差异:
Figure FDA0003002446650000026
其中,
Figure FDA0003002446650000027
表示在预测差异上定义的预测差异损失,
Figure FDA0003002446650000028
是两个分类器对于图像x中第i个示例的示例分类预测,C表示数据集中物体类别的数量,λ表示正则化参数,优选取值为0.5。
7.根据权利要求1所述的方法,其特征在于,步骤4包括以下子步骤:
步骤4-1,最小化示例不确定性并进行重加权;
步骤4-2,缩小示例级不确定性和图像级不确定性之间的差距。
8.根据权利要求1所述的方法,其特征在于,所述测试部分为在每个主动学习周期的步骤6之前,将训练得到的模型应用到测试集的目标检测任务上,以验证模型的有效性。
9.一种计算机可读存储介质,其特征在于,所述存储介质存储有用于目标检测的多示例主动学习训练程序,所述程序被处理器执行时,使得处理器执行权利要求1至8之一所述用于目标检测的多示例主动学习方法的步骤。
10.一种计算机设备,包括存储器和处理器,其特征在于,所述存储器存储有用于目标检测的多示例主动学习训练程序,所述程序被处理器执行时,使得处理器执行权利要求1至8之一所述用于目标检测的多示例主动学习方法的步骤。
CN202110352225.3A 2021-03-31 2021-03-31 一种用于目标检测的多示例主动学习方法 Active CN113177576B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110352225.3A CN113177576B (zh) 2021-03-31 2021-03-31 一种用于目标检测的多示例主动学习方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110352225.3A CN113177576B (zh) 2021-03-31 2021-03-31 一种用于目标检测的多示例主动学习方法

Publications (2)

Publication Number Publication Date
CN113177576A true CN113177576A (zh) 2021-07-27
CN113177576B CN113177576B (zh) 2022-02-22

Family

ID=76922933

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110352225.3A Active CN113177576B (zh) 2021-03-31 2021-03-31 一种用于目标检测的多示例主动学习方法

Country Status (1)

Country Link
CN (1) CN113177576B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114186615A (zh) * 2021-11-22 2022-03-15 浙江华是科技股份有限公司 船舶检测半监督在线训练方法、装置及计算机存储介质
CN115131655A (zh) * 2022-09-01 2022-09-30 浙江啄云智能科技有限公司 目标检测模型的训练方法、装置与目标检测方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105117429A (zh) * 2015-08-05 2015-12-02 广东工业大学 基于主动学习和多标签多示例学习的场景图像标注方法
WO2020068784A1 (en) * 2018-09-24 2020-04-02 Schlumberger Technology Corporation Active learning framework for machine-assisted tasks
CN111191732A (zh) * 2020-01-03 2020-05-22 天津大学 一种基于全自动学习的目标检测方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105117429A (zh) * 2015-08-05 2015-12-02 广东工业大学 基于主动学习和多标签多示例学习的场景图像标注方法
WO2020068784A1 (en) * 2018-09-24 2020-04-02 Schlumberger Technology Corporation Active learning framework for machine-assisted tasks
CN111191732A (zh) * 2020-01-03 2020-05-22 天津大学 一种基于全自动学习的目标检测方法

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114186615A (zh) * 2021-11-22 2022-03-15 浙江华是科技股份有限公司 船舶检测半监督在线训练方法、装置及计算机存储介质
CN114186615B (zh) * 2021-11-22 2022-07-08 浙江华是科技股份有限公司 船舶检测半监督在线训练方法、装置及计算机存储介质
CN115131655A (zh) * 2022-09-01 2022-09-30 浙江啄云智能科技有限公司 目标检测模型的训练方法、装置与目标检测方法
CN115131655B (zh) * 2022-09-01 2022-11-22 浙江啄云智能科技有限公司 目标检测模型的训练方法、装置与目标检测方法

Also Published As

Publication number Publication date
CN113177576B (zh) 2022-02-22

Similar Documents

Publication Publication Date Title
CN108960409B (zh) 标注数据生成方法、设备及计算机可读存储介质
CN108446741B (zh) 机器学习超参数重要性评估方法、系统及存储介质
CN113177576B (zh) 一种用于目标检测的多示例主动学习方法
JP2010525299A (ja) 生体物質の動きを追跡するシステム及び方法
CN111914728B (zh) 高光谱遥感影像半监督分类方法、装置及存储介质
Rajala et al. Detecting multivariate interactions in spatial point patterns with Gibbs models and variable selection
EP4075325A1 (en) Method and system for the classification of histopathological images based on multiple instance learning
WO2023186833A9 (en) Computer implemented method for the detection of anomalies in an imaging dataset of a wafer, and systems making use of such methods
Ji et al. Active bayesian assessment of black-box classifiers
CN114842238A (zh) 一种嵌入式乳腺超声影像的识别方法
CN111325344A (zh) 评估模型解释工具的方法和装置
Ourabah Large scale data using K-means
Airlie et al. A novel application of deep learning to forensic hair analysis methodology
Zhang et al. Detection of coronal mass ejections using multiple features and space–time continuity
CN117058534A (zh) 基于元知识适应迁移网络的少样本遥感图像目标检测方法
CN111652269A (zh) 一种基于群智交互的主动机器学习方法及装置
Ahmed et al. Pmnet: A probability map based scaled network for breast cancer diagnosis
CN115565001A (zh) 基于最大平均差异对抗的主动学习方法
CN114298173A (zh) 一种数据处理方法、装置及设备
Sai et al. SAI: fast and automated quantification of stomatal parameters on microscope images
Zou et al. Evaluation and automatic selection of methods for handling missing data
Barbieri et al. PALLADIO: a parallel framework for robust variable selection in high-dimensional data
CN109784356A (zh) 基于Fisher判别分析的矩阵变量受限玻尔兹曼机图像分类方法
CN111242235B (zh) 一种相似特征测试数据集生成方法
WO2024083692A1 (en) Toxicity prediction of compounds in cellular structures

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant