CN107273891A - 一种基于点击监督训练的目标类别检测方法 - Google Patents

一种基于点击监督训练的目标类别检测方法 Download PDF

Info

Publication number
CN107273891A
CN107273891A CN201710431113.0A CN201710431113A CN107273891A CN 107273891 A CN107273891 A CN 107273891A CN 201710431113 A CN201710431113 A CN 201710431113A CN 107273891 A CN107273891 A CN 107273891A
Authority
CN
China
Prior art keywords
mark
mrow
target
person
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
CN201710431113.0A
Other languages
English (en)
Inventor
夏春秋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Vision Technology Co Ltd
Original Assignee
Shenzhen Vision Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Vision Technology Co Ltd filed Critical Shenzhen Vision Technology Co Ltd
Priority to CN201710431113.0A priority Critical patent/CN107273891A/zh
Publication of CN107273891A publication Critical patent/CN107273891A/zh
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明提出了一种基于点击监督训练的目标类别检测方法,其主要内容包括:点击监督、弱监督目标定位、众包架构、点击监督与弱监督目标定位的合并,其过程为,要求标注者去点击紧密包围目标中实体的虚构边界框的中心,然后将这些所点击点合并到现有的用于弱监督目标定位的多实体学习技术中,这样就可以在所有训练图像上共同进行目标边界框的定位。本发明训练出了高质量的目标类别检测器,其表现比用弱监督训练技术所产生的检测器要好得多,并且还可以进行适度的额外标注。这些检测器的执行结果实际上在一定范围内接近手动绘制边界框所训练的结果,且由于中心点击任务执行的非常快,此发明将总标注时间缩短了9倍到18倍。

Description

一种基于点击监督训练的目标类别检测方法
技术领域
本发明涉及图像处理中的目标检测领域,尤其是涉及了一种基于点击监督训练的目标类别检测方法。
背景技术
自然界的一切图像都是连续变化的模拟图像,在日常生活中,这些图像中的运动目标往往是我们比较关心的,如:行人、行驶的交通工具以及其他的物体。目标检测和识别是计算机视觉和数字图像处理的一个热门方向,广泛应用于机器人导航、智能视频监控、工业检测、航空航天等诸多领域。因此,目标检测也就成为了近年来理论和应用的研究热点,它是图像处理和计算机视觉学科的重要分支,也是智能监控系统的核心部分。它的目的就是如何快速、准确地检测出监控视频中的目标,即从序列图像中将目标提取出来。迄今,目标类别检测器的训练已经存在很多方法,如何在尽量减少人的标注工作的同时训练出高质量的检测器具有重要的现实意义。
本发明提出了一种基于点击监督训练的目标类别检测方法,其主要内容包括:点击监督、弱监督目标定位、众包架构、点击监督与弱监督目标定位的合并,其过程为,要求标注者去点击紧密包围目标中实体的虚构边界框的中心,然后将这些所点击点合并到现有的用于弱监督目标定位的多实体学习技术中,这样就可以在所有训练图像上共同进行目标边界框的定位。本发明训练出了高质量的目标类别检测器,其表现比用弱监督训练技术所产生的检测器要好得多,并且还可以进行适度的额外标注。这些检测器的执行结果实际上在一定范围内接近手动绘制边界框所训练的结果,且由于中心点击任务执行的非常快,此发明将总标注时间缩短了9倍到18倍。
发明内容
针对本发明训练出了高质量的目标类别检测器,其表现比用弱监督训练技术所产生的检测器要好得多,并且还可以进行适度的额外标注。这些检测器的执行结果实际上在一定范围内接近手动绘制边界框所训练的结果,且由于中心点击任务执行的非常快,总的标注时间缩短了9倍到18倍。
为解决上述问题,本发明提供一种基于点击监督训练的目标类别检测方法,其主要内容包括:
(一)点击监督;
(二)弱监督对象定位;
(三)众包架构;
(四)点击监督与弱监督对象定位的合并。
其中,所述的点击监督,通过点击图像中心的方法来进行图像标注,且所点击点可以从所使用的检测器训练框架中分开独立获取。这些所点击点为完整的边界框提供可靠的定位点,因为它们对边界框的中心进行了估计。此外,还可以要求两个不同的标注者对同一个目标进行中心点击,即双击监督。由于它们的误差是独立的,故可以通过对所点击点的位置进行平均计算以获得目标中心位置的更准确的估计值,且两个所点击的点之间的距离随物体大小增加而增加,因此这样可以根据所点击点之间的距离估算目标的大小。
进一步地,所述的弱监督目标定位,从一组仅仅包含一个特定目标类别而没有给出目标位置的图像来训练出定位方法,从而在学习一个目标检测器的同时在这些图像中定位目标,这样就能够在新的测试图像中对实体进行定位。
进一步地,所述的众包架构,首先让标注者先读取由图像及其目标类别名称组成的指令集,然后需要通过一个交互式的训练阶段,其中包含一个基于合成多边形的合格性测试。在完成这个阶段后,标注者会收到一个详细的关于他们在测试中表现的反馈报告,这其中通过合格性测试的标注者就可以进入到图像标注阶段。这里在标注者训练这个阶段中,标注者可以不断重复合格性测试以防失败。最后就是进行数据收集工作,需要收集的数据包括标注时间,标注误差以及标注成本。
其中,所述的标注者训练,通过合格性测试过滤掉不好的标注者从而提高众包数据的质量。在合格性测试期间,标注者需要点击20个合成多边形的中心。这里使用合成多边形代替实际物体不仅保证了合格性测试的难度,还减少了标注者的认知负荷,从而使训练阶段更有效率。在标注者完成合格性测试之后,他们会收到一个反馈页面,其中包含所有已标注的合成多边形实例,其中每个多边形上都会显示其真实中心的位置,标注者自己点击的位置以及这两者之间的欧几里得距离(误差距离)。通过这项测试的确切标准是在测试中的所有多边形上的平均误差距离低于20个像素。通过合格性测试的标注者会被记录为合格标注者,然后他们可以继续进行主要标注任务来处理真实图像。这里允许标注者不断重复合格性测试直到他们通过为止。通过把丰富的反馈结果与重复测试相结合,这个标注者训练阶段具备了较高的互动性与效率。
进一步地,所述的图像标注,标注者需要对20个连续出现的图像进行批量标注,且这里每批的图像都是单独的目标类别,这样就在提高标注准确度的同时减少标注时间。此外,此阶段还采用了质量控制方法,即在每批次的20个图像中包含两个隐藏了已经标注好边界框的评估图像,从而监视标注者的标注准确度,这里未达到所要求标注准确度的标注者将不能提交当前数据。
进一步地,所述的数据收集,通过记录从图像出现开始直到标注者进行点击的时间作为标注时间,并以此体现标注者的标注效率;通过记录标注者的所点击点与实际边界框中心的距离来测得误差距离,并以此体现标注者的标注准确度;最后是通过记录标注者每标注一批图像所需支付的金额来体现总体的标注成本。
进一步地,所述的点击监督与弱监督目标定位的合并,将所点击点合并到最初设计用于弱监督对象检测的参考多示例学习(MIL)框架中,其中MIL的输入是一个包含目标类别的正图像以及不包含目标类别的负图像的训练集,这里将每个图像表示为使用边界框提取的一组目标区域,然后通过一个4096维的特征向量使用CNN实现描述每个目标区域,这里仅使用图像级的标签在数据库上对CNN进行了预训练。进一步的,通过交替执行重定位与重新训练两个步骤来迭代的建立SVM(支持向量机)表观模型其中重定位是指在每个正图像中选出当前表观模型给出最高分的正区域,重新训练是指使用当前从正图像中选择的正区域以及负图像的所有区域。这里进行初始化时,需要在第一次迭代时使用完整的图像作为正训练实例来训练分类器。
进一步地,需要在标准MIL架构上应用了两个改进方案,其一是使用多次覆盖方法来避免局部最优,其二是结合表观模型给的分数与物体的对象性的一般测量结果,而这其中物体的对象性之前在弱监督目标定位中用于控制定位过程朝着目标并远离背景。在重定位过程中假设的权重相同的情况下将其两者的分数进行线性的结合,其中每个区域p的分数可由等式(1)获得。
在MIL收敛以后,在重复训练步骤额外执行两次迭代对整个CNN神经网络进行深度训练来取代基于混合特征表示法的SVM,其中在迭代过程中使用快速RCNN作为表观模型
其中,所述的单击监督,引入一个记分函数Sbc来表示区域p可以根据对象的中心点cp及所点击点c的位置来包含对象的可能性。等式(2)中‖cp-c‖代表cp与c之间的欧几里德距离,标准偏差σbc可以控制当cp离c越来越远时Sbc的值下降的速度。
在MIL的重定位步骤(I)中使用边界框中心的线索Sbc,其中根据记分方程的最高分Sap与Sbc的乘积Sap(p)·Sbc(p;c,σbc)来进行区域选择。实验结果表明这种方法很好的改善了重定位,从而下一个重新训练迭代中改进了外观模型,也改善了最后的MIL结果。此外,可以使用所点击点的位置来改善MIL的初始化,这里为了取代直接从完整图像中初始化正面训练样本的区域,现构建以所点击点为中心的窗口,且此窗口在不超过图像边界的同时具有最大的尺寸。这大大改进了MIL初始化过程,尤其是在所点击位置靠近图像边框的情况下。
进一步地,所述的双击监督,当使用两个标注者点击两次时与点击一次相比总标注时间增加了一倍,这样能够更准确地估算目标中心的位置。进一步的,可以根据两次所点击点之间的距离来估算对象区域的面积。这里简单地替换等式(1)中的c为两次所点击点c1和c2的平均值。然而,在包含目标类别的多个实体的图像中,两个标注者可能会点击不同的目标。为了解决这个问题,引入一个距离阈值dmax,超过这个距离阈值的所点击点则被认为是针对不同的目标。而在这种情况下,保留两个所点击点的值并在等式(1)中使用它们。如果‖cp-c‖>dmax,那么对于每个方案p都使用最接近两个所点击点的中心点cp
由于两个标注者的误差是独立的,他们的两个所点击点之间的距离平均上随着对象面积的增加而增加,因此可以根据两次所点击点c1和c2之间的距离来估算目标区域的面积。令μ(‖cp-c‖)为估算对象区域面积对数的函数,则对于每个区域p我们都引入一个方框面积分数Sba来根据区域p面积与所估算对象面积的比率表示区域p包含对象的可能性。
等式(2)中ap是区域p面积值的对数,(ap-μ)表示两个区域之间的对数比,其中标准偏差σba控制Sba的值随着ap与μ差值增加而下降的速度。此外,在MIL的重定位步骤过程中对区域p在最终分值函数S(p)中引用了所有的影响因子。
S(p)=Sap·Sbc(p;c1,c2bc)·Sba(p;c1,c2ba) (4)
附图说明
图1是本发明一种基于点击监督训练的目标类别检测方法的众包架构工作流程图。
图2是本发明一种基于点击监督训练的目标类别检测方法的指令集示例图。
图3是本发明一种基于点击监督训练的目标类别检测方法的标注者接收反馈图示。
图4是本发明一种基于点击监督训练的目标类别检测方法的对象区域面积平方根与误差距离关系图。
图5是本发明一种基于点击监督训练的目标类别检测方法的方框中心分数示例图。
图6是本发明一种基于点击监督训练的目标类别检测方法的方框区域分数示例图。
图7是本发明一种基于点击监督训练的目标类别检测方法的标注误差分布图以及两个所点击点距离与对象相对区域面积的关系图。
图8是本发明一种基于点击监督训练的目标类别检测方法的单次点击和双次点击监督模型训练示例图。
具体实施方式
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互结合,下面结合附图和具体实施例对本发明作进一步详细说明。
图1是本发明一种基于点击监督训练的目标类别检测方法的众包架构工作流程图。主要包括指令读取、标注者训练、图像标注、数据收集。这里首先让标注者先读取由图像及其目标类别名称组成的指令集,然后需要通过一个交互式的训练阶段,其中包含一个基于合成多边形的合格性测试。在完成这个阶段后,标注者会收到一个详细的关于他们在测试中表现的反馈报告,这其中通过合格性测试的标注者就可以进入到图像标注阶段。这里在标注者训练这个阶段中,标注者可以不断重复合格性测试以防失败。最后就是进行数据收集工作,需要收集的数据包括标注时间,标注误差以及标注成本。
其中,所述的标注者训练,通过合格性测试过滤掉不好的标注者从而提高众包数据的质量。在合格性测试期间,标注者需要点击20个合成多边形的中心。这里使用合成多边形代替实际物体不仅保证了合格性测试的难度,还减少了标注者的认知负荷,从而使训练阶段更有效率。在标注者完成合格性测试之后,他们会收到一个反馈页面,其中包含所有已标注的合成多边形实例,其中每个多边形上都会显示其真实中心的位置,标注者自己点击的位置以及这两者之间的欧几里得距离(误差距离)。通过这项测试的确切标准是在测试中的所有多边形上的平均误差距离低于20个像素。通过合格性测试的标注者会被记录为合格标注者,然后他们可以继续进行主要标注任务来处理真实图像。这里允许标注者不断重复合格性测试直到他们通过为止。通过把丰富的反馈结果与重复测试相结合,这个标注者训练阶段具备了较高的互动性与效率。
进一步地,所述的图像标注,标注者需要对20个连续出现的图像进行批量标注,且这里每批的图像都是单独的目标类别,这样就在提高标注准确度的同时减少标注时间。此外,此阶段还采用了质量控制方法,即在每批次的20个图像中包含两个隐藏了已经标注好边界框的评估图像,从而监视标注者的标注准确度,这里未达到所要求标注准确度的标注者将不能提交当前数据。
进一步地,所述的数据收集,通过记录从图像出现开始直到标注者进行点击的时间作为标注时间,并以此体现标注者的标注效率;通过记录标注者的所点击点与实际边界框中心的距离来测得误差距离,并以此体现标注者的标注准确度;最后是通过记录标注者每标注一批图像所需支付的金额来体现总体的标注成本。
进一步地,所述的点击监督与弱监督目标定位的合并,将所点击点合并到最初设计用于弱监督对象检测的参考多示例学习(MIL)框架中,其中MIL的输入是一个包含目标类别的正图像以及不包含目标类别的负图像的训练集,这里将每个图像表示为使用边界框提取的一组目标区域,然后通过一个4096维的特征向量使用CNN实现描述每个目标区域,这里仅使用图像级的标签在数据库上对CNN进行了预训练。进一步的,通过交替执行重定位与重新训练两个步骤来迭代的建立SVM(支持向量机)表观模型其中重定位是指在每个正图像中选出当前表观模型给出最高分的正区域,重新训练是指使用当前从正图像中选择的正区域以及负图像的所有区域。这里进行初始化时,需要在第一次迭代时使用完整的图像作为正训练实例来训练分类器。
进一步地,需要在标准MIL架构上应用了两个改进方案,其一是使用多次覆盖方法来避免局部最优,其二是结合表观模型给的分数与物体的对象性的一般测量结果,而这其中物体的对象性之前在弱监督目标定位中用于控制定位过程朝着目标并远离背景。在重定位过程中假设的权重相同的情况下将其两者的分数进行线性的结合,其中每个区域p的分数可由等式(1)获得。
在MIL收敛以后,在重复训练步骤额外执行两次迭代对整个CNN神经网络进行深度训练来取代基于混合特征表示法的SVM,其中在迭代过程中使用快速RCNN作为表观模型
其中,所述的单击监督,引入一个记分函数Sbc来表示区域p可以根据对象的中心点cp及所点击点c的位置来包含对象的可能性。等式(2)中‖cp-c‖代表cp与c之间的欧几里德距离,标准偏差σbc可以控制当cp离c越来越远时Sbc的值下降的速度。
在MIL的重定位步骤(I)中使用边界框中心的线索Sbc,其中根据记分方程的最高分Sap与Sbc的乘积Sap(p)·Sbc(p;c,σbc)来进行区域选择。实验结果表明这种方法很好的改善了重定位,从而下一个重新训练迭代中改进了外观模型,也改善了最后的MIL结果。此外,可以使用所点击点的位置来改善MIL的初始化,这里为了取代直接从完整图像中初始化正面训练样本的区域,现构建以所点击点为中心的窗口,且此窗口在不超过图像边界的同时具有最大的尺寸。这大大改进了MIL初始化过程,尤其是在所点击位置靠近图像边框的情况下。
进一步地,所述的双击监督,当使用两个标注者点击两次时与点击一次相比总标注时间增加了一倍,这样能够更准确地估算目标中心的位置。进一步的,可以根据两次所点击点之间的距离来估算对象区域的面积。这里简单地替换等式(1)中的c为两次所点击点c1和c2的平均值。然而,在包含目标类别的多个实体的图像中,两个标注者可能会点击不同的目标。为了解决这个问题,引入一个距离阈值dmax,超过这个距离阈值的所点击点则被认为是针对不同的目标。而在这种情况下,保留两个所点击点的值并在等式(1)中使用它们。如果‖cp-c‖>dmax,那么对于每个方案p都使用最接近两个所点击点的中心点cp
由于两个标注者的误差是独立的,他们的两个所点击点之间的距离平均上随着对象面积的增加而增加,因此可以根据两次所点击点c1和c2之间的距离来估算目标区域的面积。令μ(‖cp-c‖)为估算对象区域面积对数的函数,则对于每个区域p我们都引入一个方框面积分数Sba来根据区域p面积与所估算对象面积的比率表示区域p包含对象的可能性。
等式(2)中ap是区域p面积值的对数,(ap-μ)表示两个区域之间的对数比,其中标准偏差σba控制Sba的值随着ap与μ差值增加而下降的速度。此外,在MIL的重定位步骤过程中对区域p在最终分值函数S(p)中引用了所有的影响因子。
S(p)=Sap·Sbc(p;c1,c2bc)·Sba(p;c1,c2ba) (4)
图2是本发明一种基于点击监督训练的目标类别检测方法的指令集示例图。左边图像指令为:所期望的边界框中心也许不在目标上;中间图像指令为:如果目标对象被缩小了,则点击可见部分的中心;右边图像指令为:如果呈现了多个实体,则点击其中任何一个的中心。
图3是本发明一种基于点击监督训练的目标类别检测方法的标注者接收反馈图示。这里对于每个实例,都会提供合成多边形的实际中心点(白色点)与标注者自己在图中所点击的点(深灰色点),且两点之间的误差距离也会显示出来。
图4是本发明一种基于点击监督训练的目标类别检测方法的对象区域面积平方根与误差距离关系图。图中可以基于像素点所计算的误差距离随着目标区域的增加而增加,而当目标快要占满整个图像时此误差会降低。
图5是本发明一种基于点击监督训练的目标类别检测方法的方框中心分数示例图。图中以自行车作为实例,其中左图为单击标注,中间图为同一个目标上的双击标注,右图为不同目标上的双击标注。此外,图中的热点图的每个像素点的值给了Sbc一个集中那个像素的目标区域。
图6是本发明一种基于点击监督训练的目标类别检测方法的方框区域分数示例图。图中显示了Sba的分数对不同区域的影响的一个例子,这里使用的所有区域都具有固定的纵横比,并以图中目标作为中心,其中当区域p的面积与估算的对象区域相匹配时,Sba的值最大。
图7是本发明一种基于点击监督训练的目标类别检测方法的标注误差分布图以及两个所点击点距离与对象相对区域面积的关系图。左图中体现了在标注者进行合格性测试的过程中误差距离的分布情况,右图体现了两个所点击点距离与对象相对区域面积的关系,其中黑色线代表了回归函数μ。
图8是本发明一种基于点击监督训练的目标类别检测方法的单次点击和双次点击监督模型训练示例图。图中的目标定位的例子是基于PASCAL VOC 2007的测试训练集使用了本发明的单击监督(黑色框)以及双击监督(浅灰色框)模型来获取的,其中每个示例也都显示了通过参考MIL所完成的目标定位(深灰色框)。
对于本领域技术人员,本发明不限制于上述实施例的细节,在不背离本发明的精神和范围的情况下,能够以其他具体形式实现本发明。此外,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围,这些改进和变型也应视为本发明的保护范围。因此,所附权利要求意欲解释为包括优选实施例以及落入本发明范围的所有变更和修改。

Claims (10)

1.一种基于点击监督训练的目标类别检测方法,其特征在于,主要包括点击监督(一);弱监督目标定位(二);众包架构(三);点击监督与弱监督目标定位的合并(四)。
2.基于权利要求书1所述的点击监督(一),其特征在于,通过点击图像中心的方法来进行图像标注,且所点击点可以从所使用的检测器训练框架中分开独立获取,这些所点击点为完整的边界框提供可靠的定位点,因为它们对边界框的中心进行了估计;此外还可以要求两个不同的标注者对同一个目标进行中心点击,即双击监督;且由于它们的误差是独立的,故可以通过对所点击点的位置进行平均计算以获得目标中心位置的更准确的估计值,且两个所点击的点之间的距离随物体大小增加而增加,因此这样可以根据所点击点之间的距离估算目标的大小。
3.基于权利要求书1所述的弱监督目标定位(二),其特征在于,从一组仅仅包含一个特定目标类别而没有给出目标位置的图像来训练出定位方法,从而在学习一个目标检测器的同时在这些图像中定位目标,这样就能够在新的测试图像中对实体进行定位。
4.基于权利要求书1所述的众包架构(三),其特征在于,让标注者先读取由图像及其目标类别名称组成的指令集,然后需要通过一个交互式的训练阶段,其中包含一个基于合成多边形的合格性测试;在完成这个阶段后标注者会收到一个详细的关于他们在测试中表现的反馈报告,这其中通过合格性测试的标注者就可以进入到图像标注阶段,这里在标注者训练这个阶段中,标注者可以不断重复合格性测试以防失败;最后就是进行数据收集工作,需要收集的数据包括标注时间,标注误差以及标注成本。
5.基于权利要求书4所述的标注者训练,其特征在于,通过合格性测试过滤掉不好的标注者从而提高众包数据的质量,其中在合格性测试期间,标注者需要点击20个合成多边形的中心,这里使用合成多边形代替实际物体不仅保证了合格性测试的难度,还减少了标注者的认知负荷,从而使训练阶段更有效率;在标注者完成合格性测试之后,他们会收到一个反馈页面,其中包含所有已标注的合成多边形实例,其中每个多边形上都会显示其真实中心的位置,标注者自己点击的位置以及这两者之间的欧几里得距离(误差距离),通过这项测试的确切标准是在测试中的所有多边形上的平均误差距离低于20个像素;通过合格性测试的标注者会被记录为合格标注者,然后他们可以继续进行主要标注任务来处理真实图像,这里允许标注者不断重复合格性测试直到他们通过为止,通过把丰富的反馈结果与重复测试相结合,这个标注者训练阶段具备了较高的互动性与效率。
6.基于权利要求书4所述的图像标注,其特征在于,标注者需要对20个连续出现的图像进行批量标注,且这里每批的图像都是单独的目标类别,这样就在提高标注准确度的同时减少标注时间;此外此阶段还采用了质量控制方法,即在每批次的20个图像中包含两个隐藏了已经标注好边界框的评估图像,从而监视标注者的标注准确度,这里未达到所要求标注准确度的标注者将不能提交当前数据。
7.基于权利要求书4所述的数据收集,其特征在于,通过记录从图像出现开始直到标注者进行点击的时间作为标注时间,并以此体现标注者的标注效率;通过记录标注者的所点击点与实际边界框中心的距离来测得误差距离,并以此体现标注者的标注准确度;最后是通过记录标注者每标注一批图像所需支付的金额来体现总体的标注成本。
8.基于权利要求书1所述的点击监督与弱监督目标定位的合并(四),其特征在于,将所点击点合并到最初设计用于弱监督对象检测的参考多示例学习(MIL)框架中,其中MIL的输入是一个包含目标类别的正图像以及不包含目标类别的负图像的训练集,这里将每个图像表示为使用边界框提取的一组目标区域,然后通过一个4096维的特征向量使用CNN实现描述每个目标区域,这里仅使用图像级的标签在数据库上对CNN进行了预训练;进一步的,通过交替执行重定位与重新训练两个步骤来迭代的建立SVM(支持向量机)表观模型其中重定位是指在每个正图像中选出当前表观模型给出最高分的正区域,重新训练是指使用当前从正图像中选择的正区域以及负图像的所有区域,这里进行初始化时,需要在第一次迭代时使用完整的图像作为正训练实例来训练分类器;在标准MIL架构上需要应用两个改进方案,其一是使用多次覆盖方法来避免局部最优,其二是结合表观模型给的分数与物体的对象性的一般测量结果,而这其中物体的对象性之前在弱监督目标定位中用于控制定位过程朝着目标并远离背景,在重定位过程中假设的权重相同的情况下将其两者的分数进行线性的结合,其中每个区域p的分数可由等式(1)获得:
在MIL收敛以后,在重复训练步骤额外执行两次迭代对整个CNN神经网络进行深度训练来取代基于混合特征表示法的SVM,其中在迭代过程中使用快速RCNN作为表观模型
9.基于权利要求书8所述的单击监督,其特征在于,引入一个记分函数Sbc来表示区域p可以根据对象的中心点cp及所点击点c的位置来包含对象的可能性,等式(2)中‖cp-c‖代表cp与c之间的欧几里德距离,标准偏差σbc可以控制当cp离c越来越远时Sbc的值下降的速度,
<mrow> <msub> <mi>S</mi> <mrow> <mi>b</mi> <mi>c</mi> </mrow> </msub> <mrow> <mo>(</mo> <mi>p</mi> <mo>;</mo> <mi>c</mi> <mo>,</mo> <msub> <mi>&amp;sigma;</mi> <mrow> <mi>b</mi> <mi>c</mi> </mrow> </msub> <mo>)</mo> </mrow> <mo>=</mo> <msup> <mi>e</mi> <mrow> <mo>-</mo> <mfrac> <mrow> <mo>|</mo> <mo>|</mo> <msub> <mi>c</mi> <mi>p</mi> </msub> <mo>-</mo> <mi>c</mi> <mo>|</mo> <msup> <mo>|</mo> <mn>2</mn> </msup> </mrow> <mrow> <mn>2</mn> <msubsup> <mi>&amp;sigma;</mi> <mrow> <mi>b</mi> <mi>c</mi> </mrow> <mn>2</mn> </msubsup> </mrow> </mfrac> </mrow> </msup> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>2</mn> <mo>)</mo> </mrow> </mrow>
在MIL的重定位步骤(I)中使用边界框中心的线索Sbc,其中根据记分方程的最高分Sap与Sbc的乘积Sap(p)·Sbc(p;c,σbc)来进行区域选择;实验结果表明这种方法很好的改善了重定位,从而下一个重新训练迭代中改进了外观模型,也改善了最后的MIL结果;此外可以使用所点击点的位置来改善MIL的初始化,这里为了取代直接从完整图像中初始化正面训练样本的区域,现构建以所点击点为中心的窗口,且此窗口在不超过图像边界的同时具有最大的尺寸,这大大改进了MIL初始化过程,尤其是在所点击位置靠近图像边框的情况下。
10.基于权利要求书8所述的双击监督,其特征在于,当使用两个标注者点击两次时与点击一次相比总标注时间增加了一倍,这样能够更准确地估算目标中心的位置;进一步的,可以根据两次所点击点之间的距离来估算对象区域的面积,这里简单地替换等式(1)中的c为两次所点击点c1和c2的平均值,然而在包含目标类别的多个实体的图像中,两个标注者可能会点击不同的目标;为了解决这个问题引入一个距离阈值dmax,超过这个距离阈值的所点击点则被认为是针对不同的目标,而在这种情况下,保留两个所点击点的值并在等式(1)中使用它们;如果‖cp-c‖>dmax,那么对于每个方案p都使用最接近两个所点击点的中心点cp;且由于两个标注者的误差是独立的,他们的两个所点击点之间的距离平均上随着对象面积的增加而增加,因此可以根据两次所点击点c1和c2之间的距离来估算目标区域的面积,这里令μ(‖cp-c‖)为估算对象区域面积对数的函数,则对于每个区域p我们都引入一个方框面积分数Sba来根据区域p面积与所估算对象面积的比率表示区域p包含对象的可能性:
<mrow> <msub> <mi>S</mi> <mrow> <mi>b</mi> <mi>a</mi> </mrow> </msub> <mrow> <mo>(</mo> <mi>p</mi> <mo>;</mo> <msub> <mi>c</mi> <mn>1</mn> </msub> <mo>,</mo> <msub> <mi>c</mi> <mn>2</mn> </msub> <mo>,</mo> <msub> <mi>&amp;sigma;</mi> <mrow> <mi>b</mi> <mi>a</mi> </mrow> </msub> <mo>)</mo> </mrow> <mo>=</mo> <msup> <mi>e</mi> <mrow> <mo>-</mo> <mfrac> <msup> <mrow> <mo>(</mo> <msub> <mi>a</mi> <mi>p</mi> </msub> <mo>-</mo> <mi>&amp;mu;</mi> <mo>(</mo> <mo>|</mo> <mo>|</mo> <msub> <mi>c</mi> <mn>1</mn> </msub> <mo>-</mo> <msub> <mi>c</mi> <mn>2</mn> </msub> <mo>|</mo> <mo>|</mo> <mo>)</mo> <mo>)</mo> </mrow> <mn>2</mn> </msup> <mrow> <mn>2</mn> <msubsup> <mi>&amp;sigma;</mi> <mrow> <mi>b</mi> <mi>a</mi> </mrow> <mn>2</mn> </msubsup> </mrow> </mfrac> </mrow> </msup> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>3</mn> <mo>)</mo> </mrow> </mrow> 2
S(p)=Sap·Sbc(p;c1,c2bc)·Sba(p;c1,c2ba) (4)
等式(3)中ap是区域p面积值的对数,(ap-μ)表示两个区域之间的对数比,其中标准偏差σba控制Sba的值随着ap与μ差值增加而下降的速度,此外在MIL的重定位步骤过程中对区域p在最终分值函数S(p)中引用了所有的影响因子。
CN201710431113.0A 2017-06-08 2017-06-08 一种基于点击监督训练的目标类别检测方法 Withdrawn CN107273891A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710431113.0A CN107273891A (zh) 2017-06-08 2017-06-08 一种基于点击监督训练的目标类别检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710431113.0A CN107273891A (zh) 2017-06-08 2017-06-08 一种基于点击监督训练的目标类别检测方法

Publications (1)

Publication Number Publication Date
CN107273891A true CN107273891A (zh) 2017-10-20

Family

ID=60067447

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710431113.0A Withdrawn CN107273891A (zh) 2017-06-08 2017-06-08 一种基于点击监督训练的目标类别检测方法

Country Status (1)

Country Link
CN (1) CN107273891A (zh)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108053407A (zh) * 2017-12-22 2018-05-18 联想(北京)有限公司 数据处理方法及数据处理系统
CN108062574A (zh) * 2017-12-31 2018-05-22 厦门大学 一种基于特定类别空间约束的弱监督目标检测方法
CN108629367A (zh) * 2018-03-22 2018-10-09 中山大学 一种基于深度网络增强服装属性识别精度的方法
CN109684947A (zh) * 2018-12-11 2019-04-26 广州景骐科技有限公司 标注质量监控方法、装置、计算机设备和存储介质
CN110321450A (zh) * 2019-05-05 2019-10-11 苏宁易购集团股份有限公司 一种针对目标检测的数据辅助标注方法、装置及系统
CN110553650A (zh) * 2019-08-29 2019-12-10 华南理工大学 一种基于小样本学习的移动机器人重定位方法
CN110610348A (zh) * 2019-08-14 2019-12-24 深圳壹账通智能科技有限公司 合同到期提醒方法、装置、计算机设备及存储介质
CN111553894A (zh) * 2020-04-24 2020-08-18 上海杏脉信息科技有限公司 一种医学图像分割模型训练方法、介质及电子设备
CN112101303A (zh) * 2020-11-05 2020-12-18 腾讯科技(深圳)有限公司 一种图像数据处理方法、装置以及计算机可读存储介质

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
DIM P.PAPADOPOULOS等: "Training objects class detectors with click supervision", 《网页在线公开:HTTPS://ARXIV.ORG/ABS/1704.06189V2》 *

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108053407B (zh) * 2017-12-22 2021-04-13 联想(北京)有限公司 数据处理方法及数据处理系统
CN108053407A (zh) * 2017-12-22 2018-05-18 联想(北京)有限公司 数据处理方法及数据处理系统
CN108062574A (zh) * 2017-12-31 2018-05-22 厦门大学 一种基于特定类别空间约束的弱监督目标检测方法
CN108062574B (zh) * 2017-12-31 2020-06-16 厦门大学 一种基于特定类别空间约束的弱监督目标检测方法
CN108629367A (zh) * 2018-03-22 2018-10-09 中山大学 一种基于深度网络增强服装属性识别精度的方法
CN108629367B (zh) * 2018-03-22 2022-04-26 中山大学 一种基于深度网络增强服装属性识别精度的方法
CN109684947A (zh) * 2018-12-11 2019-04-26 广州景骐科技有限公司 标注质量监控方法、装置、计算机设备和存储介质
CN110321450A (zh) * 2019-05-05 2019-10-11 苏宁易购集团股份有限公司 一种针对目标检测的数据辅助标注方法、装置及系统
CN110610348A (zh) * 2019-08-14 2019-12-24 深圳壹账通智能科技有限公司 合同到期提醒方法、装置、计算机设备及存储介质
CN110553650A (zh) * 2019-08-29 2019-12-10 华南理工大学 一种基于小样本学习的移动机器人重定位方法
CN111553894A (zh) * 2020-04-24 2020-08-18 上海杏脉信息科技有限公司 一种医学图像分割模型训练方法、介质及电子设备
CN112101303A (zh) * 2020-11-05 2020-12-18 腾讯科技(深圳)有限公司 一种图像数据处理方法、装置以及计算机可读存储介质
CN112101303B (zh) * 2020-11-05 2021-02-05 腾讯科技(深圳)有限公司 一种图像数据处理方法、装置以及计算机可读存储介质

Similar Documents

Publication Publication Date Title
CN107273891A (zh) 一种基于点击监督训练的目标类别检测方法
Recasens et al. Following gaze in video
CN105069746B (zh) 基于局部仿射和颜色迁移技术的视频实时人脸替换方法及其系统
JP6974697B2 (ja) 教師データ生成装置、教師データ生成方法、教師データ生成プログラム、及び物体検出システム
US20190147283A1 (en) Deep convolutional neural networks for crack detection from image data
CN103886308B (zh) 一种使用聚合通道特征和软级联分类器的行人检测方法
Basri et al. Faster R-CNN implementation method for multi-fruit detection using tensorflow platform
CN109241871A (zh) 一种基于视频数据的公共区域人流跟踪方法
Mandhala et al. Object detection using machine learning for visually impaired people
CN113012150A (zh) 一种特征融合的高密度稻田无人机图像稻穗计数方法
CN104484886B (zh) 一种mr图像的分割方法及装置
CN113435282B (zh) 基于深度学习的无人机影像麦穗识别方法
Zhao et al. Synthesizing filamentary structured images with GANs
CN110378232A (zh) 改进的ssd双网络的考场考生位置快速检测方法
CN106156714A (zh) 基于骨骼关节特征和表面特征融合的人体行为识别方法
CN114219687A (zh) 融合人机视觉的施工安全隐患智能识别方法
Hsu et al. Coachai: A project for microscopic badminton match data collection and tactical analysis
CN105678735A (zh) 一种用于雾天图像的目标显著性检测方法
CN111028230A (zh) 一种基于yolo-v3的眼底图像视盘及黄斑定位检测算法
CN115761908A (zh) 基于多模态数据学习的移动端儿童视觉注意异常筛查方法
CN114565976A (zh) 一种训练智能测试方法以及装置
Wu et al. NDMFCS: An automatic fruit counting system in modern apple orchard using abatement of abnormal fruit detection
Sornalakshmi et al. Real Time Object Detection Using Deep Learning
Zhou et al. SPP-extractor: Automatic phenotype extraction for densely grown soybean plants
Kim et al. Automatic localization of anatomical landmarks in cardiac MR perfusion using random forests

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WW01 Invention patent application withdrawn after publication

Application publication date: 20171020

WW01 Invention patent application withdrawn after publication