CN108062574A - 一种基于特定类别空间约束的弱监督目标检测方法 - Google Patents

一种基于特定类别空间约束的弱监督目标检测方法 Download PDF

Info

Publication number
CN108062574A
CN108062574A CN201711494009.2A CN201711494009A CN108062574A CN 108062574 A CN108062574 A CN 108062574A CN 201711494009 A CN201711494009 A CN 201711494009A CN 108062574 A CN108062574 A CN 108062574A
Authority
CN
China
Prior art keywords
mrow
msub
msubsup
msup
candidate region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201711494009.2A
Other languages
English (en)
Other versions
CN108062574B (zh
Inventor
纪荣嵘
沈云航
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xiamen University
Original Assignee
Xiamen University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xiamen University filed Critical Xiamen University
Priority to CN201711494009.2A priority Critical patent/CN108062574B/zh
Publication of CN108062574A publication Critical patent/CN108062574A/zh
Application granted granted Critical
Publication of CN108062574B publication Critical patent/CN108062574B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • G06F18/2155Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the incorporation of unlabelled data, e.g. multiple instance learning [MIL], semi-supervised techniques using expectation-maximisation [EM] or naïve labelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computational Linguistics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Evolutionary Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Other Investigation Or Analysis Of Materials By Electrical Means (AREA)
  • Image Analysis (AREA)

Abstract

一种基于特定类别空间约束的弱监督目标检测方法。使用候选区域提取算法提取所有训练图像的候选区域;在训练弱监督目标检测器中,提取每一张训练图像的特定类别的像素梯度图,特定类别的像素梯度图反应像素对特定类别的响应,粗略估计目标物体的形状和位置;计算对应候选区域包含目标物体的置信度;把候选区域的置信度引入候选区域分类得分的聚合过程中,包含候选区域的分类得分和候选区域的空间信息;候选区域的空间约束排除背景噪声区域,获得更准确的模型;在训练过程中使用多中心正则化保证模型的学习过程稳定;在测试弱监督目标检测器中,把图像以及对应的候选区域输入模型,模型输出每个候选区域对于每个类别的预测得分。

Description

一种基于特定类别空间约束的弱监督目标检测方法
技术领域
本发明属于计算机视觉技术领域,尤其是涉及一种基于特定类别空间约束的弱监督目标检测方法。
背景技术
目标检测是计算机视觉领域中的一个基础性的研究课题,主要需要解决图像里有“什么”和在“哪里”的问题(Papageorgiou,Constantine P.,Michael Oren,and TomasoPoggio. "A general framework for object detection."Computer vision,1998.sixthinternational conference on.IEEE,1998.)。近十年来计算机视觉里的目标检测问题得到极大的研究发展,大量基于深度学习的新方法被提出。在现实世界中,不同类别的物体的视觉差异可能是很小的,而同一类别的不同物体的差异不仅受物体物理属性变化的影响,还受成像条件变化的影响。例如,花在生物学上是十分多样的,不同个体间的形状,颜色和纹理等属性是千变万化的。在现实场景中,目标物体往往伴随出现视觉上类似的背景形势,或者目标物体只占据整个场景的很小部分,或者目标物体可能被其它物体遮挡,这些各种可能的情景对目标检测任务构成很大的挑战。我们知道目标检测可以分为两个关键的子任务:目标分类和目标定位。前者回答了图像里有“什么”的问题,后者回答了目标在“哪里”的问题。目标分类任务负责判断图像中是否存在特定类别的目标物体,输出一系列带分数的标签表示特定类别的目标物体出现在图像里的可能性。目标定位任务负责搜索图像中特定类别的目标物体的位置和大小。目标检测有着广泛的实际应用,比如智能视频监控,增强现实、基于内容的图像检索和机器人导航等等。除此之外,目标检测也是很多高级计算机视觉任务的重要前提,比如:身份识别和验证、场景分析和理解等等。综上所述,目标检测无论是在计算机视觉领域里还是在实际应用中,都具有非常重要的意义。因此在最近的二十年里,众多科研人员密切关注目标检测问题并投入大量的精力对其进行研究。而伴随着强大的深度学习和强劲的硬件平台发展,近十年来和目标检测相关的课题和研究不仅有增无减,而且模式多样化,每年都有最新的研究成果发表,最新的实际应用公布。尽管如此,目前目标检测算法的性能 (检测准确率和检测速度)跟人类相比起来还是相差非常远。所以说,目标检测问题没有被完美的解决,依旧是计算机视觉领域里一个重要的、具有挑战性的一个研究课题。
通常的目标检测算法是基于有监督学习(Hastie,Trevor,Robert Tibshirani,and Jerome Friedman."Overview of supervised learning."The elements ofstatistical learning.Springer New York,2009.9-41.)。近年来大多数目标检测相关的研究也是关注基于有监督学习的目标检测算法。除此之外另外一个值得关注的方向是基于弱监督学习的目标检测的研究。弱监督学习(Weakly Supervised Learning)(Torresani,Lorenzo."Weakly supervised learning."Computer Vision.Springer US,2014.883-885.)是机器学习领域和模式识别领域里一个非常热门研究方向。事实上,根据训练数据里监督信息的精细度,可以大致把机器学习划分为三种:有监督学习、弱监督学习以及无监督学习。根据训练数据里监督信息的形式,弱监督学习其实又可以细分为多示例学习和半监督学习。多示例学习的数据是由若干个只有类别标签的包构成,而每个包包括了若干个没有任何标签的示例。假如一个包里所有的示例至少有一个是正样本,那么这个包的标签是正的。假如一个包里所有的示例都是负样本,那么这个包的标签就是负的。另一方面,半监督学习则是使用少量有监督信息的数据和大量无监督信息的数据一起进行学习的问题。虽然多示例学习和半监督学习是有很大差别的,但是它们都是只需要部分或者不完整的监督信息来进行学习。我们可以看出,弱监督学习是处于有监督学习和无监督学习两个极端的中间。实际上在现实生活中,通常带有弱监督信息的数据是远远多于有监督信息的数据。因此基于弱监督的学习的算法有着广泛和重要的应用场景。但是目前对于基于弱监督学习的目标检测的研究工作还是比较少的。而且基于弱监督学习的目标检测算法的性能也差强人意,因此基于弱监督学习的目标检测是一个十分值得研究的课题。
通常训练目标检测需要大量人工标注的精细监督信息:目标类别标签和目标位置标签。目标类别标签通常用只包含0和1的向量来表示,1代表图中存在对应的目标,0表示图中不存在对应的目标。而目标位置标签通常用方形包围盒的形式来表示。通常只需要四个坐标就可以确定一个包围盒。这种精细的目标位置标签通常需要付出大量的人力物力来获取。在人工标注包围盒的过程会还会引入标注偏差进而影响训练结果。事实上,只带有目标类别标签的数据是比较容易获得或者标注的,比如用户在网络上传图像,通常会对图像添加标题或者描述。我们可以从互联网获得大量的弱监督标签信息的数据。因此,一个自然的想法就是只使用只有目标类别标签的数据来训练目标检测器,这也正是本发明要研究的问题。
当前基于弱监督学习的目标检测仍存在着严峻的挑战(Oquab,Maxime,等."Isobject localization for free?Weakly-supervised learning with convolutionalneural networks."Proceedings of the IEEE Conference on Computer Vision andPattern Recognition.2015.)。总体来说,基于弱监督学习的目标检测带来的挑战性主要是以下两个 方面:鲁棒性和计算复杂性。
类内表观差异和类间表观差异是影响基于弱监督学习的目标检测的鲁棒性的主要原因。目标检测算法的鲁棒性越高,那么目标检测性能的准确率也越高。通常目标检测算法的准确率低的主要原因就是大的类内表观差异和小的类间表观差异导致的。类内表观差异是指同一个类别的不同个体之间的差异,例如,人的不同个体在纹理、姿态、形状、颜色等方面存在差异。实际上,同一个人在不同的图像中看起来也会非常不同,这主要就是由于视角、姿态、背景、光照的变化和遮挡的影响。因此我们可以看出,构建具备泛化能力的表观模型极为困难。这导致基于弱监督目标检测算法相对于基于有监督学习的目标检测算法存在三个明显的问题:第一个问题是算法往往会只会检测到目标最显著部分,从而丢掉其他部分。例如对于动物类别,弱监督目标检测算法往往只检测得到头部,而丢掉身体和四肢部分。这是因为身体部分和四肢有比较大的类内表现差异,而头部却没有那么大的类内表现差异。第二个问题是算法会误认为部分背景区域也是待检测目标的一部分。这是因为很多目标类别往往和特定的背景一起出现。比如船只通常和海水一起出现在图像中,因为算法会误认为水也是船只的一部分。第三个问题是若图像里有多个类别相同的目标,检测器往往会把它们当做是同一个目标。因此大多数基于弱监督学习的目标检测算法无法区分同一类别的多个目标物体。这主要的因为学习过程中算法没有一个目标或者多个目标的概念。
待检测目标类别的数量、类别表观描述子的维度以及待检测目标可能存在的位置和大小是基于弱监督学习的目标检测的计算复杂性主要源自。首先现实世界里有成千上万不同类别的物体。其次类别的表观描述子是高维度的,通常是几千维到上万维。最后待检测目标可能存在的位置和大小的组合也是成千上万的,因此目标检测的计算机复杂性较高,设计高效的基于弱监督学习的目标检测算法至关重要。
发明内容
本发明的目的在于提供一种基于特定类别空间约束的弱监督目标检测方法。
本发明包括以下步骤:
1)在训练弱监督目标检测器前,首先使用候选区域提取算法提取所有训练图像的候选区域;
2)在训练弱监督目标检测器中,提取每一张训练图像的特定类别的像素梯度图,特定类别的像素梯度图反应像素对特定类别的响应,因此模型可以使用特定类别的像素梯度图粗略估计目标物体的形状和位置;
3)根据目标物体的形状和位置的粗略估计结果和候选区域的空间位置的重叠程度计算对应候选区域包含目标物体的置信度;
4)把候选区域的置信度引入候选区域分类得分的聚合过程中,最后的聚合结果同时包含候选区域的分类得分和候选区域的空间信息;候选区域的空间约束排除大量的背景噪声区域,通过学习获得更准确的模型;
5)在训练过程中使用多中心正则化保证模型的学习过程更稳定;
6)在测试弱监督目标检测器中,把图像以及对应的候选区域输入模型,模型输出每个候选区域对于每个类别的预测得分。
在步骤2)中,所述每一张训练图像的特定类别的像素梯度图估计目标物体的粗略形状和位置:
其中,y∈[0,1]K表示对应图像的类别预测结果,zl表示第l层的特征,z1就是输入图像本身 I,矩阵Mk就是一张输入图像第k个类别的CPG图,通过反向传播算法,进行计算:
在步骤3)中,所述根据目标物体的形状和位置的粗略估计结果和候选区域的空间位置的重叠程度计算对应候选区域包含目标物体的置信度,计算每个候选区域的空间密度和上下文区域的空间密度:
通过积分图,获得每个候选区域的空间密度和上下文区域的空间密度:
其中,ii表示CPG图的积分图,Br={i1,j1,i2,j2}表示候选区域的坐标,表示对应的上下文区域坐标,最后置信度矩阵为:
在步骤4)中,所述把候选区域的置信度引入候选区域分类得分的聚合过程中:
其中,⊙表示点对点乘积,是原来的候选区域得分矩阵,是置信度为正数的候选区域加权后的得分矩阵,是置信度为负数的候选区域加权后的得分矩阵,向量y+和y-表示使用累加池化最后得到两个候选区域集合的类别预测结果。
在步骤5)中,所述在训练过程中使用多中心正则化为:
C={ckm|0≤k<K,0≤m<M}
其中,ckm表示第k个类别的第m个特征中心,m*(I,k)是特征中心选择函数,Lcenter是多中心正则化的损失函数。
本发明是一种新颖的基于特定类别空间约束的弱监督目标检测算法。众所周知,目标检测在计算机视觉领域有着极其重要的地位,也是计算机视觉领域里亟需解决的问题。基于弱监督学习的目标检测和基于有监督学习的目标检测的最主要不同地方在于数据集监督信息的精细程度不同。基于有监督学习的目标检测算法需要带有类别标签和目标物体位置标签的数据集进行训练。而基于弱监督学习的目标检测算法只使用带有类别标签的数据集进行学习。因为类别标签的监督信息量是远远少于位置标签的监督信息量,所以只用类别标签学习的目标检测算法称为基于弱监督学习的目标检测算法。本发明的目标是改进现有的基于弱监督学习的目标检测算法的性能,拉进和基于有监督学习的目标检测算法的差距。在对基于弱监督学习的目标检测算法的研究中,还可以评估出类别标签和目标物体位置标签的监督信息的性价比。从而为目标检测算法寻找出最具性价比的标签,使用性价比高的标签信息,获得性能最佳的目标检测器。
本发明提出一种算法探索和结合无监督的目标物体全局的形状和位置信息来协助模型的训练。本发明的主要内容可以概括为以下三点:
1.本发明提出特定类别的像素梯度图。在训练过程中,本发明提取图像的特定类别的像素梯度图。基于特定类别的像素梯度图,模型可以粗略估算目标物体的形状和位置;
2.本发明利用目标物体的粗略估计和候选区域位置的关系,提出了候选区域的空间约束。基于候选区域的空间约束,模型能把特定类别的全局信息和候选区域的局部信息引入模型的学习过程中;
3.本发明提出一种多中心正则化来惩罚预测得分比较高的候选区域的特征和对应类别的特征中心的不一致。多中心正则化使得模型训练更加的稳定。本发明的算法没有提高网络模型的复杂度,也没有使用额外的监督信息。最后,大量的实验结果表明本发明的方法取得了优异的弱监督目标检测和定位性能,并超过目前所有最先进的方法。
附图说明
图1为通常的弱监督目标检测方法的框架。
图2为WSDDN方法的网络结构。
图3为本发明的网络结构。
图4为一部分训练图像和对应类别的像素梯度图。
具体实施方式
以下实施例将结合附图对本发明作进一步的说明。
通常的弱监督目标检测方法的框架如图1所示,通常弱监督目标检测算法的框架和有监督目标检测算法的框架相似:即首先提取出图像中大量的候选区域(regionproposal),然后对这些候选区域进行分类。对于每个类别,候选区域的预测得分越高则表示这个候选区域包含这个类别的目标物体的置信度越高。因此为了使用图像的类别标签作为监督信息训练模型,算法需要把各个区域的分类结果聚合成整张图像的分类结果。最后根据图像分类结果和图像类别标签的误差来学习模型的参数。在弱监督目标检测算法中,常用的聚合方法有最大值池化(max pooling)或者平均值池化(average pooling)。然而这些聚合方法丢失了候选区域的位置信息。也就是聚合过程只考虑每个候选区域的分类得分,而不考虑它们之间的位置和大小关系。
本发明对聚合的过程进行深入的改进,并分别提出特定类别的像素梯度图(Category-Specific Pixel Gradient map)、候选区域空间约束(Region SpatialConstraint)和多中心正则化(Multi-Center Regularization)等方法改进基于弱监督学习的目标检测算法。
以下给出具体实施例:
首先定义本发明主要使用的符号。这里用表示一张RGB格式的输入图像, B={B1,B2...BR}表示对应图像的候选区域集合,表示图像上的一个候选区域,t∈{0,1}K表示对应图像的类别标签。其中H和W分别表示图像的高度和宽度,R表示对应图像候选区域的数目,K表示数据集的类别数目。同时用表示对应图像的目标检测结果,其中第r行第k列表示第r个候选区域正好包含第k个类别物体的预测得分。y∈[0,1]K表示对应图像的类别预测结果。图像类别的预测结果y有正确的类别监督信息t,而候选区域的预测结果矩阵S是没有任何监督信息的。
本发明使用WSDDN模型作为模型的基本网络结构(Bilen,Hakan,and AndreaVedaldi. "Weakly supervised deep detection networks."Proceedings of the IEEEConference on Computer Vision and Pattern Recognition.2016.)。如图2所示,WSDDN是一个双分支的深度卷积神经网络。网路的输入是一张图像I以及此图像的候选区域集合B。候选区域提取的算法有多种,比如selective search(Uijlings,Jasper RR,et al."Selective search for object recognition." International journal of computervision 104.2(2013):154-171.)和edge boxes(Zitnick,C. Lawrence,and Piotr Dollár."Edge boxes:Locating object proposals from edges."European Conference onComputer Vision.Springer,Cham,2014.)等。图像I经过若干个卷积神经网络的卷积层获得卷积特征图。通常称计算卷积神经网络特征图的若干个卷积层为模型的后端,而在卷积神经网络特征图之后的网络结构称为称模型的前端。在模型的前端固定的时候,我们可以使用不同的后端来获得模型的不同表达能力。不同的模型后端有AlexNet(Krizhevsky,Alex,Ilya Sutskever,and Geoffrey E.Hinton."Imagenet classification with deepconvolutional neural networks."Advances in neural information processingsystems.2012.)、VGGNet(Simonyan, Karen,and Andrew Zisserman."Very deepconvolutional networks for large-scale image recognition."arXiv preprintarXiv:1409.1556(2014).)和GoogLenet(Szegedy,Christian,等. "Going deeper withconvolutions."Proceedings of the IEEE conference on computer vision andpattern recognition.2015.)等。通常情况下模型后端的深度越深,模型的表达能力也越强。在获得图像的卷积神经网络特征图后,WSDDN把卷积神经网络特征图和图像的候选区域B一起输入到空间金字塔池化层(SPP)来获得每个候选区域的卷积神经网络特征。每个候选区域的卷积神经网络特征经过两层全连接层FC6和FC7获得每个候选区域的特征向量。每个全连接层后面都有非线性激活ReLU层和DropOut层。在这些层的最后,候选区域的特征向量输入两个不同的分支。
第一个分支命名为分类分支。分类分支对每一个候选区域计算每个类别的得分。候选区域特征向量输入分类分支的全连接层FC8c,全连接层FC8c的输出Xc使用一个SoftMax层进行归一化得到
第二个分支称为检测分支。检测分支对每个类别计算每个候选区域的得分。每个候选区域经过全连接层FC8d获得分矩阵Xd。和分类分支类似,得分矩阵Xd也使用SoftMax层进行归一化,得到
虽然两个分支有相似的网络结构,但是的本质区别使得网络能够同时进行分类和检测任务。这两个分支的SoftMax层作用各不一样:其中分类分支的SoftMax层对每个候选区域的不同类别的得分进行归一化,也就是矩阵的每一行元素相加的和为1。检测分支的 SoftMax层对每个类别的不同区域的得分进行归一化,也就是矩阵的每一列元素相加的和为1。Xc、Xd的维度是一样:
最后每个候选区域的得分S是两个分支输出矩阵的乘积:
其中表示点对点的乘法,即Hadamard乘积。事实上,得分矩阵S就是目标检测所得到的结果。也就是每个候选区域的预测得分是分类分支得分和检测分支得分的结合。本发明根据得分矩阵S对每个类别的所有候选区域进行排序。对于一个类别,若候选区域的得分越高,则这个候选区域越有可能包含这个类别的目标物体。最后,通常的目标检测算法会使用非极大值抑制法(NMS)来排除部分重叠比较大的候选区域来得到最终的检测结果。
但是目前,WSDDN只得到候选区域的预测得分,而训练数据的监督信息是图像的类别标签。因此WSDDN最后使用了一个累加池化层来获得最后图像类别的预测:
也就是把所有候选区域的第k个类别的得分累加起来获得对图像第k个类别的预测结果。由于前面矩阵已经对每个类别的每个候选区域的得分进行了归一化,因此最后聚合的类别得分的范围在0和1之间,即yk∈(0,1)。
最后WSDDN使用一个交叉熵损失函数来进行深度卷积神经网络的训练:
如图2所示,本发明对WSDDN网络结构进行了改进。首先本发明通过图像类别预测结果y提取出特定类别的像素梯度图M。特定类别的像素梯度图M包含了特定类别目标物体形状和位置的粗略估计。特定类别的像素梯度图会在下一节进行详细介绍。结合获得的目标物体粗略的形状和位置估计和候选区B的空间位置信息,可以计算出每一个类别的每个候选区域的置信度矩阵W。我们把置信度矩阵W和得分矩阵S进行相乘,获得最后的每个类别的每个候选区域的得分矩阵。同时根据置信度矩阵W的符号,本发明把候选区域集合分为正例集合和负例集合,以及正例候选区域的得分矩阵和负例候选区域的得分矩阵最后通过累加池化分别获得y+和y-。最后本发明还提出一种新的多中心正则化来使得模型的学习过程更加稳定。
本发明方法的流程包括以下步骤:
在模型训练前:
首先使用候选区域提取算法来提取所有训练图像的候选区域。
1)模型训练前,首先使用候选区域提取算法来提取所有训练图像的候选区域。
2)在模型训练中,给定一个特定训练图像X0,可以通过计算模型的一阶泰勒展开,在X0附近用一个线性函数逼近预测得分yk
这里ω就是预测得分yk对输入X在X0附近的导数:
把向量化的输入X换成原来的输入图像I,则第k个类别预测得分yk对输入图像I的梯度为:
其中最后通过计算所有通道的最大绝对值获得类别k的像素梯度图:
在深度卷积神经网络中,梯度可以通过使用反向传播算法进行计算:
其中,zl表示第l层的特征,z1就是输入图像本身I。最后矩阵Mk就是一张输入图像第k 个类别的CPG图。
3)在模型训练中,过滤掉无用元素的第k个类别CPG图的空间密度为:
其中,表示第k个类别的CPG图里第i行第j列的元素。1[]表示指示函数,当参数为真时,指示函数返回1,当参数为假的时候,指示函数返回0。CPG图是很稀疏的,大部分元素接近于0。因此本发明使用CPG图的面积的根号作为分母来正则化密度。前面定义了CPG图的空间密度,同样可以用类似方法定义候选区域在CPG图上的空间密度。本发明定义候选区域Br在 CPG图上的空间密度为:
实际上,可以通过积分图(integral image)的方法来快速有效地计算所有候选区域在 CPG图上的空间密度。首先构建CPG图的积分图:
通过以下循环计算来快速获得CPG图的积分图:
ii(i,j)=ii(i-1,j)+ci(i,j) (16)
其中,s(i,j)是每一行的累加,ci(x,-1)=0,ii(-1,y)=0,则计算第k个类别的第r个候选区域Br={i1,j1,i2,j2}的CPG图的空间密度为:
直观上说,空间密度ρrk反应了候选区域在CPG图上的平均像素梯度。若一个候选区域的空间密度ρrk比较大,则这个候选区域很有可能包含目标物体。若一个候选区域的空间密度ρrk比较小,则这个候选区域很可能是噪声背景。若直接使用候选区域在CPG图上的空间密度作为对应候选区域的置信度,则会导致只包含目标物体中心的候选区域的置信度太大。因为在CPG图上目标物体中心的空间密度往往会比目标物体边缘的空间密度高很多。因此,加入上下文密度来防止这种情形。通过以下公式计算每个候选区域Br={i1,j1,i2,j2}的上下文区域
hr=(i2-i1)·α (20)
wr=(j2-j1)·α (21)
这里hc和wc分别表示候选区的垂直和水平方向的中心坐标,同时它们也是对应的上下文区域的垂直和水平方向的中心坐标。hr和wr分别表示上下文区域的高度和宽度,其中α是缩放因子,本发明设置α=1.8。最后获得对应的上下文区域的获得上下文候选区的坐标后,计算候选区域的上下文区域在CPG图上的空间密度
同样,使用积分图的方法来快速计算候选区域的上下文区域在CPG图上的空间密度:
实际上,候选区域Br的上下文区域是一个环形的框,也就是原来候选区域Br的周围空间。因此,上下文区域在CPG图上的空间密度就对应的候选区域周围一圈在CPG图上的空间密度。这和Gidaris等人(Gidaris,Spyros,and Nikos Komodakis."Objectdetection via a multi-region and semantic segmentation-aware cnn model."Proceedings of the IEEE International Conference on Computer Vision.2015.)提出的multi-regions类似。不同的是Gidaris把多个区域的特征合并成一个特征,然后训练分类器进行分类。本发明是分别计算原来的候选区域和上下文区域在CPG图上的空间密度。把原来候选区域在CPG图上的空间密度减去对应的上下文区域的空间密度得到候选区域的置信度矩阵W:
其中,并且对每个类别的置信度分别进行归一化,使得W里的每一列里元素最大的值是1:
4)在模型训练中,根据置信度矩阵里元素的符号得到两个加权后的得分矩阵:
其中,⊙表示点对点乘积,是原来的候选区域得分矩阵,是置信度为正数的候选区域加权后的得分矩阵,是置信度为负数的候选区域加权后的得分矩阵,而且最后使用累加池化可以分别得到两个候选区域集合的类别预测结果向量y+和y-,而且
也就是分别把两个候选区域集里所有候选区域的第k个类别的得分累加起来获得对图像第k个类别的预测结果。最后定义交叉熵损失函数为:
前两项和原来的交叉熵损失函数一样,只不过原来的预测得分yk是所有的候选区域的预测得分的聚合结果,现在预测得分是部分候选区域的预测得分的聚合结果。第三项是用来惩罚置信度为负数的候选区域的预测得分。若置信度为负数的候选区域的预测得分接近于0 的时候,累加池化获得的预测得分也接近于0,这时候损失函数的第三项接近于0。
5)在模型训练中,本发明还提出了多中心正则化方法。多中心正则化为每个类别维护多个深度卷积神经网络特征中心,定义为:
C={ckm|0≤k<K,0≤m<M} (35)
其中,M表示每个类别的特征中心数目。这里定义图像I中第k个类别的预测得分排名前d 个候选区域的深度卷积神经网络特征集合为:
Z(I,k)={z1...zd} (36)
若图像I里没有第k个类别的目标物体存在,则对于每一个特征集合Z(I,k),定义一个中心选择函数:
这个函数的含义是对于输入图像I的第k个类别,目标物体的深度卷积神经网络特征中心是第m*(I,k)个中心,也就是这里假设每一张图像的每一个存在的类别有且只有一个特征中心。最后定义多中心损失函数为:
多中心损失函数惩罚图像里每个存在类别的目标物体的深度卷积神经网络特征和对应类别的特征中心的欧式距离。若图像里每个出现的类别的目标物体的深度卷积神经网络特征和对应类别的其中一个特征中心一样,则多中心损失函数为0。训练时候,每个类别的特征中心用高斯分布随机初始化。为了最小化多中心损失,需要计算Lcenter对每个候选区域特征z的导数:
由于多中心损失函数Lcenter可以对每个候选区域特征z求导,因此可以把损失误差通过反向传播算法传播到前面神经网络层并影响模型的优化。同时需要计算Lcenter对每个中心ckm的导数:
用以下公式更新每个中心特征:
ckm:=ckm+σΔckm (41)
其中,σ是中心特征的学习速率。
6)在模型测试中,只需要把测试图像以及对应的候选区域输入模型,模型输出每个候选区域对于每个类别的预测得分,弱监督目标检测完毕。
本发明对聚合的过程进行深入的改进,并分别提出特定类别的像素梯度图(Category-Specific Pixel Gradient map)、候选区域空间约束(Region SpatialConstraint)和多中心正则化(Multi-Center Regularization)等方法改进基于弱监督学习的目标检测算法。本发明的方法在训练的过程中提取特定类别的像素梯度图,特定类别的像素梯度图反应了像素对特定类别的响应,因此模型可以使用特定类别的像素梯度图来粗略估计目标物体的形状和位置,然后根据目标物体的形状和位置的粗略估计结果和候选区域的空间位置的重叠程度计算对应候选区域包含目标物体的置信度。最后把候选区域的置信度引入候选区域分类得分的聚合过程中。因此最后的聚合结果同时包含了候选区域的分类得分和候选区域的空间信息。候选区域的空间约束还能排除大量的背景噪声区域,因此通过学习可以获得更加准确的模型。最后本发明提出使用多中心正则化来保证模型的学习过程更加的稳定。

Claims (5)

1.一种基于特定类别空间约束的弱监督目标检测方法,其特征在于包括以下步骤:
1)在训练弱监督目标检测器前,首先使用候选区域提取算法提取所有训练图像的候选区域;
2)在训练弱监督目标检测器中,提取每一张训练图像的特定类别的像素梯度图,特定类别的像素梯度图反应像素对特定类别的响应,因此模型使用特定类别的像素梯度图粗略估计目标物体的形状和位置;
3)根据目标物体的形状和位置的粗略估计结果和候选区域的空间位置的重叠程度计算对应候选区域包含目标物体的置信度;
4)把候选区域的置信度引入候选区域分类得分的聚合过程中,最后的聚合结果同时包含候选区域的分类得分和候选区域的空间信息;候选区域的空间约束排除大量的背景噪声区域,通过学习获得更准确的模型;
5)在训练过程中使用多中心正则化保证模型的学习过程更稳定;
6)在测试弱监督目标检测器中,把图像以及对应的候选区域输入模型,模型输出每个候选区域对于每个类别的预测得分。
2.如权利要求1所述一种基于特定类别空间约束的弱监督目标检测方法,其特征在于在步骤2)中,所述每一张训练图像的特定类别的像素梯度图估计目标物体的粗略形状和位置为:
<mrow> <mo>&amp;dtri;</mo> <msup> <mi>D</mi> <mi>k</mi> </msup> <mo>=</mo> <mfrac> <mrow> <msub> <mi>&amp;delta;y</mi> <mi>k</mi> </msub> </mrow> <mrow> <mi>&amp;delta;</mi> <mi>I</mi> </mrow> </mfrac> </mrow>
<mrow> <msup> <msub> <mi>M</mi> <mrow> <mi>i</mi> <mi>j</mi> </mrow> </msub> <mi>k</mi> </msup> <mo>=</mo> <munder> <mrow> <mi>m</mi> <mi>a</mi> <mi>x</mi> </mrow> <mrow> <mi>c</mi> <mo>&amp;Element;</mo> <mo>{</mo> <mn>0</mn> <mo>,</mo> <mn>1</mn> <mo>,</mo> <mn>2</mn> <mo>}</mo> </mrow> </munder> <mo>|</mo> <mo>&amp;dtri;</mo> <msup> <msub> <mi>D</mi> <mrow> <mi>i</mi> <mi>j</mi> </mrow> </msub> <mi>k</mi> </msup> <mo>|</mo> </mrow>
其中,y∈[0,1]K表示对应图像的类别预测结果,zl表示第l层的特征,z1就是输入图像本身I,矩阵Mk就是一张输入图像第k个类别的CPG图,通过反向传播算法,进行计算:
<mrow> <mo>&amp;dtri;</mo> <msup> <mi>D</mi> <mi>k</mi> </msup> <mo>=</mo> <mfrac> <mrow> <msub> <mi>&amp;delta;y</mi> <mi>k</mi> </msub> </mrow> <mrow> <msup> <mi>&amp;delta;z</mi> <mi>l</mi> </msup> </mrow> </mfrac> <mfrac> <mrow> <msup> <mi>&amp;delta;z</mi> <mi>l</mi> </msup> </mrow> <mrow> <msup> <mi>&amp;delta;z</mi> <mrow> <mi>l</mi> <mo>-</mo> <mn>1</mn> </mrow> </msup> </mrow> </mfrac> <mo>...</mo> <mfrac> <mrow> <msup> <mi>&amp;delta;z</mi> <mn>2</mn> </msup> </mrow> <mrow> <mi>&amp;delta;</mi> <mi>I</mi> </mrow> </mfrac> <mo>.</mo> </mrow>
3.如权利要求1所述一种基于特定类别空间约束的弱监督目标检测方法,其特征在于在步骤3)中,所述根据目标物体的形状和位置的粗略估计结果和候选区域的空间位置的重叠程度计算对应候选区域包含目标物体的置信度,计算每个候选区域的空间密度和上下文区域的空间密度:
<mrow> <msub> <mi>&amp;rho;</mi> <mrow> <mi>r</mi> <mi>k</mi> </mrow> </msub> <mo>=</mo> <mfrac> <mn>1</mn> <msqrt> <mrow> <mo>|</mo> <msub> <mi>B</mi> <mi>r</mi> </msub> <mo>|</mo> </mrow> </msqrt> </mfrac> <munder> <mo>&amp;Sigma;</mo> <mrow> <mi>i</mi> <mo>,</mo> <mi>j</mi> <mo>&amp;Element;</mo> <msub> <mi>B</mi> <mi>r</mi> </msub> </mrow> </munder> <mn>1</mn> <mo>&amp;lsqb;</mo> <msubsup> <mi>M</mi> <mrow> <mi>i</mi> <mi>j</mi> </mrow> <mi>k</mi> </msubsup> <mo>&amp;GreaterEqual;</mo> <mn>0.1</mn> <mo>&amp;CenterDot;</mo> <mi>max</mi> <mi> </mi> <msup> <mi>M</mi> <mi>k</mi> </msup> <mo>&amp;rsqb;</mo> </mrow>
<mrow> <msubsup> <mi>&amp;rho;</mi> <mrow> <mi>r</mi> <mi>k</mi> </mrow> <mi>c</mi> </msubsup> <mo>=</mo> <mfrac> <mn>1</mn> <msqrt> <mrow> <mo>|</mo> <msubsup> <mi>B</mi> <mi>r</mi> <mi>c</mi> </msubsup> <mo>|</mo> <mo>-</mo> <mo>|</mo> <msub> <mi>B</mi> <mi>r</mi> </msub> <mo>|</mo> </mrow> </msqrt> </mfrac> <mrow> <mo>{</mo> <mrow> <munder> <mi>&amp;Sigma;</mi> <mrow> <mi>i</mi> <mo>,</mo> <mi>j</mi> <mo>&amp;Element;</mo> <msubsup> <mi>B</mi> <mi>r</mi> <mi>c</mi> </msubsup> </mrow> </munder> <mn>1</mn> <mrow> <mo>&amp;lsqb;</mo> <mrow> <msubsup> <mi>M</mi> <mrow> <mi>i</mi> <mi>j</mi> </mrow> <mi>k</mi> </msubsup> <mo>&amp;GreaterEqual;</mo> <mn>0.1</mn> <mo>&amp;CenterDot;</mo> <mi>max</mi> <mi> </mi> <msup> <mi>M</mi> <mi>k</mi> </msup> </mrow> <mo>&amp;rsqb;</mo> </mrow> <mo>-</mo> <munder> <mi>&amp;Sigma;</mi> <mrow> <mi>i</mi> <mo>,</mo> <mi>j</mi> <mo>&amp;Element;</mo> <msub> <mi>B</mi> <mi>r</mi> </msub> </mrow> </munder> <mn>1</mn> <mrow> <mo>&amp;lsqb;</mo> <mrow> <msubsup> <mi>M</mi> <mrow> <mi>i</mi> <mi>j</mi> </mrow> <mi>k</mi> </msubsup> <mo>&amp;GreaterEqual;</mo> <mn>0.1</mn> <mo>&amp;CenterDot;</mo> <mi>max</mi> <mi> </mi> <msup> <mi>M</mi> <mi>k</mi> </msup> </mrow> <mo>&amp;rsqb;</mo> </mrow> </mrow> <mo>}</mo> </mrow> </mrow>
通过积分图,获得每个候选区域的空间密度和上下文区域的空间密度:
<mrow> <mi>i</mi> <mi>i</mi> <mrow> <mo>(</mo> <mi>i</mi> <mo>,</mo> <mi>j</mi> <mo>)</mo> </mrow> <mo>=</mo> <munder> <mo>&amp;Sigma;</mo> <mrow> <msup> <mi>i</mi> <mo>&amp;prime;</mo> </msup> <mo>&amp;le;</mo> <mi>i</mi> <mo>,</mo> <msup> <mi>j</mi> <mo>&amp;prime;</mo> </msup> <mo>&amp;le;</mo> <mi>j</mi> </mrow> </munder> <mn>1</mn> <mo>&amp;lsqb;</mo> <msubsup> <mi>M</mi> <mrow> <msup> <mi>i</mi> <mo>&amp;prime;</mo> </msup> <msup> <mi>j</mi> <mo>&amp;prime;</mo> </msup> </mrow> <mi>k</mi> </msubsup> <mo>&amp;GreaterEqual;</mo> <mn>0.1</mn> <mo>&amp;CenterDot;</mo> <mi>max</mi> <mi> </mi> <msup> <mi>M</mi> <mi>k</mi> </msup> <mo>&amp;rsqb;</mo> </mrow>
<mrow> <msub> <mi>&amp;rho;</mi> <mrow> <mi>r</mi> <mi>k</mi> </mrow> </msub> <mo>=</mo> <mfrac> <mn>1</mn> <msqrt> <mrow> <mo>|</mo> <msub> <mi>B</mi> <mi>r</mi> </msub> <mo>|</mo> </mrow> </msqrt> </mfrac> <mo>{</mo> <mi>i</mi> <mi>i</mi> <mrow> <mo>(</mo> <msub> <mi>i</mi> <mn>2</mn> </msub> <mo>,</mo> <msub> <mi>j</mi> <mn>2</mn> </msub> <mo>)</mo> </mrow> <mo>-</mo> <mi>i</mi> <mi>i</mi> <mrow> <mo>(</mo> <msub> <mi>i</mi> <mn>1</mn> </msub> <mo>,</mo> <msub> <mi>j</mi> <mn>2</mn> </msub> <mo>)</mo> </mrow> <mo>-</mo> <mi>i</mi> <mi>i</mi> <mrow> <mo>(</mo> <msub> <mi>i</mi> <mn>2</mn> </msub> <mo>,</mo> <msub> <mi>j</mi> <mn>1</mn> </msub> <mo>)</mo> </mrow> <mo>+</mo> <mi>i</mi> <mi>i</mi> <mo>(</mo> <mrow> <msub> <mi>i</mi> <mn>1</mn> </msub> <mo>,</mo> <msub> <mi>j</mi> <mn>1</mn> </msub> </mrow> <mo>)</mo> <mo>}</mo> </mrow>
<mfenced open = "" close = ""> <mtable> <mtr> <mtd> <mrow> <msubsup> <mi>&amp;rho;</mi> <mrow> <mi>r</mi> <mi>k</mi> </mrow> <mi>c</mi> </msubsup> <mo>=</mo> <mfrac> <mn>1</mn> <msqrt> <mrow> <mo>|</mo> <msubsup> <mi>B</mi> <mi>r</mi> <mi>c</mi> </msubsup> <mo>|</mo> <mo>-</mo> <mo>|</mo> <msub> <mi>B</mi> <mi>r</mi> </msub> <mo>|</mo> </mrow> </msqrt> </mfrac> <mo>{</mo> <mo>{</mo> <mi>i</mi> <mi>i</mi> <mrow> <mo>(</mo> <msubsup> <mi>i</mi> <mn>2</mn> <mi>c</mi> </msubsup> <mo>,</mo> <msubsup> <mi>j</mi> <mn>2</mn> <mi>c</mi> </msubsup> <mo>)</mo> </mrow> <mo>-</mo> <mi>i</mi> <mi>i</mi> <mrow> <mo>(</mo> <msubsup> <mi>i</mi> <mn>1</mn> <mi>c</mi> </msubsup> <mo>,</mo> <msubsup> <mi>j</mi> <mn>2</mn> <mi>c</mi> </msubsup> <mo>)</mo> </mrow> <mo>-</mo> <mi>i</mi> <mi>i</mi> <mrow> <mo>(</mo> <msubsup> <mi>i</mi> <mn>2</mn> <mi>c</mi> </msubsup> <mo>,</mo> <msubsup> <mi>j</mi> <mn>1</mn> <mi>c</mi> </msubsup> <mo>)</mo> </mrow> <mo>+</mo> <mi>i</mi> <mi>i</mi> <mrow> <mo>(</mo> <msubsup> <mi>i</mi> <mn>1</mn> <mi>c</mi> </msubsup> <mo>,</mo> <msubsup> <mi>j</mi> <mn>1</mn> <mi>c</mi> </msubsup> <mo>)</mo> </mrow> <mo>}</mo> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <mo>-</mo> <mrow> <mo>{</mo> <mrow> <mi>i</mi> <mi>i</mi> <mrow> <mo>(</mo> <mrow> <msub> <mi>i</mi> <mn>2</mn> </msub> <mo>,</mo> <msub> <mi>j</mi> <mn>2</mn> </msub> </mrow> <mo>)</mo> </mrow> <mo>-</mo> <mi>i</mi> <mi>i</mi> <mrow> <mo>(</mo> <mrow> <msub> <mi>i</mi> <mn>1</mn> </msub> <mo>,</mo> <msub> <mi>j</mi> <mn>2</mn> </msub> </mrow> <mo>)</mo> </mrow> <mo>-</mo> <mi>i</mi> <mi>i</mi> <mrow> <mo>(</mo> <mrow> <msub> <mi>i</mi> <mn>2</mn> </msub> <mo>,</mo> <msub> <mi>j</mi> <mn>1</mn> </msub> </mrow> <mo>)</mo> </mrow> <mo>+</mo> <mi>i</mi> <mi>i</mi> <mrow> <mo>(</mo> <mrow> <msub> <mi>i</mi> <mn>1</mn> </msub> <mo>,</mo> <msub> <mi>j</mi> <mn>1</mn> </msub> </mrow> <mo>)</mo> </mrow> </mrow> <mo>}</mo> </mrow> <mo>}</mo> </mrow> </mtd> </mtr> </mtable> </mfenced>
其中,ii表示CPG图的积分图,Br={i1,j1,i2,j2}表示候选区域的坐标,表示对应的上下文区域坐标,最后置信度矩阵为:
<mrow> <msub> <mi>W</mi> <mrow> <mi>r</mi> <mi>k</mi> </mrow> </msub> <mo>=</mo> <msub> <mi>&amp;rho;</mi> <mrow> <mi>r</mi> <mi>k</mi> </mrow> </msub> <mo>-</mo> <msubsup> <mi>&amp;rho;</mi> <mrow> <mi>r</mi> <mi>k</mi> </mrow> <mi>c</mi> </msubsup> </mrow>
<mrow> <msub> <mi>W</mi> <mrow> <mi>r</mi> <mi>k</mi> </mrow> </msub> <mo>=</mo> <mfrac> <msub> <mi>W</mi> <mrow> <mi>r</mi> <mi>k</mi> </mrow> </msub> <mrow> <munder> <mi>max</mi> <mrow> <msup> <mi>r</mi> <mo>&amp;prime;</mo> </msup> <mo>&lt;</mo> <mi>R</mi> </mrow> </munder> <msub> <mi>W</mi> <mrow> <msup> <mi>r</mi> <mo>&amp;prime;</mo> </msup> <mi>k</mi> </mrow> </msub> </mrow> </mfrac> <mo>.</mo> </mrow>
4.如权利要求1所述一种基于特定类别空间约束的弱监督目标检测方法,其特征在于在步骤4)中,所述把候选区域的置信度引入候选区域分类得分的聚合过程中:
<mrow> <msubsup> <mi>y</mi> <mi>k</mi> <mo>+</mo> </msubsup> <mo>=</mo> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>r</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>R</mi> </munderover> <msubsup> <mi>S</mi> <mrow> <mi>r</mi> <mi>k</mi> </mrow> <mo>+</mo> </msubsup> </mrow>
<mrow> <msubsup> <mi>y</mi> <mi>k</mi> <mo>-</mo> </msubsup> <mo>=</mo> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>r</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>R</mi> </munderover> <msubsup> <mi>S</mi> <mrow> <mi>r</mi> <mi>k</mi> </mrow> <mo>-</mo> </msubsup> </mrow>
其中,表示点对点乘积,S是原来的候选区域得分矩阵,S+是置信度为正数的候选区域加权后的得分矩阵,S-是置信度为负数的候选区域加权后的得分矩阵,向量y+和y-表示使用累加池化最后得到两个候选区域集合的类别预测结果。
5.如权利要求1所述一种基于特定类别空间约束的弱监督目标检测方法,其特征在于在步骤5)中,所述在训练过程中使用多中心正则化为:
C={ckm|0≤k<K,O≤m<M}
<mrow> <msup> <mi>m</mi> <mo>*</mo> </msup> <mrow> <mo>(</mo> <mi>I</mi> <mo>,</mo> <mi>k</mi> <mo>)</mo> </mrow> <mo>=</mo> <munder> <mi>argmin</mi> <mrow> <mn>0</mn> <mo>&amp;le;</mo> <mi>m</mi> <mo>&lt;</mo> <mi>M</mi> </mrow> </munder> <munder> <mo>&amp;Sigma;</mo> <mrow> <mi>z</mi> <mo>&amp;Element;</mo> <mi>Z</mi> <mrow> <mo>(</mo> <mi>I</mi> <mo>,</mo> <mi>k</mi> <mo>)</mo> </mrow> </mrow> </munder> <mo>|</mo> <mo>|</mo> <mi>z</mi> <mo>-</mo> <msub> <mi>c</mi> <mrow> <mi>k</mi> <mi>m</mi> </mrow> </msub> <mo>|</mo> <msubsup> <mo>|</mo> <mn>2</mn> <mn>2</mn> </msubsup> </mrow>
<mrow> <msub> <mi>L</mi> <mrow> <mi>c</mi> <mi>e</mi> <mi>n</mi> <mi>t</mi> <mi>e</mi> <mi>r</mi> </mrow> </msub> <mo>=</mo> <mfrac> <mrow> <msub> <mi>&amp;Sigma;</mi> <mi>I</mi> </msub> <msubsup> <mi>&amp;Sigma;</mi> <mrow> <mi>k</mi> <mo>=</mo> <mn>0</mn> </mrow> <mi>K</mi> </msubsup> <msub> <mi>&amp;Sigma;</mi> <mrow> <mi>z</mi> <mo>&amp;Element;</mo> <mi>Z</mi> <mrow> <mo>(</mo> <mrow> <mi>I</mi> <mo>,</mo> <mi>k</mi> </mrow> <mo>)</mo> </mrow> </mrow> </msub> <mo>|</mo> <mo>|</mo> <mi>z</mi> <mo>-</mo> <msub> <mi>c</mi> <mrow> <msup> <mi>km</mi> <mo>*</mo> </msup> <mrow> <mo>(</mo> <mrow> <mi>I</mi> <mo>,</mo> <mi>k</mi> </mrow> <mo>)</mo> </mrow> </mrow> </msub> <mo>|</mo> <msubsup> <mo>|</mo> <mn>2</mn> <mn>2</mn> </msubsup> </mrow> <mrow> <mn>2</mn> <mo>&amp;CenterDot;</mo> <msub> <mi>&amp;Sigma;</mi> <mi>I</mi> </msub> <msubsup> <mi>&amp;Sigma;</mi> <mrow> <mi>k</mi> <mo>=</mo> <mn>0</mn> </mrow> <mi>K</mi> </msubsup> <mo>|</mo> <mi>Z</mi> <mrow> <mo>(</mo> <mi>I</mi> <mo>,</mo> <mi>k</mi> <mo>)</mo> </mrow> <mo>|</mo> </mrow> </mfrac> </mrow>
其中,ckm表示第k个类别的第m个特征中心,m*(I,k)是特征中心选择函数,Lcenter是多中心正则化的损失函数。
CN201711494009.2A 2017-12-31 2017-12-31 一种基于特定类别空间约束的弱监督目标检测方法 Active CN108062574B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201711494009.2A CN108062574B (zh) 2017-12-31 2017-12-31 一种基于特定类别空间约束的弱监督目标检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201711494009.2A CN108062574B (zh) 2017-12-31 2017-12-31 一种基于特定类别空间约束的弱监督目标检测方法

Publications (2)

Publication Number Publication Date
CN108062574A true CN108062574A (zh) 2018-05-22
CN108062574B CN108062574B (zh) 2020-06-16

Family

ID=62140969

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201711494009.2A Active CN108062574B (zh) 2017-12-31 2017-12-31 一种基于特定类别空间约束的弱监督目标检测方法

Country Status (1)

Country Link
CN (1) CN108062574B (zh)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108548539A (zh) * 2018-06-28 2018-09-18 Oppo广东移动通信有限公司 基于图像识别的导航方法和装置、终端、可读存储介质
CN109034258A (zh) * 2018-08-03 2018-12-18 厦门大学 基于特定物体像素梯度图的弱监督目标检测方法
CN109086770A (zh) * 2018-07-25 2018-12-25 成都快眼科技有限公司 一种基于精准尺度预测的图像语义分割方法及模型
CN109447943A (zh) * 2018-09-21 2019-03-08 中国科学院深圳先进技术研究院 一种目标检测方法、系统及终端设备
CN110097067A (zh) * 2018-12-25 2019-08-06 西北工业大学 一种基于层进式特征变换的弱监督细粒度图像分类方法
CN110135480A (zh) * 2019-04-30 2019-08-16 南开大学 一种基于无监督物体检测消除偏差的网络数据学习方法
CN110599456A (zh) * 2019-08-13 2019-12-20 杭州智团信息技术有限公司 一种医学图像的特定区域的提取方法
CN110689038A (zh) * 2019-06-25 2020-01-14 深圳市腾讯计算机系统有限公司 神经网络模型的训练方法、装置和医学图像处理系统
WO2020093884A1 (zh) * 2018-11-08 2020-05-14 北京灵汐科技有限公司 一种属性检测方法及属性检测装置
CN111428730A (zh) * 2019-01-09 2020-07-17 中国科学技术大学 弱监督细粒度物体分类方法
CN111523586A (zh) * 2020-04-16 2020-08-11 厦门大学 一种基于噪声可知的全网络监督目标检测方法
CN111986150A (zh) * 2020-07-17 2020-11-24 万达信息股份有限公司 一种数字病理图像的交互式标注精细化方法
CN113822302A (zh) * 2020-06-18 2021-12-21 北京金山数字娱乐科技有限公司 一种目标检测模型的训练方法及装置
CN114240844A (zh) * 2021-11-23 2022-03-25 电子科技大学 一种医学图像中无监督的关键点定位和目标检测方法
CN115439688A (zh) * 2022-09-01 2022-12-06 哈尔滨工业大学 一种基于周围区域感知与关联的弱监督物体检测方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006075594A1 (ja) * 2005-01-11 2006-07-20 Nec Corporation テンプレートマッチングのための方法、その装置及びそのためのプログラムを記録した記録媒体
CN103456027A (zh) * 2013-08-01 2013-12-18 华中科技大学 一种机场空间关系约束下的时敏目标检测定位方法
CN103473787A (zh) * 2013-07-29 2013-12-25 华中科技大学 一种基于空间几何关系的桥梁上运动目标检测方法
CN104217225A (zh) * 2014-09-02 2014-12-17 中国科学院自动化研究所 一种视觉目标检测与标注方法
CN106227836A (zh) * 2016-07-26 2016-12-14 上海交通大学 基于图像与文字的无监督联合视觉概念学习系统及方法
CN107203781A (zh) * 2017-05-22 2017-09-26 浙江大学 一种基于显著性指导的端到端的弱监督目标检测方法
CN107273891A (zh) * 2017-06-08 2017-10-20 深圳市唯特视科技有限公司 一种基于点击监督训练的目标类别检测方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006075594A1 (ja) * 2005-01-11 2006-07-20 Nec Corporation テンプレートマッチングのための方法、その装置及びそのためのプログラムを記録した記録媒体
CN103473787A (zh) * 2013-07-29 2013-12-25 华中科技大学 一种基于空间几何关系的桥梁上运动目标检测方法
CN103456027A (zh) * 2013-08-01 2013-12-18 华中科技大学 一种机场空间关系约束下的时敏目标检测定位方法
CN104217225A (zh) * 2014-09-02 2014-12-17 中国科学院自动化研究所 一种视觉目标检测与标注方法
CN106227836A (zh) * 2016-07-26 2016-12-14 上海交通大学 基于图像与文字的无监督联合视觉概念学习系统及方法
CN107203781A (zh) * 2017-05-22 2017-09-26 浙江大学 一种基于显著性指导的端到端的弱监督目标检测方法
CN107273891A (zh) * 2017-06-08 2017-10-20 深圳市唯特视科技有限公司 一种基于点击监督训练的目标类别检测方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
JIM MUTCH等: "Object Class Recognition and Localization Using Sparse Features with Limited Receptive Fields", 《INTERNATIONAL JOURNAL OF COMPUTER VISION》 *
许鹏飞: "基于空间相关性特征的目标识别方法", 《中国优秀硕士学位论文全文数据库 信息科技辑》 *

Cited By (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108548539A (zh) * 2018-06-28 2018-09-18 Oppo广东移动通信有限公司 基于图像识别的导航方法和装置、终端、可读存储介质
CN109086770A (zh) * 2018-07-25 2018-12-25 成都快眼科技有限公司 一种基于精准尺度预测的图像语义分割方法及模型
CN109086770B (zh) * 2018-07-25 2021-12-17 成都快眼科技有限公司 一种基于精准尺度预测的图像语义分割方法及模型
CN109034258A (zh) * 2018-08-03 2018-12-18 厦门大学 基于特定物体像素梯度图的弱监督目标检测方法
CN109447943A (zh) * 2018-09-21 2019-03-08 中国科学院深圳先进技术研究院 一种目标检测方法、系统及终端设备
CN109447943B (zh) * 2018-09-21 2020-08-14 中国科学院深圳先进技术研究院 一种目标检测方法、系统及终端设备
WO2020093884A1 (zh) * 2018-11-08 2020-05-14 北京灵汐科技有限公司 一种属性检测方法及属性检测装置
CN110097067A (zh) * 2018-12-25 2019-08-06 西北工业大学 一种基于层进式特征变换的弱监督细粒度图像分类方法
CN110097067B (zh) * 2018-12-25 2022-07-26 西北工业大学 一种基于层进式特征变换的弱监督细粒度图像分类方法
CN111428730A (zh) * 2019-01-09 2020-07-17 中国科学技术大学 弱监督细粒度物体分类方法
CN111428730B (zh) * 2019-01-09 2022-07-08 中国科学技术大学 弱监督细粒度物体分类方法
CN110135480A (zh) * 2019-04-30 2019-08-16 南开大学 一种基于无监督物体检测消除偏差的网络数据学习方法
CN110689038A (zh) * 2019-06-25 2020-01-14 深圳市腾讯计算机系统有限公司 神经网络模型的训练方法、装置和医学图像处理系统
CN110689038B (zh) * 2019-06-25 2024-02-02 深圳市腾讯计算机系统有限公司 神经网络模型的训练方法、装置和医学图像处理系统
CN110599456A (zh) * 2019-08-13 2019-12-20 杭州智团信息技术有限公司 一种医学图像的特定区域的提取方法
CN111523586A (zh) * 2020-04-16 2020-08-11 厦门大学 一种基于噪声可知的全网络监督目标检测方法
CN111523586B (zh) * 2020-04-16 2022-09-06 厦门大学 一种基于噪声可知的全网络监督目标检测方法
CN113822302A (zh) * 2020-06-18 2021-12-21 北京金山数字娱乐科技有限公司 一种目标检测模型的训练方法及装置
CN111986150A (zh) * 2020-07-17 2020-11-24 万达信息股份有限公司 一种数字病理图像的交互式标注精细化方法
CN111986150B (zh) * 2020-07-17 2024-02-09 万达信息股份有限公司 一种数字病理图像的交互式标注精细化方法
CN114240844A (zh) * 2021-11-23 2022-03-25 电子科技大学 一种医学图像中无监督的关键点定位和目标检测方法
CN115439688A (zh) * 2022-09-01 2022-12-06 哈尔滨工业大学 一种基于周围区域感知与关联的弱监督物体检测方法

Also Published As

Publication number Publication date
CN108062574B (zh) 2020-06-16

Similar Documents

Publication Publication Date Title
CN108062574A (zh) 一种基于特定类别空间约束的弱监督目标检测方法
CN106683091B (zh) 一种基于深度卷积神经网络的目标分类及姿态检测方法
Bhattacharya et al. Recognition of complex events: Exploiting temporal dynamics between underlying concepts
CN105844283B (zh) 用于识别图像类目归属的方法、图像搜索方法及装置
CN107330357A (zh) 基于深度神经网络的视觉slam闭环检测方法
CN107506793B (zh) 基于弱标注图像的服装识别方法及系统
CN108830188A (zh) 基于深度学习的车辆检测方法
CN106408030B (zh) 基于中层语义属性和卷积神经网络的sar图像分类方法
CN106682697A (zh) 一种基于卷积神经网络的端到端物体检测方法
CN109919177B (zh) 基于层次化深度网络的特征选择方法
CN111079602A (zh) 基于多尺度区域特征约束的车辆细粒度识别方法及装置
Tao et al. Scene context-driven vehicle detection in high-resolution aerial images
Zhang et al. Unsupervised difference representation learning for detecting multiple types of changes in multitemporal remote sensing images
CN106909902A (zh) 一种基于改进的层次化显著模型的遥感目标检测方法
Cong et al. Self-supervised online metric learning with low rank constraint for scene categorization
Shahab et al. How salient is scene text?
CN107506786A (zh) 一种基于深度学习的属性分类识别方法
CN110210534B (zh) 基于多包融合的高分遥感图像场景多标签分类方法
CN109165540A (zh) 一种基于先验候选框选择策略的行人搜索方法和装置
CN104881671A (zh) 一种基于2D-Gabor的高分遥感影像局部特征提取方法
CN102054176A (zh) 用计算机对运动目标的场景图像建立语义场景模型的方法
CN109033944A (zh) 一种全天空极光图像分类与关键局部结构定位方法及系统
CN108595558A (zh) 一种数据均衡策略和多特征融合的图像标注方法
CN108875456A (zh) 目标检测方法、目标检测装置和计算机可读存储介质
CN111368768A (zh) 一种基于人体关键点的员工手势指引检测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant