CN105631896A - 一种基于混合分类器决策的压缩感知跟踪方法 - Google Patents

一种基于混合分类器决策的压缩感知跟踪方法 Download PDF

Info

Publication number
CN105631896A
CN105631896A CN201510966804.1A CN201510966804A CN105631896A CN 105631896 A CN105631896 A CN 105631896A CN 201510966804 A CN201510966804 A CN 201510966804A CN 105631896 A CN105631896 A CN 105631896A
Authority
CN
China
Prior art keywords
grader
target
frame
state
classification device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201510966804.1A
Other languages
English (en)
Other versions
CN105631896B (zh
Inventor
李晶
孙航
常军
杜博
苏振扬
肖雅夫
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wuhan University WHU
Original Assignee
Wuhan University WHU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wuhan University WHU filed Critical Wuhan University WHU
Priority to CN201510966804.1A priority Critical patent/CN105631896B/zh
Publication of CN105631896A publication Critical patent/CN105631896A/zh
Application granted granted Critical
Publication of CN105631896B publication Critical patent/CN105631896B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于混合分类器决策的压缩感知跟踪方法,主要解决现有技术跟踪方法在选择定位的区域产生漂移后分类器将会变得不准确以及在目标经历一段较长时间的严重遮挡后容易导致目标的丢失的问题。本发明定义了两个分类器,分别为目标遮挡发生前的原始分类器和进入遮挡状态的新分类器,当检测到目标发生遮挡时,则保存之前迭代训练的分类器状态,并且在当前帧初始化一个新的分类器,然后有选择性地使用这两个分类器进行目标的跟踪,最后使用不同的方式对这两个分类器进行更新,以达到方法能够正确跟踪目标的目的。本发明有效减少目标外观模型的更新错误,从而提高了压缩感知方法在一些复杂场景下的鲁棒性。

Description

一种基于混合分类器决策的压缩感知跟踪方法
技术领域
本发明属于本发明属于计算机视觉技术领域,具体涉及数字图像的目标跟踪技术领域中的一种基于混合分类器决策的压缩感知跟踪方法。
背景技术
近年来,目标跟踪已成为计算机视觉领域中一个研究的热点问题[文献1]-[文献2],并在自动监控、视频检索、交通监管等等实际领域中得到了广泛应用。目标跟踪是在第一帧中给定目标初始状态的情况下,在后面的视频序列中估计目标的状态的工作。在过去几十年里研究人员提出了许多方法[文献3]-[文献15],但是由于跟踪方法受很多因素的影响,尤其是由姿势、光照以及遮挡等引起的外观变化,导致迄今为止不存在单一的跟踪方法能够成功的处理所有的场景问题。因此,建立一个具有鲁棒性和普适性的目标跟踪系统仍然是一个具有挑战性的问题。
最近几年,寻找一个高效和健壮的外观模型倍受研究人员的关注。一般来说,根据表示方式,相关的目标跟踪方法可以分为生成模型和判别模型两大类。生成模型是通过学习一个外观模型表示目标对象,然后利用外观模型在接下来的视频序列中以最小误差在搜索区域内确定目标位置。因此,建立一个具有良好鲁棒性的外观模型对于生成模型的跟踪问题来说是至关重要的。但是,这样会导致计算复杂度的增加,从而很难满足实时性的要求。为了处理外观模型的变化,Adam[文献9]等人利用一些碎片信息设计外观模型来处理姿势变化和部分遮挡问题。l1-tracker[文献10]方法是利用目标和简单的碎片模版的稀疏线性融合来建立目标模型,从而处理部分遮挡、光照变化以及姿势变化的问题,但是该方法的计算复杂度较高,从而不能应用于实时的场景。Li等人[文献11]利用正交匹配跟踪方法有效的优化了l1-tracker的实时性问题。为了进一步的增加外观模型的区分能力,Liu等人[文献12]提出一种更具有区分能力的基于稀疏编码的外观模型。在此基础之上,Xu等人在[文献13]中采用一种结构化的局部稀疏编码模型,该方法是将所有的目标模板分解为更小的一组图像块,从而利用了目标的局部信息和空间信息。由于上述基于稀疏表示的跟踪方法都忽略了每一个稀疏表示之间的相关性,因此Zhang等人证明了利用这些相关性可以改进跟踪的结果,并在[文献14]中展示了多任务跟踪器(multitasktracker)的优越性能。虽然这些方法在一些场景中取得了不错的效果,但是基于生成模型的方法需要大量的样本用于开始的模型学习,并且这些方法没有利用可以更好的将目标从背景中识别的背景信息。而判别模型是将目标跟踪作为一个检测问题来处理,它是通过学习一个二值类器,并利用该分类器在局部区域内将目标从背景中识别出来实现跟踪。Collins[文献15]等人证明了利用选择有效的特征在在线跟踪方法中能够有效的提高跟踪的性能。Babenko[文献16]-[文献17]等人将多实例学习的思想引入在线跟踪方法,其中样本被分为正负样本包。为了修正跟踪过程中检测的错误,Z.Kalal[文献18]提出了PN-learning的学习过程来估计检测的失误,并针对这些错误进行更新。
最近,压缩感知技术在许多领域引起了广泛的关注。2012年Zhang[文献19]提出了一种基于压缩感知理论的高效跟踪方法,该方法是将目标跟踪当作一个二分类的检测问题来处理,因而是一种基于判别模型的跟踪方法。作者在[文献19]中证明了利用压缩感知技术在高维的多尺度图像特征中随机提取的低维信息能够有效的保留高维信息中的区分信息,于是通过降维处理实现了实时的跟踪效果,从而促进了目标跟踪的研究。
尽管压缩感知方法取得了很大的成功,但它目前仍然存在两个问题,第一,压缩感知方法中在使用已经训练好的分类器对下一帧目标位置进行估计时,如果目标受到遮挡、形变、光照等因素的影响,可能会造成分类器对测量样本的最大响应值小于0,那么这时仍然使用分类器的最大响应值作为目标的位置,然后采用该目标周围区域标记正负样本是不合适的。第二,分类器参数的更新使用恒定的学习率。如果目标经历长时间的遮挡,分类器将学习过多的遮挡信息,最后导致丢失目标。
[文献1]K.Cannons.AReviewofVisualTracking.TechnicalReportCSE2008-07,YorkUniversity,Canada,2008.
[文献2]A.Yilmaz,O.Javed,andM.Shah.ObjectTracking:ASurvey.ACMComputingSurveys,38(4):1–45,2006.
[文献3]D.Comaniciu,V.Ramesh,andP.Meer.Kernel-BasedObjectTracking.PAMI,25(5):564–577,2003.
[文献4]D.Ross,J.Lim,R.-S.Lin,andM.-H.Yang.IncrementalLearningforRobustVisualTracking.IJCV,77(1):125–141,2008.
[文献5]X.MeiandH.Ling.RobustVisualTrackingusingL1Minimization.InICCV,2009.
[文献6]J.Fan,X.Shen,andY.Wu.ScribbleTracker:AMatting-basedApproachforRobustTracking.PAMI,34(8):1633–1644,2012.
[文献7]Wu,Y.,Huang,T.S.:Robustvisualtrackingbyintegratingmultiplecuesbasedonco-inferencelearning.Int.J.Comput.Vision.58(1),55–71(2004)
[文献8]J.KwonandK.M.Lee.VisualTrackingDecomposition.InCVPR,2010.
[文献9]A.Adam,E.Rivlin,andI.Shimshoni,“Robustfragments-basedtrackingusingtheintegralhistogram,”inProc.Comput.Soc.Conf.IEEECVPR,Jun.2006,pp.789–805.
[文献10]Mei,X.,Ling,H.:Robustvisualtrackingandvehicleclassificationviasparserep-resentation.PAMI33,2259–2272(2011)
[文献11]Li,H.,Shen,C.,Shi,Q.:Real-timevisualtrackingusingcompressivesensing.In:CVPR,pp.1305–1312(2011)
[文献12]B.Liu,J.Huang,L.Yang,andC.A.Kulikowski,"Robusttrackingusinglocalsparseappearancemodelandk-selection,"inCVPR,2011.
[文献13]X.Jia,H.Lu,andM.-H.Yang,VisualTrackingviaAdaptiveStructuralLocalSparseAppearanceModel,inCVPR2012.
[文献14]T.Zhang,B.Ghanem,S.Liu,andN.Ahuja,"RobustvisualtrackingviaStructuredmulti-tasksparselearning,"inIJCV,2013.
[文献15]R.Collins,Y.Liu,andM.Leordeanu,“Onlineselectionofdiscriminativetrackingfeatures,”IEEETrans.PatternAnal.Mach.Intell.,vol.27,no.10,pp.1631–1643,Oct.2005.
[文献16]B.Babenko,M.-H.Yang,andS.Belongie.VisualTrackingwithOnlineMultipleInstanceLearning.InCVPR,2009.
[文献17]B.Babenko,M.-H.Yang,andS.Belongie.RobustObjectTrackingwithOnlineMultipleInstanceLearning.PAMI,33(7):1619–1632,2011.
[文献18]Z.Kalal,J.Matas,andK.Mikolajczyk,“P-Nlearning:Bootstrappingbinaryclassifierbystructuralconstraints,”inProc.IEEEConf.CVPR,Jun.2010,pp.49–56.
[文献19]K.Zhang,L.Zhang,andM.-H.Yang,“Real-timecompressivetracking,”inProc.ECCV,Oct.2012,pp.864–877.
发明内容
为了解决上述技术问题,本发明提出了一种基于混合分类器决策的压缩感知跟踪方法。
本发明所采用的技术方案是:一种基于混合分类器决策的压缩感知跟踪方法,针对目标视频序列,在第一帧中给定目标初始状态的情况下,在后面的视频序列中估计目标的状态;其特征在于,包括以下步骤:
步骤1:针对第t帧,采集测试样本;其中1<t≤目标视频序列总帧数;
步骤2:根据若干个弱分类器,计算每个测试样本的Haar-like特征;
步骤3:计算各个弱分类器对所有测试样本的分类结果,并确定当前这一帧的目标;
步骤4:通过在线学习得到一个二值分类器,通过满足RIP条件的稀疏测量矩阵去提取前景目标和背景信息的特征作为在线学习更新二值分类器的正样本和负样本,然后在下一帧的图像中使用训练好的朴素贝叶斯分类器定位目标;
所述RIP条件为,定义测量矩阵Φ的RIP参数δk为满足下式的最小值δ:
其中x为K稀疏信号,若δk<1则称测量矩阵Φ满足K阶RIP。
作为优选,步骤4中二值分类器的响应值H(v)定义为:
在分类器对所有样本进行判别之后,将得分最高的样本max(H(v))作为当前跟踪到的目标,当σ(H(v))的取值大于0.5时,对应的分类器对样本的分类结果H(v)>0,这时判别样本被判定为正样本;反之,当σ(H(v))的值小于0.5时,H(v)<0,样本为负样本。
作为优选,步骤4中所述的二值分类器定义为原始分类器Hocp和新分类器Hncp,所述原始分类器Hocp是一个与从第1帧到第t-1帧中目标状态相关的分类器;所述新分类器Hncp是与第t-1帧中受干扰因素影响的目标状态相关的分类器;
在跟踪过程中,从第t-1帧到第t帧进行目标的定位时,如果迭代训练的原始分类器的最大响应值小于0,则保存原始分类器相关状态并且利用第t-1帧中的采样得到的正样本和负样本初始化新分类器。
作为优选,步骤4中:
第t-1帧中得到二值分类器之后,接下来在第t帧中使用分类器进行目标的定位;定义在第t帧中目标的位置为因在第t帧中Hocp无法正确定位,于是采用新训练的分类器Hncp在当前帧中进行目标状态的估计,首先采用原始分类器Hocp对每一帧进行一个测试,然后根据最大响应值的状态采用不同的分类器进行目标的定位:
此时采用新分类器在当前帧中进行目标状态估计第t帧中目标位置新分类器定位的是受干扰信息影响的伪目标。
作为优选,步骤4的具体实现过程为:
根据第t帧中原始分类器最大响应值Hocp(v)和标志位flag的不同来设置学习率和分类器状态;
(1)当max(Hocp(v))<0&&flag=0时,原始分类器状态设置为“更新”,新分类器状态设置为“初始化和决策”,原始分类器学习率设置为λocc,新分类器学习率设置为λ;
(2)当max(Hocp(v))<0&&flag=1时,原始分类器状态设置为“更新”,新分类器状态设置为“更新和决策”,原始分类器学习率设置为λocc,新分类器学习率设置为λ;
(3)当max(Hocp(v))>0&&flag=0时,原始分类器状态设置为“更新和决策”,新分类器不设置状态,原始分类器学习率设置为λ,新分类器不设置学习率;
(4)当max(Hocp(v))>0&&flag=1时,原始分类器状态设置为“更新和决策”,新分类器状态置0,原始分类器学习率设置为λ,新分类器不设置学习率;
其中,学习率λocc用于原始分类器的更新,其学习率计算方法如下,
其中n表示原始分类器最大响应值小于0之后,采用新分类器进行目标状态估计的帧数。
本发明基于混合分类器决策的压缩感知跟踪方法是一种简单却具有不错鲁棒性的跟踪方法。方法中的两个分类器分别建立不同的时刻的目标模型,并采用动态的学习率进行模型的更新,这样可以有效减少目标外观模型的更新错误,从而提高了压缩感知方法在一些复杂场景下的鲁棒性。
附图说明
图1是本发明实施例的流程图。
图2是本发明实施例在实际视频处理过程的示意图。
图3是本发明实施例中传统压缩感知方法与本发明在处理严重遮挡时的对比示意图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明做进一步详细说明。应当理解,此处描述的具体实施例仅用以解释本发明,并不用于限定本发明。
压缩感知方法是一种简单高效地基于压缩感知理论的跟踪方法。其主要思想是:通过满足RIP条件的稀疏测量矩阵去提取前景目标和背景信息的特征作为在线学习更新分类器的正样本和负样本,然后在下一帧的图像中使用训练好的朴素贝叶斯分类器定位目标。
请见图1,本发明提供的一种基于混合分类器决策的压缩感知跟踪方法,针对目标视频序列,在第一帧中给定目标初始状态的情况下,在后面的视频序列中估计目标的状态;其具体实现包括以下步骤:
步骤1:针对第t帧,采集测试样本;其中1<t≤目标视频序列总帧数;
步骤2:根据50个弱分类器,计算每个测试样本的Haar-like特征;
步骤3:计算各个弱分类器对所有测试样本的分类结果,并确定当前这一帧的目标;
步骤4:通过在线学习得到一个二值分类器,通过满足RIP条件的稀疏测量矩阵去提取前景目标和背景信息的特征作为在线学习更新二值分类器的正样本和负样本,然后在下一帧的图像中使用训练好的朴素贝叶斯分类器定位目标;
所述RIP条件为,定义测量矩阵Φ的RIP参数δk为满足下式的最小值δ:
其中x为K稀疏信号,若δk<1则称测量矩阵Φ满足K阶RIP。
如图2中所示,在第t帧采样一组图像片作为样本,并且提取这些样本的低维特征,实际上就是使用压缩感知的理论对这些样本进行降维处理。为了处理多尺度问题,压缩感知方法对于每一个样本z∈Rw×h卷积一组多尺度矩形滤波器{h1,1,…,hw,h},hij定义为:
其中i和j分别表示矩形滤波器的宽和高。公式(1)将多尺度的一个样本z∈Rw×h表示成x={x1,…,xm}∈Rm,其中m=(wh)2。通常m的值为106~108,于是利用一个满足RIP条件的随机高斯矩阵R∈Rn×m(n<<m)对高维多尺度样本z进行投影降维处理:
v=Rx(2);
根据压缩感知的理论,投影降维得到的低维特征向量v=(v1,…,vn)∈Rn,可以通过极小误差和极高概率得到x。
将所有的高维样本z降维成低维样本v之后,假设v中的所有元素vi是独立分布的以及先验概率P(y=1)=P(y=0),然后通过朴素贝叶斯分类器对其进行建模,
公式(4)中分别表示正负样本的均值和方差。外观模型的参数更新:
公式(5)中λ是学习参数,表示模型更新速度的快慢。
本发明在跟踪过程中进行决策时,对于分类器的最大响应值小于0时,保存之前迭代训练的分类器状态,并且在当前帧初始化一个新的分类器,然后有选择性地使用这两个分类器进行目标的跟踪,最后使用不同的方式对这两个分类器进行更新,以达到方法能够正确跟踪目标的目的。
从根本上来说压缩感知方法是一种基于判别模型的跟踪方法,它是通过学习一个二值分类器,并且将该分类器用于样本分类的过程。二值分类器的响应值H(v)被定义为:
在分类器对所有样本进行判别之后,将得分最高的样本,即max(H(v))作为当前跟踪到的目标。根据公式(6)可知,当σ(H(v))的取值大于0.5时,对应的分类器对样本的分类结果H(v)>0,这时判别样本被判定为正样本;反之,当σ(H(v))的值小于0.5时,H(v)<0,样本为负样本。从贝叶斯角度来看,如果分类器的最大响应值max(H(v))<0,分类器是将所有的测试样本都判定为负样本,即非目标样本,而此时选择这些非目标样本中可能性最大的作为目标位置是不合适的,并且在确定该目标位置后在它的周围标记正负样本区域进行分类器的训练会导致分类器性能的下降。为此,本发明针对压缩感知方法中采用单一分类器进行目标定位以及更新分类器所存在的缺点,设计了一个混合分类器决策的跟踪方法。
为了处理原始分类器最大响应值小于0之后,由单一分类器和固定学习率产生的目标定位不准确以及分类器性能下降的问题,本发明定义两个分类器:
在跟踪过程中,从第t-1帧到第t帧进行目标的定位时,如果迭代训练的原始Hocp的最大响应值小于0,这表示原始分类器Hocp是将第t帧中采样的样本全部判定为负样本。此时目标可能受到严重遮挡、形变等干扰因素的影响,因而Hocp无法正确的估计正确目标的位置。但是这并不代表Hocp在第t帧之后接下来的帧中无法正确的估计目标的位置,于是本发明保存原始分类器Hocp的相关状态并且利用第t-1帧中的采样得到的正样本和负样本初始化一个新的分类器Hncp。这时分类器Hocp是一个与从第1帧到第t-1帧中目标状态相关的分类器;而分类器Hncp则是与第t-1帧中受干扰因素影响的目标状态相关的分类器。
在第t-1帧中得到两个分类器之后,接下来要在第t帧中使用分类器进行目标的定位。定义在第t帧中目标的位置为:
由于在第t帧中Hocp无法正确定位,于是采用新训练的分类器Hncp在当前帧中进行目标状态的估计,于是在第t帧中目标位置需要注意的是:Hncp分类器定位的是受干扰信息影响的伪目标。在接下来的跟踪过程中,首先采用原始分类器Hocp对每一帧进行一个测试,然后根据最大响应值的状态采用不同的分类器进行目标的定位。于是混合分类器的决策模型定义为:
学习率λ是用于衡量分类器的更新程度一个参数。如果学习率λ值越大,训练样本对分类器的影响越小。反之,训练样本对分类器影响越大。当原始分类器的最大响应值max(Hocp(v))<0时,接下来是对受干扰因素影响的目标进行跟踪,为了减少在更新分类器时对原始分类器Hocp性能的影响,本发明设定另外一个学习率λocc用于此时的分类器Hocp的更新。对于分类器Hocp的学习率λocc采用公式(10)进行更新。
从公式(10)可以看出λocc是采用迭代递增的方式进行更新,其中n表示原始分类器最大响应值小于0之后,采用Hncp进行目标状态估计的帧数。这意味着发生长时间的遮挡,学习率λocc会不断的递增,因此可以有效的减少Hocp分类器中的真实目标特征被遮挡特征所取代的程度。
为了处理当分类器最大响应值小于0时,跟踪器漂移或丢失目标以及采用错误的样本信息更新分类器,本发明方法提出使用两个分类器Hocp和Hncp来对目标进行跟踪,而这两个分类器的更新方式对方法的性能非常重要。在第t-1帧到第t帧跟踪的过程中,对于第t帧中原始分类器最大响应值和标志位flag的不同,学习率和分类器状态设置如表1所示。
表1学习率和分类状态设置表
在表1中,max(Hocp(v))用于判断分类器对第t帧中测试样本的最大响应值,而标志位flag则用于区分对分类器Hncp的状态的设置,flag的初始值为0。在条件1中,Hocp分类器在第t帧中最大响应值小于0,而对应的flag=0则表示在t-1帧中Hocp分类器的最大响应值大于0,而分类器Hncp没有初始化,于是在t-1帧中初始化分类器Hncp,在第t帧中使用max(Hncp(v))对应的样本作为目标的位置。然后在第t帧采集训练样本训练分类器Hocp和Hncp。最后将标志位flag状态设置为1,需要注意的是在条件1中分类器Hncp的学习率是常量λ,而Hocp的学习率对应的是动态学习率λocc。在上一帧满足条件1并且在当前帧中max(Hocp(v))<0,那么就可以满足条件2。此时使用Hncp确定目标位置,其对应学习率为λ;为了减少Hocp的性能下降,使用公式(10)更新学习率。对于条件3和条件4,目标的定位都采用Hocp的最大响应值。不同在于在满足条件4时要将Hncp的状态和flag状态置0。
应理解,上述实施例仅用于说明本发明而不用于限制本发明的范围。此外应理解,在阅读了本发明讲授的内容之后,本领域技术人员可以对本发明作各种改动或修改,而不脱离本发明技术方案的精神和范围,其均应涵盖在本发明的权利要求范围中。

Claims (5)

1.一种基于混合分类器决策的压缩感知跟踪方法,针对目标视频序列,在第一帧中给定目标初始状态的情况下,在后面的视频序列中估计目标的状态;其特征在于,包括以下步骤:
步骤1:针对第t帧,采集测试样本;其中1<t≤目标视频序列总帧数;
步骤2:根据若干个弱分类器,计算每个测试样本的Haar-like特征;
步骤3:计算各个弱分类器对所有测试样本的分类结果,并确定当前这一帧的目标;
步骤4:通过在线学习得到一个二值分类器,通过满足RIP条件的稀疏测量矩阵去提取前景目标和背景信息的特征作为在线学习更新二值分类器的正样本和负样本,然后在下一帧的图像中使用训练好的朴素贝叶斯分类器定位目标;
所述RIP条件为,定义测量矩阵Φ的RIP参数δk为满足下式的最小值δ:
( 1 - &delta; ) | | x | | 2 2 &le; | | &Phi; x | | 2 2 &le; ( 1 + &delta; ) | | x | | 2 2 ;
其中x为K稀疏信号,若δk<1则称测量矩阵Φ满足K阶RIP。
2.根据权利要求1所述的基于混合分类器决策的压缩感知跟踪方法,其特征在于:步骤4中二值分类器的响应值H(v)定义为:
&sigma; ( H ( v ) ) = 1 1 + e - H ( v ) ;
在分类器对所有样本进行判别之后,将得分最高的样本max(H(v))作为当前跟踪到的目标,当σ(H(v))的取值大于0.5时,对应的分类器对样本的分类结果H(v)>0,这时判别样本被判定为正样本;反之,当σ(H(v))的值小于0.5时,H(v)<0,样本为负样本。
3.根据权利要求2所述的基于混合分类器决策的压缩感知跟踪方法,其特征在于,步骤4中所述的二值分类器定义为原始分类器Hocp和新分类器Hncp,所述原始分类器Hocp是一个与从第1帧到第t-1帧中目标状态相关的分类器;所述新分类器Hncp是与第t-1帧中受干扰因素影响的目标状态相关的分类器;
H o c p = { &mu; o 1 , &sigma; o 1 , &mu; o 0 , &sigma; o 0 } H n c p = { &mu; p 1 , &sigma; p 1 , &mu; p 0 , &sigma; p 0 } ;
在跟踪过程中,从第t-1帧到第t帧进行目标的定位时,如果迭代训练的原始分类器的最大响应值小于0,则保存原始分类器相关状态并且利用第t-1帧中的采样得到的正样本和负样本初始化新分类器。
4.根据权利要求3所述的基于混合分类器决策的压缩感知跟踪方法,其特征在于,步骤4中:
第t-1帧中得到二值分类器之后,接下来在第t帧中使用分类器进行目标的定位;定义在第t帧中目标的位置为因在第t帧中Hocp无法正确定位,于是采用新训练的分类器Hncp在当前帧中进行目标状态的估计,首先采用原始分类器Hocp对每一帧进行一个测试,然后根据最大响应值的状态采用不同的分类器进行目标的定位:
L t * = m a x ( H n c p ( v ) ) max ( H o c p ( v ) ) < 0 L t * = m a x ( H o c p ( v ) ) max ( H o c p ( v ) ) > 0 ;
此时采用新分类器在当前帧中进行目标状态估计第t帧中目标位置新分类器定位的是受干扰信息影响的伪目标。
5.根据权利要求4所述的基于混合分类器决策的压缩感知跟踪方法,其特征在于,步骤4的具体实现过程为:
根据第t帧中原始分类器最大响应值Hocp(v)和标志位flag的不同来设置学习率和分类器状态;
(1)当max(Hocp(v))<0&&flag=0时,原始分类器状态设置为“更新”,新分类器状态设置为“初始化和决策”,原始分类器学习率设置为λocc,新分类器学习率设置为λ;
(2)当max(Hocp(v))<0&&flag=1时,原始分类器状态设置为“更新”,新分类器状态设置为“更新和决策”,原始分类器学习率设置为λocc,新分类器学习率设置为λ;
(3)当max(Hocp(v))>0&&flag=0时,原始分类器状态设置为“更新和决策”,新分类器不设置状态,原始分类器学习率设置为λ,新分类器不设置学习率;
(4)当max(Hocp(v))>0&&flag=1时,原始分类器状态设置为“更新和决策”,新分类器状态置0,原始分类器学习率设置为λ,新分类器不设置学习率;
其中,学习率λocc用于原始分类器的更新,其学习率计算方法如下,
&lambda; o c c = &lambda; o c c + ( 1 - &lambda; o c c ) n n + 1 ;
其中n表示原始分类器最大响应值小于0之后,采用新分类器进行目标状态估计的帧数。
CN201510966804.1A 2015-12-18 2015-12-18 一种基于混合分类器决策的压缩感知跟踪方法 Expired - Fee Related CN105631896B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201510966804.1A CN105631896B (zh) 2015-12-18 2015-12-18 一种基于混合分类器决策的压缩感知跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201510966804.1A CN105631896B (zh) 2015-12-18 2015-12-18 一种基于混合分类器决策的压缩感知跟踪方法

Publications (2)

Publication Number Publication Date
CN105631896A true CN105631896A (zh) 2016-06-01
CN105631896B CN105631896B (zh) 2018-03-02

Family

ID=56046782

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201510966804.1A Expired - Fee Related CN105631896B (zh) 2015-12-18 2015-12-18 一种基于混合分类器决策的压缩感知跟踪方法

Country Status (1)

Country Link
CN (1) CN105631896B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106326924A (zh) * 2016-08-23 2017-01-11 武汉大学 一种基于局部分类的目标跟踪方法及系统
CN108038872A (zh) * 2017-12-22 2018-05-15 中国海洋大学 一种基于动静态目标检测与实时压缩感知追踪研究方法
CN109816701A (zh) * 2019-01-17 2019-05-28 北京市商汤科技开发有限公司 一种目标跟踪方法及装置、存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103325125A (zh) * 2013-07-03 2013-09-25 北京工业大学 基于改进多示例学习算法的运动目标跟踪方法
CN104392467A (zh) * 2014-11-18 2015-03-04 西北工业大学 一种基于压缩感知的视频目标跟踪方法
WO2015048232A1 (en) * 2013-09-26 2015-04-02 Tokitae Llc Systems, devices, and methods for classification and sensor identification using enhanced sparsity

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103325125A (zh) * 2013-07-03 2013-09-25 北京工业大学 基于改进多示例学习算法的运动目标跟踪方法
WO2015048232A1 (en) * 2013-09-26 2015-04-02 Tokitae Llc Systems, devices, and methods for classification and sensor identification using enhanced sparsity
CN104392467A (zh) * 2014-11-18 2015-03-04 西北工业大学 一种基于压缩感知的视频目标跟踪方法

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106326924A (zh) * 2016-08-23 2017-01-11 武汉大学 一种基于局部分类的目标跟踪方法及系统
CN108038872A (zh) * 2017-12-22 2018-05-15 中国海洋大学 一种基于动静态目标检测与实时压缩感知追踪研究方法
CN108038872B (zh) * 2017-12-22 2021-08-31 中国海洋大学 一种基于动静态目标检测与实时压缩感知追踪研究方法
CN109816701A (zh) * 2019-01-17 2019-05-28 北京市商汤科技开发有限公司 一种目标跟踪方法及装置、存储介质
CN109816701B (zh) * 2019-01-17 2021-07-27 北京市商汤科技开发有限公司 一种目标跟踪方法及装置、存储介质

Also Published As

Publication number Publication date
CN105631896B (zh) 2018-03-02

Similar Documents

Publication Publication Date Title
Lopez-Antequera et al. Appearance-invariant place recognition by discriminatively training a convolutional neural network
Bao et al. Real time robust l1 tracker using accelerated proximal gradient approach
JP4644248B2 (ja) 多重視野特徴記述子を用いた同時位置決め及びマッピング
Gall et al. An introduction to random forests for multi-class object detection
Ommer et al. Multi-scale object detection by clustering lines
JP5604256B2 (ja) 人物動作検出装置およびそのプログラム
CN103136520B (zh) 基于pca-sc算法的形状匹配和目标识别方法
Cheng et al. A novel dynamic system in the space of SPD matrices with applications to appearance tracking
CN103500345A (zh) 一种基于距离度量学习行人重验证的方法
Joshi et al. A random forest approach to segmenting and classifying gestures
CN104616324A (zh) 基于自适应表观模型和点-集距离度量学习的目标跟踪方法
Cao et al. Robust depth-based object tracking from a moving binocular camera
CN111931722B (zh) 一种结合颜色比率特征的相关滤波跟踪方法
CN106887012A (zh) 一种基于循环矩阵的快速自适应多尺度目标跟踪方法
Hsu et al. Online view-invariant human action recognition using rgb-d spatio-temporal matrix
Kiani et al. Multi-channel correlation filters for human action recognition
CN105631896A (zh) 一种基于混合分类器决策的压缩感知跟踪方法
Nandhini et al. SIFT algorithm-based Object detection and tracking in the video image
CN109726621B (zh) 行人检测方法、装置及设备
Ballan et al. Recognizing human actions by fusing spatio-temporal appearance and motion descriptors
CN105096343A (zh) 一种移动目标跟踪方法及装置
CN103996207A (zh) 一种物体跟踪方法
Dou et al. Robust visual tracking based on joint multi-feature histogram by integrating particle filter and mean shift
Sun et al. Efficient compressive sensing tracking via mixed classifier decision
Zhang et al. Pedestrian detection with EDGE features of color image and HOG on depth images

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20180302

Termination date: 20181218