CN108171729A - 基于子区域的自适应随机投影视觉跟踪实验方法 - Google Patents

基于子区域的自适应随机投影视觉跟踪实验方法 Download PDF

Info

Publication number
CN108171729A
CN108171729A CN201711268227.4A CN201711268227A CN108171729A CN 108171729 A CN108171729 A CN 108171729A CN 201711268227 A CN201711268227 A CN 201711268227A CN 108171729 A CN108171729 A CN 108171729A
Authority
CN
China
Prior art keywords
tracking
target
algorithms
subregion
interference
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201711268227.4A
Other languages
English (en)
Inventor
胡众义
许明海
肖磊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wenzhou University
Original Assignee
Wenzhou University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wenzhou University filed Critical Wenzhou University
Priority to CN201711268227.4A priority Critical patent/CN108171729A/zh
Publication of CN108171729A publication Critical patent/CN108171729A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/269Analysis of motion using gradient-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/251Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning

Abstract

本发明公开了一种基于子区域的自适应随机投影视觉跟踪实验方法,包括4个步骤:生成子区域、构建自适应观测矩阵、中值流跟踪、目标位置确定及参数更新;与现有技术相比,本发明设计了一种对光照,遮挡和尺度干扰有良好特性的视觉跟踪算法。为了缓解光照和遮挡干扰引起的目标外观变化,构建了基于颜色、纹理和空间特征融合的外观模型。为了跟踪目标尺度,设计了一种中值流跟踪策略计算相邻帧的尺度变化。大量实验表明,本文算法在准确度、精度、鲁棒性等方面优于部分state‑of‑the‑art算法,具有推广应用的价值。

Description

基于子区域的自适应随机投影视觉跟踪实验方法
技术领域
本发明涉及图像技术领域,尤其涉及一种基于子区域的自适应随机投影视觉跟踪实验方法。
背景技术
视觉跟踪作为计算机视觉领域的核心任务之一,在视频监控、运动分析和识别、异常事件检测和人机交互上都得到了广泛的应用。视觉跟踪算法通常由外观模型、目标状态搜索和模型更新三个部分组成,外观模型根据目标的运动状态规律估计目标在下一帧中的位置范围,该范围包括了所有可能的目标位置候选区域;采用适当地搜索策略采样候选目标区域,目标的最终位置由目标外观模型对采样候选区域评估而得,可见目标外观模型往往是跟踪算法的关键[1]。针对前述应用,研究者们提出了许多行之有效的目标外观模型如OnlineAdaBoost(OAB)[2],Semi-supervisedBoosting(SemiB)[3],MultipleInstanceLearning(MIL)[4],TrackingLearningDetection(TLD)[5],但是受很多因素制约,在多样性地自然场景中实现对任意目标的鲁棒跟踪依然是极其困难的。这些制约包括来自光照变化、部分/全部遮挡、尺度变化、运动模糊等外部因素,也包括目标的姿态变换、形状变化等内部因素。
近些年来,将随机投影[6-9]和稀疏表示[10-14]技术应用于视觉跟踪取得了较大的突破。Zhang等人基于随机投影设计了一种高效地特征提取技术,首此提出了CompressiveTracking(CT)跟踪框架[15]。首先,提出了一种非常稀疏的随机观测矩阵提取目标的多尺度压缩特征。其次,设计了一种在线更新的朴素贝叶斯分类器对候选区域的低维压缩特征进行分类,置信度最高的候选区域即为目标在当前帧的位置。CT跟踪算法的优点是性能实时,在一般场景下准确度高。其局限性在于算法无法解决尺度跟踪问题,而且当目标经历多样纹理、遮挡干扰时,跟踪器容易发生漂移现象。为了解决上述问题,Wu等人[16]基于CT跟踪框架提出了一种MSCT改进算法,利用目标位移的二阶转换构建运动模型的同时,估计相邻帧的尺度变化。文献[17]基于CT跟踪框架提出了一种MSRP改进算法,其做法是提取压缩域的纹理特征构建目标的外观模型,并设计了一种基于经典控制理论反馈思想的尺度跟踪策略。在[17]基础上,作者Teng等人[18]又提出了一种MCFF(multiplecompressedfeaturesfusion)改进算法,其主要思想是设计两种随机观测矩阵提取互补的两种特征,特征间的动态融合能够更好的表征目标的外观变化。[18]的大量实验证明了MCFF算法在若干标准数据集上的效果优于MSCT和MSRP算法,但是在目标经历光照变化、遮挡和杂乱背景杂乱场景时效果还有待提高。
参考文献
[1]A.Yilmaz,O.Javed,andM.Shah,“Objecttracking:Asurvey,”AcmComputingSurveys,vol.38,no.4,pp.45,2006.
[2]H.Grabner,M.Grabner,andH.Bischof,"Real-timetrackingviaon-lineboosting,"BMVC2006,pp.47-56,2006.
[3]H.Grabner,C.Leistner,andH.Bischof,"Semi-supervisedon-lineboostingforrobusttracking,"ECCV2008.pp.234-247,2008.
[4]B.Babenko,M.H.Yang,andS.Belongie,“VisualTrackingwithOnlineMultipleInstanceLearning,”IEEETransPatternAnalMachIntell,vol.33,no.8,pp.1619-1632,2010.
[5]Z.Kalal,K.Mikolajczyk,andJ.Matas,“Tracking-Learning-Detection,”IEEETransPatternAnalMachIntell,vol.34,no.7,pp.1409-1422,2011.
[6]Y.August,C.Vachman,Y.Rivenson,andA.Stern,“Compressivehyperspectralimagingbyrandomseparableprojectionsinboththespatialandthespectraldomains,”Appliedoptics,vol.52,no.10,pp.D46-D54,2013.
[7]H.Kim,andJ.Paik,“Objecttrackingusingcompressivelocalappearancemodelwith1-regularisation,”ElectronicsLetters,vol.50,no.6,pp.444-446,2014.
[8]A.Salaheldin,S.Maher,andM.ElHelw,"Robustreal-timetrackingwithdiverseensemblesandrandomprojections."2013IEEEInternationalComferenceonComputerVisionWorkshops(ICCVW),pp.112-120,2013.
[9]J.Zhang,K.Liu,F.Cheng,andY.Li,“Visualtrackingwithrandomlyprojectedferns,”SignalProcessing:ImageCommunication,vol.29,no.9,pp.987-997,2014.
[10]G.Wang,F.Zhong,Y.Liu,Q.Peng,andX.Qin,"Visualtrackingincontin uousappearancespaceviasparsecoding,"ACCV2012.pp.57-70,2013.
[11]X.Y.Wang,Y.Wang,W.G.Wan,andJ.N.Hwang,“Objecttrackingwithsparserepresentationandannealedparticlefilter,”SignalImageandVideoProcessing,vol.8,no.6,pp.1059-1068,2014.
[12]S.P.Zhang,H.X.Yao,X.Sun,andX.S.Lu,“Sparsecodingbasedvisualtracking:Reviewandexperimentalcomparison,”PatternRecognition,vol.46,no.7,pp.1772-1788,2013.
[13]D.Shan,andC.Zhang,“VisualtrackingusingIPCAandsparserepresentation,”Signal,ImageandVideoProcessing,pp.1-9,2013.
[14]X.Q.Lu,Y.Yuan,andP.K.Yan,“Robustvisualtrackingwithdiscriminativesparselearning,”PatternRecognition,vol.46,no.7,pp.1762-1771,2013.
[15]K.Zhang,L.Zhang,andM.-H.Yang,"Real-timecompressivetracking,"ECCV2012.pp.864-877,2012.
[16]Y.X.Wu,J.Ni,andJ.P.Sun,“Real-timemulti-scaletrackingbasedoncompressivesensing,”TheVisualComputer,vol.25,no.5,pp.1-11,2014.
[17]F.Teng,andQ.Liu,“Multi-scaleshiptrackingviarandomprojections,”SignalImageandVideoProcessing,vol.8,no.6,pp.1069-1076,2014.
[18]F.Teng,andQ.Liu,“Robustmulti-scaleshiptrackingviamultiplecompressedfeaturesfusion,”SignalProcessing:ImageCommunication,vol.31,pp.76-85,2015.
[19]R.Yao,Q.Shi,C.Shen,Y.Zhang,andA.vandenHengel,"Part-basedvisualtrackingwithonlinelatentstructurallearning."CVPR2013,pp.2363-2370,2013.
[20]M.Godec,P.M.Roth,andH.Bischof,“Hough-basedtrackingofnon-rigidobjects,”ComputerVisionandImageUnderstanding,vol.117,no.10,pp.1245-1256,2013.
[21]G.Shu,A.Dehghan,O.Oreifej,E.Hand,andM.Shah,"Part-basedmultip le-persontrackingwithpartialocclusionhandling."CVPR2012,pp.1815-1821,2012.
[22]Z.Kalal,K.Mikolajczyk,andJ.Matas,"Forward-backwarderror:Automaticdetectionoftrackingfailures,"201020thInternationalConferenceonPatternRecognition,pp.2756-2759,2010.
[23]S.Hare,A.Saffari,andP.H.S.Torr,"Struck:Structuredoutputtrackingwithkernels."ICCV2011,pp.263-270,2011.
[24]W.Yi,L.Jongwoo,andY.Ming-Hsuan,"OnlineObjectTracking:ABenchmark,"CVPR2013,pp.2411-18,2013.
[25]P.Yu,andL.Haibin,"FindingtheBestfromtheSecondBests-InhibitingSubjectiveBiasinEvaluationofVisualTrackingAlgorithms."ICCV2013,pp.2784-2791,2013.
发明内容
本发明的目的就在于为了解决上述问题而提供一种基于子区域的自适应随机投影视觉跟踪实验方法。
本发明通过以下技术方案来实现上述目的:
本发明包括以下步骤:
参数配置:子区域数目为4,低维特征维度n为50,正样本搜索半径为4,负样本搜索半径为8-20,分类器学习率γ为0.85,参数更新阈值为0;、
定量评估:采用success和precision参数定量评估跟踪效果,采用OPE/TRE/SRE三种策略评估算法对初始化的敏感性;
光照干扰:目标在运动过程中经历了不同程度的光照干扰,TLD跟踪算法强依赖于随机蕨特征构建的目标检测器辅助跟踪,随机蕨特征对光照变化具有不变性;Struck维护一套从前序帧中提取的支撑向量池,记录不同时刻的目标外观;
遮挡干扰:目标经历不同程度的遮挡干扰,MIL表现明显优于OAB和SemiB,MIL跟踪算法以包的形式表示训练数据以降低样本的歧义性,在线多实例特征选择算法能够更有效地提取判别能力强的Haar-like特征;TLD效果优于MIL,主要受益于TLD中在线半监督PN学习机制,但是在若干帧中也表现出不够稳定,Struck表现良好,主要是因为使用了丰富的背景信息辅助跟踪算法实现前景和背景的分离;
尺度干扰:在尺度干扰下,TLD容易发生跟踪漂移,因为TLD算法过分依赖于第一帧的信息以重新检测目标,当路人快速走近和远离摄像头时,MSCT算法丢失了跟踪目标;当提取的关键点过少时,MSRP算法发生了跟踪漂移。
本发明的有益效果在于:
本发明是一种基于子区域的自适应随机投影视觉跟踪实验方法,与现有技术相比,本发明设计了一种对光照,遮挡和尺度干扰有良好特性的视觉跟踪算法。为了缓解光照和遮挡干扰引起的目标外观变化,构建了基于颜色、纹理和空间特征融合的外观模型。为了跟踪目标尺度,设计了一种中值流跟踪策略计算相邻帧的尺度变化。大量实验表明,本发明算法在准确度、精度、鲁棒性等方面优于部分state-of-the-art算法,具有推广应用的价值。
附图说明
图1是本发明的初始帧生成子区域示意图;
图2是本发明的中值流跟踪图;
图3是本发明的目标状态确定及参数更新图;
图4是本发明的Success/precision曲线图;
图5是本发明的尺度干扰Success/precision曲线图;
图6是本发明的遮挡干扰Success/precision曲线图;
图7是本发明的部分跟踪截图。
具体实施方式
下面结合附图对本发明作进一步说明:
压缩跟踪框架
基于压缩感知理论,文献[15]设计了一种非常稀疏的随机观测矩阵如式(2),提取目标的压缩域特征以构建目标的外观模型:
y=Rx (1)
式(1)中,表示高维特征空间的向量,表示低维特征空间的向量。表示随机观测矩阵,其元素定义为:
文献[17-18]分析得出,提取出的压缩域特征本质上是Haar-like特征的线性组合:
式(3)中,Rect表示随机生成的矩形特征框,NR表示矩形框总数,ri,k的值为1或者-1.假定y中的元素是相互独立的,由朴素贝叶斯分类器可以计算置信度H(y):
Y∈{0,1}表示样本的标签。[15]中将式(4)中分数的分子和分母部分建模为高斯分布:
为了适应目标运动过程中的外观变化,分类器参数动态更新方式如下:
γ>0表示学习率参数,分别表示方差和均值。最后,使式(4)中H最大的候选样本即为目标在当前帧中的位置。
通过分析不难发现,式(5-8)描述的分类器构建和参数更新方式在CT跟踪框架中起着核心作用。从整个目标区域提取压缩域特征以构建目标外观模型如式(5-6),然后直接利用式(7-8)更新分类器参数以适应目标不断的外观变化。在一般简单场景下,式(5-8)能够有效地描述目标的外观及变化。然而,当目标经历部分/全部遮挡或杂乱背景场景时,CT跟踪框架容易提取和学习遮挡物体/背景的外观特征及变化,使分类器性能降低并导致跟踪漂移。针对此,本发明借鉴了子区域[19-21]的思想来缓解遮挡跟踪问题,通过多特征融合的方式解决杂乱背景跟踪问题。与此同时,CT跟踪框架无法跟踪目标尺度,原因是式(9)定义的多尺度滤波器组的最大尺寸仅为初始目标大小:
可见,当目标靠近摄像头运动时,有对应的矩形框特征表征目标的尺度变化。而当目标远离摄像头运动时,提取的特征仅仅来自目标的子区域,因此当目标的各子区域特征差异较大时,就会发生跟踪漂移。针对此,本发明设计了一种中值流策略以估计目标在相邻帧的尺度变化问题。
提出算法:
本发明提出算法总共包括4个步骤:生成子区域、构建自适应观测矩阵、中值流跟踪、目标位置确定及参数更新。
生成子区域:
假定W和H分别表示目标的宽高,w和h分别表示子区域的宽高,N表示子区域的数目。不难发现,如果w和h取值过大,模型抗遮挡干扰能力则会降低。反之,如果w和h取值过小,从子区域计算的压缩域特征判别性和稳定性则会降低;与此同时,过大的N还会带来计算负担。为了寻求效果与性能的平衡,本发明将目标区域均分为如图1所示的4个子区域。
构建自适应观测矩阵:
由式(2)可知,在随机观测矩阵R中,每一行ri中全为1或全为-1的概率pi可以计算为:
由式(3)可知,yi是N个矩形特征的加权和,所以如果ri全为1或全为-1,则压缩域特征yi表征的是匀质特征,概率为0.3。反之,如果ri同时含有1和-1,则压缩域特征yi表征的是异质特征,概率为0.7。可见,构建外观模型的目标特征高概率地突出了随机生成区域的差异性,其表现形式类似于纹理特征。然而,当目标经历背景杂乱或相似纹理区域时,单纹理特征构建的外观模型极容易发生跟踪漂移现象。
通过上述分析,本发明设计了一种新的随机观测矩阵R′:
在式(11)的定义下,用式(10)的计算方式不难验证pi=0.5,因在随机投影高维特征时,匀值特征和异值特征的概率相等。带来的好处有两方面:第一,外观模型能够充分融合亮度特征和纹理特征,表征能力得以提升;第二,由于在一般情况下亮度(颜色)特征较纹理特征更加鲁棒,因此式(11)较式(2)定义的随机观测矩阵相比,对目标的表征会更加稳定有效。值得注意的是,不同尺度的样本其特征向量的维度将会不同,因此式(11)定义的随机观测矩阵应该能够自适应地进行相应的调整。不失一般性,假设在初始尺度下(假设为1),原始观测矩阵R0中某非0元素r0对应的矩形框为(c,r,w,h),其中c,r,w,h分别表示矩形框的纵坐标,横坐标,宽度和高度。则在尺度变为s时,在当前的随机观测矩阵Rs中,c,r,w,h将分别取值为(round(c*s),round(r*s),round(w*s),round(h*s))。可见对不同尺度的样本进行特征提取时,仅仅需要调整非0元素对应的矩形特征的参数即可,而不会增加额外的计算负担。
中值流跟踪
文献[22]基于前向跟踪和反向跟踪的误差设计了一种中值流跟踪策略,能够自动地检测跟踪错误从而提升跟踪精度。受此启发,本发明设计了一种中值流跟踪策略的变体。差异性体现在step 1,随机生成的矩形框用于计算Haar-like特征,而中值流跟踪的种子点由随机生成的矩形框的顶点构成,概括为Algorithm 1和图2。
Algorithm 1中值流跟踪
Step 1:从随机生成的矩形框顶点作为中值流的种子点;
Step 2:利用PLK光流算法(Pyramidal Lucas Kanade Optical Flow)前向反向跟踪种子点;
Step 3:利用FB error和NCC(normalized cross-correlation)两种误差检测机制滤除跟踪错误的种子点结果;
Step 4:利用Step 3剩下的种子点计算位置及尺度;
目标位置确定及参数更新
对每个子区域i(i∈{1,2,3,4}),由前述步骤可以获得目标的状态,包括候选位置li及候选尺度si。不失一般性,在图3中,假定子区域1的状态如蓝色矩形框所示,子区域3/4的状态如黄色矩形框所示,子区域2的状态如红色矩形框所示。由于遮挡干扰的存在,黄色矩形框的置信度较低,该子区域对应的参数不应该更新。相反,蓝色矩形框的置信度较高,该子区域的分类器参数应该保持更新;特别地,红色矩形框的置信度最高,用此作为目标在当前帧的最终状态,如图3所示。
式(4)表明,目标的外观模型是一组弱分类器的组合,分类器的判别能力由式(5-8)中的参数决定。当目标经历遮挡干扰时,分类器容易学习到遮挡物体的特征从而使分类器判别性能降低。为了缓解该问题,本发明采用了一种更可靠的参数更新方式,如Strategy1所示。主要动机是当目标经历遮挡或光照变化运动干扰时,应该避免分类器参数进行更新。具体地,如果所有子区域的自信度都比较低,应该完全停止参数更新;除此之外,应根据各子区域的置信度表现进行差异性地更新。
Strategy 1参数更新方式:
算法流程可概括为如下8个步骤:
第一帧初始化:
Step 1:选定感兴趣目标;
Step 2:按图1的方式将目标区域分成若干子区域;
Step 3:按照式(11)构造随机观测矩阵;
Step 4:采集正负样本,对每个子区域按照式(5-8)训练和学习分类器参数;对第t=2,3···帧:
对子区域i=1,2,···N:
Step 5:按照Algorithm 1执行中值流跟踪获得目标的状态(包括位置状态li和尺度状态si);
Step 6:根据公式(1)提取目标压缩域特征,根据公式(4)计算置信度Hi
Step 7:按照图2转换获得当前帧跟踪结果xi
Step 8:按照Strategy 1更新分类器参数;
分析:
CT,FCT,MSCT,MSRP and MCFF。最显著的差异是随机观测矩阵的构建方式:CT/FCT/MSCT/MSRP采用式(2)定义的随机观测矩阵提取的压缩域特征将会侧重表达目标的纹理特性,在背景杂乱或相似纹理时纹理特征往往不稳定;MCFF采用了两个随机观测矩阵分别提取目标的颜色和纹理特征,并按相同重要性进行特征融合,效果较好但是运算量较大;本发明按照式(11)构造的单随机观测矩阵既巧妙地实现了MCFF算法同时均等概率融颜色和纹理特征的优点,又避免了MCFF中使用多个随机观测矩阵导致运算量增加的缺点。另外一大不同是本发明采用子区域的方式来处理目标遮挡干扰:CT,FCT,MSCT,MSRP和MCFF中,随机生成的矩形框特征至始至终具有同等重要性;本发明中,特征池是由均匀分布的子区域计算而得,子区域的优势是可以检测出可疑运动干扰的存在并区别性地更新分类器参数,因此本发明提出的算法在遮挡等干扰存在时提取的特征会更加稳定。第三个同点在于,MSCT/MSRP/MCFF和本发明采用不同的尺度跟踪策略。MSCT通过对目标位移的二阶转换模型估计目标的尺度;MSRP通过对目标的关键点利用控制理论反馈机制计算目标尺度的变化;MCFF根据无约束视频流中时空约束信息构建多尺度随机观测矩阵的方式实现尺度跟踪的目的;本发明中采用中值流跟踪策略计算目标在相邻中的尺度变化,实验部分表明该策略对尺度具有良好的鲁棒特性。
实验
为了验证本发明算法的有效性,将本发明算法与9个state-of-the-art算法在视觉跟踪领域标准数据集[24]中18个图像序列进行试验对比(http://cvlab.hanyang.ac.kr/tracker_benchmark/datasets.html)。这9个算法包括MCFF[18],MSRP[17],MSCT[16],CT[15],Struck[23],TLD[5],OAB[2],MIL[4],SemiB[3]。表2和表3分别概括了对比跟踪算法和图像序列的特点。
表2对比跟踪算法
表3:测试序列
(Y:是,N:否)
参数配置
子区域数目为4,低维特征维度n为50,正样本搜索半径为4,负样本搜索半径为8-20,分类器学习率γ为0.85,参数更新阈值为0。
定量评估
文献[24]制定的视觉跟踪算法评测方法获得了研究者的广泛认可,因此本发明采用[24]定义的success和precision参数定量评估跟踪效果,采用[24]定义的OPE/TRE/SRE三种策略评估算法对初始化的敏感性。更多细节请参见文献[24],此外文献[25]提出了一种无主观偏见的评测方法,希望有研究者能够对本发明提出的算法作出无主观偏见的实验验证。
由图4可以看到,本发明提出的算法在OPE/TRE/SRE三种初始化条件下的success分别是0.516/0.541/0.512,在所有对比算法中仅次于Struck算法的0.597/0.581/0.517。在precision曲线中,本发明提出的算法在OPE/TRE/SRE三种初始化条件下仅以微弱劣势分别排在第3位/第4位/第2位。此外,由图5和图6不难发现,本发明算法表现突出的抗遮挡/尺度干扰特性,而Struck跟踪算法在遮挡和尺度干扰下效果依旧大幅度领先除本发明提出算法的其他算法。图4-6一方面表明了本发明所提算法的先进性,尤其是效果较随机投影类对比算法MCFF/MSRP/MSCT有明显的优势;另一方面验证了Struck跟踪算法的优越性,但是Struck算法最大的缺点是其复杂度高,实时性差。在Inter I7 4Core 3.4GHz CPU/8G RAMPC上,利用matlab实现本发明算法约为16帧/秒,而Struck跟踪算法仅为4帧/秒,即本发明提出算法用4倍的速度获得了Struck跟踪算法相当的效果。
定性评估
光照干扰
在car4,carScale,david,faceocc2和trellis序列中,目标在运动过程中经历了不同程度的光照干扰。如图7所示,在car4序列的第348帧,David序列的第546帧,trellis序列的第569帧,OAB/SemiB/MIL跟踪算法都出现了跟踪漂移。究其原因是当出现光照干扰时,上述跟踪算法易于选择判别性弱的特征,将会导致分类器的误差积累并最终导致跟踪错误。CT/MSRP/MSCT跟踪算法在这些序列上表现不佳,原因是外观模型主要基于纹理特性,因此对光照变化非常敏感。TLD/MSCC/Struck和本发明提出算法在光照干扰序列上表现良好:TLD跟踪算法强依赖于随机蕨特征构建的目标检测器辅助跟踪,随机蕨特征对光照变化具有不变性;Struck维护了一套从前序帧中提取的支撑向量池,记录了不同时刻的目标外观。MSCC和本发明提出算法的外观模型是基于对光照变化具有不变性的Haar-like特征,与此同时,基于Johnson-Lindenstrauss lemma的随机投影保证了压缩域特征对光照的鲁棒特性。
遮挡干扰
在carScale,david,david3,faceocc1和faceocc2等图像序列中,目标经历不同程度的遮挡干扰。在基于特征选择的3种跟踪算法中,MIL表现明显优于OAB和SemiB,原因是MIL跟踪算法以包的形式表示训练数据以降低样本的歧义性,在线多实例特征选择算法能够更有效地提取判别能力强的Haar-like特征。TLD效果优于MIL,主要受益于TLD中在线半监督PN学习机制,但是在若干帧中也表现出不够稳定(如david3序列第190帧)。Struck表现良好,主要是因为使用了丰富的背景信息辅助跟踪算法实现前景和背景的分离。总的来说,其他几个基于随机投影的跟踪算法CT,MSCT,MSRP,MSCC在遮挡干扰时表现出较强的随机性:一方面,空间分布的压缩域特征理应对遮挡具有某种程度的抗性;另外一方面,这种遮挡抗性的能力又强依赖于空间随机分布的矩形框特征。本发明设计的基于子区域的处理方式一方面能够约束特征的生成形式,另外一方面能够利用中值流跟踪模块动态检测跟踪错误,当检测到遮挡干扰引起的置信度降低时,能够避免对分类器参数的不正确更新,当遮挡消失时,即能够恢复对感兴趣目标的跟踪,因此本发明提出算法较对比算法能够更大程度地缓解遮挡干扰引起的外观变化。
尺度干扰
Car4,carScale,david,freeman1和trellis等序列中包含有不同程度的尺度干扰。CT/MIL/SemiB/OAB跟踪算法不能跟踪目标的尺度变化,因此在success曲线中算法对应的success指标明显低于其他算法(如图4所示)。在尺度干扰下,TLD容易发生跟踪漂移(如图7中carScale序列第193帧),因为TLD算法过分依赖于第一帧的信息以重新检测目标。在图7freeman1序列第175和275帧中,当路人快速走近和远离摄像头时,MSCT算法丢失了跟踪目标。当提取的关键点过少时,MSRP算法发生了跟踪漂移,见图7trellis序列第366和第449帧所示。MCFF和本发明提出算法在尺度干扰时表现良好,本发明算法较MCFF算法的优势是避免了使用多个随机观测矩阵引起的运算量负担。Struck算法对尺度干扰具有良好的鲁棒特性,主要原因是其在相当大范围内对样本进行多尺度稠密采用方式能够有效提升样本尺度多样性。
结论
本发明设计了一种对光照,遮挡和尺度干扰有良好特性的视觉跟踪算法。为了缓解光照和遮挡干扰引起的目标外观变化,构建了基于颜色、纹理和空间特征融合的外观模型。为了跟踪目标尺度,设计了一种中值流跟踪策略计算相邻帧的尺度变化。大量实验表明,本发明算法在准确度、精度、鲁棒性等方面优于部分state-of-the-art算法。
以上显示和描述了本发明的基本原理和主要特征及本发明的优点。本行业的技术人员应该了解,本发明不受上述实施例的限制,上述实施例和说明书中描述的只是说明本发明的原理,在不脱离本发明精神和范围的前提下,本发明还会有各种变化和改进,这些变化和改进都落入要求保护的本发明范围内。本发明要求保护范围由所附的权利要求书及其等效物界定。

Claims (1)

1.一种基于子区域的自适应随机投影视觉跟踪实验方法,其特征在于,包括以下步骤:
参数配置:子区域数目为4,低维特征维度n为50,正样本搜索半径为4,负样本搜索半径为8-20,分类器学习率γ为0.85,参数更新阈值为0;、
定量评估:采用success和precision参数定量评估跟踪效果,采用OPE/TRE/SRE三种策略评估算法对初始化的敏感性;
光照干扰:目标在运动过程中经历了不同程度的光照干扰,TLD跟踪算法强依赖于随机蕨特征构建的目标检测器辅助跟踪,随机蕨特征对光照变化具有不变性;Struck维护一套从前序帧中提取的支撑向量池,记录不同时刻的目标外观;
遮挡干扰:目标经历不同程度的遮挡干扰,MIL表现明显优于OAB和SemiB,MIL跟踪算法以包的形式表示训练数据以降低样本的歧义性,在线多实例特征选择算法能够更有效地提取判别能力强的Haar-like特征;TLD效果优于MIL,主要受益于TLD中在线半监督PN学习机制,但是在若干帧中也表现出不够稳定,Struck表现良好,主要是因为使用了丰富的背景信息辅助跟踪算法实现前景和背景的分离;
尺度干扰:在尺度干扰下,TLD容易发生跟踪漂移,因为TLD算法过分依赖于第一帧的信息以重新检测目标,当路人快速走近和远离摄像头时,MSCT算法丢失了跟踪目标;当提取的关键点过少时,MSRP算法发生了跟踪漂移。
CN201711268227.4A 2017-12-05 2017-12-05 基于子区域的自适应随机投影视觉跟踪实验方法 Pending CN108171729A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201711268227.4A CN108171729A (zh) 2017-12-05 2017-12-05 基于子区域的自适应随机投影视觉跟踪实验方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201711268227.4A CN108171729A (zh) 2017-12-05 2017-12-05 基于子区域的自适应随机投影视觉跟踪实验方法

Publications (1)

Publication Number Publication Date
CN108171729A true CN108171729A (zh) 2018-06-15

Family

ID=62524357

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201711268227.4A Pending CN108171729A (zh) 2017-12-05 2017-12-05 基于子区域的自适应随机投影视觉跟踪实验方法

Country Status (1)

Country Link
CN (1) CN108171729A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108932729A (zh) * 2018-08-17 2018-12-04 安徽大学 一种最小障碍距离加权跟踪方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104299247A (zh) * 2014-10-15 2015-01-21 云南大学 一种基于自适应测量矩阵的视频目标跟踪方法
CN104680194A (zh) * 2015-03-15 2015-06-03 西安电子科技大学 基于随机蕨丛和随机投影的在线目标跟踪方法
CN105006003A (zh) * 2015-07-09 2015-10-28 北京航空航天大学 基于随机投影蕨的实时目标跟踪算法
US20160004909A1 (en) * 2014-07-03 2016-01-07 Toyota Motor Engineering & Manufacturing North America, Inc. Tracking using multilevel representations
CN106846363A (zh) * 2016-12-29 2017-06-13 西安电子科技大学 一种改进稀疏矩阵的尺度自适应性压缩跟踪方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160004909A1 (en) * 2014-07-03 2016-01-07 Toyota Motor Engineering & Manufacturing North America, Inc. Tracking using multilevel representations
CN104299247A (zh) * 2014-10-15 2015-01-21 云南大学 一种基于自适应测量矩阵的视频目标跟踪方法
CN104680194A (zh) * 2015-03-15 2015-06-03 西安电子科技大学 基于随机蕨丛和随机投影的在线目标跟踪方法
CN105006003A (zh) * 2015-07-09 2015-10-28 北京航空航天大学 基于随机投影蕨的实时目标跟踪算法
CN106846363A (zh) * 2016-12-29 2017-06-13 西安电子科技大学 一种改进稀疏矩阵的尺度自适应性压缩跟踪方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108932729A (zh) * 2018-08-17 2018-12-04 安徽大学 一种最小障碍距离加权跟踪方法
CN108932729B (zh) * 2018-08-17 2021-06-04 安徽大学 一种最小障碍距离加权跟踪方法

Similar Documents

Publication Publication Date Title
Wang et al. Motion guided 3d pose estimation from videos
JP7375192B2 (ja) ターゲット追跡方法、装置、電子機器、コンピュータ読み取り可能な記憶媒体及びコンピュータプログラムプロダクト
Zhu et al. From handcrafted to learned representations for human action recognition: A survey
Tanberk et al. A hybrid deep model using deep learning and dense optical flow approaches for human activity recognition
CN107330357A (zh) 基于深度神经网络的视觉slam闭环检测方法
JP5604256B2 (ja) 人物動作検出装置およびそのプログラム
CN107316316A (zh) 基于多特征自适应融合和核相关滤波技术的目标跟踪方法
CN107358623A (zh) 一种基于显著性检测和鲁棒性尺度估计的相关滤波跟踪算法
CN106952293B (zh) 一种基于非参数在线聚类的目标跟踪方法
Narayan et al. A cause and effect analysis of motion trajectories for modeling actions
Gong et al. Pagerank tracker: From ranking to tracking
CN104573621A (zh) 基于Chebyshev神经网络的动态手势学习和识别方法
CN105844665A (zh) 视频对象追踪方法及装置
Yang et al. Anomaly detection in moving crowds through spatiotemporal autoencoding and additional attention
CN107203745A (zh) 一种基于跨域学习的跨视角动作识别方法
CN104219488B (zh) 目标图像的生成方法和装置、以及视频监控系统
CN109544600A (zh) 一种基于上下文相关和判别相关滤波器的目标跟踪方法
CN104268507A (zh) 一种基于rgb-d图像的手语字母识别方法
Li et al. Robust object tracking with discrete graph-based multiple experts
CN104881655A (zh) 一种基于多特征时空关系融合的人类行为识别方法
Xu et al. Action recognition by saliency-based dense sampling
CN111027586A (zh) 一种基于新型响应图融合的目标跟踪方法
CN113255569B (zh) 一种基于图空洞卷积编码器解码器的3d姿态估计方法
Huang et al. Correlation-filter based scale-adaptive visual tracking with hybrid-scheme sample learning
CN110555864A (zh) 基于pspce的自适应目标跟踪方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20180615

WD01 Invention patent application deemed withdrawn after publication