CN108647694B - 基于上下文感知和自适应响应的相关滤波目标跟踪方法 - Google Patents

基于上下文感知和自适应响应的相关滤波目标跟踪方法 Download PDF

Info

Publication number
CN108647694B
CN108647694B CN201810374004.4A CN201810374004A CN108647694B CN 108647694 B CN108647694 B CN 108647694B CN 201810374004 A CN201810374004 A CN 201810374004A CN 108647694 B CN108647694 B CN 108647694B
Authority
CN
China
Prior art keywords
target
response
frame
calculating
denotes
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN201810374004.4A
Other languages
English (en)
Other versions
CN108647694A (zh
Inventor
李晶
周益飞
常军
肖雅夫
吴玉佳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wuhan University WHU
Original Assignee
Wuhan University WHU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wuhan University WHU filed Critical Wuhan University WHU
Priority to CN201810374004.4A priority Critical patent/CN108647694B/zh
Publication of CN108647694A publication Critical patent/CN108647694A/zh
Application granted granted Critical
Publication of CN108647694B publication Critical patent/CN108647694B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于上下文感知和自适应响应的相关滤波目标跟踪方法,针对目标视频序列,在第一帧中给定目标初始状态的情况下,在后面的视频序列中估计目标的状态;本发明首先针对第t帧,根据上一帧的区域位置在当前帧中计算特征信息;然后计算目标区域背景信息,计算响应目标,合并训练分类器;接着根据上一帧确定的目标位置,计算当前帧的目标位置;更新滤波模型;最后对序列中的所有帧,重复上述步骤1至步骤6,得到t+1帧目标的位置;本发明通过充分利用目标区域的上下文信息减少边界效应和自适应地改变目标响应减少因循环矩阵生成样本数据时出现的位置漂移,有效地减少因遮挡、形变、运动模糊导致的跟踪漂移。

Description

基于上下文感知和自适应响应的相关滤波目标跟踪方法
技术领域
本发明属于计算机视觉技术领域,具体涉及数字图像的目标跟踪技术领域中的一种基于上下文感知和自适应响应的相关滤波目标跟踪方法。
背景技术
目标跟踪一直以来都是计算机视觉领域中一个经典的研究问题(文献1、2),广泛地应用于人机交互、智能监控、视觉导航、精确制导等领域。随着学者们对目标跟踪技术的广泛关注,目标跟踪技术在过去的几年里已经取得了重大的进展,学者们提出了很多非常优秀的目标跟踪算法。但受遮挡、光照、快速运动、运动模糊、旋转、形变等因素的影响,目标跟踪领域仍存在着较大的挑战,算法的鲁棒性和准确性也一定程度上受到了影响。
为了解决上述难题,实现鲁棒的跟踪算法,研究者们提出了很多解决办法,这些方法主要分为基于生成模式的跟踪算法和基于判别模式的跟踪算法。在基于判别模式的跟踪算法中基于相关滤波的跟踪算法因为结构简单、计算效率高的特点并且引起了许多研究者的关注。D.S.Bolme等人(文献3)首先提出了基于最小平方误差和(Minimum Output Sum ofSquared Error,MOSSE)的相关滤波算法,其主要思想是通过在线方式训练一个滤波器模板,在对目标定位时,利用该滤波模板作用于采样图像样本,以响应值最大的元素坐标作为目标的位置。P.Martins等人(文献4)基于MOSSE提出了一种基于循环矩阵的核跟踪方法(Exploiting the Circulant Structure of tracking-by-detection with Kernels,CSK),通过循环矩阵来实现密集采样的过程并结合傅里叶变换快速的进行分类器的训练。基于CSK算法,原文作者利用方向梯度直方图(Histogram of Oriented Gradient,HOG)特征取代原始的像素值特征,通过核函数对多通道的Hog特征进行融合提出了基于核化的相关滤波(Kernelized Correlation Filters,KCF)的跟踪算法(文献5)。近年来有越来越多的基于相关滤波的改进算法,在颜色方面,Li等人(文献6)提出联合颜色特征(Color Name)和灰度特征描述目标的CN算法、Bertinetto等人(文献7)提出颜色色直方图的staple、Possegger H等人(文献8)提出统计颜色特征方法DAT等;在适应尺度变化层面,Li等人(文献9)采用平移滤波器在多尺度缩放的图像块上进行目标检测的SAMF、Martin Danelljan等人(文献10)提出了平移滤波结合尺度滤波方式的DSST等;在适应性反应方面,AdelBibi等人(文献11)当循环移位样本不可靠的时候选择相信更可靠的位置的CF_AT、Zhang等人(文献12)通过建模相关反应的分布贝叶斯优化框架的OCT-KCF等;在边界效应方面,MatthiasMueller等人(文献13)加入学习全局背景信息特征的CF_CA、Danelljan等人(文献14)通过空间正则化组件来增大特征学习的区域进而训练更有识别力的分类器的SRDCF、KianiGaloogahi H等人(文献15)基于灰度特征采用较大尺寸检测图像块和较小尺寸滤波器来提高真实样本比例的CFLB等。还有其他学者提出了很多的基于相关滤波的跟踪算法(文献16、17、18),以及近三年来快速发展的基于深度学习的跟踪算法。比如Martin.D等人(文献19)将SRDCF中的HOG特征替换为CNN中单层卷积层的深度特征的DeepSRDCF、Ma C等人(文献20)结合多层卷积特征的HCF、Jack Valmadre等人(文献21)在CNN中用end-to-end方式训练相关滤波的CFNet等等。通过卷积输出得到的特征表达,理论上更优于HOG或CN特征,但同时也带来了计算量的增加。
这些算法虽然在跟踪速度和跟踪精度上有着很大的进步,但在快速运动、遮挡时受边界效应产生的错误样本和通过循环移位得到的错误样本会造成分类器判别力不够强,导致跟踪漂移,影响算法鲁棒性。
参考文献:
[文献1]K.Cannons.A Review of Visual Tracking.Technical Report CSE2008-07,York University,Canada,2008.
[文献2]A.Yilmaz,O.Javed,and M.Shah.Object Tracking:A Survey.ACMComputing Surveys,vol.38,no.4,pp.1–45,2006.
[文献3]D.S.Bolme,J.R.Beveridge,B.Draper,Y.M.Lui,et al.Visual objecttracking using adaptive correlation filters.In IEEE Conference on ComputerVision and Pattern Recognition,CVPR,2010.
[文献4]J.F.Henriques,R.Caseiro,P.Martins,and J.Batista,Exploiting thecirculant structure of tracking-by-detection with kernels,in EuropeanConference on Computer Vision,pp.702–715,2012
[文献5]Henriques,J.F.,Caseiro,R.,Martins,P.,Batista,J.:High-speedtracking with kernelized correlation filters.IEEE Transactions on PatternAnalysis and Machine Intelligence,PAMI,2015.
[文献6]Y.Li and J.Zhu.A scale adaptive kernel correlation filtertracker with feature integration.In European Conference on Computer VisionWorkshops,ECCV,2014.
[文献7]L.Bertinetto,J.Valmadre,S.Golodetz,O.Miksik,andP.H.S.Torr.Staple:Complementary learners for real-time tracking.In The IEEEConference on Computer Vision and Pattern Recognition,CVPR,June 2016.
[文献8]Possegger H,Mauthner T,Bischof H.In defense of color-basedmodel-free tracking[C],CVPR,2015.
[文献9]Li Y,Zhu J.Ascale adaptive kernel correlation filter trackerwith feature integration[C],ECCV,2014.
[文献10]Martin Danelljan,Gustav
Figure BDA0001639410900000031
Fahad Shahbaz Khan and MichaelFelsberg."Accurate Scale Estimation for Robust Visual Tracking."BMVC,2014.
[文献11]Adel Bibi,Matthias Mueller,and Bernard Ghanem."TargetResponse Adaptation for Correlation Filter Tracking."ECCV,2016.
[文献12]Baochang Zhang,Zhigang Li,Xianbin Cao,Qixiang Ye,Chen Chen,Linlin Shen,Alessandro Perina,Rongrong Ji."Output Constraint Transfer forKernelized Correlation Filter in Tracking."TSMC,2016.
[文献13]Matthias Mueller,Neil Smith,Bernard Ghanem."Context-AwareCorrelation Filter Tracking."CVPR,2017.
[文献14]Danelljan M,Hager G,Shahbaz Khan F,et al.Learning spatiallyregularized correlation filters for visual tracking[C].ICCV.2015.
[文献15]Kiani Galoogahi H,Sim T,Lucey S.Correlation filters withlimited boundaries[C].CVPR,2015.
[文献16]Sun H,Jing L I,Chang J,et al.Efficient compressive sensingtracking via mixed classifier decision[J].Science China,2016,59(7):1-15.
[文献17]Sun H,Li J,Du B,et al.On Combining Compressed Sensing andSparse Representations for Object Tracking[C].Pacific-Rim Conference onAdvances in Multimedia Information Processing.Springer-Verlag New York,Inc.2016:32-43.
[文献18]SUN Hang,LI Jing,DU Bo,XIAO Ya-fu,HU Yun-ling.CorrelationFiltering Target Tracking Based on Online Multi-lifespan Learning.ActaElectronica Sinica,2017,45(10):2337-2342.
[文献19]Martin Danelljan,Gustav
Figure BDA0001639410900000041
Fahad Khan,Michael Felsberg."Convolutional Features for Correlation Filter Based Visual Tracking."ICCVworkshop,2015.
[文献20]Ma C,Huang J B,Yang X,et al.Hierarchical convolutionalfeatures for visual tracking[C].ICCV,2015.
[文献21]Jack Valmadre,Luca Bertinetto,
Figure BDA0001639410900000042
Henriques,Andrea Vedaldi,Philip Torr."End-to-end Representation Learning for Correlation Filter basedTracking."CVPR,2017.
发明内容
为了解决上述技术问题,本发明提出了一种基于上下文感知和自适应响应的相关滤波目标跟踪方法。
本发明所采用的技术方案是:一种基于上下文感知和自适应响应的相关滤波目标跟踪方法,针对目标视频序列,在第一帧中给定目标初始状态的情况下,在后面的视频序列中估计目标的状态;
其特征在于,所述方法包括以下步骤:
步骤1:针对第t帧,根据上一帧的区域位置在当前帧中计算特征信息;其中1<t≤N,N为目标视频序列总帧数;
步骤2:计算目标区域背景信息;
步骤3:计算响应目标;
步骤4:合并训练分类器;
步骤5:根据上一帧确定的目标位置,计算当前帧的目标位置;
步骤6:更新滤波模型;
步骤7:对序列中的所有帧,重复上述步骤1至步骤6,得到t+1帧目标的位置。
本发明基于上下文感知和自适应响应的相关滤波目标跟踪方法是一种简单却具有不错鲁棒性的跟踪方法。通过充分利用目标区域的上下文信息减少边界效应和自适应地改变目标响应减少因循环矩阵生成样本数据时出现的位置漂移,有效地减少因遮挡、形变、运动模糊导致的跟踪漂移。
附图说明
图1是本发明实施例的流程图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明做进一步详细说明。应当理解,此处描述的具体实施例仅用以解释本发明,并不用于限定本发明。
相关滤波目标跟踪算法是在追踪过程中训练一个分类器,使用分类器去检测下一帧预测位置是否是目标,然后再使用新检测结果去更新训练集进而更新分类器。在训练分类器时,一般选取目标区域为正样本,而目标的周围区域为负样本,越靠近目标的区域为正样本的可能性越大。边界区域的选择对检测、跟踪效果都有着巨大的性能影响。而由于在线跟踪问题的性质,目标区域也不是选择越大越好。计算区域越大,计算效率的代价也就越大,因此合理的选择目标区域,很大程度上影响着检测和跟踪的效果。在快速运动或者遮挡的时候,通过循环矩阵得到的训练样本可能是错误样本,这个时候用这个的错误样本训练分类器就可能会导致跟踪漂移。
请见图1,本发明提供的一种基于上下文感知和自适应响应的相关滤波目标跟踪方法,针对目标视频序列,在第一帧中给定目标初始状态的情况下,在后面的视频序列中估计目标的状态;
具体包括以下步骤:
步骤1:针对第t帧,根据上一帧的区域位置在当前帧中计算特征信息;其中1<t≤N,N为目标视频序列总帧数;
通过方向梯度直方图(Histogram of Oriented Gradient,HOG)进行提取特征信息。HOG特征提取首先将目标图像分割成小的连通区域,这些小的连通区域也称为细胞单元(cells),然后采集这些细胞单元中所有像素点的梯度或边缘的方向直方图,最后将这些直方图组合起来构成图像特征的描述器。
步骤2:计算目标区域背景信息;
相关滤波跟踪算法中对于背景信息利用得非常有限,在把背景信息也列入计算目标区域的特征信息中,可以更有效更充分的利用每帧场景中的有用信息。选取目标区域的周围k个背景块,计算目标和这k个背景块的特征信息。通过如下公式计算。
Figure BDA0001639410900000061
其中A0表示目标区域的特征信息,Ai表示每个背景块i的特征信息,λ1、λ2是参数,w表示滤波器,k表示背景块数,y表示回归目标。本发明选择4个背景块,目标区域的上下左右四个地方各作为一个背景块。之所以选择4个背景块也是基于实验得到的,区域选择的越多或者越大,计算效率的代价也就越大。还有一些其他选择背景块的方法,比如随机游走策略等等。
步骤3:计算响应目标;
相关滤波跟踪算法中样本是通过循环移位得到的大量训练样本,但是循环移位得到的样本并不是真实的样本,而是近似真实样本的样本。在这些近似真实的样本中,可能会得到有干扰信息的响应图,而在通过响应图计算位置时,是选取响应图最大值来计算目标位置,那么此时的跟踪就可能会出现算法漂移,目标可能会丢失。跟踪过程当中尤其遇到快速运动和遮挡等问题的时候,这些样本就变得不可靠,此时就需要计算出更可靠的位置信息,以便更好的对目标进行跟踪。通过自适应响应改变y的值,每一帧都取最新y0值计算响应图。
分类器训练过程看成是一个求解岭回归的问题。其目标使得所有回归目标y和响应目标y0之间的平方误差最小。
Figure BDA0001639410900000062
其中A0表示目标区域的特征信息,y0是响应目标,λ1、λ2是参数,w表示滤波器。本发明通过卡尔曼滤波建模计算目标相关反应的分布,能够得到更为准确的位置信息。这里还可用其他的方式比如粒子滤波进行建模。
步骤4:合并训练分类器;
背景信息的计算是在相关滤波目标跟踪计算公式中加入了背景信息的计算模块
Figure BDA0001639410900000063
响应目标的计算是在相关滤波目标跟踪计算公式中加入了响应目标与回归目标的误差的计算模块
Figure BDA0001639410900000064
根据相关滤波目标跟踪计算公式,若结合背景信息的计算模块和响应目标的计算模块,即是增加2个计算模块的内容,可以重新整合成公式3。公式3即为基于上下文感知和自适应响应的相关滤波目标跟踪的最终分类器训练公式。
Figure BDA0001639410900000071
其中A0表示目标区域的特征信息,y0是响应目标,λ1、λ2、λ3是参数,w表示滤波器。
根据公式3计算滤波器w,如公式4所示,
Figure BDA0001639410900000072
其中,
Figure BDA0001639410900000073
表示傅里叶域中目标的特征信息,
Figure BDA0001639410900000074
表示傅里叶域中背景块i的特征信息,*表示复共轭,^表示傅里叶变换,⊙表示向量对应元素的相乘。
步骤5:根据上一帧确定的目标位置,计算当前帧的目标位置;
根据上一帧确定的目标位置在当前帧中提取特征数据Z,并用公式5计算响应图r。根据计算得到的响应图最大值max(r),计算当前帧的目标位置。
Figure BDA0001639410900000075
其中,*表示复共轭,^表示傅里叶变换,⊙表示向量对应元素的相乘,r表示响应图的值,Z表示提取的特征数据。
步骤6:更新滤波模型;
由于在跟踪过程中,目标形状、大小等外观信息会伴随着目标的运动与环境因素的影响发生持续变化。为了自适应目标外观的变化,准确描述目标,需要在每一帧中更新模型,相关滤波模型更新包括滤波器的更新公式6,和目标模型x的更新公式7。
Figure BDA0001639410900000076
Figure BDA0001639410900000077
其中,η表示模型更新的学习率,
Figure BDA0001639410900000078
表示前t-1帧迭代训练的滤波器,
Figure BDA0001639410900000079
是当前第t帧训练的滤波器;
Figure BDA00016394109000000710
表示第t帧的目标模型,
Figure BDA00016394109000000711
表示前t-1帧的目标模型。
步骤7:对序列中的所有帧,重复上述步骤1至步骤6,得到t+1帧目标的位置。
本发明通过充分利用目标区域的上下文信息减少边界效应和自适应地改变目标响应减少因循环矩阵生成样本数据时出现的位置漂移,有效地减少因遮挡、形变、运动模糊导致的跟踪漂移。本发明首先在目标区域的选择上,通过学习目标区域和背景区域的信息,充分利用目标区域的上下文信息,减少特征信息的遗漏,减少边界效应;其次构建目标的表观模型,自适应地改变目标响应,持续捕捉目标变化,以减少因循环矩阵生成样本数据时出现的位置漂移,一定程度上提高了跟踪算法的鲁棒性。
应理解,上述实施例仅用于说明本发明而不用于限制本发明的范围。此外应理解,在阅读了本发明讲授的内容之后,本领域技术人员可以对本发明作各种改动或修改,而不脱离本发明技术方案的精神和范围,其均应涵盖在本发明的权利要求范围中。

Claims (5)

1.一种基于上下文感知和自适应响应的相关滤波目标跟踪方法,针对目标视频序列,在第一帧中给定目标初始状态的情况下,在后面的视频序列中估计目标的状态;
其特征在于,所述方法包括以下步骤:
步骤1:针对第t帧,根据上一帧的区域位置在当前帧中计算特征信息;其中1<t≤N,N为目标视频序列总帧数;
步骤2:计算目标区域背景信息;
步骤3:计算响应目标;
步骤4:合并训练分类器;
基于上下文感知和自适应响应的相关滤波目标跟踪的最终分类器训练公式为:
Figure FDA0002950092050000011
其中,背景信息的计算是在相关滤波目标跟踪计算公式中加入了背景信息的计算模块
Figure FDA0002950092050000012
响应目标的计算是在相关滤波目标跟踪计算公式中加入了响应目标与回归目标的误差的计算模块
Figure FDA0002950092050000013
A0表示目标区域的特征信息,Ai表示每个背景块i的特征信息,y表示回归目标,y0是响应目标,λ1、λ2、λ3是参数,w表示滤波器;k表示背景块数;
根据公式3计算滤波器w:
Figure FDA0002950092050000014
其中,
Figure FDA0002950092050000015
表示傅里叶域中目标的特征信息,
Figure FDA0002950092050000016
表示傅里叶域中背景块i的特征信息,*表示复共轭,^表示傅里叶变换,⊙表示向量对应元素的相乘;
步骤5:根据上一帧确定的目标位置,计算当前帧的目标位置;
步骤6:更新滤波模型;
步骤7:对序列中的所有帧,重复上述步骤1至步骤6,得到t+1帧目标的位置。
2.根据权利要求1所述的基于上下文感知和自适应响应的相关滤波目标跟踪方法,步骤2的具体实现过程是:选取目标区域的周围k个背景块,目标和k个背景块的特征信息为:
Figure FDA0002950092050000021
其中A0表示目标区域的特征信息,Ai表示每个背景块i的特征信息,λ1、λ2是参数,w表示滤波器,k表示背景块数;y表示回归目标。
3.根据权利要求1所述的基于上下文感知和自适应响应的相关滤波目标跟踪方法,步骤3的具体实现过程是:通过自适应响应改变y的值,每一帧都取最新y0值计算响应图;并且使得所有回归目标y和响应目标y0之间的平方误差最小;
Figure FDA0002950092050000022
其中,A0表示目标区域的特征信息,y0是响应目标,λ1、λ2是参数,w表示滤波器。
4.根据权利要求1所述的基于上下文感知和自适应响应的相关滤波目标跟踪方法,步骤5的具体实现过程是:根据上一帧确定的目标位置在当前帧中提取特征数据Z,并用公式5计算响应图r;根据计算得到的响应图最大值max(r),计算当前帧的目标位置;
Figure FDA0002950092050000023
其中,w表示滤波器,^表示傅里叶变换,⊙表示向量对应元素的相乘,r表示响应图的值,Z表示提取的特征数据。
5.根据权利要求1所述的基于上下文感知和自适应响应的相关滤波目标跟踪方法,其特征在于,步骤6的具体实现过程是:滤波模型更新包括滤波器的更新公式6,和目标模型x的更新公式7;
Figure FDA0002950092050000024
Figure FDA0002950092050000025
其中,η表示模型更新的学习率,
Figure FDA0002950092050000026
表示前t-1帧迭代训练的滤波器,
Figure FDA0002950092050000027
是当前第t帧训练的滤波器;
Figure FDA0002950092050000031
表示第t帧的目标模型,
Figure FDA0002950092050000032
表示前t-1帧的目标模型。
CN201810374004.4A 2018-04-24 2018-04-24 基于上下文感知和自适应响应的相关滤波目标跟踪方法 Expired - Fee Related CN108647694B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810374004.4A CN108647694B (zh) 2018-04-24 2018-04-24 基于上下文感知和自适应响应的相关滤波目标跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810374004.4A CN108647694B (zh) 2018-04-24 2018-04-24 基于上下文感知和自适应响应的相关滤波目标跟踪方法

Publications (2)

Publication Number Publication Date
CN108647694A CN108647694A (zh) 2018-10-12
CN108647694B true CN108647694B (zh) 2021-04-16

Family

ID=63747202

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810374004.4A Expired - Fee Related CN108647694B (zh) 2018-04-24 2018-04-24 基于上下文感知和自适应响应的相关滤波目标跟踪方法

Country Status (1)

Country Link
CN (1) CN108647694B (zh)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109670410A (zh) * 2018-11-29 2019-04-23 昆明理工大学 一种基于多特征的融合的长时运动目标跟踪方法
CN110009660B (zh) * 2019-03-06 2021-02-12 浙江大学 基于相关性滤波器算法的物体位置追踪方法
CN110211157B (zh) * 2019-06-04 2023-05-26 重庆邮电大学 一种基于相关滤波的目标长时跟踪方法
CN110348492A (zh) * 2019-06-24 2019-10-18 昆明理工大学 一种基于上下文信息及多特征融合的相关滤波目标跟踪方法
CN110660079A (zh) * 2019-09-11 2020-01-07 昆明理工大学 一种基于时空上下文的单目标跟踪方法
CN111105441B (zh) * 2019-12-09 2023-05-05 嘉应学院 一种受前面帧目标信息约束的相关滤波目标跟踪方法
CN111340842B (zh) * 2020-02-17 2023-04-18 江南大学 一种基于联合模型的相关滤波目标跟踪方法
CN112288772B (zh) * 2020-10-14 2022-06-07 武汉大学 基于在线多特征选择的通道注意力目标跟踪方法
CN112651999A (zh) * 2021-01-19 2021-04-13 滨州学院 基于时空上下文感知的无人机对地目标实时跟踪方法
CN113205544B (zh) * 2021-04-27 2022-04-29 武汉大学 基于交并比估计的空间注意力强化学习跟踪方法
CN113850847B (zh) * 2021-09-15 2024-04-19 中国科学院长春光学精密机械与物理研究所 一种自适应的上下文感知的抗遮挡目标跟踪方法及装置
CN113674307B (zh) * 2021-10-20 2022-02-11 湖南大学 一种目标检测跟踪方法、装置及设备

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6529614B1 (en) * 1998-08-05 2003-03-04 California Institute Of Technology Advanced miniature processing handware for ATR applications
CN107316316A (zh) * 2017-05-19 2017-11-03 南京理工大学 基于多特征自适应融合和核相关滤波技术的目标跟踪方法
CN107680119A (zh) * 2017-09-05 2018-02-09 燕山大学 一种基于时空上下文融合多特征及尺度滤波的跟踪算法
CN107748873A (zh) * 2017-10-31 2018-03-02 河北工业大学 一种融合背景信息的多峰目标跟踪方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6529614B1 (en) * 1998-08-05 2003-03-04 California Institute Of Technology Advanced miniature processing handware for ATR applications
CN107316316A (zh) * 2017-05-19 2017-11-03 南京理工大学 基于多特征自适应融合和核相关滤波技术的目标跟踪方法
CN107680119A (zh) * 2017-09-05 2018-02-09 燕山大学 一种基于时空上下文融合多特征及尺度滤波的跟踪算法
CN107748873A (zh) * 2017-10-31 2018-03-02 河北工业大学 一种融合背景信息的多峰目标跟踪方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
《Context-Aware Correlation Filter》;Matthias Mueller,et al.;《2017 IEEE Conference on Computer Vision and Pattern Recognition》;20171109;第1387-1395页 *
《基于核相关滤波跟踪算法的研究与实现》;倪杰;《中国优秀硕士学位论文全文数据库 信息科技辑》;20180215(第2期);第I138-1377页 *

Also Published As

Publication number Publication date
CN108647694A (zh) 2018-10-12

Similar Documents

Publication Publication Date Title
CN108647694B (zh) 基于上下文感知和自适应响应的相关滤波目标跟踪方法
CN108053419B (zh) 基于背景抑制和前景抗干扰的多尺度目标跟踪方法
CN108090919B (zh) 一种基于超像素光流和自适应学习因子改进的核相关滤波跟踪方法
CN110334762B (zh) 一种基于四叉树结合orb和sift的特征匹配方法
CN107169994B (zh) 基于多特征融合的相关滤波跟踪方法
CN110782420A (zh) 一种基于深度学习的小目标特征表示增强方法
CN111860494B (zh) 图像目标检测的优化方法、装置、电子设备和存储介质
CN109035300B (zh) 一种基于深度特征与平均峰值相关能量的目标跟踪方法
CN110569782A (zh) 一种基于深度学习目标检测方法
CN109816694B (zh) 目标跟踪方法、装置及电子设备
CN109214403A (zh) 图像识别方法、装置及设备、可读介质
CN109087337B (zh) 基于分层卷积特征的长时间目标跟踪方法及系统
CN111626120B (zh) 工业环境下基于改进的yolo-6d算法的目标检测方法
CN113487610B (zh) 疱疹图像识别方法、装置、计算机设备和存储介质
An et al. Online RGB-D tracking via detection-learning-segmentation
CN111368733B (zh) 一种基于标签分布学习的三维手部姿态估计方法、存储介质及终端
CN110852214A (zh) 面向边缘计算的轻量级面部识别方法
CN111582057B (zh) 一种基于局部感受野的人脸验证方法
CN117392375A (zh) 一种针对微小物体的目标检测算法
CN110322479B (zh) 一种基于时空显著性的双核kcf目标跟踪方法
CN116665097A (zh) 一种结合上下文感知的自适应目标跟踪方法
CN110852272A (zh) 行人检测方法
CN110659724A (zh) 一种基于目标尺度范围的目标检测卷积神经网络构建方法
CN102496022B (zh) 一种有效的特征点描述i-brief方法
CN111435448B (zh) 图像显著性物体检测方法、装置、设备及介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20210416