CN110599519A - 基于领域搜索策略的抗遮挡相关滤波跟踪方法 - Google Patents

基于领域搜索策略的抗遮挡相关滤波跟踪方法 Download PDF

Info

Publication number
CN110599519A
CN110599519A CN201910793569.0A CN201910793569A CN110599519A CN 110599519 A CN110599519 A CN 110599519A CN 201910793569 A CN201910793569 A CN 201910793569A CN 110599519 A CN110599519 A CN 110599519A
Authority
CN
China
Prior art keywords
target
search
occlusion
frame
tracking
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910793569.0A
Other languages
English (en)
Other versions
CN110599519B (zh
Inventor
肖刚
刘骏
张星辰
冶平
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Jiaotong University
Original Assignee
Shanghai Jiaotong University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai Jiaotong University filed Critical Shanghai Jiaotong University
Priority to CN201910793569.0A priority Critical patent/CN110599519B/zh
Publication of CN110599519A publication Critical patent/CN110599519A/zh
Application granted granted Critical
Publication of CN110599519B publication Critical patent/CN110599519B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/62Analysis of geometric attributes of area, perimeter, diameter or volume
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Multimedia (AREA)
  • Geometry (AREA)
  • Image Analysis (AREA)

Abstract

一种基于领域搜索策略的抗遮挡相关滤波跟踪方法,通过鲁棒视觉跟踪算法以解决目标出现遮抗的问题,结合连续响应值、峰值旁瓣比和目标位移差的遮挡标准,能够用于检测潜在的可靠目标。当遮挡判据被触发时,执行重新检测机制并命令跟踪器停止,然后重检测器选择最可靠的跟踪目标以重新初始化跟踪器。

Description

基于领域搜索策略的抗遮挡相关滤波跟踪方法
技术领域
本发明涉及的是一种图像处理领域的技术,具体是一种基于领域搜索策略的抗遮挡相关滤波跟踪方法。
背景技术
目标跟踪是计算机视觉领域的研究热点之一。近年来,相关滤波器被引入判别跟踪框架,并取得了良好的效果,常用的相关滤波器包括平方误差最小输出MOOSE(MinimumOutput Sum of Squared Error)滤波器,其将相关运算引入到目标跟踪中,并通过空间域卷积成为傅立叶域的Hadamard积的理论大大加速了计算。在此之后,核检测跟踪循环结构CSK(Circulant Structure of tracking-by-detection with Kernels)算法采用循环矩阵来增加样本数量,从而提升了分类器效果。作为对CSK的扩展,定向梯度特征、高斯核和岭回归被用于核相关滤波器 KCF(Kernelized Correlation Filters)。针对目标的尺度变化,识别尺度空间跟踪 DSST(Discriminative scale space tracking)通过尺度金字塔学习相关滤波器解决了尺度估计的问题。长期相关跟踪LCT(Long-term CorrelationTracking)包括外观和运动的相关滤波器,以估计目标的比例和平移。受人类识别模型的启发,Choi提出了ACFN算法(Attentional feature-based Correlation Filter)来跟踪快速变化的目标。
但现有的跟踪器均没有很好地解决目标遮挡问题或者仅仅针对目标的部分遮挡(目标遮挡面积小于等于目标总面积50%)和短时全遮挡,并且现有的遮挡判据并不能很好的与跟踪算法进行融合,在很多时候遮挡判据会出现错误判断,这严重影响了跟踪器的性能。
发明内容
本发明针对现有技术存在的上述不足,提出一种基于领域搜索策略的抗遮挡相关滤波跟踪方法,通过鲁棒视觉跟踪算法以解决目标出现遮抗的问题,结合连续响应值、峰值旁瓣比(peak to sidelobe ratio,PSR)和目标位移差的遮挡标准,能够用于检测潜在的可靠目标。当遮挡判据被触发时,执行重新检测机制并命令跟踪器停止,然后重检测器选择最可靠的跟踪目标以重新初始化跟踪器。
本发明是通过以下技术方案实现的:
本发明根据待跟踪目标的第二帧的目标响应值和面积比率首先将目标进行分类,然后判断当相邻五帧的目标响应值、目标的位移差以及峰值旁瓣比满足遮挡判据时,通过相关滤波器记录目标所在图像中的坐标位置,并启动基于相邻区域搜索策略的重检测机制检测潜在的目标,采用与目标框尺寸相同的滑动窗口对后续输入的每帧图像在所述目标所在图像中的坐标位置的周围区域进行循环移位并提取窗口内的图像特征,然后对每个滑动窗口进行相关滤波以得到每个窗口所对应的响应值,最后通过阈值判断最大的响应值得到滑动窗口内包含目标并输出该滑动窗的坐标位置以重新初始化跟踪器的结论。
本发明涉及一种实现上述方法的系统,包括:图像输入模块、跟踪器模块、重检测器模块、输出模块以及目标模版更新模块,其中:图像输入模块与跟踪器模块相连并传输图像的目标框的位置和宽高信息,跟踪器模块与重检测器模块相连并传输目标信息,跟踪器模块与输出模块相连并传输图像、目标框的位置和宽高信息,重新检测器模块与输出模块相连并传输图像、目标框的位置和宽高信息,重新检测器模块与跟踪器模块相连并传输图像、目标框的位置和宽高信息,目标模版更新模块与跟踪器模块和重检测器模块相连以对目标的模版进行更新。
技术效果
与现有技术相比,本发明对KCF加入遮挡判据和重检测机制以使其能够对目标遮挡鲁棒。在跟踪的过程中依据目标的第二帧响应值和面积比率将目标分成了4类,并且判断相邻5帧的目标响应值,峰值旁瓣比以及目标在相邻两帧间的位移差是否满足所设定的遮挡判据。采用了一种基于连续响应值和PSR的模版更新策略来降低目标模版被背景信息污染的程度。在公开可用的OTB基准数据集上的实验结果表明,本发明在距离精度和重叠成功率两个指标上都优于其他先进的跟踪器。此外,本发明还能够达到高实时跟踪的性能。
附图说明
图1为本发明构建的基于相关滤波的抗遮挡目标跟踪方法的理论框架示意图;
图2为本发明涉及的11种影响因素导致的相关滤波响应值曲线示意图;
图3为本发明涉及的重检测搜索策略示意图示意图;
图4为本发明涉及的重检测最终确定结果示意图;
图5为本发明在OTB50数据集上与其他9个鲁棒跟踪方法在跟踪精度指标上的结果对比示意图;
图6为本发明在OTB50数据集上与其他9个鲁棒跟踪方法在重叠成功率指标上的结果对比示意图;
图7为本发明在OTB100数据集上与其他9个鲁棒跟踪方法在跟踪精度指标上的结果对比示意图;
图8为本发明在OTB100数据集上与其他9个鲁棒跟踪方法在重叠成功率指标上的结果对比示意图;
图9为本发明在OTB100上与其他9个鲁棒跟踪方法在光照属性下的跟踪精度结果对比示意图;
图10为本发明在OTB100上与其他9个鲁棒跟踪方法在平面外旋转属性下的跟踪精度结果对比示意图;
图11为本发明在OTB100上与其他9个鲁棒跟踪方法在尺度变化属性下的跟踪精度结果对比示意图;
图12为本发明在OTB100上与其他9个鲁棒跟踪方法在遮挡属性下的跟踪精度结果对比示意图;
图13为本发明在OTB100上与其他9个鲁棒跟踪方法在扭曲属性下的跟踪精度结果对比示意图;
图14为本发明在OTB100上与其他9个鲁棒跟踪方法在低分辨率属性下的跟踪精度结果对比示意图;
图15为本发明在OTB100上与其他9个鲁棒跟踪方法在平面外旋转属性下的跟踪重叠率结果对比示意图;
图16为本发明在OTB100上与其他9个鲁棒跟踪方法在遮挡属性下的跟踪重叠率结果对比示意图;
图17为本发明在OTB100上与其他9个鲁棒跟踪方法在扭曲属性下的跟踪重叠率结果对比示意图;
图18为本发明在OTB100上与其他9个鲁棒跟踪方法在平面内旋转属性下的跟踪重叠率结果对比示意图;
图19为本发明在OTB100上与其他9个鲁棒跟踪方法在低分辨率属性下的跟踪重叠率结果对比示意图;
图20为本发明在OTB100数据集上与其他9个鲁棒跟踪方法在跟踪精度指标上的结果汇总示意图;
图21为本发明在OTB100数据集上与其他9个鲁棒跟踪方法在重叠成功率指标上的结果汇总示意图;
图22为本发明与其他9个鲁棒跟踪方法在OTB100数据集中15个具有严重遮挡属性的视频序列上的跟踪结果对比示意图。
具体实施方式
如图1所示,本实施例涉及一种基于领域搜索策略的抗遮挡相关滤波跟踪方法,具体步骤包括:
步骤1)在第一帧手动选择目标后,通过相关滤波器将输入特征的循环移位版本回归到高斯核函数中,并通过在响应图上搜索最大值来定位目标,具体为:
所述的相关滤波器针对输入的初始目标位置,在每一帧上对应上一帧的位置附近进行图像块卷积,卷积后的输出对应一个灰度响应图,灰度响应图中最大灰度的位置就是目标的新位置。
优选地,将输入的图像和相关滤波器进行快速傅里叶变换(Fast FourierTransform,FFT) 转到傅里叶域,在该域中相关操作变为点积以显著提高计算效率:G=F⊙H*,其中: F=F(fim)和H=F(h)分别为图像fim和滤波器h转至傅里叶域,⊙和*分别为点乘操作和共轭转置,F()表示傅立叶变换;随后使用FFT的逆变换F-1将G变回到空间域,得到响应图。整个过程的计算复杂度仅为O(PlogP),其中:P为跟踪窗口中的像素数。
所述的相关滤波器,优选采用KCF跟踪器框架中的运动相关滤波器,该运动相关滤波器通过以下方式构建得到:当所选择的目标框大小为M×N,首先利用循环移位来增加样本数量,得到样本xm,n,其中:(m,n)∈{0,1,...,M-1}×{0,1,...,N-1};在得到xm,n后,通过岭回归最小化训练图像与回归目标之间的均方误差,得到运动相关滤波器w∈RM×N其中:φ表示映射到核空间;根据移位量给予训练图像高斯标签,移位量越小,则标签值越接近1,反之则接近0,λ为正则化参数。
所述的循环移位是指:当x=[x1,x2,...,xn]T为n维列向量,P为对x做循环移位的置换矩阵,则移位后的样本为Plx,故获取训练分类器的样本集合{Plx|l=0,1,...,n-1},其中:置换矩阵:将n×1向量x的所有移位组合为循环矩阵X:其中:第一行是原列向量x,第二行是将x中的元素向右移动一位,其他行以此类推。循环移位的目的是循环移位编码了向量的卷积。由于循环特性,每移位n次,周期性获得基准样本。同样,等效地看成循环矩阵X的前半部分对向量x元素沿正方向移位,后半部分则反向移位。
通过映射和离散傅里叶变换之后,w的解表示成样本的线性组合: w=∑m,na(m,n)φ(xm,n),其中:系数α满足使用高斯核定义核映射φ为κ=φ(x)·φ(x'),A表示α的傅立叶变换,F()表示傅立叶变换,λ表示正则化参数。
当处理下一帧时,滤波器w会在上一帧的目标位置附近和M×N大小的图像块进行相关操作,通过离散傅里叶逆变换到空间域后会得到一幅响应图其中:H=F(h)w, hi=κ(x,zi)是h的元素,zi是在新帧中获得的训练样本,x是由前一帧获得的目标模型,在响应图中拥有最大值的位置就是所得到的目标在新一帧中的目标位置。
步骤2)使用SAMF(Scale Adaptive Correlation Filter)算法中的尺度池方法来对目标进行尺度估计:由于核相关函数只需计算点积和向量范数,因此对图像特征应用多通道。对于多特征融合的核函数的解其中:*表示共轭复合操作,||x||是矢量x的模,x′是矢量x的转置,δ是高斯核带宽。
所述的KCF跟踪器框架通过迭代计算系数α、响应图和求解核函数从而确定每个帧的目标中心位置。
所述的尺度池的方法是指:通过设置几个尺度候选区域β=[β1…βi],并获得目标的响应值,与前一帧目标相比,从取出最大值,并且最大值所对应的βi就是目标的最佳的尺度。
步骤3)根据相关滤波器的目标跟踪结果进行目标分类,具体为:
由于相关滤波器的目标跟踪结果取决于最大响应值的位置,当目标是完好并且不受环境影响,那么响应图清晰,白点突出,反之则暗淡且模糊,诸如目标被遮挡的情况。当遮挡开始并且目标还没有被完全遮挡,滤波器依据之前的训练结果依旧有可能会定位到目标,然而随着时间的流逝,遮挡面积逐渐增大,对滤波器的污染程度逐渐加深,最终导致被污染的滤波器无法重新跟踪上退出遮挡后的目标,于是跟踪失效。
本实施例中仿真了目标在11个挑战属性影响下的响应值变化趋势,并分析了仿真结果。然后考虑不同目标抵抗环境干扰的不同能力,对目标进行了分类,为提高准确度,本实施例中添加了峰值旁瓣比和目标在相邻两帧的位移差作为基于响应值判据的辅助测量。
响应值与目标跟踪密切相关,响应值的波动反映了目标跟踪过程的质量。当响应值在一段时间内与第二帧的响应值相比急剧下降,则意味着目标跟踪可能会失败。在响应值判据中,采用第二帧的响应值τ和目标与整幅图片的面积比μ作为参考标准,因为它们更准确地反映了初始环境中目标的状态。τ越大则目标反映的信息越多,反之越小。使用相同的推断来通过μ来横量目标的大小。
由于初始环境中具有高响应值的大尺寸目标比具有低响应值的小尺寸目标更能抵抗环境干扰。因此,通过对目标进行分类并针对不同目标实施不同的标准,以评估跟踪过程的质量。本实施例中参考响应值τ和面积比μ将目标分为四类,具体为:
目标分类的原则:其中:a1和b1是设置的阈值,∩表示逻辑与运算。
由于τ反映了目标上有用信息的数量,更大的τ意味着目标更突出,更耐干扰。本实施例中将放松具有较大τ值的这一类目标的触发条件。
由于μ反映目标的大小且小目标比一般目标更容易受到影响,为限制小目标的触发条件,四个不同分类目标的阈值设置满足:其中:d1<d2,d3<d4,d1<d3,d2<d4,通过充分考虑目标的特征以提高遮挡判据的准确性并减少判据出现误判。
步骤3)为了提高判据的有效性,当一个目标的响应值在连续5帧内急剧下降时则意味着跟踪器很有可能已经跟踪失败,所以,为更精确的辨识出跟踪是否失败则需要在该时间段内找到下降得更加严重的响应值。例如,本实施例中将考虑5个连续帧的响应值,以确定目标跟踪是否出现遮挡或者是否跟踪失败,具体判据为:找到响应值急剧下降的连续5帧的所在的时间段Y=[y(1),y(2),y(3),y(4),y(5)]<d·τ以及在所述连续5帧的响应值里找到下降的更加严重的响应值sum(Y<θ·d·τ)≥2,θ<1,其中:y(i)是响应值,y(i)是Y的元素,θ是系数,运算符sum(·)用于计算集合Y中下降的更严重的响应值y(i)<θ·d·τ的数量,目标分类d=[d1,d2,d3,d4]。
当五个连续帧的响应值达到上述两个条件时,则认为该目标跟踪失败;然后停止跟踪并启动基于相邻区域搜索策略的重检测机制,从而识别由其他属性,如光照变化,尺度变化,平面内旋转引起的跟踪失败。
优选地,当满足Y=[y(1),y(2),y(3),y(4),y(5)]<d·τ,时,则考察这五帧图像的最后两帧的峰值旁瓣比判据,即基于PSR的峰值强度获得关于响应图中像素的聚合程度的信息,其中:gmax是峰值,μs1和σs1是旁瓣的平均值和标准偏差,旁瓣是指除了峰值周围的11×11窗口之外的其余像素。
从广泛测试结果看出,正常跟踪条件下的PSR通常在20.0和60.0之间,这表明非常强的峰值。当PSR下降到7.0左右时,表示目标被遮挡或跟踪失败。
优选地,当满足Y=[y(1),y(2),y(3),y(4),y(5)]<d·τ,时,则考察这五帧图像的最后两帧图像中目标的位移差值,即两个相邻帧中的目标的位置距离其中:(x,y)是目标中心位置的坐标,(xt-1,yt-1)为跟踪过程期间跟踪器基于当前帧目标的位置, (xt,yt)为预测目标在下一帧中的位置。一般来说,St不超过10个像素。
所述的基于相邻区域搜索策略的重检测机制是指:当触发遮挡标准时,跟踪器的相关滤波器将记录下目标被遮挡的位置,然后使用滑动窗口在该位置的周围区域执行循环移位,并在每个窗口中提取图像特征然后进行相关滤波,其中:滑动窗口的大小是当触发遮挡标准时由跟踪器记录的目标的边界框的大小,具体步骤为:
①首先确定目标被遮挡时的坐标(x,y)和目标框的宽度Wocc及高度Hocc
②以目标框的宽度Wocc及高度Hocc为参照,构建以该坐标为中心的搜索区域 Ssearch=Wsearch×Hsearch=AWocc×BHocc,其中:Wsearch和Hsearch是整个搜索区域Ssearch的宽度和高度。A和B分别是对应于宽度和高度的系数;A和B的值越大,搜索区域就越大;
③创建一个与目标边界框尺寸相同的滑动窗口,沿x和y方向进行循环移位,并提取窗内的图像特征,其中沿x和y方向的滑动步长Δx-step=(Wsearch-Wocc)/M,Δy-step=(Hsearch-Hocc)/N,其中:M和N是正整数,即在整个搜索区域Ssearch中总共有 (M+1)×(N+1)个滑动窗口。
考虑到小目标的位置比一般目标更随机,本实施例中优选在搜索小目标时适度增加A, B,M和N的值。
步骤4)在检测潜在目标的过程中,将在每个滑动窗口上进行相关滤波,当对应于的边界框的目标的响应值达到阈值ντ,则使用该检测结果重新初始化跟踪器,具体为:对过滤后的所有检测框依次进行相关滤波操作,并将对应得到的响应值与阈值做比较:当响应值大于所设置的阈值,则将其采纳为最终的检测结果以重新启动跟踪器继续工作,反之则进入下一帧进行检测直至检测到正确的目标。
潜在目标的检测阈值设定的条件包括:τocc3occ2occ1,w<τocc1occ3其中:τocc1,τocc2和τocc2分别是在触发标准之后的前3帧的响应值,w表示第一帧和第三帧之间的响应值的最小差值,r用于测量第二帧的响应值的下降程度。r越大,第二帧的响应值下降得越快。随后将设置不同的阈值系数ν1、ν2以确定检测到的边界框是否包含本实施例中想要的目标。
优选地,在跟踪期间,目标的外观会因旋转,变形等而发生变化。因此,应在跟踪期间更新目标模板以获得强大的性能。如果目标模板更新太频繁,则模板很容易被噪声破坏。相反,如果目标模板更新太慢,则模板无法捕获目标的正常外观变化。
本实施例中通过以下方式进行目标模板更新:对于每一帧,本实施例中使用连续五帧是否被遮挡判据和峰值旁瓣比确定模板是否需要更新,即:其中:η是学习率。当满足对应条件时,则在跟踪器输出跟踪结果的同时更新目标的模版。
为验证本方法的有效性,本实施例中将所提出的算法与其他9个目前先进的跟踪器进行比较。这9个先进的跟踪器分别为:KCF,DSST,LCT,MEEM,SAMF,DLSSVM,Staple,LMCF和ACFN。实验环境为Intel Core i5 2.3GHz CPU with 8.00G RAM,MATLAB 2017b。
为了评估跟踪器的整体性能,本实施例中在公开的目标跟踪基准(OTB)数据集上对本实施例中的算法进行评估。
所述的OTB数据集包含两组:(1)具有50个序列的OTB-50,(2)具有100个序列的OTB-100。所有这些序列都注释了11个属性,涵盖了各种挑战因素,包括尺度变化,遮挡,光照变化,运动模糊,变形,快速运动,平面外旋转,背景杂波干扰,超出视野,平面内旋转和低分辨率。本实施例中使用基准数据集中的两个指标来评估跟踪性能,分别是重叠成功率和距离精确率。
本实施例针对上述数据,设置以下参数:本实施例中先设置a1=0.6,b1=0.005,手动选择跟踪目标并在目标上训练运动相关滤波器w,找出目标的最佳尺度βi,进入下一帧,λ=10-4,高斯核宽σ=0.1;记录下目标的第二帧响应值τ与面积比率μ并对目标进行分类;根据不同的目标设置相应的遮挡系数,d1=0.3,d2=0.5,d3=0.4,d4=0.6;建立新一帧目标搜索区域,与上一帧目标框位置相同,面积为目标框的1.5倍,提取目标的特征向量x并由余弦窗口加权,同时得到在运动和尺度下的最大响应值。选择拥有最大的位置,作为目标的平移估计结果。同时,选择最大响应值对应的βi作为目标的最佳尺度;判断最近的连续5帧是否满足本发明的遮挡判据,即:以Y=[y(1),y(2),y(3),y(4),y(5)]<d·τ为基础条件,当满足中国任一时则认为目标出现遮挡或者是跟踪失败,其中: d=[d1,d2,d3,d4],θ=0.7;当目标被判定为遮挡成立,则使用重检测器对接下来输入的每帧图像进行检测,本发明的搜索策略如图3。针对一般性的目标A=B=4,M=N=19,针对小目标,A=B=8,M=N=29;在检测阈值系数设置中,w=0.05,z=0.6,并设置检测阈值的系数ν1=0.7,ν2=0.5;对于每个滑动窗口依次进行相关滤波计算出对应的响应值,并取出最大的响应值,若最大的响应值大于ντ,则输出该目标框,作为新的初始条件启动跟踪器;反之进入下一帧进行检测,直至检测到目标。最终检测结果如图4所示。在得到当前帧的目标框之后,进入下一帧。
如图5和图6所示,看出本实施例中的跟踪器在OTB-50数据集上距离精确率排在了第二名,在重叠成功率排在了第一名;在图7和图8中,本实施例中的跟踪器在OTB-100数据集上的两个指标都排在了第一名。这充分证明了本实施例中所提出的算法的有效性。
针对11种挑战属性,从图9到图14中看出,在距离精度指标上,本实施例中的算法在光照,平面外旋转,尺度变化,遮挡,扭曲,低分辨率的六个挑战属性中排名第一。从图20中看出,本实施例中的算法在平面内旋转和背景干扰的挑战属性下排第二。
针对11种挑战属性,从图15到图19中看出,在重叠成功率的指标上,本实施例中的算法在平面外旋转,遮挡,平面内旋转,扭曲,低分辨率的五个挑战属性中排名第一,并且从图21中看出,本实施例中的算法在尺度变化,背景模糊,超出视野,背景干扰的四个挑战属性中排名第二。可见,所提出的算法不仅很好的解决了目标遮挡的问题,同时还有效的解决了由其他因素带来的跟踪漂移的问题。
在图7,图8,图20和图21汇总的结果中,本实施例中的跟踪器无论是从整体跟踪性能还是从各个属性下的跟踪性能来看,本实施例中的跟踪器都是最优秀的。在OTB-100数据集上,本实施例中的跟踪器的精度指标达到了82.5%,在重叠成功率的指标上达到了60.2%。并且,在精度指标上本实施例中的算法超过了第二名ACFN跟踪器2.8个百分点,在重叠成功率的指标上超过第二名Staple跟踪器2.1个百分点。特别地,在遮挡属性下,本实施例中的跟踪器在精度指标上超过第二名ACFN跟踪器3.7个百分点,在重叠成功率上超过第二名Staple跟踪器1.9个百分点。
从图22中看出,当目标经历部分遮挡或完全遮挡时,AO-CF仍然在鲁棒地跟踪目标。然而,大多数跟踪器在目标被遮挡后漂移到背景中。对于Basketball,Human4,Jogging-1, Freeman4,Walking2和Coupon序列,本实施例中提出的跟踪器在目标被遮挡时不会启动重新检测机制。这是因为响应值的波动不满足连续五帧响应值的约束,因此跟踪器认为跟踪的结果仍然是可靠的。实际上,当目标被部分遮挡或短期完全遮挡时,跟踪器不必启动再检测机制,因为在大多数情况下,跟踪器对于部分遮挡和短时间完全遮挡是鲁棒的。此外,启动重新检测器有两个风险。一个是检测潜在目标通常需要大量计算,这会对跟踪器的速度产生不利影响。如果在跟踪过程中重检测器频繁的介入,这将对实时跟踪产生灾难性后果。另一个是重新检测器可能无法检测到本实施例中想要的目标。
综上可见,连续五帧响应值的约束在测量是否有必要启动重新检测机制中起重要作用。通过本实施例中设置的模板更新策略,AOCF-NS为上述六个序列实现了非常好的跟踪结果。对于Panda序列,目标在第663帧之前被遮挡,AOCF-NS启动了重新检测并及时恢复了目标,但是SAMF则丢失了目标对象。由于Panda序列也具有低分辨率属性,因此对于跟踪器来说难以提取到很好的图像特征,并且大多数跟踪器已经漂移,例如LMCF,LCT等。在Box序列中,只有AOCF-NS,SAMF和LMCF鲁棒的在跟踪正确的目标,并且跟踪器的其余部分丢失目标对象。特别是LCT在序列开始时就已经出现了漂移,即使LCT自身具备重检的功能。对于Human5 和Kitesurf序列,当目标被扭曲和遮挡时,AOCF-NS通过重新检测机制快速找到丢失的目标,而其他跟踪器则漂移到背景中。值得注意的是,Human5和Kitesurf序列中的目标非常小,跟踪小目标对于跟踪器来说是具有挑战性的。在Liquor,Lemming和Tiger2序列中,AOCF-NS 不仅稳健地跟踪目标物体,而且很好地估计目标的尺度。虽然其他一些跟踪器没有丢失目标对象,但它们在比例估计方面并不准确。对于Girl2,Human3序列,只有AOCF-NS实现了对整个过程的正确跟踪,而所有其他跟踪器都丢失了目标对象。提出的算法表现良好的原因有三个:首先,跟踪器配备了遮挡标准和重新检测机制,提供了在目标跟踪失败时重新初始化跟踪器的能力。其次,通过简单的模板更新策略,有效地防止模板被背景信息污染。第三,在跟踪器中使用多特征融合来为目标提供高质量的特征信息表达。因此,这些有利因素使得所提出的跟踪器更加稳健。
上述具体实施可由本领域技术人员在不背离本发明原理和宗旨的前提下以不同的方式对其进行局部调整,本发明的保护范围以权利要求书为准且不由上述具体实施所限,在其范围内的各个实现方案均受本发明之约束。

Claims (9)

1.一种基于领域搜索策略的抗遮挡相关滤波跟踪方法,其特征在于,根据待跟踪目标的第二帧的目标响应值和面积比率首先将目标进行分类,然后判断当相邻五帧的目标响应值、目标的位移差以及峰值旁瓣比满足遮挡判据时,通过相关滤波器记录目标所在图像中的坐标位置,并启动基于相邻区域搜索策略的重检测机制检测潜在的目标,采用与目标框尺寸相同的滑动窗口对后续输入的每帧图像在所述目标所在图像中的坐标位置的周围区域进行循环移位并提取窗口内的图像特征,然后对每个滑动窗口进行相关滤波以得到每个窗口所对应的响应值,最后通过阈值判断最大的响应值得到滑动窗口内包含目标并输出该滑动窗的坐标位置以重新初始化跟踪器的结论;
所述的相关滤波器,优选采用KCF跟踪器框架中的运动相关滤波器,该运动相关滤波器通过以下方式构建得到:当所选择的目标框大小为M×N,首先利用循环移位来增加样本数量,得到样本xm,n,其中:(m,n)∈{0,1,...,M-1}×{0,1,...,N-1};在得到xm,n后,通过岭回归最小化训练图像与回归目标之间的均方误差,得到运动相关滤波器w∈RM×N其中:φ表示映射到核空间;根据移位量给予训练图像高斯标签,移位量越小,则标签值越接近1,反之则接近0,λ为正则化参数。
2.根据权利要求1所述的抗遮挡相关滤波跟踪方法,其特征是,所述的目标所在图像中的坐标位置,通过相关滤波器针对输入的初始目标位置,在每一帧上对应上一帧的位置附近进行图像块卷积,卷积后的输出对应一个灰度响应图,灰度响应图中最大灰度的位置就是目标的新位置。
3.根据权利要求2所述的抗遮挡相关滤波跟踪方法,其特征是,将输入的图像和相关滤波器进行快速傅里叶变换(Fast Fourier Transform,FFT)转到傅里叶域,在该域中相关操作变为点积以显著提高计算效率:G=F⊙H*,其中:F=F(fim)和H=F(h)分别为图像fim和滤波器h转至傅里叶域,⊙和*分别为点乘操作和共轭转置,F()表示傅立叶变换;随后使用FFT的逆变换F-1将G变回到空间域,得到响应图,整个过程的计算复杂度仅为O(Plog P),其中:P为跟踪窗口中的像素数。
4.根据权利要求1所述的抗遮挡相关滤波跟踪方法,其特征是,所述的目标分类是指:参考响应值τ和面积比μ将目标分为四类,具体为:其中:a1和b1是设置的阈值,∩表示逻辑与运算,其阈值设置满足:其中:d1<d2,d3<d4,d1<d3,d2<d4
5.根据权利要求1所述的抗遮挡相关滤波跟踪方法,其特征是,所述的遮挡判据是指:考虑5个连续帧的响应值,以确定目标跟踪是否出现遮挡或者是否跟踪失败,具体判据为:找到响应值急剧下降的连续5帧的所在的时间段Y=[y(1),y(2),y(3),y(4),y(5)]<d·τ以及在所述连续5帧的响应值里找到下降的更加严重的响应值sum(Y<θ·d·τ)≥2,θ<1,其中:y(i)是响应值,y(i)是Y的元素,θ是系数,运算符sum(·)用于计算集合Y中下降的更严重的响应值y(i)<θ·d·τ的数量,目标分类d=[d1,d2,d3,d4];当五个连续帧的响应值达到上述两个条件时,则认为该目标跟踪失败;然后停止跟踪并启动基于相邻区域搜索策略的重检测机制。
6.根据权利要求5所述的抗遮挡相关滤波跟踪方法,其特征是,当满足Y=[y(1),y(2),y(3),y(4),y(5)]<d·τ,时,则考察这五帧图像的最后两帧的峰值旁瓣比判据,即基于PSR的峰值强度获得关于响应图中像素的聚合程度的信息,其中:gmax是峰值,μs1和σs1是旁瓣的平均值和标准偏差,旁瓣是指除了峰值周围的11×11窗口之外的其余像素。
7.根据权利要求5所述的抗遮挡相关滤波跟踪方法,其特征是,当满足Y=[y(1),y(2),y(3),y(4),y(5)]<d·τ,时,则考察这五帧图像的最后两帧图像中目标的位移差值,即两个相邻帧中的目标的位置距离其中:(x,y)是目标中心位置的坐标,(xt-1,yt-1)为跟踪过程期间跟踪器基于当前帧目标的位置,(xt,yt)为预测目标在下一帧中的位置。
8.根据权利要求1所述的抗遮挡相关滤波跟踪方法,其特征是,所述的重检测机制具体包括:
①首先确定目标被遮挡时的坐标(x,y)和目标框的宽度Wocc及高度Hocc
②以目标框的宽度Wocc及高度Hocc为参照,构建以该坐标为中心的搜索区域Ssearch=Wsearch×Hsearch=AWocc×BHocc,其中:Wsearch和Hsearch是整个搜索区域Ssearch的宽度和高度,A和B分别是对应于宽度和高度的系数,即用于设定搜索范围;
③创建一个与目标边界框尺寸相同的滑动窗口,沿x和y方向进行循环移位,并提取窗内的图像特征,其中沿x和y方向的滑动步长Δx-step=(Wsearch-Wocc)/M,Δy-step=(Hsearch-Hocc)/N,其中:M和N是正整数,即用于设定循环移位的步长,即在整个搜索区域Ssearch中总共有(M+1)×(N+1)个滑动窗口。
9.根据权利要求8所述的抗遮挡相关滤波跟踪方法,其特征是,在搜索小目标时增加A,B,M和N的值。
CN201910793569.0A 2019-08-27 2019-08-27 基于领域搜索策略的抗遮挡相关滤波跟踪方法 Active CN110599519B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910793569.0A CN110599519B (zh) 2019-08-27 2019-08-27 基于领域搜索策略的抗遮挡相关滤波跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910793569.0A CN110599519B (zh) 2019-08-27 2019-08-27 基于领域搜索策略的抗遮挡相关滤波跟踪方法

Publications (2)

Publication Number Publication Date
CN110599519A true CN110599519A (zh) 2019-12-20
CN110599519B CN110599519B (zh) 2022-11-08

Family

ID=68855661

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910793569.0A Active CN110599519B (zh) 2019-08-27 2019-08-27 基于领域搜索策略的抗遮挡相关滤波跟踪方法

Country Status (1)

Country Link
CN (1) CN110599519B (zh)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111178965A (zh) * 2019-12-27 2020-05-19 聚好看科技股份有限公司 一种资源投放方法及服务器
CN111583306A (zh) * 2020-05-12 2020-08-25 重庆邮电大学 一种抗遮挡的视觉目标跟踪方法
CN111896256A (zh) * 2020-03-03 2020-11-06 天津职业技术师范大学(中国职业培训指导教师进修中心) 基于深度核处理的轴承故障诊断方法
CN112037272A (zh) * 2020-08-30 2020-12-04 哈尔滨工程大学 一种基于相关滤波的快速区域搜索的目标跟踪方法
CN112419369A (zh) * 2020-12-11 2021-02-26 哈尔滨工业大学 一种抗遮挡实时目标跟踪方法
CN112561845A (zh) * 2020-12-21 2021-03-26 阜阳强松航空科技有限公司 基于红外和可见光融合的长期跟踪方法
CN112561965A (zh) * 2020-12-21 2021-03-26 阜阳强松航空科技有限公司 基于相关滤波的实时长期跟踪方法
CN113313143A (zh) * 2021-04-29 2021-08-27 浙江大华技术股份有限公司 一种车牌检测方法、装置以及计算机存储介质
CN113971684A (zh) * 2021-09-16 2022-01-25 中国人民解放军火箭军工程大学 一种基于kcf和surf特征的实时鲁棒目标跟踪方法
CN114708300A (zh) * 2022-03-02 2022-07-05 北京理工大学 一种可抗遮挡的自适应目标跟踪方法及系统
CN116228817A (zh) * 2023-03-10 2023-06-06 东南大学 一种基于相关滤波的实时抗遮挡抗抖动单目标跟踪方法
CN117576380A (zh) * 2024-01-16 2024-02-20 成都流体动力创新中心 一种目标自主检测跟踪方法及系统

Citations (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103077539A (zh) * 2013-01-23 2013-05-01 上海交通大学 一种复杂背景及遮挡条件下的运动目标跟踪方法
CN105469430A (zh) * 2015-12-10 2016-04-06 中国石油大学(华东) 一种大场景中的小目标抗遮挡跟踪方法
WO2016131300A1 (zh) * 2015-07-22 2016-08-25 中兴通讯股份有限公司 一种自适应跨摄像机多目标跟踪方法及系统
CN106097393A (zh) * 2016-06-17 2016-11-09 浙江工业大学 一种基于多尺度与自适应更新的目标跟踪方法
CN106557774A (zh) * 2015-09-29 2017-04-05 南京信息工程大学 多通道核相关滤波的实时跟踪方法
CN107424171A (zh) * 2017-07-21 2017-12-01 华中科技大学 一种基于分块的抗遮挡目标跟踪方法
CN108010067A (zh) * 2017-12-25 2018-05-08 北京航空航天大学 一种基于组合判断策略的视觉目标跟踪方法
CN108573499A (zh) * 2018-03-16 2018-09-25 东华大学 一种基于尺度自适应和遮挡检测的视觉目标跟踪方法
CN108665481A (zh) * 2018-03-27 2018-10-16 西安电子科技大学 多层深度特征融合的自适应抗遮挡红外目标跟踪方法
CN109102522A (zh) * 2018-07-13 2018-12-28 北京航空航天大学 一种目标跟踪方法及装置
CN109299735A (zh) * 2018-09-14 2019-02-01 上海交通大学 基于相关滤波的抗遮挡目标跟踪方法
CN109785366A (zh) * 2019-01-21 2019-05-21 中国科学技术大学 一种针对遮挡的相关滤波目标跟踪方法
CN109816693A (zh) * 2019-01-28 2019-05-28 中国地质大学(武汉) 基于多峰响应的抗遮挡相关滤波跟踪方法及系统/装置
CN109858415A (zh) * 2019-01-21 2019-06-07 东南大学 适用于移动机器人行人跟随的核相关滤波目标跟踪方法
CN110009665A (zh) * 2019-03-12 2019-07-12 华中科技大学 一种遮挡环境下的目标检测跟踪方法
CN110163891A (zh) * 2019-04-30 2019-08-23 长沙师范学院 基于感知模型的长期目标跟踪方法

Patent Citations (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103077539A (zh) * 2013-01-23 2013-05-01 上海交通大学 一种复杂背景及遮挡条件下的运动目标跟踪方法
WO2016131300A1 (zh) * 2015-07-22 2016-08-25 中兴通讯股份有限公司 一种自适应跨摄像机多目标跟踪方法及系统
CN106557774A (zh) * 2015-09-29 2017-04-05 南京信息工程大学 多通道核相关滤波的实时跟踪方法
CN105469430A (zh) * 2015-12-10 2016-04-06 中国石油大学(华东) 一种大场景中的小目标抗遮挡跟踪方法
CN106097393A (zh) * 2016-06-17 2016-11-09 浙江工业大学 一种基于多尺度与自适应更新的目标跟踪方法
CN107424171A (zh) * 2017-07-21 2017-12-01 华中科技大学 一种基于分块的抗遮挡目标跟踪方法
CN108010067A (zh) * 2017-12-25 2018-05-08 北京航空航天大学 一种基于组合判断策略的视觉目标跟踪方法
CN108573499A (zh) * 2018-03-16 2018-09-25 东华大学 一种基于尺度自适应和遮挡检测的视觉目标跟踪方法
CN108665481A (zh) * 2018-03-27 2018-10-16 西安电子科技大学 多层深度特征融合的自适应抗遮挡红外目标跟踪方法
CN109102522A (zh) * 2018-07-13 2018-12-28 北京航空航天大学 一种目标跟踪方法及装置
CN109299735A (zh) * 2018-09-14 2019-02-01 上海交通大学 基于相关滤波的抗遮挡目标跟踪方法
CN109785366A (zh) * 2019-01-21 2019-05-21 中国科学技术大学 一种针对遮挡的相关滤波目标跟踪方法
CN109858415A (zh) * 2019-01-21 2019-06-07 东南大学 适用于移动机器人行人跟随的核相关滤波目标跟踪方法
CN109816693A (zh) * 2019-01-28 2019-05-28 中国地质大学(武汉) 基于多峰响应的抗遮挡相关滤波跟踪方法及系统/装置
CN110009665A (zh) * 2019-03-12 2019-07-12 华中科技大学 一种遮挡环境下的目标检测跟踪方法
CN110163891A (zh) * 2019-04-30 2019-08-23 长沙师范学院 基于感知模型的长期目标跟踪方法

Non-Patent Citations (6)

* Cited by examiner, † Cited by third party
Title
ZUN XU等: "An Anti-occlusion Correlation Filtering Tracking Algorithm for UAV", 《IEEE》 *
刘思思: "改进的KCF目标跟踪算法研究", 《中国优秀硕士学位论文全文数据库信息科技辑》 *
吴昭童: "基于相关滤波的目标稳定跟踪技术研究", 《中国优秀硕士学位论文全文数据库信息科技辑》 *
张杨: "抗遮挡核相关滤波目标跟踪算法研究", 《中国优秀硕士学位论文全文数据库信息科技辑》 *
王艳川: "基于相关滤波的视频目标跟踪技术研究", 《中国优秀硕士学位论文全文数据库信息科技辑》 *
顾培婷: "基于核相关滤波的视觉跟踪算法研究", 《中国优秀硕士学位论文全文数据库信息科技辑》 *

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111178965B (zh) * 2019-12-27 2023-07-25 聚好看科技股份有限公司 一种资源投放方法及服务器
CN111178965A (zh) * 2019-12-27 2020-05-19 聚好看科技股份有限公司 一种资源投放方法及服务器
CN111896256A (zh) * 2020-03-03 2020-11-06 天津职业技术师范大学(中国职业培训指导教师进修中心) 基于深度核处理的轴承故障诊断方法
CN111583306A (zh) * 2020-05-12 2020-08-25 重庆邮电大学 一种抗遮挡的视觉目标跟踪方法
CN112037272A (zh) * 2020-08-30 2020-12-04 哈尔滨工程大学 一种基于相关滤波的快速区域搜索的目标跟踪方法
CN112037272B (zh) * 2020-08-30 2023-11-17 哈尔滨工程大学 一种基于相关滤波的快速区域搜索的目标跟踪方法
CN112419369A (zh) * 2020-12-11 2021-02-26 哈尔滨工业大学 一种抗遮挡实时目标跟踪方法
CN112561965A (zh) * 2020-12-21 2021-03-26 阜阳强松航空科技有限公司 基于相关滤波的实时长期跟踪方法
CN112561845A (zh) * 2020-12-21 2021-03-26 阜阳强松航空科技有限公司 基于红外和可见光融合的长期跟踪方法
CN113313143A (zh) * 2021-04-29 2021-08-27 浙江大华技术股份有限公司 一种车牌检测方法、装置以及计算机存储介质
CN113313143B (zh) * 2021-04-29 2022-08-09 浙江大华技术股份有限公司 一种车牌检测方法、装置以及计算机存储介质
CN113971684A (zh) * 2021-09-16 2022-01-25 中国人民解放军火箭军工程大学 一种基于kcf和surf特征的实时鲁棒目标跟踪方法
CN114708300A (zh) * 2022-03-02 2022-07-05 北京理工大学 一种可抗遮挡的自适应目标跟踪方法及系统
CN116228817A (zh) * 2023-03-10 2023-06-06 东南大学 一种基于相关滤波的实时抗遮挡抗抖动单目标跟踪方法
CN116228817B (zh) * 2023-03-10 2023-10-03 东南大学 一种基于相关滤波的实时抗遮挡抗抖动单目标跟踪方法
CN117576380A (zh) * 2024-01-16 2024-02-20 成都流体动力创新中心 一种目标自主检测跟踪方法及系统

Also Published As

Publication number Publication date
CN110599519B (zh) 2022-11-08

Similar Documents

Publication Publication Date Title
CN110599519B (zh) 基于领域搜索策略的抗遮挡相关滤波跟踪方法
CN107481264B (zh) 一种自适应尺度的视频目标跟踪方法
Yi et al. An end‐to‐end steel strip surface defects recognition system based on convolutional neural networks
CN110569723A (zh) 一种结合特征融合与模型更新的目标跟踪方法
Gao et al. A deep learning based approach to classification of CT brain images
CN110084836B (zh) 基于深度卷积特征分层响应融合的目标跟踪方法
CN109741366B (zh) 一种融合多层卷积特征的相关滤波目标跟踪方法
CN108198209B (zh) 在发生遮挡和尺度变化情况下行人跟踪方法
CN110120064B (zh) 一种基于互强化与多注意机制学习的深度相关目标跟踪算法
CN103955688B (zh) 一种基于计算机视觉的斑马鱼群检测与跟踪方法
CN108961308B (zh) 一种漂移检测的残差深度特征目标跟踪方法
CN109035300B (zh) 一种基于深度特征与平均峰值相关能量的目标跟踪方法
CN111582349B (zh) 一种基于YOLOv3和核相关滤波改进的目标跟踪算法
CN111080675A (zh) 一种基于时空约束相关滤波的目标跟踪方法
CN112419203B (zh) 基于对抗网络的扩散加权图像压缩感知恢复方法及装置
CN110276784B (zh) 基于记忆机制与卷积特征的相关滤波运动目标跟踪方法
Ji et al. Bin-wise temperature scaling (BTS): improvement in confidence calibration performance through simple scaling techniques
CN113052873A (zh) 一种在线自监督学习场景适应的单目标跟踪方法
CN109784155B (zh) 基于验证和纠错机制的视觉目标跟踪方法、智能机器人
CN111340842A (zh) 一种基于联合模型的相关滤波目标跟踪算法
Hegenbart et al. Systematic assessment of performance prediction techniques in medical image classification a case study on celiac disease
CN110189365B (zh) 抗遮挡相关滤波跟踪方法
CN112561965A (zh) 基于相关滤波的实时长期跟踪方法
CN107273801B (zh) 一种视频多目标跟踪检测异常点的方法
CN113470074A (zh) 一种基于分块判别的自适应时空正则化目标跟踪算法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant