CN113989331A - 基于上下文多线索信息和自适应响应的长时目标跟踪方法 - Google Patents

基于上下文多线索信息和自适应响应的长时目标跟踪方法 Download PDF

Info

Publication number
CN113989331A
CN113989331A CN202111340975.5A CN202111340975A CN113989331A CN 113989331 A CN113989331 A CN 113989331A CN 202111340975 A CN202111340975 A CN 202111340975A CN 113989331 A CN113989331 A CN 113989331A
Authority
CN
China
Prior art keywords
target
filter
frame
tracking
scale
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
CN202111340975.5A
Other languages
English (en)
Inventor
王国刚
刘一博
梁美彦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanxi University
Original Assignee
Shanxi University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanxi University filed Critical Shanxi University
Priority to CN202111340975.5A priority Critical patent/CN113989331A/zh
Publication of CN113989331A publication Critical patent/CN113989331A/zh
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/248Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2411Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • G06F18/24155Bayesian classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/20Design optimisation, verification or simulation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/251Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2111/00Details relating to CAD techniques
    • G06F2111/04Constraint-based CAD
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Multimedia (AREA)
  • Probability & Statistics with Applications (AREA)
  • Computer Hardware Design (AREA)
  • Geometry (AREA)
  • Image Analysis (AREA)

Abstract

本发明属于计算机视觉领域,具体涉及基于上下文多线索信息和自适应响应的长时目标跟踪方法。本发明解决跟踪算法仅使用单一特征训练相关滤波器,目标表征能力不足和单个滤波器跟踪鲁棒性差的问题,改进后算法使用多种特征训练多个包含上下文感知信息的滤波器模型,提高了跟踪准确性;解决滤波器在目标受到遮挡或丢失的情况下后续跟踪失败的问题,改进后算法根据跟踪结果的可靠性对目标进行重检测,提高了跟踪精确度;解决不可靠跟踪结果更新模型造成的模型漂移问题,改进后算法通过更新判断机制,有效避免了模型漂移问题。

Description

基于上下文多线索信息和自适应响应的长时目标跟踪方法
技术领域
本发明属于计算机视觉领域,具体涉及基于上下文多线索信息和自适应响应的长时目标跟踪方法。
背景技术
目标跟踪作为高层视觉分析的基础技术,在视频监控、智能交通检测、医学图像分析、行为识别等诸多领域得到了广泛的应用,并逐渐成为计算机视觉领域中最热门的研究课题之一。在实际应用中,目标跟踪算法面临很多挑战因素,如遮挡、光照变化、背景噪声、运动模糊、目标姿态变化等,这些都会对跟踪结果产生很大影响,虽然已有不少优秀的跟踪算法在处理其中某些问题时能够获得较好的结果,但为了能够应对更多复杂场景,越来越多更加先进的方法和技术不断被提出。
近年来,对视觉跟踪算法的研究主要体现在深度学习和相关滤波两个方面。基于深度学习的视觉跟踪算法,利用神经网络提取目标特征,在大规模数据集上训练跟踪模型,能够实现精准跟踪。但该类算法,计算复杂,无法实现实时跟踪。因此,兼备跟踪实时性和精度的相关滤波(Correlation Filter,CF)算法成为目标跟踪领域研究的热点。Bolme等首次将相关滤波的概念引入跟踪领域,提出MOSSE跟踪算法,其核心思想是求图像中的二维信号间的相似性。Henriques等在MOSSE的基础上引入循环结构构建大量样本,并使用核技巧将不可分样本信息转入高维可分,提出CSK算法,相较于MOSSE算法性能得到了较大的提升,之后引入多通道特征,使用HOG特征代替原CSK算法中的灰度特征提出KCF算法。Danelijian等在CSK算法的基础上引入颜色特征提出了CN算法,将RGB空间的图像映射到11维颜色空间,并分别对每一维进行计算,进一步提高了跟踪算法的精度。此外,Danelijian等为了解决跟踪算法中尺度自适应问题,提出了DSST算法,使用一个一维尺度滤波器和一个二维的位置滤波器相互独立处理目标信息,使得跟踪结果更加可靠。
这些新发展起来的跟踪算法的性能虽然得到了极大提升,但仍然存在如下问题:
a)使用单一特征训练相关滤波器,对目标的表征能力不足,且单一的相关滤波器跟踪鲁棒性也较差。
b)相关滤波器在目标受到遮挡或丢失的情况下,会造成后续跟踪持续失败。
c)上述跟踪算法未考虑滤波器跟踪结果的可靠性,在每一帧均对滤波器进行更新,使用不可靠的跟踪结果更新模型将导致模型漂移。
发明内容
针对上述技术问题,本发明提出一种基于上下文多线索信息和自适应响应的长时目标跟踪方法,a)解决跟踪算法仅使用单一特征训练相关滤波器,目标表征能力不足和单个滤波器跟踪鲁棒性差的问题,改进后算法使用多种特征训练多个包含上下文感知信息的滤波器模型,提高了跟踪准确性;b)解决滤波器在目标受到遮挡或丢失的情况下后续跟踪失败的问题,改进后算法根据跟踪结果的可靠性对目标进行重检测,提高了跟踪精确度;c)解决不可靠跟踪结果更新模型造成的模型漂移问题,改进后算法通过更新判断机制,有效避免了模型漂移问题。
为了达到上述目的,本发明采用了下列技术方案:
一种基于上下文多线索信息和自适应响应的长时目标跟踪方法,包括以下步骤:
S1:输入第t-1帧视频图像,判断跟踪框分辨率并对跟踪目标进行调整;
S2:提取目标区域的颜色信息训练颜色直方图分类器,提取目标区域和周围图像块的HOG、MBLBP和CN特征,使用HOG特征训练尺度滤波器,利用三种特征组合训练多个包含上下文感知信息的并行相关滤波器;
S3:输入第t帧视频图像,以第t-1帧目标区域的位置为中心构建候选区域,分别计算直方图分类器和相关滤波器的目标响应;
S4:评估相关滤波器最优响应并与颜色直方图分类器响应进行自适应融合确定目标位置信息;
S5:判断目标位置信息可靠性,不可靠则激活重检测模块,训练在线SVM分类器重新检测目标;
S6:在目标最终位置使用尺度滤波器确定当前帧目标最佳尺度;
S7:最后在跟踪结果满足准确性的条件下对颜色直方图分类器、相关滤波器和尺度滤波器模型进行更新;
S8:重复步骤S1~S7,至全部视频序列处理完成。
进一步,所述S1中判断跟踪框分辨率并对跟踪目标进行调整的具体步骤为:
计算大小为M×N的跟踪框所包含的像素个数,当M×N≥100×100时,利用双立方插值将跟踪目标大小缩放为原来的0.5倍,padding设置为1.2;当M×N≤40×40时,利用双立方插值将跟踪目标大小缩放为原来的2倍,padding设置为2;其余情况,跟踪目标大小保持不变,padding设置为1.5。
进一步,所述S2中训练颜色直方图分类器具体步骤为:
给定输入图像I,
Figure BDA0003351975580000031
分别表示前景区域和背景区域的颜色直方图,
Figure BDA0003351975580000032
表示ψ∈I上的颜色直方图H在第b个区间的统计个数,其中ψ∈{F,B},由贝叶斯分类器得像素x的目标似然概率为:
Figure BDA0003351975580000041
其中,前景先验概率
Figure BDA0003351975580000042
背景先验概率
Figure BDA0003351975580000043
所述训练尺度滤波器的具体步骤为:
提取目标区域HOG特征,建模为如下最小二乘问题:
Figure BDA0003351975580000044
其中,h表示尺度滤波器,hl表示每个特征维度的尺度滤波器,f表示目标样本,fl为f的第l个特征通道,d表示特征维数,λ表示正则化参数,★和g分别表示循环相关和期望输出;
所述训练多个包含上下文感知信息的并行相关滤波器的具体步骤为:
提取目标区域和其周围k个图像块的HOG、MBLBP和CN特征信息,建模为如下约束最优化问题:
Figure BDA0003351975580000045
其中,w表示相关滤波器,y表示回归目标,λ1和λ2表示正则化参数,A0表示目标区域特征信息,Ai表示第i个图像块特征信息。
进一步,所述S3中计算直方图分类器和相关滤波器的目标响应,具体步骤为:
在第t帧,以t-1帧确定的目标区域z为中心,经过循环移位构建待测样本集Z,直方图分类器通过计算目标似然概率积分图,可得目标区域的响应:
Figure BDA0003351975580000046
相关滤波器的目标响应计算为:
Figure BDA0003351975580000051
其中,rp表示响应值,⊙表示矩阵元素点乘,∧表示傅里叶变换,*表示共轭,
Figure BDA0003351975580000052
表示约束最优化问题的闭式解,即训练所得相关滤波器,公式如下:
Figure BDA0003351975580000053
其中,
Figure BDA0003351975580000054
表示傅里叶域中目标区域特征信息,
Figure BDA0003351975580000055
表示傅里叶域中第i个图像块特征信息,
Figure BDA0003351975580000056
表示傅里叶域中回归目标,λ12表示参数,*表示共轭。
进一步,所述S4中评估相关滤波器最优响应并与直方图分类器响应进行自适应融合确定目标位置信息具体步骤为:
通过成对评估和自我评估从多个相关滤波器响应中筛选出当前帧滤波器的最佳结果,所述成对评估计算公式为:
Figure BDA0003351975580000057
其中,ζ表示小常数,避免分母为零;
Figure BDA0003351975580000058
表示重叠率得分均值,表示第i个相关滤波器与其它相关滤波器之间的一致性;
Figure BDA0003351975580000059
Figure BDA00033519755800000510
表示重叠率得分方差,表示短时间Δt内相关滤波器之间重叠率的稳定性;Wτ表示在序列W中第(τ-t+Δt)个元素,
Figure BDA00033519755800000511
表示归一化因子,τ∈[t-Δt+1,t]表示时间指数;
所述自我评估计算公式为:
Figure BDA00033519755800000512
其中,
Figure BDA00033519755800000513
表示第i个相关滤波器轨迹的波动程度;
所述成对评估和自我评估线性加权计算相关滤波器的鲁棒性得分Rt(Ti),计算公式为:
Figure BDA0003351975580000061
其中,μ为权重参数,Rt(Ti)最大的相关滤波器响应即为所选最佳结果,也就是最优响应;
最终利用相对峰值能量置信度调节融合系数αt,将相关滤波器最佳结果与颜色直方图分类器响应结果进行自适应融合,确定当前帧目标最终预测位置,计算公式为:
f(x)=(1-αt)fcf(x)+αtfhist(x)
其中,fcf(x)表示相关滤波器最佳响应结果,fhist(x)表示颜色直方图分类器响应结果,
Figure BDA0003351975580000062
表示第t帧时的融合系数,ρ为影响因子,α为常数系数,rt表示相对峰值能量置信度,公式如下:
Figure BDA0003351975580000063
其中,EAPEC_cf为相关滤波器的平均峰值相关能量APEC,EAPEC_hist为颜色直方图分类器的平均峰值相关能量APEC。
进一步,所述S5中判断目标位置信息可靠性具体步骤为:
当目标跟踪失败或受到遮挡的情况下,步骤S4的跟踪结果不一定可靠,利用最大值响应Fmax和平均峰值相关能量APCE衡量预测位置的置信度水平,当置信度大于设定阈值Tr时,跟踪结果可靠,使用该结果继续预测下一帧目标,并更新SVM分类器;当置信度小于设定阈值Tr时,利用SVM分类器进行重检测,并重新评估重检测结果置信度水平,大于阈值Tr,则将重检测结果作为跟踪预测位置,否则不更新SVM分类器,并继续预测下一帧目标。
进一步,所述S6中在目标最终位置使用尺度滤波器确定当前帧目标最佳尺度具体步骤为:
以第t-1帧确定的目标预测位置为中心,构建具有S个不同大小尺度框的尺度金字塔,设目标跟踪框大小为W×H,尺度框构建原则为:
Figure BDA0003351975580000071
其中,a表示比例因子,Jn表示第n个尺度框;
提取尺度框的HOG特征,计算尺度滤波器与尺度金字塔的的最大响应得分:
yt=F-1(Hl⊙Zl)
其中,yt表示第t帧尺度框响应得分,F-1表示逆傅里叶变换,Hl表示尺度滤波器(Hl为傅里叶域中的尺度滤波器表达形式,h为时域中的尺度滤波器表达形式),Zl表示待测样本,yt最大对应的尺度框即为第t帧目标的最佳尺度。
进一步,所述S7中对颜色直方图分类器、相关滤波器和尺度滤波器模型进行更新具体步骤为:
为避免模型漂移,颜色直方图分类器、相关滤波器和尺度滤波器只在当前帧响应最大值Fmax大于等于θ1和平均峰值相关能量APCE与其各自历史均值的比值大于等于θ2时,认为跟踪可靠,并更新颜色直方图分类器、相关滤波器和尺度滤波器模型,否则不更新;
所诉相关滤波器和尺度滤波器模型更新策略为:
Figure BDA0003351975580000072
其中,
Figure BDA0003351975580000073
Figure BDA0003351975580000074
分别表示第t帧和前t-1帧迭代训练的滤波器,
Figure BDA0003351975580000075
Figure BDA0003351975580000076
分别表示第t帧和前t-1帧迭代训练的尺度滤波器,η表示学习率;
所述直方图分类器模型更新策略分别对前景区域和背景区域直方图进行更新:
Figure BDA0003351975580000081
其中,
Figure BDA0003351975580000082
Figure BDA0003351975580000083
分别表示第t帧和第t-1帧前景区域直方图,
Figure BDA0003351975580000084
Figure BDA0003351975580000085
分别表示第t帧和第t-1帧背景区域直方图,η表示学习率。
与现有技术相比本发明具有以下优点:
a)本发明在跟踪初始化时,对不同分辨率视频跟踪目标大小和特征提取区域作相应预处理,可增强对目标的表征能力或减少目标特征的冗余信息,进而提高目标跟踪性能,并保证跟踪实时性。
b)使用目标和目标周围图像块多种特征,训练多个包含上下文感知信息的相关滤波器,有效提高相关滤波器的判别能力,减少边界效应;从多个相关滤波器筛选最优结果,增强了跟踪鲁棒性。
c)对颜色直方图分类器跟踪结果和相关滤波器跟踪结果进行自适应融合,确定目标最终预测位置,提升了跟踪精度;采用响应最大值和平均峰值相关能量APCE对跟踪结果进行可靠性判断,在结果不可靠时进行重检测,减少因目标丢失所造成的后续帧跟踪失败的情况,提高了跟踪准确性和成功率。
d)在模型更新阶段,采用Fmax和APCE作为判断模型是否更新的指标,防止了在遮挡或跟踪结果不佳的情况下更新滤波器带来的模型污染,避免了模型漂移。
附图说明
图1是本发明实施的整体流程图。
具体实施方式
为了更加清晰全面的了解本发明的技术方案、目的和有益效果,下面将结合附图及实施例对本发明作进一步的详细说明,本领域技术人员根据说明书可轻易了解本发明的目的和优点。应当注意,本实施例仅是本发明的一部分实例,本发明还可以根据不同实施方式和具体场景加以应用,在没有作出创造性工作的前提下,其它实施例均属于本发明的保护范围。
以下描述实施列仅用以解释本发明,并不用于限定本发明的范围。
参阅图1,本发明的一种基于上下文多线索信息和自适应响应的长时目标跟踪方法,包括以下步骤:
S1:输入第t-1帧视频图像,判断跟踪框分辨率并对跟踪目标进行调整;
计算大小为M×N的跟踪框所包含的像素个数,当M×N≥100×100时,利用双立方插值将跟踪目标大小缩放为原来的0.5倍,padding设置为1.2;当M×N≤40×40时,利用双立方插值将跟踪目标大小缩放为原来的2倍,padding设置为2;其余情况,跟踪目标大小保持不变,padding设置为1.5。此时的目标特征提取区域为size*(1+padding)。
S2:提取目标区域的颜色信息训练颜色直方图分类器,提取目标区域和周围图像块的HOG、MBLBP和CN特征,使用HOG特征训练尺度滤波器,利用三种特征组合训练多个包含上下文感知信息的并行相关滤波器;
所述训练颜色直方图分类器的具体步骤为:
给定输入图像I,
Figure BDA0003351975580000091
分别表示前景区域和背景区域的颜色直方图,
Figure BDA0003351975580000092
表示ψ∈I上的颜色直方图H在第b个区间的统计个数,其中ψ∈{F,B},由贝叶斯分类器得像素x的目标似然概率为:
Figure BDA0003351975580000093
其中,前景先验概率
Figure BDA0003351975580000094
背景先验概率
Figure BDA0003351975580000095
所述训练尺度滤波器的具体步骤为:
提取目标区域HOG特征,建模为如下最小二乘问题:
Figure BDA0003351975580000101
其中,h表示尺度滤波器,hl表示每个特征维度的尺度滤波器,f表示目标样本,fl为f的第l个特征通道,d表示特征维数,λ表示正则化参数,★和g分别表示循环相关和期望输出;
所述训练多个包含上下文感知信息的并行相关滤波器的具体步骤为:
提取目标区域和其周围k个图像块的HOG、CN和MBLBP三种特征信息,对特征进行三种线性组合:HOG+CN、CN+MBLBP、HOG+CN+MBLBP,训练三个包含上下文感知信息的相关滤波器,建模为如下约束最优化问题:
Figure BDA0003351975580000102
其中,w表示相关滤波器,y表示回归目标,λ1和λ2表示正则化参数,A0表示目标区域特征信息,Ai表示第i个图像块特征信息。
S3:输入第t帧视频图像,以第t-1帧目标区域的位置为中心构建候选区域,分别计算直方图分类器和相关滤波器的目标响应;
在第t帧,以t-1帧确定的目标区域z为中心,经过循环移位构建待测样本集Z,直方图分类器通过计算目标似然概率积分图,可得目标区域的响应:
Figure BDA0003351975580000103
相关滤波器的目标响应计算为:
Figure BDA0003351975580000104
其中,rp表示响应值,⊙表示矩阵元素点乘,∧表示傅里叶变换,
Figure BDA0003351975580000105
表示约束最优化问题的闭式解,即训练所得相关滤波器,公式如下:
Figure BDA0003351975580000106
其中,
Figure BDA0003351975580000111
表示傅里叶域中目标区域特征信息,
Figure BDA0003351975580000112
表示傅里叶域中第i个图像块特征信息,
Figure BDA0003351975580000113
表示傅里叶域中回归目标,λ12表示参数,*表示共轭。
S4:评估相关滤波器最优响应并与颜色直方图分类器响应进行自适应融合确定目标位置信息;
经过步骤S2得到三种使用不同特征训练的包含上下文感知信息的相关滤波器,在后续视频帧中并行跟踪目标,每一帧得到三个相关滤波器的跟踪响应,通过成对评估和自我评估从多个相关滤波器响应中筛选出当前帧滤波器的最佳结果,所述成对评估计算公式为:
Figure BDA0003351975580000114
其中,ζ表示小常数,避免分母为零;
Figure BDA0003351975580000115
表示重叠率得分均值,表示第i个相关滤波器与其它相关滤波器之间的一致性;
Figure BDA0003351975580000116
Figure BDA0003351975580000117
表示重叠率得分方差,表示短时间Δt内相关滤波器之间重叠率的稳定性;Wτ表示在序列W中第(τ-t+Δt)个元素,
Figure BDA0003351975580000118
表示归一化因子,τ∈[t-Δt+1,t]表示时间指数;
所述自我评估计算公式为:
Figure BDA0003351975580000119
其中,
Figure BDA00033519755800001110
表示第i个相关滤波器轨迹的波动程度;
所述成对评估和自我评估线性加权计算相关滤波器的鲁棒性得分Rt(Ti),计算公式为:
Figure BDA00033519755800001111
其中,μ为权重参数,Rt(Ti)最大的相关滤波器响应即为所选最佳结果,也就是最优响应;
最终利用相对峰值能量置信度调节融合系数αt,将相关滤波器最佳结果与颜色直方图分类器响应结果进行自适应融合,确定当前帧目标最终预测位置,计算公式为:
f(x)=(1-αt)fcf(x)+αtfhist(x)
其中,fcf(x)表示相关滤波器最佳响应结果,fhist(x)表示颜色直方图分类器响应结果,
Figure BDA0003351975580000121
表示第t帧时的融合系数,ρ为影响因子,ρ越大,相对峰值能量置信度对融合系数的影响越大,α为常数系数,rt表示相对峰值能量置信度,公式如下:
Figure BDA0003351975580000122
其中,EAPEC_cf为相关滤波器的平均峰值相关能量APEC,EAPEC_hist为颜色直方图分类器的平均峰值相关能量APEC。
平均相关峰值能量APCE计算公式为:
Figure BDA0003351975580000123
其中,Fmax表示响应图峰值,Fmin表示响应图最低值,Fw,h表示坐标(w,h)处的响应值,mean(·)表示求均值。EAPCE反映了响应图的震荡程度。
S5:判断目标位置信息可靠性,不可靠则激活重检测模块,训练在线SVM分类器重新检测目标;
当目标跟踪失败或受到遮挡的情况下,步骤S4的跟踪结果不一定可靠,利用最大值响应Fmax和平均峰值相关能量APCE衡量预测位置的置信度水平,当置信度大于设定阈值Tr时,跟踪结果可靠,使用该结果继续预测下一帧目标,并更新SVM分类器;当置信度小于设定阈值Tr时,利用SVM分类器进行重检测,并重新评估重检测结果置信度水平,大于阈值Tr,则将重检测结果作为跟踪预测位置,否则不更新SVM分类器,并继续预测下一帧目标。
S6:在目标最终位置使用尺度滤波器确定当前帧目标最佳尺度;
以第t-1帧确定的目标预测位置为中心,构建具有S个不同大小尺度框的尺度金字塔,这里S取值33,尺度金字塔构建方式为:
设目标跟踪框大小为W×H,尺度框构建原则为:
Figure BDA0003351975580000131
其中,a=1.02表示比例因子,Jn表示第n个尺度框。
提取尺度框的HOG特征,计算尺度滤波器与尺度金字塔的的最大响应得分:
yt=F-1(Hl⊙Zl)
其中,yt表示第t帧尺度框响应得分,F-1表示逆傅里叶变换,Hl表示尺度滤波器,Zl表示待测样本。yt最大对应的尺度框即为第t帧目标的最佳尺度。
S7:最后在跟踪结果满足准确性的条件下对颜色直方图分类器、相关滤波器和尺度滤波器模型进行更新;
为避免模型漂移,滤波器(滤波器包括相关滤波器和尺度滤波器)和分类器只在当前帧响应最大值Fmax和平均峰值相关能量APCE与其各自历史均值的比值分别大于等于θ1和θ2时,认为跟踪结果可靠,判断条件为:
Figure BDA0003351975580000132
满足上述判断条件后,对滤波器模型和分类器模型进行更新,否则不更新。
相关滤波器和尺度滤波器模型更新策略为:
Figure BDA0003351975580000141
其中,
Figure BDA0003351975580000142
Figure BDA0003351975580000143
分别表示第t帧和前t-1帧迭代训练的相关滤波器,
Figure BDA0003351975580000144
Figure BDA0003351975580000145
分别表示第t帧和前t-1帧迭代训练的尺度滤波器,η表示学习率。
直方图分类器模型更新策略分别对前景区域和背景区域直方图进行更新:
Figure BDA0003351975580000146
其中,
Figure BDA0003351975580000147
Figure BDA0003351975580000148
分别表示第t帧和第t-1帧前景区域直方图,
Figure BDA0003351975580000149
Figure BDA00033519755800001410
分别表示第t帧和第t-1帧背景区域直方图,η表示学习率。
S8:重复步骤S1~S7,至全部视频序列处理完成。
应当理解,以上所述仅是结合实施例和技术方案流程图对本发明进行了详细说明,而非限制本发明的保护范围。任何领域的研究人员在不脱离本发明技术方案的宗旨和思想的前提下,对本发明的技术方案进行修改或替换,仍然属于本发明的权力要求保护范围之内。

Claims (8)

1.一种基于上下文多线索信息和自适应响应的长时目标跟踪方法,其特征在于,包括以下步骤:
S1:输入第t-1帧视频图像,判断跟踪框分辨率并对跟踪目标进行调整;
S2:提取目标区域的颜色信息训练颜色直方图分类器,提取目标区域和周围图像块的HOG、MBLBP和CN特征,使用HOG特征训练尺度滤波器,利用三种特征组合训练多个包含上下文感知信息的并行相关滤波器;
S3:输入第t帧视频图像,以第t-1帧目标区域的位置为中心构建候选区域,分别计算直方图分类器和相关滤波器的目标响应;
S4:评估相关滤波器最优响应并与颜色直方图分类器响应进行自适应融合确定目标位置信息;
S5:判断目标位置信息可靠性,不可靠则激活重检测模块,训练在线SVM分类器重新检测目标;
S6:在目标最终位置使用尺度滤波器确定当前帧目标最佳尺度;
S7:最后在跟踪结果满足准确性的条件下对颜色直方图分类器、相关滤波器和尺度滤波器模型进行更新;
S8:重复步骤S1~S7,至全部视频序列处理完成。
2.根据权利要求1所述的一种基于上下文多线索信息和自适应响应的长时目标跟踪方法,其特征在于,所述S1中判断跟踪框分辨率并对跟踪目标进行调整的具体步骤为:
计算大小为M×N的跟踪框所包含的像素个数,当M×N≥100×100时,利用双立方插值将跟踪目标大小缩放为原来的0.5倍,padding设置为1.2;当M×N≤40×40时,利用双立方插值将跟踪目标大小缩放为原来的2倍,padding设置为2;其余情况,跟踪目标大小保持不变,padding设置为1.5。
3.根据权利要求1所述的一种基于上下文多线索信息和自适应响应的长时目标跟踪方法,其特征在于,所述S2中训练颜色直方图分类器的具体步骤为:
给定输入图像I,
Figure FDA0003351975570000021
分别表示前景区域和背景区域的颜色直方图,
Figure FDA0003351975570000022
表示ψ∈I上的颜色直方图H在第b个区间的统计个数,其中ψ∈{F,B},由贝叶斯分类器得像素x的目标似然概率为:
Figure FDA0003351975570000023
其中,前景先验概率
Figure FDA0003351975570000024
背景先验概率
Figure FDA0003351975570000025
所述训练尺度滤波器的具体步骤为:
提取目标区域HOG特征,建模为如下最小二乘问题:
Figure FDA0003351975570000026
其中,h表示尺度滤波器,hl表示每个特征维度的尺度滤波器,f表示目标样本,fl为f的第l个特征通道,d表示特征维数,λ表示正则化参数,★和g分别表示循环相关和期望输出;
所述训练多个包含上下文感知信息的并行相关滤波器的具体步骤为:
提取目标区域和其周围k个图像块的HOG、MBLBP和CN特征信息,建模为如下约束最优化问题:
Figure FDA0003351975570000027
其中,w表示相关滤波器,y表示回归目标,λ1和λ2表示正则化参数,A0表示目标区域特征信息,Ai表示第i个图像块特征信息。
4.根据权利要求1所述的一种基于上下文多线索信息和自适应响应的长时目标跟踪方法,其特征在于,所述S3中计算直方图分类器和相关滤波器的目标响应,具体步骤为:
在第t帧,以t-1帧确定的目标区域z为中心,经过循环移位构建待测样本集Z,直方图分类器通过计算目标似然概率积分图,可得目标区域的响应:
Figure FDA0003351975570000031
相关滤波器的目标响应计算为:
Figure FDA0003351975570000032
其中,rp表示响应值,⊙表示矩阵元素点乘,∧表示傅里叶变换,*表示共轭,
Figure FDA0003351975570000033
表示约束最优化问题的闭式解,即训练所得相关滤波器,公式如下:
Figure FDA0003351975570000034
其中,
Figure FDA0003351975570000035
表示傅里叶域中目标区域特征信息,
Figure FDA0003351975570000036
表示傅里叶域中第i个图像块特征信息,
Figure FDA0003351975570000037
表示傅里叶域中回归目标,λ12表示参数,*表示共轭。
5.根据权利要求1所述的一种基于上下文多线索信息和自适应响应的长时目标跟踪方法,其特征在于,所述S4中评估相关滤波器最优响应并与直方图分类器响应进行自适应融合确定目标位置信息具体步骤为:
通过成对评估和自我评估从多个相关滤波器响应中筛选出当前帧滤波器的最佳结果,所述成对评估计算公式为:
Figure FDA0003351975570000038
其中,ζ表示小常数,避免分母为零;
Figure FDA0003351975570000039
Figure FDA00033519755700000310
表示重叠率得分均值,表示第i个相关滤波器与其它相关滤波器之间的一致性;
Figure FDA00033519755700000311
Figure FDA00033519755700000312
表示重叠率得分方差,表示短时间Δt内相关滤波器之间重叠率的稳定性;Wτ表示在序列W中第(τ-t+Δt)个元素,
Figure FDA0003351975570000041
表示归一化因子,τ∈[t-Δt+1,t]表示时间指数;
所述自我评估计算公式为:
Figure FDA0003351975570000042
其中,
Figure FDA0003351975570000043
表示第i个相关滤波器轨迹的波动程度;
所述成对评估和自我评估线性加权计算相关滤波器的鲁棒性得分Rt(Ti),计算公式为:
Figure FDA0003351975570000044
其中,μ为权重参数,Rt(Ti)最大的相关滤波器响应即为所选最佳结果,也就是最优响应;
最终利用相对峰值能量置信度调节融合系数αt,将相关滤波器最佳结果与颜色直方图分类器响应结果进行自适应融合,确定当前帧目标最终预测位置,计算公式为:
f(x)=(1-αt)fcf(x)+αtfhist(x)
其中,fcf(x)表示相关滤波器最佳响应结果,fhist(x)表示颜色直方图分类器响应结果,
Figure FDA0003351975570000045
表示第t帧时的融合系数,ρ为影响因子,α为为常数系数,rt表示相对峰值能量置信度,公式如下:
Figure FDA0003351975570000046
其中,EAPEC_cf为相关滤波器的平均峰值相关能量APEC,EAPEC_hist为颜色直方图分类器的平均峰值相关能量APEC。
6.根据权利要求1所述的一种基于上下文多线索信息和自适应响应的长时目标跟踪方法,其特征在于,所述S5中判断目标位置信息可靠性具体步骤为:
利用最大值响应Fmax和平均峰值相关能量APCE衡量预测位置的置信度水平,当置信度大于设定阈值Tr时,跟踪结果可靠,使用该结果继续预测下一帧目标,并更新SVM分类器;当置信度小于设定阈值Tr时,利用SVM分类器进行重检测,并重新评估重检测结果置信度水平,大于阈值Tr,则将重检测结果作为跟踪预测位置,否则不更新SVM分类器,并继续预测下一帧目标。
7.根据权利要求1所述的一种基于上下文多线索信息和自适应响应的长时目标跟踪方法,其特征在于,所述S6中在目标最终位置使用尺度滤波器确定当前帧目标最佳尺度具体步骤为:
以第t-1帧确定的目标预测位置为中心,构建具有S个不同大小尺度框的尺度金字塔,设目标跟踪框大小为W×H,尺度框构建原则为:
Figure FDA0003351975570000051
其中,a表示比例因子,Jn表示第n个尺度框;
提取尺度框的HOG特征,计算尺度滤波器与尺度金字塔的的最大响应得分:
yt=F-1(Hl⊙Zl)
其中,yt表示第t帧尺度框响应得分,F-1表示逆傅里叶变换,Hl表示尺度滤波器,Zl表示待测样本,yt最大对应的尺度框即为第t帧目标的最佳尺度。
8.根据权利要求1所述的一种基于上下文多线索信息和自适应响应的长时目标跟踪方法,其特征在于,所述S7中对颜色直方图分类器、相关滤波器和尺度滤波器模型进行更新具体步骤为:
颜色直方图分类器、相关滤波器和尺度滤波器只在当前帧响应最大值Fmax大于等于θ1和平均峰值相关能量APCE与其各自历史均值的比值大于等于θ2时,认为跟踪可靠,并更新颜色直方图分类器、相关滤波器和尺度滤波器模型,否则不更新;
所述相关滤波器和尺度滤波器模型更新策略为:
Figure FDA0003351975570000061
其中,
Figure FDA0003351975570000062
Figure FDA0003351975570000063
分别表示第t帧和前t-1帧迭代训练的相关滤波器,
Figure FDA0003351975570000064
Figure FDA0003351975570000065
分别表示第t帧和前t-1帧迭代训练的尺度滤波器,η表示学习率;
所述直方图分类器模型更新策略分别对前景区域和背景区域直方图进行更新:
Figure FDA0003351975570000066
其中,
Figure FDA0003351975570000067
Figure FDA0003351975570000068
分别表示第t帧和第t-1帧前景区域直方图,
Figure FDA0003351975570000069
Figure FDA00033519755700000610
分别表示第t帧和第t-1帧背景区域直方图,η表示学习率。
CN202111340975.5A 2021-11-12 2021-11-12 基于上下文多线索信息和自适应响应的长时目标跟踪方法 Withdrawn CN113989331A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111340975.5A CN113989331A (zh) 2021-11-12 2021-11-12 基于上下文多线索信息和自适应响应的长时目标跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111340975.5A CN113989331A (zh) 2021-11-12 2021-11-12 基于上下文多线索信息和自适应响应的长时目标跟踪方法

Publications (1)

Publication Number Publication Date
CN113989331A true CN113989331A (zh) 2022-01-28

Family

ID=79748242

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111340975.5A Withdrawn CN113989331A (zh) 2021-11-12 2021-11-12 基于上下文多线索信息和自适应响应的长时目标跟踪方法

Country Status (1)

Country Link
CN (1) CN113989331A (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114708300A (zh) * 2022-03-02 2022-07-05 北京理工大学 一种可抗遮挡的自适应目标跟踪方法及系统
CN115019249A (zh) * 2022-05-29 2022-09-06 北京工业大学 一种改进的核相关滤波跟踪算法
CN115061574A (zh) * 2022-07-06 2022-09-16 陈伟 一种基于视觉核心算法的人机交互系统
CN115631216A (zh) * 2022-12-21 2023-01-20 中航金城无人系统有限公司 一种基于多特征滤波器融合的云台目标跟踪系统和方法
CN116168322A (zh) * 2023-01-10 2023-05-26 中国人民解放军军事科学院国防科技创新研究院 一种基于多模态融合的无人机长时跟踪方法及系统
CN117635665A (zh) * 2024-01-25 2024-03-01 浙江航天润博测控技术有限公司 基于相关滤波的抗遮挡目标跟踪方法

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114708300A (zh) * 2022-03-02 2022-07-05 北京理工大学 一种可抗遮挡的自适应目标跟踪方法及系统
CN115019249A (zh) * 2022-05-29 2022-09-06 北京工业大学 一种改进的核相关滤波跟踪算法
CN115019249B (zh) * 2022-05-29 2024-06-11 北京工业大学 一种改进的核相关滤波跟踪算法
CN115061574A (zh) * 2022-07-06 2022-09-16 陈伟 一种基于视觉核心算法的人机交互系统
CN115631216A (zh) * 2022-12-21 2023-01-20 中航金城无人系统有限公司 一种基于多特征滤波器融合的云台目标跟踪系统和方法
CN116168322A (zh) * 2023-01-10 2023-05-26 中国人民解放军军事科学院国防科技创新研究院 一种基于多模态融合的无人机长时跟踪方法及系统
CN116168322B (zh) * 2023-01-10 2024-02-23 中国人民解放军军事科学院国防科技创新研究院 一种基于多模态融合的无人机长时跟踪方法及系统
CN117635665A (zh) * 2024-01-25 2024-03-01 浙江航天润博测控技术有限公司 基于相关滤波的抗遮挡目标跟踪方法

Similar Documents

Publication Publication Date Title
CN113989331A (zh) 基于上下文多线索信息和自适应响应的长时目标跟踪方法
CN108986140B (zh) 基于相关滤波和颜色检测的目标尺度自适应跟踪方法
CN112446270B (zh) 行人再识别网络的训练方法、行人再识别方法和装置
CN110084836B (zh) 基于深度卷积特征分层响应融合的目标跟踪方法
CN110211157B (zh) 一种基于相关滤波的目标长时跟踪方法
CN110728697A (zh) 基于卷积神经网络的红外弱小目标检测跟踪方法
CN112837344B (zh) 一种基于条件对抗生成孪生网络的目标跟踪方法
CN111612817A (zh) 基于深浅特征自适应融合与上下文信息的目标跟踪方法
CN112785622B (zh) 一种水面无人船长时跟踪方法、装置及存储介质
CN111476819A (zh) 一种基于多相关滤波模型的长时目标跟踪方法
CN111640138B (zh) 一种目标跟踪方法、装置、设备及存储介质
CN113592896B (zh) 基于图像处理的鱼类投喂方法、系统、设备及存储介质
CN107452022A (zh) 一种视频目标跟踪方法
CN113822352B (zh) 基于多特征融合的红外弱小目标检测方法
CN111199245A (zh) 油菜害虫识别方法
CN114241511A (zh) 一种弱监督行人检测方法、系统、介质、设备及处理终端
CN114648806A (zh) 一种多机制自适应的眼底图像分割方法
CN114612508A (zh) 一种多特征在线学习的抗遮挡相关滤波目标跟踪方法
Kadim et al. Deep-learning based single object tracker for night surveillance.
CN115830319A (zh) 一种基于注意力机制的斜视虹膜分割方法及验证方法
CN117475357B (zh) 基于深度学习的监控视频图像遮挡检测方法及系统
CN111105436B (zh) 目标跟踪方法、计算机设备及存储介质
CN111539985A (zh) 一种融合多特征的自适应运动目标跟踪方法
CN117253192A (zh) 用于桑蚕养殖的智能系统及方法
CN117218545A (zh) 基于LBP特征与改进Yolov5的雷达图像检测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WW01 Invention patent application withdrawn after publication

Application publication date: 20220128

WW01 Invention patent application withdrawn after publication