CN113989331A - 基于上下文多线索信息和自适应响应的长时目标跟踪方法 - Google Patents
基于上下文多线索信息和自适应响应的长时目标跟踪方法 Download PDFInfo
- Publication number
- CN113989331A CN113989331A CN202111340975.5A CN202111340975A CN113989331A CN 113989331 A CN113989331 A CN 113989331A CN 202111340975 A CN202111340975 A CN 202111340975A CN 113989331 A CN113989331 A CN 113989331A
- Authority
- CN
- China
- Prior art keywords
- target
- filter
- frame
- tracking
- scale
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000000034 method Methods 0.000 title claims abstract description 18
- 230000008649 adaptation response Effects 0.000 title claims description 10
- 230000007774 longterm Effects 0.000 title claims description 8
- 230000004044 response Effects 0.000 claims abstract description 62
- 230000008447 perception Effects 0.000 claims abstract description 11
- 238000012549 training Methods 0.000 claims description 26
- 238000011156 evaluation Methods 0.000 claims description 15
- 238000001514 detection method Methods 0.000 claims description 13
- 230000004927 fusion Effects 0.000 claims description 11
- 238000004364 calculation method Methods 0.000 claims description 10
- 102400000832 Antiplasmin-cleaving enzyme FAP, soluble form Human genes 0.000 claims description 9
- 101800000492 Antiplasmin-cleaving enzyme FAP, soluble form Proteins 0.000 claims description 9
- UXUFTKZYJYGMGO-CMCWBKRRSA-N (2s,3s,4r,5r)-5-[6-amino-2-[2-[4-[3-(2-aminoethylamino)-3-oxopropyl]phenyl]ethylamino]purin-9-yl]-n-ethyl-3,4-dihydroxyoxolane-2-carboxamide Chemical compound O[C@@H]1[C@H](O)[C@@H](C(=O)NCC)O[C@H]1N1C2=NC(NCCC=3C=CC(CCC(=O)NCCN)=CC=3)=NC(N)=C2N=C1 UXUFTKZYJYGMGO-CMCWBKRRSA-N 0.000 claims description 6
- 238000005457 optimization Methods 0.000 claims description 6
- 238000010276 construction Methods 0.000 claims description 4
- 238000012545 processing Methods 0.000 claims description 4
- 230000003213 activating effect Effects 0.000 claims description 3
- 125000004122 cyclic group Chemical group 0.000 claims description 3
- 239000011159 matrix material Substances 0.000 claims description 3
- 238000010606 normalization Methods 0.000 claims description 3
- 238000012512 characterization method Methods 0.000 abstract description 3
- 230000007246 mechanism Effects 0.000 abstract description 2
- 230000000007 visual effect Effects 0.000 description 3
- 241000195940 Bryophyta Species 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000010355 oscillation Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
- G06T7/248—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2411—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
- G06F18/24155—Bayesian classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F30/00—Computer-aided design [CAD]
- G06F30/20—Design optimisation, verification or simulation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
- G06T7/251—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2111/00—Details relating to CAD techniques
- G06F2111/04—Constraint-based CAD
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30241—Trajectory
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Multimedia (AREA)
- Probability & Statistics with Applications (AREA)
- Computer Hardware Design (AREA)
- Geometry (AREA)
- Image Analysis (AREA)
Abstract
本发明属于计算机视觉领域,具体涉及基于上下文多线索信息和自适应响应的长时目标跟踪方法。本发明解决跟踪算法仅使用单一特征训练相关滤波器,目标表征能力不足和单个滤波器跟踪鲁棒性差的问题,改进后算法使用多种特征训练多个包含上下文感知信息的滤波器模型,提高了跟踪准确性;解决滤波器在目标受到遮挡或丢失的情况下后续跟踪失败的问题,改进后算法根据跟踪结果的可靠性对目标进行重检测,提高了跟踪精确度;解决不可靠跟踪结果更新模型造成的模型漂移问题,改进后算法通过更新判断机制,有效避免了模型漂移问题。
Description
技术领域
本发明属于计算机视觉领域,具体涉及基于上下文多线索信息和自适应响应的长时目标跟踪方法。
背景技术
目标跟踪作为高层视觉分析的基础技术,在视频监控、智能交通检测、医学图像分析、行为识别等诸多领域得到了广泛的应用,并逐渐成为计算机视觉领域中最热门的研究课题之一。在实际应用中,目标跟踪算法面临很多挑战因素,如遮挡、光照变化、背景噪声、运动模糊、目标姿态变化等,这些都会对跟踪结果产生很大影响,虽然已有不少优秀的跟踪算法在处理其中某些问题时能够获得较好的结果,但为了能够应对更多复杂场景,越来越多更加先进的方法和技术不断被提出。
近年来,对视觉跟踪算法的研究主要体现在深度学习和相关滤波两个方面。基于深度学习的视觉跟踪算法,利用神经网络提取目标特征,在大规模数据集上训练跟踪模型,能够实现精准跟踪。但该类算法,计算复杂,无法实现实时跟踪。因此,兼备跟踪实时性和精度的相关滤波(Correlation Filter,CF)算法成为目标跟踪领域研究的热点。Bolme等首次将相关滤波的概念引入跟踪领域,提出MOSSE跟踪算法,其核心思想是求图像中的二维信号间的相似性。Henriques等在MOSSE的基础上引入循环结构构建大量样本,并使用核技巧将不可分样本信息转入高维可分,提出CSK算法,相较于MOSSE算法性能得到了较大的提升,之后引入多通道特征,使用HOG特征代替原CSK算法中的灰度特征提出KCF算法。Danelijian等在CSK算法的基础上引入颜色特征提出了CN算法,将RGB空间的图像映射到11维颜色空间,并分别对每一维进行计算,进一步提高了跟踪算法的精度。此外,Danelijian等为了解决跟踪算法中尺度自适应问题,提出了DSST算法,使用一个一维尺度滤波器和一个二维的位置滤波器相互独立处理目标信息,使得跟踪结果更加可靠。
这些新发展起来的跟踪算法的性能虽然得到了极大提升,但仍然存在如下问题:
a)使用单一特征训练相关滤波器,对目标的表征能力不足,且单一的相关滤波器跟踪鲁棒性也较差。
b)相关滤波器在目标受到遮挡或丢失的情况下,会造成后续跟踪持续失败。
c)上述跟踪算法未考虑滤波器跟踪结果的可靠性,在每一帧均对滤波器进行更新,使用不可靠的跟踪结果更新模型将导致模型漂移。
发明内容
针对上述技术问题,本发明提出一种基于上下文多线索信息和自适应响应的长时目标跟踪方法,a)解决跟踪算法仅使用单一特征训练相关滤波器,目标表征能力不足和单个滤波器跟踪鲁棒性差的问题,改进后算法使用多种特征训练多个包含上下文感知信息的滤波器模型,提高了跟踪准确性;b)解决滤波器在目标受到遮挡或丢失的情况下后续跟踪失败的问题,改进后算法根据跟踪结果的可靠性对目标进行重检测,提高了跟踪精确度;c)解决不可靠跟踪结果更新模型造成的模型漂移问题,改进后算法通过更新判断机制,有效避免了模型漂移问题。
为了达到上述目的,本发明采用了下列技术方案:
一种基于上下文多线索信息和自适应响应的长时目标跟踪方法,包括以下步骤:
S1:输入第t-1帧视频图像,判断跟踪框分辨率并对跟踪目标进行调整;
S2:提取目标区域的颜色信息训练颜色直方图分类器,提取目标区域和周围图像块的HOG、MBLBP和CN特征,使用HOG特征训练尺度滤波器,利用三种特征组合训练多个包含上下文感知信息的并行相关滤波器;
S3:输入第t帧视频图像,以第t-1帧目标区域的位置为中心构建候选区域,分别计算直方图分类器和相关滤波器的目标响应;
S4:评估相关滤波器最优响应并与颜色直方图分类器响应进行自适应融合确定目标位置信息;
S5:判断目标位置信息可靠性,不可靠则激活重检测模块,训练在线SVM分类器重新检测目标;
S6:在目标最终位置使用尺度滤波器确定当前帧目标最佳尺度;
S7:最后在跟踪结果满足准确性的条件下对颜色直方图分类器、相关滤波器和尺度滤波器模型进行更新;
S8:重复步骤S1~S7,至全部视频序列处理完成。
进一步,所述S1中判断跟踪框分辨率并对跟踪目标进行调整的具体步骤为:
计算大小为M×N的跟踪框所包含的像素个数,当M×N≥100×100时,利用双立方插值将跟踪目标大小缩放为原来的0.5倍,padding设置为1.2;当M×N≤40×40时,利用双立方插值将跟踪目标大小缩放为原来的2倍,padding设置为2;其余情况,跟踪目标大小保持不变,padding设置为1.5。
进一步,所述S2中训练颜色直方图分类器具体步骤为:
所述训练尺度滤波器的具体步骤为:
提取目标区域HOG特征,建模为如下最小二乘问题:
其中,h表示尺度滤波器,hl表示每个特征维度的尺度滤波器,f表示目标样本,fl为f的第l个特征通道,d表示特征维数,λ表示正则化参数,★和g分别表示循环相关和期望输出;
所述训练多个包含上下文感知信息的并行相关滤波器的具体步骤为:
提取目标区域和其周围k个图像块的HOG、MBLBP和CN特征信息,建模为如下约束最优化问题:
其中,w表示相关滤波器,y表示回归目标,λ1和λ2表示正则化参数,A0表示目标区域特征信息,Ai表示第i个图像块特征信息。
进一步,所述S3中计算直方图分类器和相关滤波器的目标响应,具体步骤为:
在第t帧,以t-1帧确定的目标区域z为中心,经过循环移位构建待测样本集Z,直方图分类器通过计算目标似然概率积分图,可得目标区域的响应:
相关滤波器的目标响应计算为:
进一步,所述S4中评估相关滤波器最优响应并与直方图分类器响应进行自适应融合确定目标位置信息具体步骤为:
通过成对评估和自我评估从多个相关滤波器响应中筛选出当前帧滤波器的最佳结果,所述成对评估计算公式为:
其中,ζ表示小常数,避免分母为零;表示重叠率得分均值,表示第i个相关滤波器与其它相关滤波器之间的一致性; 表示重叠率得分方差,表示短时间Δt内相关滤波器之间重叠率的稳定性;Wτ表示在序列W中第(τ-t+Δt)个元素,表示归一化因子,τ∈[t-Δt+1,t]表示时间指数;
所述自我评估计算公式为:
所述成对评估和自我评估线性加权计算相关滤波器的鲁棒性得分Rt(Ti),计算公式为:
其中,μ为权重参数,Rt(Ti)最大的相关滤波器响应即为所选最佳结果,也就是最优响应;
最终利用相对峰值能量置信度调节融合系数αt,将相关滤波器最佳结果与颜色直方图分类器响应结果进行自适应融合,确定当前帧目标最终预测位置,计算公式为:
f(x)=(1-αt)fcf(x)+αtfhist(x)
其中,EAPEC_cf为相关滤波器的平均峰值相关能量APEC,EAPEC_hist为颜色直方图分类器的平均峰值相关能量APEC。
进一步,所述S5中判断目标位置信息可靠性具体步骤为:
当目标跟踪失败或受到遮挡的情况下,步骤S4的跟踪结果不一定可靠,利用最大值响应Fmax和平均峰值相关能量APCE衡量预测位置的置信度水平,当置信度大于设定阈值Tr时,跟踪结果可靠,使用该结果继续预测下一帧目标,并更新SVM分类器;当置信度小于设定阈值Tr时,利用SVM分类器进行重检测,并重新评估重检测结果置信度水平,大于阈值Tr,则将重检测结果作为跟踪预测位置,否则不更新SVM分类器,并继续预测下一帧目标。
进一步,所述S6中在目标最终位置使用尺度滤波器确定当前帧目标最佳尺度具体步骤为:
以第t-1帧确定的目标预测位置为中心,构建具有S个不同大小尺度框的尺度金字塔,设目标跟踪框大小为W×H,尺度框构建原则为:
其中,a表示比例因子,Jn表示第n个尺度框;
提取尺度框的HOG特征,计算尺度滤波器与尺度金字塔的的最大响应得分:
yt=F-1(Hl⊙Zl)
其中,yt表示第t帧尺度框响应得分,F-1表示逆傅里叶变换,Hl表示尺度滤波器(Hl为傅里叶域中的尺度滤波器表达形式,h为时域中的尺度滤波器表达形式),Zl表示待测样本,yt最大对应的尺度框即为第t帧目标的最佳尺度。
进一步,所述S7中对颜色直方图分类器、相关滤波器和尺度滤波器模型进行更新具体步骤为:
为避免模型漂移,颜色直方图分类器、相关滤波器和尺度滤波器只在当前帧响应最大值Fmax大于等于θ1和平均峰值相关能量APCE与其各自历史均值的比值大于等于θ2时,认为跟踪可靠,并更新颜色直方图分类器、相关滤波器和尺度滤波器模型,否则不更新;
所诉相关滤波器和尺度滤波器模型更新策略为:
所述直方图分类器模型更新策略分别对前景区域和背景区域直方图进行更新:
与现有技术相比本发明具有以下优点:
a)本发明在跟踪初始化时,对不同分辨率视频跟踪目标大小和特征提取区域作相应预处理,可增强对目标的表征能力或减少目标特征的冗余信息,进而提高目标跟踪性能,并保证跟踪实时性。
b)使用目标和目标周围图像块多种特征,训练多个包含上下文感知信息的相关滤波器,有效提高相关滤波器的判别能力,减少边界效应;从多个相关滤波器筛选最优结果,增强了跟踪鲁棒性。
c)对颜色直方图分类器跟踪结果和相关滤波器跟踪结果进行自适应融合,确定目标最终预测位置,提升了跟踪精度;采用响应最大值和平均峰值相关能量APCE对跟踪结果进行可靠性判断,在结果不可靠时进行重检测,减少因目标丢失所造成的后续帧跟踪失败的情况,提高了跟踪准确性和成功率。
d)在模型更新阶段,采用Fmax和APCE作为判断模型是否更新的指标,防止了在遮挡或跟踪结果不佳的情况下更新滤波器带来的模型污染,避免了模型漂移。
附图说明
图1是本发明实施的整体流程图。
具体实施方式
为了更加清晰全面的了解本发明的技术方案、目的和有益效果,下面将结合附图及实施例对本发明作进一步的详细说明,本领域技术人员根据说明书可轻易了解本发明的目的和优点。应当注意,本实施例仅是本发明的一部分实例,本发明还可以根据不同实施方式和具体场景加以应用,在没有作出创造性工作的前提下,其它实施例均属于本发明的保护范围。
以下描述实施列仅用以解释本发明,并不用于限定本发明的范围。
参阅图1,本发明的一种基于上下文多线索信息和自适应响应的长时目标跟踪方法,包括以下步骤:
S1:输入第t-1帧视频图像,判断跟踪框分辨率并对跟踪目标进行调整;
计算大小为M×N的跟踪框所包含的像素个数,当M×N≥100×100时,利用双立方插值将跟踪目标大小缩放为原来的0.5倍,padding设置为1.2;当M×N≤40×40时,利用双立方插值将跟踪目标大小缩放为原来的2倍,padding设置为2;其余情况,跟踪目标大小保持不变,padding设置为1.5。此时的目标特征提取区域为size*(1+padding)。
S2:提取目标区域的颜色信息训练颜色直方图分类器,提取目标区域和周围图像块的HOG、MBLBP和CN特征,使用HOG特征训练尺度滤波器,利用三种特征组合训练多个包含上下文感知信息的并行相关滤波器;
所述训练颜色直方图分类器的具体步骤为:
所述训练尺度滤波器的具体步骤为:
提取目标区域HOG特征,建模为如下最小二乘问题:
其中,h表示尺度滤波器,hl表示每个特征维度的尺度滤波器,f表示目标样本,fl为f的第l个特征通道,d表示特征维数,λ表示正则化参数,★和g分别表示循环相关和期望输出;
所述训练多个包含上下文感知信息的并行相关滤波器的具体步骤为:
提取目标区域和其周围k个图像块的HOG、CN和MBLBP三种特征信息,对特征进行三种线性组合:HOG+CN、CN+MBLBP、HOG+CN+MBLBP,训练三个包含上下文感知信息的相关滤波器,建模为如下约束最优化问题:
其中,w表示相关滤波器,y表示回归目标,λ1和λ2表示正则化参数,A0表示目标区域特征信息,Ai表示第i个图像块特征信息。
S3:输入第t帧视频图像,以第t-1帧目标区域的位置为中心构建候选区域,分别计算直方图分类器和相关滤波器的目标响应;
在第t帧,以t-1帧确定的目标区域z为中心,经过循环移位构建待测样本集Z,直方图分类器通过计算目标似然概率积分图,可得目标区域的响应:
相关滤波器的目标响应计算为:
S4:评估相关滤波器最优响应并与颜色直方图分类器响应进行自适应融合确定目标位置信息;
经过步骤S2得到三种使用不同特征训练的包含上下文感知信息的相关滤波器,在后续视频帧中并行跟踪目标,每一帧得到三个相关滤波器的跟踪响应,通过成对评估和自我评估从多个相关滤波器响应中筛选出当前帧滤波器的最佳结果,所述成对评估计算公式为:
其中,ζ表示小常数,避免分母为零;表示重叠率得分均值,表示第i个相关滤波器与其它相关滤波器之间的一致性; 表示重叠率得分方差,表示短时间Δt内相关滤波器之间重叠率的稳定性;Wτ表示在序列W中第(τ-t+Δt)个元素,表示归一化因子,τ∈[t-Δt+1,t]表示时间指数;
所述自我评估计算公式为:
所述成对评估和自我评估线性加权计算相关滤波器的鲁棒性得分Rt(Ti),计算公式为:
其中,μ为权重参数,Rt(Ti)最大的相关滤波器响应即为所选最佳结果,也就是最优响应;
最终利用相对峰值能量置信度调节融合系数αt,将相关滤波器最佳结果与颜色直方图分类器响应结果进行自适应融合,确定当前帧目标最终预测位置,计算公式为:
f(x)=(1-αt)fcf(x)+αtfhist(x)
其中,fcf(x)表示相关滤波器最佳响应结果,fhist(x)表示颜色直方图分类器响应结果,表示第t帧时的融合系数,ρ为影响因子,ρ越大,相对峰值能量置信度对融合系数的影响越大,α为常数系数,rt表示相对峰值能量置信度,公式如下:
其中,EAPEC_cf为相关滤波器的平均峰值相关能量APEC,EAPEC_hist为颜色直方图分类器的平均峰值相关能量APEC。
平均相关峰值能量APCE计算公式为:
其中,Fmax表示响应图峰值,Fmin表示响应图最低值,Fw,h表示坐标(w,h)处的响应值,mean(·)表示求均值。EAPCE反映了响应图的震荡程度。
S5:判断目标位置信息可靠性,不可靠则激活重检测模块,训练在线SVM分类器重新检测目标;
当目标跟踪失败或受到遮挡的情况下,步骤S4的跟踪结果不一定可靠,利用最大值响应Fmax和平均峰值相关能量APCE衡量预测位置的置信度水平,当置信度大于设定阈值Tr时,跟踪结果可靠,使用该结果继续预测下一帧目标,并更新SVM分类器;当置信度小于设定阈值Tr时,利用SVM分类器进行重检测,并重新评估重检测结果置信度水平,大于阈值Tr,则将重检测结果作为跟踪预测位置,否则不更新SVM分类器,并继续预测下一帧目标。
S6:在目标最终位置使用尺度滤波器确定当前帧目标最佳尺度;
以第t-1帧确定的目标预测位置为中心,构建具有S个不同大小尺度框的尺度金字塔,这里S取值33,尺度金字塔构建方式为:
设目标跟踪框大小为W×H,尺度框构建原则为:
其中,a=1.02表示比例因子,Jn表示第n个尺度框。
提取尺度框的HOG特征,计算尺度滤波器与尺度金字塔的的最大响应得分:
yt=F-1(Hl⊙Zl)
其中,yt表示第t帧尺度框响应得分,F-1表示逆傅里叶变换,Hl表示尺度滤波器,Zl表示待测样本。yt最大对应的尺度框即为第t帧目标的最佳尺度。
S7:最后在跟踪结果满足准确性的条件下对颜色直方图分类器、相关滤波器和尺度滤波器模型进行更新;
为避免模型漂移,滤波器(滤波器包括相关滤波器和尺度滤波器)和分类器只在当前帧响应最大值Fmax和平均峰值相关能量APCE与其各自历史均值的比值分别大于等于θ1和θ2时,认为跟踪结果可靠,判断条件为:
满足上述判断条件后,对滤波器模型和分类器模型进行更新,否则不更新。
相关滤波器和尺度滤波器模型更新策略为:
直方图分类器模型更新策略分别对前景区域和背景区域直方图进行更新:
S8:重复步骤S1~S7,至全部视频序列处理完成。
应当理解,以上所述仅是结合实施例和技术方案流程图对本发明进行了详细说明,而非限制本发明的保护范围。任何领域的研究人员在不脱离本发明技术方案的宗旨和思想的前提下,对本发明的技术方案进行修改或替换,仍然属于本发明的权力要求保护范围之内。
Claims (8)
1.一种基于上下文多线索信息和自适应响应的长时目标跟踪方法,其特征在于,包括以下步骤:
S1:输入第t-1帧视频图像,判断跟踪框分辨率并对跟踪目标进行调整;
S2:提取目标区域的颜色信息训练颜色直方图分类器,提取目标区域和周围图像块的HOG、MBLBP和CN特征,使用HOG特征训练尺度滤波器,利用三种特征组合训练多个包含上下文感知信息的并行相关滤波器;
S3:输入第t帧视频图像,以第t-1帧目标区域的位置为中心构建候选区域,分别计算直方图分类器和相关滤波器的目标响应;
S4:评估相关滤波器最优响应并与颜色直方图分类器响应进行自适应融合确定目标位置信息;
S5:判断目标位置信息可靠性,不可靠则激活重检测模块,训练在线SVM分类器重新检测目标;
S6:在目标最终位置使用尺度滤波器确定当前帧目标最佳尺度;
S7:最后在跟踪结果满足准确性的条件下对颜色直方图分类器、相关滤波器和尺度滤波器模型进行更新;
S8:重复步骤S1~S7,至全部视频序列处理完成。
2.根据权利要求1所述的一种基于上下文多线索信息和自适应响应的长时目标跟踪方法,其特征在于,所述S1中判断跟踪框分辨率并对跟踪目标进行调整的具体步骤为:
计算大小为M×N的跟踪框所包含的像素个数,当M×N≥100×100时,利用双立方插值将跟踪目标大小缩放为原来的0.5倍,padding设置为1.2;当M×N≤40×40时,利用双立方插值将跟踪目标大小缩放为原来的2倍,padding设置为2;其余情况,跟踪目标大小保持不变,padding设置为1.5。
3.根据权利要求1所述的一种基于上下文多线索信息和自适应响应的长时目标跟踪方法,其特征在于,所述S2中训练颜色直方图分类器的具体步骤为:
所述训练尺度滤波器的具体步骤为:
提取目标区域HOG特征,建模为如下最小二乘问题:
其中,h表示尺度滤波器,hl表示每个特征维度的尺度滤波器,f表示目标样本,fl为f的第l个特征通道,d表示特征维数,λ表示正则化参数,★和g分别表示循环相关和期望输出;
所述训练多个包含上下文感知信息的并行相关滤波器的具体步骤为:
提取目标区域和其周围k个图像块的HOG、MBLBP和CN特征信息,建模为如下约束最优化问题:
其中,w表示相关滤波器,y表示回归目标,λ1和λ2表示正则化参数,A0表示目标区域特征信息,Ai表示第i个图像块特征信息。
5.根据权利要求1所述的一种基于上下文多线索信息和自适应响应的长时目标跟踪方法,其特征在于,所述S4中评估相关滤波器最优响应并与直方图分类器响应进行自适应融合确定目标位置信息具体步骤为:
通过成对评估和自我评估从多个相关滤波器响应中筛选出当前帧滤波器的最佳结果,所述成对评估计算公式为:
其中,ζ表示小常数,避免分母为零; 表示重叠率得分均值,表示第i个相关滤波器与其它相关滤波器之间的一致性; 表示重叠率得分方差,表示短时间Δt内相关滤波器之间重叠率的稳定性;Wτ表示在序列W中第(τ-t+Δt)个元素,表示归一化因子,τ∈[t-Δt+1,t]表示时间指数;
所述自我评估计算公式为:
所述成对评估和自我评估线性加权计算相关滤波器的鲁棒性得分Rt(Ti),计算公式为:
其中,μ为权重参数,Rt(Ti)最大的相关滤波器响应即为所选最佳结果,也就是最优响应;
最终利用相对峰值能量置信度调节融合系数αt,将相关滤波器最佳结果与颜色直方图分类器响应结果进行自适应融合,确定当前帧目标最终预测位置,计算公式为:
f(x)=(1-αt)fcf(x)+αtfhist(x)
其中,EAPEC_cf为相关滤波器的平均峰值相关能量APEC,EAPEC_hist为颜色直方图分类器的平均峰值相关能量APEC。
6.根据权利要求1所述的一种基于上下文多线索信息和自适应响应的长时目标跟踪方法,其特征在于,所述S5中判断目标位置信息可靠性具体步骤为:
利用最大值响应Fmax和平均峰值相关能量APCE衡量预测位置的置信度水平,当置信度大于设定阈值Tr时,跟踪结果可靠,使用该结果继续预测下一帧目标,并更新SVM分类器;当置信度小于设定阈值Tr时,利用SVM分类器进行重检测,并重新评估重检测结果置信度水平,大于阈值Tr,则将重检测结果作为跟踪预测位置,否则不更新SVM分类器,并继续预测下一帧目标。
8.根据权利要求1所述的一种基于上下文多线索信息和自适应响应的长时目标跟踪方法,其特征在于,所述S7中对颜色直方图分类器、相关滤波器和尺度滤波器模型进行更新具体步骤为:
颜色直方图分类器、相关滤波器和尺度滤波器只在当前帧响应最大值Fmax大于等于θ1和平均峰值相关能量APCE与其各自历史均值的比值大于等于θ2时,认为跟踪可靠,并更新颜色直方图分类器、相关滤波器和尺度滤波器模型,否则不更新;
所述相关滤波器和尺度滤波器模型更新策略为:
所述直方图分类器模型更新策略分别对前景区域和背景区域直方图进行更新:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111340975.5A CN113989331A (zh) | 2021-11-12 | 2021-11-12 | 基于上下文多线索信息和自适应响应的长时目标跟踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111340975.5A CN113989331A (zh) | 2021-11-12 | 2021-11-12 | 基于上下文多线索信息和自适应响应的长时目标跟踪方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113989331A true CN113989331A (zh) | 2022-01-28 |
Family
ID=79748242
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111340975.5A Withdrawn CN113989331A (zh) | 2021-11-12 | 2021-11-12 | 基于上下文多线索信息和自适应响应的长时目标跟踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113989331A (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114708300A (zh) * | 2022-03-02 | 2022-07-05 | 北京理工大学 | 一种可抗遮挡的自适应目标跟踪方法及系统 |
CN115019249A (zh) * | 2022-05-29 | 2022-09-06 | 北京工业大学 | 一种改进的核相关滤波跟踪算法 |
CN115061574A (zh) * | 2022-07-06 | 2022-09-16 | 陈伟 | 一种基于视觉核心算法的人机交互系统 |
CN115631216A (zh) * | 2022-12-21 | 2023-01-20 | 中航金城无人系统有限公司 | 一种基于多特征滤波器融合的云台目标跟踪系统和方法 |
CN116168322A (zh) * | 2023-01-10 | 2023-05-26 | 中国人民解放军军事科学院国防科技创新研究院 | 一种基于多模态融合的无人机长时跟踪方法及系统 |
CN117635665A (zh) * | 2024-01-25 | 2024-03-01 | 浙江航天润博测控技术有限公司 | 基于相关滤波的抗遮挡目标跟踪方法 |
-
2021
- 2021-11-12 CN CN202111340975.5A patent/CN113989331A/zh not_active Withdrawn
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114708300A (zh) * | 2022-03-02 | 2022-07-05 | 北京理工大学 | 一种可抗遮挡的自适应目标跟踪方法及系统 |
CN115019249A (zh) * | 2022-05-29 | 2022-09-06 | 北京工业大学 | 一种改进的核相关滤波跟踪算法 |
CN115019249B (zh) * | 2022-05-29 | 2024-06-11 | 北京工业大学 | 一种改进的核相关滤波跟踪算法 |
CN115061574A (zh) * | 2022-07-06 | 2022-09-16 | 陈伟 | 一种基于视觉核心算法的人机交互系统 |
CN115631216A (zh) * | 2022-12-21 | 2023-01-20 | 中航金城无人系统有限公司 | 一种基于多特征滤波器融合的云台目标跟踪系统和方法 |
CN116168322A (zh) * | 2023-01-10 | 2023-05-26 | 中国人民解放军军事科学院国防科技创新研究院 | 一种基于多模态融合的无人机长时跟踪方法及系统 |
CN116168322B (zh) * | 2023-01-10 | 2024-02-23 | 中国人民解放军军事科学院国防科技创新研究院 | 一种基于多模态融合的无人机长时跟踪方法及系统 |
CN117635665A (zh) * | 2024-01-25 | 2024-03-01 | 浙江航天润博测控技术有限公司 | 基于相关滤波的抗遮挡目标跟踪方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113989331A (zh) | 基于上下文多线索信息和自适应响应的长时目标跟踪方法 | |
CN108986140B (zh) | 基于相关滤波和颜色检测的目标尺度自适应跟踪方法 | |
CN112446270B (zh) | 行人再识别网络的训练方法、行人再识别方法和装置 | |
CN110084836B (zh) | 基于深度卷积特征分层响应融合的目标跟踪方法 | |
CN110211157B (zh) | 一种基于相关滤波的目标长时跟踪方法 | |
CN110728697A (zh) | 基于卷积神经网络的红外弱小目标检测跟踪方法 | |
CN112837344B (zh) | 一种基于条件对抗生成孪生网络的目标跟踪方法 | |
CN111612817A (zh) | 基于深浅特征自适应融合与上下文信息的目标跟踪方法 | |
CN112785622B (zh) | 一种水面无人船长时跟踪方法、装置及存储介质 | |
CN111476819A (zh) | 一种基于多相关滤波模型的长时目标跟踪方法 | |
CN111640138B (zh) | 一种目标跟踪方法、装置、设备及存储介质 | |
CN113592896B (zh) | 基于图像处理的鱼类投喂方法、系统、设备及存储介质 | |
CN107452022A (zh) | 一种视频目标跟踪方法 | |
CN113822352B (zh) | 基于多特征融合的红外弱小目标检测方法 | |
CN111199245A (zh) | 油菜害虫识别方法 | |
CN114241511A (zh) | 一种弱监督行人检测方法、系统、介质、设备及处理终端 | |
CN114648806A (zh) | 一种多机制自适应的眼底图像分割方法 | |
CN114612508A (zh) | 一种多特征在线学习的抗遮挡相关滤波目标跟踪方法 | |
Kadim et al. | Deep-learning based single object tracker for night surveillance. | |
CN115830319A (zh) | 一种基于注意力机制的斜视虹膜分割方法及验证方法 | |
CN117475357B (zh) | 基于深度学习的监控视频图像遮挡检测方法及系统 | |
CN111105436B (zh) | 目标跟踪方法、计算机设备及存储介质 | |
CN111539985A (zh) | 一种融合多特征的自适应运动目标跟踪方法 | |
CN117253192A (zh) | 用于桑蚕养殖的智能系统及方法 | |
CN117218545A (zh) | 基于LBP特征与改进Yolov5的雷达图像检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WW01 | Invention patent application withdrawn after publication |
Application publication date: 20220128 |
|
WW01 | Invention patent application withdrawn after publication |