CN112991390A - 一种基于背景感知的多跟踪器融合目标跟踪方法 - Google Patents

一种基于背景感知的多跟踪器融合目标跟踪方法 Download PDF

Info

Publication number
CN112991390A
CN112991390A CN202110347007.0A CN202110347007A CN112991390A CN 112991390 A CN112991390 A CN 112991390A CN 202110347007 A CN202110347007 A CN 202110347007A CN 112991390 A CN112991390 A CN 112991390A
Authority
CN
China
Prior art keywords
target
tracking
background
scale
updating
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110347007.0A
Other languages
English (en)
Other versions
CN112991390B (zh
Inventor
尹明锋
周文娟
游丽萍
花旭
金圣昕
周林苇
贝绍轶
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jiangsu China Israel Industrial Technology Research Institute
Jiangsu University of Technology
Original Assignee
Jiangsu China Israel Industrial Technology Research Institute
Jiangsu University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jiangsu China Israel Industrial Technology Research Institute, Jiangsu University of Technology filed Critical Jiangsu China Israel Industrial Technology Research Institute
Priority to CN202110347007.0A priority Critical patent/CN112991390B/zh
Publication of CN112991390A publication Critical patent/CN112991390A/zh
Application granted granted Critical
Publication of CN112991390B publication Critical patent/CN112991390B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/40Analysis of texture
    • G06T7/41Analysis of texture based on statistical description of texture
    • G06T7/44Analysis of texture based on statistical description of texture using image operators, e.g. filters, edge density metrics or local histograms
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Probability & Statistics with Applications (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于背景感知的多跟踪器融合目标跟踪方法,先通过提取目标区域的颜色直方图,采用基于粒子滤波的目标跟踪方法进行跟踪,得到目标的位置信息;再采用背景感知相关滤波器进行目标跟踪,获取目标位置信息;接着采用尺度池技术对目标尺度进行估计,并进行更新,得到最新的目标尺度;对目标模型进行更新;重复上述步骤直至当前序列所有帧跟踪结束。本发明使用了多跟踪器融合的机制,采用粗略定位和精确定位相结合,提高了跟踪模型的泛化能力;在训练相关滤波器时增加了对背景信息的抑制,提高了跟踪方法的抗干扰能力;在目标跟踪过程中引入了尺度更新和模型更新机制,提高了跟踪方法应对复杂场景中目标模型变化的鲁棒性。

Description

一种基于背景感知的多跟踪器融合目标跟踪方法
技术领域
本发明涉及一种基于背景感知的多跟踪器融合目标跟踪方法,属于目标跟 踪技术领域。
背景技术
随着科技和社会的发展,目标跟踪成为计算机领域中的研究热点之一,在 视频监控、人机交互、智能交通等领域得到了广泛的应用,在军事和民用领域 担当着越来越重要的角色。视觉跟踪任务是在给定跟踪目标的初始状态下,最 终实现对目标持续识别和跟踪,获得物体的运动信息,进一步提取物体运动轨 迹,并对物体进行运动分析,从而实现对物体运动行为的理解。由于跟踪场景 的多样性和复杂性,现有目标跟踪算法对目标进行判别和定位依然不够准确, 如何进一步提升现有目标跟踪算法的性能具有十分重要的研究意义。
目前,基于粒子滤波(Particle Filter,PF)的目标跟踪算法因能够有效地解决视觉目标跟踪中普遍存在的目标状态非线性、噪声分布非高斯性的问题,得到 了广泛的应用。而传统的基于颜色直方图的粒子滤波视觉目标跟踪算法虽然在 处理遮挡、光照变化等场景具有一定的鲁棒性,但由于颜色直方图表征能力不 够,易受相似目标、相机抖动等因素干扰,甚至丢失目标。
近年来,基于相关滤波(Correlation Filter,CF)的目标跟踪算法由于具有较 强的鲁棒性和超高的跟踪速度也得到了广泛的应用。但由于循环转移采样和余 弦窗的引入,大多数相关滤波器都会产生边界效应(Boundary Effects)。为解决 该问题,Mueller等提出了背景感知相关滤波方法(Context-Aware Correlation Filter Tracking,CACF),在解决边界效应的同时增强了相关滤波器对背景信息 的学习。此外,CACF方法存在闭合解,不需要进行迭代求解,有着较好的算 法实时性。
然而,随着跟踪场景的多样化和跟踪目标的复杂化,单一跟踪器很难应对 所有跟踪的挑战,因此很有必要利用多跟踪器融合进行目标跟踪;故,如何融 合不同跟踪器,充分利用其之间的互补性,从而显著地提高跟踪算法的性能, 是一个亟需解决的问题。
发明内容
针对上述现有技术存在的问题,本发明提供一种基于背景感知的多跟踪器 融合目标跟踪方法,可提高跟踪模型的泛化能力、跟踪方法的抗干扰能力以及 跟踪方法应对复杂场景中目标模型变化的鲁棒性。
为了实现上述目的,本发明采用如下技术方案:一种基于背景感知的多跟 踪器融合目标跟踪方法,包括如下步骤:
步骤S1、根据视频序列第一帧输入图片I1和目标框,以及后续输入图片It+1, t∈[1,L-1],L为视频序列总帧数,xt=(w,h)为中心点坐标,ct=(cw,ch)为目标 尺度;
步骤S2、提取目标区域的颜色直方图,采用基于粒子滤波的目标跟踪方 法进行跟踪,得到目标的位置信息
Figure BDA0003001112000000022
步骤S3、采用背景感知相关滤波器进行目标跟踪,获取目标位置信息;
步骤S4、采用尺度池技术对目标尺度进行估计,并进行更新,得到最新 的目标尺度c=(cw,ch);
步骤S5、对目标模型进行更新;
步骤S6、重复步骤S2-S5,直至当前序列所有帧跟踪结束。
进一步地,所述步骤S2中粒子滤波的目标跟踪过程的具体步骤为:
步骤S21、计算目标区域的m维的颜色直方图
Figure BDA0003001112000000021
其 中,B为所选择目标区域的像素点数;yb为目标区域中第b个像素点坐标, b∈[1,B];h(yb)为直方图量化的函数;u为直方图的区间索引号,u∈[1,m];δ 表示Kronecker函数;
步骤S22、按照一阶模型xt+1=xt+wnt随机生成N个粒子,生成的粒子坐标 为
Figure BDA0003001112000000031
Figure BDA0003001112000000032
表示t时刻第n个粒子的位置信息,wnt为高斯随机噪声;
步骤S23、计算粒子集合中各样本所确定m维的的目标区域直方图
Figure BDA0003001112000000033
其中,
Figure BDA0003001112000000034
为以第n个粒子为中心的候选区域中第b个 像素点坐标,n∈[1,N];
步骤S24、计算目标区域与候选区域颜色直方图的Bhattacharyya距离,
Figure BDA0003001112000000035
并确定每个粒子的权重系数kt(n),计算公式为 kt(n)=C·exp(-pn),C为归一化系数,
Figure BDA0003001112000000036
步骤S25、计算粒子滤波跟踪算法的定位信息,
Figure BDA0003001112000000037
进一步地,所述步骤S3中采用背景感知相关滤波器进行目标跟踪获取目 标位置信息的具体步骤为:
步骤S31、按照步骤S2中得到的目标位置信息划分目标和背景区域,提 取灰度信息ft i,i=0,1,2,3,4作为背景感知相关滤波器的特征,其中,ft 0为t时刻目 标区域的灰度表示,ft 1、ft 2、ft 3、ft 4分别为t时刻四块背景区域的特征表示;
步骤S32、通过
Figure RE-GDA0003057185410000038
训练滤波器参数,其中,符号★代表ft i和h之间的循环相关操作,
Figure RE-GDA0003057185410000039
为相关滤波器,
Figure RE-GDA00030571854100000310
为输 出期望值,λ1为正则化参数,取0.0001;λ2为回归参数,取0.4;
Figure RE-GDA00030571854100000311
为背景信息约束项;将上述目标函数转化成
Figure RE-GDA00030571854100000312
其中,
Figure RE-GDA00030571854100000313
得到滤波器对应的解为
Figure RE-GDA00030571854100000314
其中,
Figure RE-GDA00030571854100000315
Figure RE-GDA00030571854100000316
为傅里叶变换,
Figure RE-GDA00030571854100000317
Figure RE-GDA00030571854100000318
分别为
Figure RE-GDA00030571854100000319
Figure RE-GDA00030571854100000320
的共轭转置;
步骤S33、通过傅立叶反变换求解得到响应图为
Figure RE-GDA0003057185410000041
其中,
Figure RE-GDA0003057185410000042
为傅立叶反变换,zt为候选区域的特征表示,
Figure RE-GDA0003057185410000043
为点乘操作,目标定位 信息为响应图Rt最大值处
Figure RE-GDA0003057185410000044
进一步地,所述步骤S4中采用尺度池技术对目标尺度进行估计,设定尺 度池为S={s1,s2,...,sk},即跟踪过程中对这些尺度{sic|si∈S}进行分别计算,选出表 现性能最佳的尺寸作为当前帧的尺寸,具体步骤为:
步骤S41、设定尺度池为S={0.8,0.85,0.9,0.95,1.0,1.05,1.1,1.15,1.2},对这些尺寸进 行分别估算,通过计算平均峰值相关能量指标找出表现性能最好的尺寸,即
Figure BDA0003001112000000045
用以反映响应图的平均波动程度和检测目标的置信水平,其中,
Figure BDA0003001112000000046
为响应图中坐标位置(i,j)的响应值;
Figure BDA0003001112000000047
为响应图的最小值;
Figure BDA0003001112000000048
为响应图的最大值;μ(·)为均值计算;
步骤S42、为保证目标尺寸平稳,对尺寸进行平缓更新,ct+1=(1-γ)ct+γct+1, γ为目标尺寸学习率,取0.2。
进一步地,所述步骤S5中对目标模型进行更新是将相关滤波器分成分母 和分子两部分进行分别更新,
Figure BDA0003001112000000049
其中,At为分子部分,Bt为分母的一 部分,A1、B1均为0,具体更新步骤为:
步骤S51、进行分子部分更新,
Figure BDA00030011120000000410
其中,β为相关滤 波器模型学习率,取值0.01;
Figure BDA00030011120000000411
Figure BDA00030011120000000412
下一时刻的值;
步骤S52、进行分母部分更新,
Figure BDA00030011120000000413
与现有的技术相比,本发明具有如下优点:
第一,本发明使用了多跟踪器融合的机制,先采用粒子滤波目标跟踪方法 进行粗略定位,再采用背景感知相关滤波跟踪方法进行精确定位,提高了跟踪 模型的泛化能力;
第二,本发明引入了背景感知策略,在训练相关滤波器时增加了对背景信 息的抑制,提高了跟踪方法的抗干扰能力;
第三,本发明在目标跟踪过程中引入了尺度更新和模型更新机制,提高了 跟踪方法应对复杂场景中目标模型变化的鲁棒性。
附图说明
图1为本发明的流程图;
图2为本发明采用基于粒子滤波的目标跟踪方法进行跟踪的流程图;
图3为本发明目标区域和背景区域的划分示意图;
图4为本发明训练得到的目标区域和背景区域的相关滤波器的响应图;
图5为图4中各个对应区域的指标示意图;
图6为本发明和现有常用目标跟踪算法在OTB(Object Tracking Benchmark)100标准数据集上综合精度的对比仿真图;
图7为本发明和现有常用目标跟踪算法在OTB100标准数据集上跟踪成功 率的对比仿真图。
具体实施方式
下面结合附图对本发明实施中的技术方案进行清楚,完整的描述,所描述 的实施例仅仅是本发明的一部分实施例,而不是全部的实施例。基于本发明的 实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他 实施例,都属于本发明保护的范围。
如图1至图5所示,本发明提供的一种基于背景感知的多跟踪器融合目标 跟踪方法,包括如下步骤:
步骤S1、根据视频序列第一帧输入图片I1和目标框,以及后续输入图片It+1, t∈[1,L-1],L为视频序列总帧数,xt=(w,h)为中心点坐标,ct=(cw,ch)为目标 尺度;
步骤S2、提取目标框所对应目标区域的颜色直方图,采用基于粒子滤波 的目标跟踪方法进行跟踪,得到目标的位置信息
Figure BDA0003001112000000061
步骤S3、采用背景感知相关滤波器进行目标跟踪,获取目标位置信息;
步骤S4、采用尺度池技术对目标尺度进行估计,并进行更新,得到最新 的目标尺度c=(cw,ch);
步骤S5、对目标模型进行更新;
步骤S6、重复步骤S2-S5,直至当前序列所有帧跟踪结束。
进一步地,所述步骤S2中粒子滤波的目标跟踪过程的具体步骤为:
步骤S21、计算目标区域的m维的颜色直方图
Figure BDA0003001112000000062
其 中,B为所选择目标区域的像素点数;yb为目标区域中第b个像素点坐标, b∈[1,B];h(yb)为直方图量化的函数;u为直方图的区间索引号,u∈[1,m];δ 表示Kronecker函数;
步骤S22、按照一阶模型xt+1=xt+wnt随机生成N个粒子,生成的粒子坐标 为
Figure BDA0003001112000000063
Figure BDA0003001112000000064
表示t时刻(指视频序列第t帧对应的时刻,下同)第n个 粒子的位置信息,wnt为高斯随机噪声;
步骤S23、计算粒子集合中各样本所确定m维的的目标区域直方图
Figure BDA0003001112000000065
其中,
Figure BDA0003001112000000066
为以第n个粒子为中心的候选区域中第b个 像素点坐标,n∈[1,N];
步骤S24、计算目标区域与候选区域颜色直方图的Bhattacharyya距离,
Figure BDA0003001112000000067
并确定每个粒子的权重系数kt(n),计算公式为 kt(n)=C·exp(-pn),C为归一化系数,
Figure BDA0003001112000000068
步骤S25、计算粒子滤波跟踪算法的定位信息,
Figure BDA0003001112000000069
进一步地,所述步骤S3中采用背景感知相关滤波器进行目标跟踪获取目 标位置信息的具体步骤为:
步骤S31、按照步骤S2中得到的目标位置信息划分目标和背景区域,提 取灰度信息ft i,i=0,1,2,3,4作为背景感知相关滤波器的特征,其中,ft 0为t时刻目 标区域的灰度表示,ft 1、ft 2、ft 3、ft 4分别为t时刻四块背景区域的特征表示; 各个背景区域紧靠目标区域布置,且与目标区域大小相同;具体的,目标区域 和四块背景区域的划分如图3所示,目标区域对应目标框选中的区域,第一背 景区域位于目标区域的左方,第二背景区域位于目标区域的下方,第三背景区 域位于目标区域的右方,第四背景区域位于目标区域的上方;
步骤S32、通过
Figure RE-GDA0003057185410000071
训练滤波器参数,其中,符号★代表ft i和h之间的循环相关操作,
Figure RE-GDA0003057185410000072
为相关滤波器,
Figure RE-GDA0003057185410000073
为输 出期望值,λ1为正则化参数,防止过拟合,取0.0001;λ2为回归参数,取0.4;
Figure RE-GDA0003057185410000074
为背景信息约束项,加强了对背景信息的限制,该项越小,背景 信息对跟踪器的影响越小;将上述目标函数转化成
Figure RE-GDA0003057185410000075
其中,
Figure RE-GDA0003057185410000076
得到滤波器对应的解为
Figure RE-GDA0003057185410000077
其中,
Figure RE-GDA0003057185410000078
Figure RE-GDA0003057185410000079
为傅里叶变换,
Figure RE-GDA00030571854100000710
Figure RE-GDA00030571854100000711
分别为
Figure RE-GDA00030571854100000712
Figure RE-GDA00030571854100000713
的共轭转置;训练得到 的目标区域和背景区域的相关滤波器的响应图如图4所示,对应区域的指标如 图5所示,由于采用了背景抑制策略,目标区域的相关滤波器的响应图要优于 背景区域;
步骤S33、通过傅立叶反变换求解得到响应图为
Figure RE-GDA00030571854100000714
其中,
Figure RE-GDA00030571854100000715
为傅立叶反变换,zt为候选区域的特征表示,
Figure RE-GDA00030571854100000716
为点乘操作,目标定位 信息为响应图Rt最大值处
Figure RE-GDA00030571854100000717
进一步地,所述步骤S4中采用尺度池技术对目标尺度进行估计,设定尺 度池为S={s1,s2,...,sk},即跟踪过程中对这些尺度{sic|si∈S}进行分别计算,选出表 现性能最佳的尺寸作为当前帧的尺寸,具体步骤为:
步骤S41、设定尺度池为S={0.8,0.85,0.9,0.95,1.0,1.05,1.1,1.15,1.2},对这些尺寸进 行分别估算,通过计算平均峰值相关能量指标找出表现性能最好的尺寸,即
Figure BDA0003001112000000081
用以反映响应图的平均波动程度和检测目标的置信水平,其中,
Figure BDA0003001112000000082
为响应图中坐标位置(i,j)的响应值;
Figure BDA0003001112000000083
为响应图的最小值;
Figure BDA0003001112000000084
为响应图的最大值;μ(·)为均值计算;
步骤S42、为保证目标尺寸平稳,对尺寸进行平缓更新,ct+1=(1-γ)ct+γct+1, γ为目标尺寸学习率,取0.2。
进一步地,所述步骤S5中对目标模型进行更新是将相关滤波器分成分母 和分子两部分进行分别更新,
Figure BDA0003001112000000085
其中,At为分子部分,Bt为分母的一 部分,A1、B1均为0,具体更新步骤为:
步骤S51、进行分子部分更新,
Figure BDA0003001112000000086
其中,β为相关滤 波器模型学习率,取值0.01;
Figure BDA0003001112000000087
Figure BDA0003001112000000088
下一时刻的值;
步骤S52、进行分母部分更新,
Figure BDA0003001112000000089
上述步骤S1-S4目标跟踪过程,步骤S4为目标尺度更新过程,步骤S5为 跟踪模型更新过程,三者结合一起构成完整的目标跟踪过程,在实际的目标跟 踪过程中,通过重复步骤S1-S5,完成整个目标跟踪,目标跟踪的位置信息由 步骤S3得到。
为了验证上述实施例中利用基于背景感知的多跟踪器融合目标跟踪方法 (ABackground Aware Visual Tracking Algorithm Based on Multi-trackers Fusion,BATMF)的有效性,将其应用在OTB100数据集上进行对比实验,对比算法主 要有目前常用的目标跟踪算法,具体如下:
对比算法1、CT(Zhang K,Lei Z,Yang M H.Real-Time Compressive Tracking[C]//Proceedings of 2012European Conference on Computer Vision,2012: 864-877.);
对比算法2、CSK(Henriques J F,Caseiro R,Martins P,et al.Exploiting theCirculant Structure of Tracking-by-Detection with Kernels[C]//Proceedings ofEuropean Conference on Computer Vision,2012:702-715.);
对比算法3、SCM(Wei Z,Lu H,Yang M H.Robust object tracking viasparsity-based collaborative model[C]//Proceedings of 2010IEEE Conference onComputer Vision and Pattern Recognition,2010:1838-1845.);
对比算法4、VTD(Kwon J,Lee K M.Visual tracking decomposition[C]//Proceedings of 2010IEEE Conference on Computer Vision and PatternRecognition. IEEE,2010:1269-1276.);
对比算法5、VTS(Kwon J,Lee K M.Tracking by Sampling Trackers[C]//Proceedings of 2011International Conference on Computer Vision,2011: 1195-1202.);
对比算法6、TLD(Kalal Z,Matas J,Mikolajczyk K.P-N learning:Bootstrapping binary classifiers by structural constraints[C]//Proceedings of2010 Computer Vision and Pattern Recognition.IEEE,2010:49-56.);
对比算法7、ASLA(Jia X,Lu H,Yang M H.Visual tracking via adaptivestructural local sparse appearance model[C]//Proceedings of 2012IEEEConference on Computer Vision and Pattern Recognition,2012:1822-1829.);
对比算法8、CXT(Dinh T B,Vo N,Medioni G G.Context tracker:Exploringsupporters and distracters in unconstrained environments[C]//Proceedings of2011 IEEE Conference on Computer Vision and Pattern Recognition,,2011:1177-1184.);
对比算法9、LSK(Liu B,Huang J,Lin Y,et al.Robust tracking using localsparse appearance model and K-selection[C]//Proceedings of 2011IEEEConference on Computer Vision and Pattern Recognition,2011:1313-1320.);
对比算法10、CPF(P.Pérez,C.Hue,J.Vermaak,M.Gangnet,Color-BasedProbabilistic Tracking[C]//Proceedings of 2002European Conference on ComputerVision,2002:661-675.)
对比仿真实验过程中采用定量分析,即通过计算评价指标判断跟踪性能。 实验中采用的评价指标有跟踪精度(Precision)和跟踪成功率(SuccessRate),其对 应的对比仿真实验结果如图6和图7所示。图6中横坐标表示算法估计的目标 位置的中心点与人工标注的目标中心点距离阈值,纵轴表示小于此阈值的帧数 占总帧数的比率,即预测精度;图7中横坐标表示算法估计的目标边界框面积 与人工标注的目标的边界框的重合率阈值,纵轴表示小于此阈值的帧数所占总 帧数百分比,即成功率。
结合图6和图7可见,本发明BATMF在OTB100数据集上均较上述对比 算法展现出更优的跟踪精度和成功率,综合精度为70.9%,成功率为62.9%, 相比于粒子滤波跟踪器CPF的58.2%和52.3%提升较大。
综上所述,本发明构建一种由粗到精定位的跟踪框架,首先,采用基于粒 子滤波的视觉跟踪方法进行粗定位,提升跟踪算法在复杂跟踪场景的目标搜索 能力,增强跟踪算法应对遮挡等干扰的鲁棒性;然后,采用基于背景感知的相 关滤波方法进行精定位,提高跟踪算法在复杂场景中的精确性;在跟踪过程中, 采用尺度池技术对目标尺寸进行估计,并进行跟踪模型更新,得到鲁棒性更强 跟踪模型。实验结果表明,所提算法应对跟踪场景中复杂变化,如:光照变化、 尺度变化、遮挡等,都有着精确和稳健的跟踪效果。
对于本领域技术人员而言,显然本发明不限于上述示范性实施例的细节, 而且在不背离本发明的精神和基本特征的情况下,能够以其他的具体形式实现 本发明。此外,应当理解,虽然本说明书按照实施方式加以描述,但并非每个 实施方式仅包含一个独立的技术方案,说明书的这种叙述方式仅仅为清楚起 见,本领域技术人员应当将说明书作为一个整体,各实施例中的技术方案也可 以经适当组合,形成本领域技术人员可以理解的其他实施方式。

Claims (5)

1.一种基于背景感知的多跟踪器融合目标跟踪方法,其特征在于,包括如下步骤:
步骤S1、根据视频序列第一帧输入图片I1和目标框,以及后续输入图片It+1,t∈[1,L-1],L为视频序列总帧数,xt=(w,h)为中心点坐标,ct=(cw,ch)为目标尺度;
步骤S2、提取目标区域的颜色直方图,采用基于粒子滤波的目标跟踪方法进行跟踪,得到目标的位置信息
Figure FDA0003001111990000011
步骤S3、采用背景感知相关滤波器进行目标跟踪,获取目标位置信息;
步骤S4、采用尺度池技术对目标尺度进行估计,并进行更新,得到最新的目标尺度c=(cw,ch);
步骤S5、对目标模型进行更新;
步骤S6、重复步骤S2-S5,直至当前序列所有帧跟踪结束。
2.根据权利要求1所述的一种基于背景感知的多跟踪器融合目标跟踪方法,其特征在于,所述步骤S2中粒子滤波的目标跟踪过程的具体步骤为:
步骤S21、计算目标区域的m维的颜色直方图
Figure FDA0003001111990000012
其中,B为所选择目标区域的像素点数;yb为目标区域中第b个像素点坐标,b∈[1,B];h(yb)为直方图量化的函数;u为直方图的区间索引号,u∈[1,m];δ表示Kronecker函数;
步骤S22、按照一阶模型xt+1=xt+wnt随机生成N个粒子,生成的粒子坐标为
Figure FDA0003001111990000013
Figure FDA0003001111990000014
表示t时刻第n个粒子的位置信息,wnt为高斯随机噪声;
步骤S23、计算粒子集合中各样本所确定m维的的目标区域直方图
Figure FDA0003001111990000015
其中,
Figure FDA0003001111990000016
为以第n个粒子为中心的候选区域中第b个像素点坐标,n∈[1,N];
步骤S24、计算目标区域与候选区域颜色直方图的Bhattacharyya距离,
Figure FDA0003001111990000021
并确定每个粒子的权重系数kt(n),计算公式为kt(n)=C·exp(-pn),C为归一化系数,
Figure FDA0003001111990000022
步骤S25、计算粒子滤波跟踪算法的定位信息,
Figure FDA0003001111990000023
3.根据权利要求2所述的一种基于背景感知的多跟踪器融合目标跟踪方法,其特征在于,所述步骤S3中采用背景感知相关滤波器进行目标跟踪获取目标位置信息的具体步骤为:
步骤S31、按照步骤S2中得到的目标位置信息划分目标和背景区域,提取灰度信息ft i,i=0,1,2,3,4作为背景感知相关滤波器的特征,其中,ft 0为t时刻目标区域的灰度表示,ft 1、ft 2、ft 3、ft 4分别为t时刻四块背景区域的特征表示;
步骤S32、通过
Figure RE-RE-FDA0003057185400000024
训练滤波器参数,其中,符号★代表ft i和h之间的循环相关操作,
Figure RE-RE-FDA0003057185400000025
为相关滤波器,
Figure RE-RE-FDA0003057185400000026
为输出期望值,λ1为正则化参数,取0.0001;λ2为回归参数,取0.4;
Figure RE-RE-FDA0003057185400000027
为背景信息约束项;将上述目标函数转化成
Figure RE-RE-FDA0003057185400000028
其中,
Figure RE-RE-FDA0003057185400000029
得到滤波器对应的解为
Figure RE-RE-FDA00030571854000000210
其中,
Figure RE-RE-FDA00030571854000000211
Figure RE-RE-FDA00030571854000000212
Figure RE-RE-FDA00030571854000000213
为傅里叶变换,
Figure RE-RE-FDA00030571854000000214
Figure RE-RE-FDA00030571854000000215
分别为
Figure RE-RE-FDA00030571854000000216
Figure RE-RE-FDA00030571854000000217
的共轭转置;
步骤S33、通过傅立叶反变换求解得到响应图为
Figure RE-RE-FDA00030571854000000218
其中,
Figure RE-RE-FDA00030571854000000219
为傅立叶反变换,zt为候选区域的特征表示,
Figure RE-RE-FDA00030571854000000220
为点乘操作,目标定位信息为响应图Rt最大值处
Figure RE-RE-FDA00030571854000000221
4.根据权利要求3所述的一种基于背景感知的多跟踪器融合目标跟踪方法,其特征在于,所述步骤S4中采用尺度池技术对目标尺度进行估计,设定尺度池为S={s1,s2,...,sk},即跟踪过程中对这些尺度{sic|si∈S}进行分别计算,选出表现性能最佳的尺寸作为当前帧的尺寸,具体步骤为:
步骤S41、设定尺度池为S={0.8,0.85,0.9,0.95,1.0,1.05,1.1,1.15,1.2},对这些尺寸进行分别估算,通过计算平均峰值相关能量指标找出表现性能最好的尺寸,即
Figure FDA0003001111990000031
用以反映响应图的平均波动程度和检测目标的置信水平,其中,
Figure FDA0003001111990000032
为响应图中坐标位置(i,j)的响应值;
Figure FDA0003001111990000033
为响应图的最小值;
Figure FDA0003001111990000034
为响应图的最大值;μ(·)为均值计算;
步骤S42、为保证目标尺寸平稳,对尺寸进行平缓更新,ct+1=(1-γ)ct+γct+1,γ为目标尺寸学习率,取0.2。
5.根据权利要求4所述的一种基于背景感知的多跟踪器融合目标跟踪方法,其特征在于,所述步骤S5中对目标模型进行更新是将相关滤波器分成分母和分子两部分进行分别更新,
Figure FDA0003001111990000035
其中,At为分子部分,Bt为分母的一部分,A1、B1均为0,具体更新步骤为:
步骤S51、进行分子部分更新,
Figure FDA0003001111990000036
其中,β为相关滤波器模型学习率,取值0.01;
Figure FDA0003001111990000037
Figure FDA0003001111990000038
下一时刻的值;
步骤S52、进行分母部分更新,
Figure FDA0003001111990000039
CN202110347007.0A 2021-03-31 2021-03-31 一种基于背景感知的多跟踪器融合目标跟踪方法 Active CN112991390B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110347007.0A CN112991390B (zh) 2021-03-31 2021-03-31 一种基于背景感知的多跟踪器融合目标跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110347007.0A CN112991390B (zh) 2021-03-31 2021-03-31 一种基于背景感知的多跟踪器融合目标跟踪方法

Publications (2)

Publication Number Publication Date
CN112991390A true CN112991390A (zh) 2021-06-18
CN112991390B CN112991390B (zh) 2023-08-18

Family

ID=76338542

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110347007.0A Active CN112991390B (zh) 2021-03-31 2021-03-31 一种基于背景感知的多跟踪器融合目标跟踪方法

Country Status (1)

Country Link
CN (1) CN112991390B (zh)

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040220769A1 (en) * 2003-05-02 2004-11-04 Yong Rui System and process for tracking an object state using a particle filter sensor fusion technique
US8254633B1 (en) * 2009-04-21 2012-08-28 Videomining Corporation Method and system for finding correspondence between face camera views and behavior camera views
KR20140052256A (ko) * 2012-10-24 2014-05-07 계명대학교 산학협력단 파티클 필터를 이용한 움직임 카메라에서의 실시간 객체 추적 방법
CN105405151A (zh) * 2015-10-26 2016-03-16 西安电子科技大学 基于粒子滤波和加权Surf的抗遮挡目标跟踪方法
CN107480704A (zh) * 2017-07-24 2017-12-15 南开大学 一种具有遮挡感知机制的实时视觉目标跟踪方法
CN107481264A (zh) * 2017-08-11 2017-12-15 江南大学 一种自适应尺度的视频目标跟踪方法
CN107943837A (zh) * 2017-10-27 2018-04-20 江苏理工学院 一种前景目标关键帧化的视频摘要生成方法
CN109360224A (zh) * 2018-09-29 2019-02-19 吉林大学 一种融合kcf和粒子滤波的抗遮挡目标跟踪方法
CN109859243A (zh) * 2019-01-18 2019-06-07 昆明理工大学 一种基于尺度自适应块粒子的运动目标跟踪方法
CN111340842A (zh) * 2020-02-17 2020-06-26 江南大学 一种基于联合模型的相关滤波目标跟踪算法
CN111968153A (zh) * 2020-07-16 2020-11-20 新疆大学 基于相关滤波和粒子滤波的长时间目标跟踪方法及系统

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040220769A1 (en) * 2003-05-02 2004-11-04 Yong Rui System and process for tracking an object state using a particle filter sensor fusion technique
US8254633B1 (en) * 2009-04-21 2012-08-28 Videomining Corporation Method and system for finding correspondence between face camera views and behavior camera views
KR20140052256A (ko) * 2012-10-24 2014-05-07 계명대학교 산학협력단 파티클 필터를 이용한 움직임 카메라에서의 실시간 객체 추적 방법
CN105405151A (zh) * 2015-10-26 2016-03-16 西安电子科技大学 基于粒子滤波和加权Surf的抗遮挡目标跟踪方法
CN107480704A (zh) * 2017-07-24 2017-12-15 南开大学 一种具有遮挡感知机制的实时视觉目标跟踪方法
CN107481264A (zh) * 2017-08-11 2017-12-15 江南大学 一种自适应尺度的视频目标跟踪方法
CN107943837A (zh) * 2017-10-27 2018-04-20 江苏理工学院 一种前景目标关键帧化的视频摘要生成方法
CN109360224A (zh) * 2018-09-29 2019-02-19 吉林大学 一种融合kcf和粒子滤波的抗遮挡目标跟踪方法
CN109859243A (zh) * 2019-01-18 2019-06-07 昆明理工大学 一种基于尺度自适应块粒子的运动目标跟踪方法
CN111340842A (zh) * 2020-02-17 2020-06-26 江南大学 一种基于联合模型的相关滤波目标跟踪算法
CN111968153A (zh) * 2020-07-16 2020-11-20 新疆大学 基于相关滤波和粒子滤波的长时间目标跟踪方法及系统

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
JINGXIANG XU等: "Scale-Adaptive Context-Aware Correlation Filter with Output Constraints for Visual Target Tracking", 《MATHEMATICAL PROBLEMS IN ENGINEERING》, pages 1 - 15 *
尹明锋 等: "基于改进的空间直方图相似性度量的粒子滤波视觉跟踪(英文)", 《中国惯性技术学报》, vol. 26, no. 3, pages 359 - 365 *
赵栋梁: "改进快速粒子滤波算法的多目标检测与跟踪系统设计", 《中国优秀硕士学位论文全文数据库 信息科技辑》, no. 3, pages 138 - 5793 *
陈昭炯 等: "基于背景抑制颜色分布新模型的合成式目标跟踪算法", pages 1 - 10, Retrieved from the Internet <URL:http://kns.cnki.net/kcms/detail/11.2109.TP.20190412.1136.001.html> *
高冬梅: "基于快速尺度金字塔的改进核相关滤波目标跟踪研究", 《中国优秀硕士学位论文全文数据库 信息科技辑》, no. 1, pages 135 - 649 *

Also Published As

Publication number Publication date
CN112991390B (zh) 2023-08-18

Similar Documents

Publication Publication Date Title
CN108665481B (zh) 多层深度特征融合的自适应抗遮挡红外目标跟踪方法
CN110427839B (zh) 基于多层特征融合的视频目标检测方法
CN106599836B (zh) 多人脸跟踪方法及跟踪系统
CN107633226B (zh) 一种人体动作跟踪特征处理方法
CN107689052B (zh) 基于多模型融合和结构化深度特征的视觉目标跟踪方法
CN109461172A (zh) 人工与深度特征联合的相关滤波视频自适应跟踪方法
CN110728697A (zh) 基于卷积神经网络的红外弱小目标检测跟踪方法
CN111080675A (zh) 一种基于时空约束相关滤波的目标跟踪方法
CN101916446A (zh) 基于边缘信息和均值移位的灰度目标跟踪算法
CN110827262B (zh) 一种基于连续有限帧红外图像的弱小目标检测方法
Chen et al. Change detection algorithm for multi-temporal remote sensing images based on adaptive parameter estimation
CN113822352A (zh) 基于多特征融合的红外弱小目标检测方法
Xu et al. COCO-Net: A dual-supervised network with unified ROI-loss for low-resolution ship detection from optical satellite image sequences
CN114648547B (zh) 用于反无人机红外探测系统的弱小目标检测方法和装置
CN112926552A (zh) 基于深度神经网络的遥感影像车辆目标识别模型及方法
CN115147613A (zh) 一种基于多向融合的红外小目标检测方法
CN110751670B (zh) 一种基于融合的目标跟踪方法
CN110276782B (zh) 一种结合空谱特征和相关滤波的高光谱目标跟踪方法
CN111161323B (zh) 一种基于相关滤波的复杂场景目标跟踪方法及系统
CN116523959A (zh) 一种基于人工智能的运动目标检测方法及系统
CN113920391B (zh) 一种基于生成尺度自适应真值图的目标计数方法
CN110570450A (zh) 一种基于级联的上下文感知框架的目标跟踪方法
CN112991390B (zh) 一种基于背景感知的多跟踪器融合目标跟踪方法
CN113327273B (zh) 一种基于可变窗函数相关滤波的红外目标跟踪方法
CN112329796B (zh) 基于视觉显著性的红外成像卷云检测方法和装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant