CN111161324B - 一种基于自适应多模更新策略的目标跟踪方法 - Google Patents
一种基于自适应多模更新策略的目标跟踪方法 Download PDFInfo
- Publication number
- CN111161324B CN111161324B CN202010099786.2A CN202010099786A CN111161324B CN 111161324 B CN111161324 B CN 111161324B CN 202010099786 A CN202010099786 A CN 202010099786A CN 111161324 B CN111161324 B CN 111161324B
- Authority
- CN
- China
- Prior art keywords
- frame
- template
- con
- max
- confidence
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20048—Transform domain processing
- G06T2207/20056—Discrete and fast Fourier transform, [DFT, FFT]
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
Abstract
本发明揭示了一种基于自适应多模更新策略的目标跟踪方法,属于计算机视觉领域,在遮挡情况下可提高的目标跟踪性能。本发明的实现步骤如下:(1)读取初始帧;(2)初始化跟踪滤波器、初始帧置信度和局部极大置信度模板;(3)读取下一帧并预测被跟踪目标的位置;(4)计算该帧置信度及设置局部极大置信度模板;(5)从第4帧开始判断是否出现遮挡;(6)根据遮挡自适应设置各模板的学习率,然后将历史模板、当前帧滤波器和局部极大置信度模板根据相应的学习率融合为新的跟踪模板;(7)循环执行(3)~(6)直至跟踪结束。本发明提出了基于历史模板、当前帧滤波器和局部极大置信度模板的自适应融合方法,有效提高了遮挡环境下目标跟踪的鲁棒性和准确性。
Description
技术领域
本发明涉及计算机视觉领域,具体为一种基于自适应多模更新策略的目标跟踪方法。
背景技术
视频目标跟踪是计算机视觉方向重要的研究方向之一,首先在视频中选取被跟踪目标,根据目标的位置、尺度及特征在后续帧中预测位置和尺度等信息。目前,该研究方向的成果已被广泛的应用在智能监控和机器人导航等领域。当前,视频目标跟踪存在着遮挡、形变、光照变化、超出视野范围、快速移动、旋转和背景扰动等挑战性难点,其中遮挡是影响跟踪性能的一个重要的因素。
基于相关滤波器的目标跟踪方法具有较高的准确性以及实时性,已成为当前跟踪领域的研究热点。Bolme等学者提出基于最小输出平方误差滤波器(Minimum Output Sumof Squared Error filter,MOSSE)的跟踪方法,并提出采用峰值旁瓣比(The Peak-to-Sidelobe Ratio,PSR)检测遮挡或跟踪失败的情况。Alan提出了基于全相关的长时追踪算法(A Fully-Correlational Long-Term Tracker,FuCoLoT),在PSR的基础上得到加权PSR特征,以此来判别跟踪是否存在的遮挡,若存在遮挡情况,则不更新或少更新滤波器模板。Martin等学者提出有效卷积算子跟踪算法(Efficient Convolution Operators forTracking,ECO),算法针对滤波器组进行降维;为了克服遮挡等对跟踪模板的影响,采用每隔N帧更新一次的策略,可在一定程度上避免了遮挡或目标超出视野范围导致的模板漂移。这种隔帧更新的方法,也存在着明显的缺点,当目标出现遮挡时也有可能将当前滤波器更新到滤波器模板中,从而导致模板的不准确性。在已有的算法中,当遇到目标遮挡和目标超出视野范围影响时,大部分算法采用减少更新或者是不更新模板的方法以及模板漂移,然而,目前的检测方法并不能准确的检测遮挡,同时目前所有算法在模板更新方面,仅采用了历史模板和当前滤波器模板,而没有考虑到极大置信度模板,忽略了历史有效信息。
为了增强遮挡情形下模板的鲁棒性,本发明提出将局部极大置信度模板以一定的学习率更新到目标模板中,局部极大置信度模板往往具有较高的可靠性,在一定程度上克服遮挡导致的模板不准确性,从而提高跟踪性能。
发明内容
本发明是针对遮挡环境下的一种基于自适应多模更新策略的目标跟踪方法,旨在解决遮挡导致跟踪模板的不准确性。
本发明提出在目标跟踪过程中,模板更新不仅考虑历史模板和当前帧滤波器,同时将局部极大置信度模板更新融合进跟踪模板。
本发明的技术方案如下:
一种基于自适应多模更新策略的目标跟踪方法,包括以下步骤:
(1)读取视频帧序列,获取初始帧图像;
(2)根据初始帧确定被跟踪目标的位置,设置初始帧置信度Con1及局部极大置信度模板Fmax;
(3)读取第t帧视频序列,根据历史滤波器模板Ft-1预测第t帧被跟踪目标的位置;
(4)计算并保存第t帧的置信度Cont及滤波器FCt,统计第t-k-1帧至第t帧共k帧范围内的极大置信度值MaxC,Fmax设置为MaxC所对应帧j的滤波器FCj;
(5)当t>3时开始判断遮挡,根据第t帧的置信度Cont及第t-2帧、第t-3帧的置信度差|Cont-Cont-2|、|Cont-Cont-3|判断该帧是否存在遮挡;
(6)根据遮挡情况自适应调整历史模板Ft-1、局部极大置信度模板Fmax和当前帧滤波器FCt的学习率,将以上3个模板融合成为滤波器模板Ft;
(7)t=t+1,重复执行步骤3~步骤6;直到最后一帧,完成目标跟踪。
在步骤2中,根据groundtruth值确定被跟踪目标,根据目标特征计算初始帧滤波器模板,初始帧置信度Con1设置为0,Fmax设置为初始帧滤波器模板。
在步骤4中,计算第t帧的置信度,以加权峰值旁瓣比作为置信度Cont,计算方法为
在式(1)中,Rt为第t帧的响应图,max(Rt)代表求该帧响应的极大值;为去除中心位置11×11像素范围后的响应图,/>代表响应的平均值,/>为该帧响应的标准差,而式(1)中的/>为传统峰值旁瓣比,其中,max(Rt)相当于权重,因此式(1)可认为加权峰值旁瓣比;进一步,统计第t-k-1帧至第t帧范围内的极大置信度MaxC,MaxC实质为k帧局部范围内的极大置信度值;同时可得MaxC的对应帧j的FCj,设置局部极大置信度模板为Fmax=FCj,由于滤波器FCj的置信度MaxC较高,因此Fmax也具有较高的置信度。
在步骤5中,当t>3时,根据第t帧及第t-2帧、t-3帧的置信度差|Cont-Cont-2|、|Cont-Cont-3|判断第t帧是否出现遮挡;若第t帧的置信度Cont<τ1并且|Cont-Cont-2|>τ2或者第t帧的置信度Cont<τ1并且|Cont-Cont-3|>τ3,则判断第t帧为存在遮挡,否则判断为不存在遮挡,其中,τ1、τ2、τ3均为阈值,可根据跟踪目标类型进行调整。
在步骤6中,自适应设置Fmax的学习率μMax,若t≤3,设置为μMax=α1;若t>3,则μMax设置为
其中α0>α1(2)式(2)中的第一种和第二种情形表明目标存在遮挡,Fmax可设置一个较大的学习率α0,增强更新后模板的准确性;第三种为不存在遮挡情形,则设置一个较小的学习率α1,随后第t帧滤波器模板Ft实现方法如下
Ft=(1-μMax-μc)*Ft-1+μMax*FMax+μc*FCt(3)
式(3)中Ft-1为第t-1帧滤波器模板,FMax为极大置信度模板,FCt为当前帧滤波器;μc为FCt的学习率,设定为固定参数值;最终利用融合后的滤波器模板Ft可预测第t+1帧的目标位置。
本发明提供的方法相较于以往技术优点在于:
(1)提出多模更新策略,该策略不仅考虑了历史模板(即第t-1帧模板)和当前帧滤波器,而且还考虑了局部极大置信度模板,这种更新策略与传统更新策略不同;将局部极大置信度模板更新到滤波器中,是一种增量更新策略即增加了极大置信度模板的更新,能够显著提高滤波器模板的鲁棒性。
(2)判断目标是否存在遮挡时,不仅考虑第t帧的置信度,而且考虑了第t帧及第t-2帧、t-3帧的置信度差,利用不同间隔的帧的关系综合分析目标是否存在遮挡,能够全面分析目标遮挡情形。
(3)自适应调整局部极大置信度模板Fmax的学习率,针对遮挡情形,将局部极大置信度模板Fmax设置一个较大的学习率,否则,Fmax设置一个较小的学习率。该策略能够有效根据被跟踪目标的状态,自适应地调整局部极大置信度模板的学习率,进一步增强跟踪模板的鲁棒性。
附图说明
图1是本发明算法流程示意图;
图2是本发明算法与ECO算法在Unsupervised测试模式下针对VOT2016数据库中11个遮挡严重视频测试结果的重叠率示意图;
图3是本发明算法与ECO算法在Unsupervised测试模式下针对VOT2016数据库所有视频测试结果的重叠率示意图。
本发明的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述。显然,所描述的实施例仅仅是本发明的一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
需要说明,在本发明中涉及“第一”、“第二”等的描述仅用于描述目的,而不能理解为指示或暗示其相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括至少一个该特征。另外,各个实施例之间的技术方案可以相互结合,但是必须是以本领域普通技术人员能够实现为基础,当技术方案的结合出现相互矛盾或无法实现时应当认为这种技术方案的结合不存在,也不在本发明要求的保护范围之内。
应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。参照图1,本发明提供的示例以ECO跟踪算法为基准滤波器,具体实施方式如下:
(1)读取视频,获取视频的初始帧图像;
(2)根据groundtruth值确定被跟踪目标,根据目标特征计算初始帧滤波器模板,初始帧置信度Con1设置为0,Fmax设置为初始帧滤波器模板。其中特征提取部分,本发明主要采用了VGG-16神经网络中的第一层、第五层特征和HOG、CN特征作为跟踪过程中的主要特征。
(4)计算并保存第t帧的置信度Cont及滤波器FCt,统计第t-k-1帧至第t帧共k帧范围内的极大置信度值MaxC,Fmax设置为MaxC对应帧j的滤波器FCj,在本发明中k=18,在t<18时只统计第一帧到t帧的极大置信度值。
(5)当t>3时,根据第t帧及第t-2帧、t-3帧的置信度差|Cont-Cont-2|、|Cont-Cont-3|判断第t帧是否出现遮挡;若第t帧的置信度Cont<τ1并且|Cont-Cont-2|>τ2或者第t帧的置信度Cont<τ1并且|Cont-Cont-3|>τ3,则判断第t帧为存在遮挡,否则判断为不存在遮挡。本发明针对置信度利用全局极大值进行了[0,1]归一化,其中τ1=0.325,τ2=0.125,τ3=0.175。
(6)自适应设置Fmax的学习率μMax,若t≤3,设置为μMax=α1;若t>3,则μMax设置为
式(2)中α0=0.017,α1=0,第t帧滤波器模板Ft实现方法如下
Ft=(1-μMax-μc)*Ft-1+μMax*FMax+μc*FCt (3)
式(3)中μc=0.012,随后利用更新融合后的滤波器模板Ft作为分类器预测第t+1帧的目标位置。
(7)t=t+1,重复执行步骤3~步骤6;直到最后一帧,完成目标跟踪。
为了验证本发明的跟踪性能,分别对VOT2016中11个遮挡严重的视频(basketball、birds2、fernando、godfather、handball1、handball2、iceskater2、motocross2、pedestrian2、road、soccer2)及VOT2016所有视频进行跟踪测试。在baseline模式下采用鲁棒性(Robustness)、准确性(Accuracy)、重叠率(Overlap)和失败率(Failures)和平均重叠期望(Expected Average Overlap,EAO)表征跟踪性能;在unsupervised experiment模式采用曲线下面积(AreaUnderCurve,AUC)表征跟踪性能。
针对遮挡较为严重的11个视频的实验结果如表1所示,本发明算法在baseline测试模式下比ECO鲁棒性提高了0.67,准确率提高了2个百分点,重叠率提高了2个百分点,错误率低了0.37,EAO提高6个百分点;在Unsupervised测试模式下AUC提高了4个百分点。VOT2016数据库的实验结果如表2所示,本发明算法在baseline测试模式下比ECO鲁棒性高了0.66,准确率高了1个百分点,重叠率高了1个百分点,错误率低了0.13,EAO提高了1个百分点,在Unsupervised测试模式下AUC提高了1个百分点。
表1.遮挡严重的11个视频跟踪的实验结果
表2.VOT2016所有视频跟踪的实验结果
图2为Unsupervised模式下的11个遮挡严重视频的重叠率图,在不同的阈值下,本发明的重叠率明显优于ECO算法;图3为Unsupervised模式下在VOT2016数据库上的重叠率图,本发明的重叠率明显优于ECO算法。
综上所述,本发明提供的自适应多模更新策略提高了目标跟踪的准确性和鲁棒性,尤其是受到遮挡干扰因素影响时,本发明表现出了良好的准确性和鲁棒性,具有极高的推广价值。
以上所述仅为本发明的优选实施例,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本发明的专利保护范围内。
Claims (6)
1.一种基于自适应多模更新策略的目标跟踪方法,其特征在于,利用历史模板、当前帧滤波器以及局部极大置信度模板融合成为第t帧滤波器模板,利用融合后的滤波器模板作为分类器,预测下一帧目标的跟踪位置;该方法的具体步骤如下:
Step1:读取视频帧序列,获取初始帧图像;
Step2:根据初始帧确定被跟踪目标的位置,设置初始帧置信度Con1及局部极大置信度模板Fmax;
Step3:读取第t帧视频序列,根据历史滤波器模板Ft-1预测第t帧被跟踪目标的位置;
Step4:计算并保存第t帧的置信度Cont及滤波器FCt,统计第t-k-1帧至第t帧共k帧范围内的极大置信度值MaxC,Fmax设置为MaxC所对应帧j的滤波器FCj;
Step5:当t>3时开始判断遮挡,根据第t帧及第t-2帧、第t-3帧的置信度差|Cont-Cont-2|、|Cont-Cont-3|判断该帧是否存在遮挡;
Step6:根据遮挡情况自适应调整历史模板Ft-1、局部极大置信度模板Fmax和当前帧滤波器FCt的学习率,将以上3个模板融合成为滤波器模板Ft;
Step7:t=t+1,重复执行步骤3~步骤6;直到最后一帧,完成目标跟踪。
2.根据权利要求1所述的一种基于自适应多模更新策略的目标跟踪方法,其特征在于,步骤2的具体步骤如下:根据groundtruth值确定被跟踪目标,根据目标特征计算初始帧滤波器模板,初始帧置信度Con1设置为0,Fmax设置为初始帧滤波器模板。
4.根据权利要求1所述的一种基于自适应多模更新策略的目标跟踪方法,其特征在于,步骤4计算第t帧的置信度,以加权峰值旁瓣比作为置信度Cont,计算方法为
5.根据权利要求1所述的一种基于自适应多模更新策略的目标跟踪方法,其特征在于,步骤5的具体步骤如下:当t>3时,根据第t帧及第t-2帧、t-3帧的置信度差|Cont-Cont-2|、|Cont-Cont-3|判断第t帧是否出现遮挡;若第t帧的置信度Cont<τ1并且|Cont-Cont-2|>τ2或者第t帧的置信度Cont<τ1并且|Cont-Cont-3|>τ3,则判断第t帧为存在遮挡,否则判断为不存在遮挡,其中,τ1、τ2、τ3均为阈值。
6.根据权利要求1所述的一种基于自适应多模更新策略的目标跟踪方法,其特征在于,所述步骤6中自适应设置Fmax的学习率μMax,若t≤3,设置为μMax=α1;若t>3,则μMax设置为式(2)中的第一种和第二种情形表明目标存在遮挡,Fmax可设置一个较大的学习率α0,增强更新后模板的准确性;第三种为不存在遮挡情形,则设置一个较小的学习率α1,随后第t帧滤波器模板Ft实现方法如下
Ft=(1-μMax-μc)*Ft-1+μMax*FMax+μc*FCt (3)
式(3)中Ft-1为第t-1帧的历史模板,FMax为极大置信度模板,FCt为当前帧滤波器;μc为FCt的学习率,设定为固定值;最终利用融合后的滤波器模板Ft可预测第t+1帧的目标位置。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911142406 | 2019-11-20 | ||
CN2019111424062 | 2019-11-20 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111161324A CN111161324A (zh) | 2020-05-15 |
CN111161324B true CN111161324B (zh) | 2023-06-23 |
Family
ID=70565933
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010099786.2A Active CN111161324B (zh) | 2019-11-20 | 2020-02-18 | 一种基于自适应多模更新策略的目标跟踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111161324B (zh) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111985375B (zh) * | 2020-08-12 | 2022-06-14 | 华中科技大学 | 一种视觉目标跟踪自适应的模板融合方法 |
CN112634316B (zh) * | 2020-12-30 | 2022-11-25 | 河北工程大学 | 目标跟踪方法、装置、设备和存储介质 |
CN113436228B (zh) * | 2021-06-22 | 2024-01-23 | 中科芯集成电路有限公司 | 一种相关滤波目标跟踪算法的抗遮挡及目标重捕方法 |
CN114463377A (zh) * | 2021-12-27 | 2022-05-10 | 天翼云科技有限公司 | 目标跟踪优化方法、装置、计算机设备及存储介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101937447A (zh) * | 2010-06-07 | 2011-01-05 | 华为技术有限公司 | 一种告警关联规则挖掘方法、规则挖掘引擎及系统 |
WO2018121286A1 (zh) * | 2016-12-30 | 2018-07-05 | 纳恩博(北京)科技有限公司 | 目标跟踪方法和装置 |
CN109285179A (zh) * | 2018-07-26 | 2019-01-29 | 昆明理工大学 | 一种基于多特征融合的运动目标跟踪方法 |
CN110414439A (zh) * | 2019-07-30 | 2019-11-05 | 武汉理工大学 | 基于多峰值检测的抗遮挡行人跟踪方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20070182623A1 (en) * | 2006-02-03 | 2007-08-09 | Shuqing Zeng | Method and apparatus for on-vehicle calibration and orientation of object-tracking systems |
-
2020
- 2020-02-18 CN CN202010099786.2A patent/CN111161324B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101937447A (zh) * | 2010-06-07 | 2011-01-05 | 华为技术有限公司 | 一种告警关联规则挖掘方法、规则挖掘引擎及系统 |
WO2018121286A1 (zh) * | 2016-12-30 | 2018-07-05 | 纳恩博(北京)科技有限公司 | 目标跟踪方法和装置 |
CN109285179A (zh) * | 2018-07-26 | 2019-01-29 | 昆明理工大学 | 一种基于多特征融合的运动目标跟踪方法 |
CN110414439A (zh) * | 2019-07-30 | 2019-11-05 | 武汉理工大学 | 基于多峰值检测的抗遮挡行人跟踪方法 |
Non-Patent Citations (1)
Title |
---|
管皓 ; 薛向阳 ; 安志勇 ; .深度学习在视频目标跟踪中的应用进展与展望.自动化学报.2016,(第06期),全文. * |
Also Published As
Publication number | Publication date |
---|---|
CN111161324A (zh) | 2020-05-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111161324B (zh) | 一种基于自适应多模更新策略的目标跟踪方法 | |
CN109636829B (zh) | 一种基于语义信息和场景信息的多目标跟踪方法 | |
CN111127518B (zh) | 基于无人机的目标跟踪方法及装置 | |
CN110472496B (zh) | 一种基于目标检测与跟踪的交通视频智能分析方法 | |
CN108846854B (zh) | 一种基于运动预测与多特征融合的车辆跟踪方法 | |
CN103927764B (zh) | 一种结合目标信息和运动估计的车辆跟踪方法 | |
CN110796676A (zh) | 高置信度更新策略结合svm再检测技术的目标跟踪方法 | |
CN111667506B (zh) | 一种基于orb特征点的运动估计方法 | |
CN107516321A (zh) | 一种视频多目标跟踪方法及装置 | |
CN109118514B (zh) | 一种目标跟踪方法 | |
CN105374049B (zh) | 一种基于稀疏光流法的多角点跟踪方法及装置 | |
CN111322993B (zh) | 一种视觉定位方法和装置 | |
KR20150112656A (ko) | 카메라 캘리브레이션 방법 및 그 장치 | |
CN110400347B (zh) | 一种判断遮挡及目标重定位的目标跟踪方法 | |
CN113029185B (zh) | 众包式高精度地图更新中道路标线变化检测方法及系统 | |
CN111428642A (zh) | 一种多目标跟踪算法、电子装置及计算机可读存储介质 | |
CN110531618B (zh) | 基于有效关键帧的闭环检测机器人自定位误差消除方法 | |
CN112258553B (zh) | 一种基于多源图像融合的全天时目标跟踪方法 | |
CN108229412A (zh) | 目标遮挡判断方法 | |
CN111639570B (zh) | 一种基于运动模型和单目标线索的在线多目标跟踪方法 | |
CN116645396A (zh) | 轨迹确定方法、装置、计算机可读存储介质及电子设备 | |
CN109087332B (zh) | 一种基于分块相关的遮挡检测方法 | |
CN114862913A (zh) | 基于人工智能网络的机器视觉目标定位方法 | |
JP2008513868A (ja) | オプトエレクトロニクス利用の監視システムにおける点状の目標の検出及びトラッキング方法 | |
JP2002117392A (ja) | 車間距離推定装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |