CN110598614A - 一种结合粒子滤波的相关滤波目标跟踪方法 - Google Patents
一种结合粒子滤波的相关滤波目标跟踪方法 Download PDFInfo
- Publication number
- CN110598614A CN110598614A CN201910830346.7A CN201910830346A CN110598614A CN 110598614 A CN110598614 A CN 110598614A CN 201910830346 A CN201910830346 A CN 201910830346A CN 110598614 A CN110598614 A CN 110598614A
- Authority
- CN
- China
- Prior art keywords
- particle
- target
- filtering
- filter
- particles
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/29—Graphical models, e.g. Bayesian networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/269—Analysis of motion using gradient-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/50—Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Computation (AREA)
- Evolutionary Biology (AREA)
- General Engineering & Computer Science (AREA)
- Bioinformatics & Computational Biology (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Radar Systems Or Details Thereof (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种结合粒子滤波的相关滤波目标跟踪方法,结合相关滤波和粒子滤波,首先用转移模型生成粒子,并对粒子进行初始化;然后从重要性概率密度函数中随机采样粒子;之后对粒子的权值进行更新并对粒子进行重采样;对重采样得到的每个粒子进行相关滤波,根据相关滤波器的响应对每个粒子的权重进行修正,实现对粒子的选择;最后进行加权平均得到粒子的状态。利用相关滤波可以引导粒子向目标分布状态模式移动,一定程度上减少了粒子的个数,降低计算的复杂度。同时,粒子滤波能解决尺度变化问题,因此算法对目标发生尺度变化也具有一定的鲁棒性。
Description
技术领域
本发明属于计算机视觉领域,研究的是该领域中的目标跟踪技术,具体涉及一种结合粒子滤波的相关滤波目标跟踪方法。
背景技术
目标跟踪技术被广泛地应用在智能监控,医疗卫生,军事制导,无人驾驶,人机交互和航空航天领域。除了上述应用外,它还应用在增强现实、智能机器人、虚拟现实、可穿戴设备等方方面面。目标跟踪技术的研究是一项具有重要意义的研究课题,国内外大量学者和专业的比赛都在为研究跟踪技术做各种各样的努力。然而影响跟踪性能的因素有很多,提升跟踪性能,提高跟踪系统的鲁棒性仍然面临严峻的挑战。
目标跟踪技术的发展,大体经历了三个阶段,第一个阶段是比较早的,也是经典的目标跟踪算法,比如基于粒子滤波的算法,基于均值漂移的算法,基于特征点光流法等,第二个阶段是近五年来比较火热的基于相关滤波的目标跟踪算法,这类方法的主要特点是跟踪速度快,非常具有实用价值,因此也衍生出了很多改进算法。第三个阶段是近三年的基于深度学习的目标跟踪算法,这类算法跟踪的精度和成功率比较好,但实时性相对差一些。这些大部分跟踪算法都可以分为运动模型、特征提取器、外观模型、模型更新这四个主要部分。对于目标跟踪的改进算法,也通常提出这几个部分做有针对性的改进方案,以获得更好的跟踪效果。经过不断的研究和改进,目标跟踪已经得到良好的发展,但要得到一种全优的跟踪算法仍然是一项具有挑战性的工作。
基于相关滤波的跟踪算法是继经典的跟踪算法之后一种新兴的跟踪算法,近几年,基于相关滤波类的目标跟踪算法的研究一直层出不穷。2010年,Blome等提出了MOSSE(Minimum Output Sum of Squared Error,MOSSE)算法,首次将信号处理领域的相关滤波应用在目标跟踪领域。相比于当时的跟踪算法,该算法具有较高的速度优势,可以在具体的生产或生活的场景中得到应用。2012年,Henriques等在MOSSE算法的基础上提出了CSK算法,CSK算法改进了MOSSE算法中的稀疏采样策略,提出了密集采样的方案,通过学习相关滤波器从而判断目标的位置。CSK算法也具有较快的跟踪速度,但由于最初采用的是灰度特征,只能处理灰度图像。2014年,Henriques等在CSK的基础上提出了KCF算法,对特征进行扩展,并对多尺度和核变换进行优化。KCF算法依然具有较强的速度优势,在简单场景下能取得非常好的跟踪性能。Danelljan等人提出了 DSST算法,该算法构建了两个滤波器分别用于位置预测和尺度估计,为解决多尺度问题提供了一个全新的思路。然而,虽然这些跟踪器也取得比较不错的跟踪效果,尤其是速度方面具有绝对优势,但它们都只在先前目标状态附近来搜索当前目标的状态,在目标发生遮挡,尺度变化,快速运动时,有可能达不到理想的跟踪效果。
另一方面,粒子滤波属于统计学方法,它是利用基于概率密度的“粒子”递归地推断系统的模型参数,从而估计出目标的当前状态,推广了传统的卡尔曼滤波方法,可应用于任何状态空间模型。粒子滤波需要用采样大量的粒子逼近目标的状态,这种方法能处理遮挡和尺度变化问题,但预测的目标状态受采样粒子数量的影响。如果采样粒子数少,则计算量低,预测的目标状态可能不正确;反之,如果采样粒子数多,则计算代价高。为了解决这个问题,可以将粒子滤和相关滤波进行结合,以粒子滤波为主进行跟踪,以相关滤波为辅进行粒子的选择,引导粒子向目标分布状态模式移动,一定程度上减少粒子的个数,降低计算成本。
发明内容
针对相关滤波跟踪方法在目标发生遮挡情况下容易跟踪失败的问题,本发明提供了一种结合粒子滤波的相关滤波目标跟踪方法,在相关滤波跟踪的基础上,增加遮挡判别机制,判断当前帧目标是否发生遮挡,一旦判定发生遮挡,则引入粒子滤波技术,将其与相关滤波进行融合,应对目标遮挡的问题。
本发明所采用的技术方案是:一种结合粒子滤波的相关滤波目标跟踪方法,当前帧跟踪目标被判定为发生遮挡时,进行预测目标位置,具体包括以下步骤:
步骤1:生成并初始化粒子,得到粒子集;
步骤2:服从重要性概率密度函数q(xk|yk)对粒子集进行随机采样,得到N个随机粒子
步骤3:根据下式计算得到N个随机粒子中的有效粒子个数
步骤4:判断当前有效粒子个数是否满足设定的阈值,若满足,则执行步骤5,否则,执行步骤2进行重采样,重新获得N个随机粒子;
步骤5:对采样得到的每个粒子进行相关滤波,得到的每个粒子的响应分布值为:
其中,表示k时刻第i个粒子对应的观测值,α和x分别表示相关滤波器系数和目标外观模型,为k时刻第i个粒子通过相关滤波器获得的响应分布,分别表示为傅里叶反变换和傅里叶变换,φ表示为核函数;
步骤6:每个粒子根据其响应分布值进行权重修正
步骤7:根据式(5)计算得到跟踪目标的最佳状态估计:
式中,为粒子移动到响应分布最大值对应的位置时粒子的状态,wk (i)为修正后的权重。
进一步的,所述步骤1具体实现过程为:
构建用于描述目标跟踪问题的跟踪系统模型:xk+1=fk(xk,wk);其中,xk表示第k时刻跟踪系统模型的状态值,wk表示第k时刻跟踪系统模型的动态噪声;
根据跟踪系统模型的状态值,采用状态转移模型p(xk|xk-1)生成粒子;
基于先验概率密度p(x0)初始化粒子,得到粒子集。
进一步的,在步骤1之前,还包括判定当前帧的跟踪目标是否发生遮挡的步骤:
利用相关滤波器计算得到当前帧的相关滤波响应图;
计算当前帧的相关滤波响应图的峰值旁瓣比,并判断当前帧的相关滤波响应图的峰值旁瓣比是否大于峰值旁瓣比阈值,若大于,则判定没有发生遮挡,该当前帧的相关滤波响应图中响应值最大的位置即为当前帧目标的预测位置;否则判定为发生遮挡,执行步骤1。
进一步的,所述利用相关滤波器计算得到当前帧的相关滤波响应图的步骤包括:
提取当前帧的HOG特征;
对当前帧的HOG特征进行高斯窗函数处理:
其中,N表示高斯窗函数返回一个N维向量,σ表示方差;
将经过高斯窗函数处理的结果与相关滤波器的系数进行相关卷积运算,得到滤波响应:
其中,r表示相关滤波器的滤波响应,x表示目标的外观模型,z表示目标的候选样本,α表示相关滤波器系数,表示为傅里叶反变换和傅里叶变换,φ表示为核函数。
进一步的,在执行完步骤7之后,根据当前帧跟踪目标的位置,对相关滤波器进行更新,具体包括:
更新目标外观模型x和更新相关滤波器的系数α:
其中,xt表示当前帧的目标样本向量,x1:t表示时间从开始到t时刻学习到的样本向量,η表示学习率,αt表示当前帧学习到的相关滤波器系数,α1:t表示从开始到t时刻学习到的相关滤波器的系数。
进一步的,所述相关滤波响应图的峰值旁瓣比表示为:
其中,ρ表示相关滤波响应图中最大的响应值,μ表示相关滤波响应图中旁瓣的均值,σ表示旁瓣的标准差。
进一步的,所述峰值旁瓣比阈值为0.5ρ0,ρ0为初始帧的相关滤波响应图中最大的响应值。
进一步的,在执行完步骤7之后,对当前帧跟踪目标中心位置的进行特征提取,作为下一帧的跟踪目标的初始位置。
有益效果:本发明与现有技术相比,具有以下优点:
(1)本发明能很好地解决目标遮挡问题,即使目标在完全遮挡情况,本方法也具有一定的鲁棒性,利用粒子滤波的概率统计方式,能从丢失的目标轨迹中重新恢复目标的当前状态。
(2)传统的基于相关滤波的方法中,跟踪的目标框的大小固定,不能适应目标尺度变化。本发明中,引入粒子滤波,它能通过粒子采样在一定程度上解决尺度变化问题。
(3)在进行遮挡判别时,设置的阈值并不是经验上的固定阈值,而将阈值设为 0.5ρ0,即初始帧的相关滤波最大响应值的一半,这种方法能对不同序列图像设置不同的阈值,充分考虑了不同序列所需阈值的差异性,使得遮挡判别策略实用型更强。
(4)相关滤波和粒子滤波相结合的方案,在基本的粒子滤波框架的基础上,融入相关滤波,利用每个粒子的相关滤波响应对粒子的权重进行修正,给响应值较大的粒子分配一个较大权重值,从而引导粒子滤波中粒子的选择,降低粒子滤波的计算复杂度。
附图说明
图1为本发明的流程图;
图2为跟踪系统的简易模型;
图3为粒子滤波的示意图;
图4为跟踪精度和成功率对比图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面结合具体实施方式,进一步阐明本发明。
本发明提出了一种结合粒子滤波的相关滤波目标跟踪方法,在相关滤波跟踪的基础上,增加遮挡判别机制,判断当前帧目标是否发生遮挡。一旦判定发生遮挡,则引入粒子滤波技术,将其与相关滤波进行融合,应对目标遮挡的问题。
本发明的基本思想是:在目标进行跟踪的过程中,(1)对跟踪的视频序列进行相关滤波,获得当前帧的相关滤波响应图。(2)将滤波响应图的峰值旁瓣比与设定的阈值进行比较,从而确定当前帧是否发生遮挡,(3)若峰值旁瓣低于设定的阈值,则判定没有发生遮挡,采用相关滤波算法预测的目标位置为最终的跟踪结果;若峰值旁瓣高于设定的阈值,则判定发生遮挡,采用相关滤波和粒子滤波结合的一种跟踪方案。(4)相关滤波和粒子滤波结合的方案,由于相关滤波器运算效率高,粒子滤波基于贝叶斯公式,能够用来解决遮挡问题,在本发明中,并不是简单地将粒子滤波和相关滤波进行组合,而是充分利用了两种滤波器的优势将两种滤波器进行融合。其中以粒子滤波为主,负责跟踪过程,用来解决目标遮挡问题;以相关滤波为辅,引导粒子滤波中粒子的选择,用来降低粒子滤波的计算复杂度。
图2为跟踪系统的简易模型;为了对跟踪问题进行描述,可以利用跟踪系统模型来表示:
状态模型:xk+1=fk(xk,wk)
观测模型:zk=hk(xk,vk)
其中,k表示第k时刻,xk表示跟踪系统模型的状态值,zk表示跟踪系统模型的观测值,wk表示跟踪系统模型的动态噪声,vk表示观测噪声。
具体包括以下步骤:
步骤1:对于跟踪的视频序列,对其进行相关滤波跟踪,获得当前帧的相关滤波响应图;
步骤2:将当前帧的相关滤波响应图的峰值旁瓣比与设定的峰值信噪比阈值相比,对当前帧目标状态进行遮挡判别;若判断未发生遮挡,以利用相关滤波器预测得到的目标位置为最终的跟踪结果;若判断发生遮挡,则执行步骤3。
步骤3:采用相关滤波和粒子滤波相结合的算法进行预测得到目标位置,该相关滤波和粒子滤波相结合的算法为在基本的粒子滤波框架的基础上,融入相关滤波,通过对每个粒子进行相关滤波,根据得到的相关滤波响应值对每个粒子的权重进行修正,引导粒子向目标状态分布方向移动。
本发明的步骤1具体包括:
当t=0时,根据给定的初始帧的目标位置训练相关滤波器,得到,相关滤波器的系数α。
以初始帧的目标位置为基样本,通过构建循环矩阵,进行循环移位采样以获得相关滤波器的训练样本。
对第t帧视频序列的样本图像提取HOG特征,用来训练相关滤波器。
对提取的HOG特征进行高斯窗函数处理,并与学习到的相关滤波器参数进行相关运算,得到滤波响应。
利用相关滤波器的输出响应来预测目标的位置,响应值最大的位置即为当前帧目标的预测位置:
其中,r表示相关滤波器的输出响应,x表示目标的外观模型,z表示目标的候选样本,α表示相关滤波器系数。
对当前帧目标中心位置重新提取特征,用作下一帧目标的初始位置并对模型进行更新。
步骤2包括:
步骤2.1:利用相关滤波响应图的峰值旁瓣比进行遮挡的判别,它定义为:
其中,ρ表示相关滤波响应图中最大的响应值,可以由步骤1中的输出响应方程取最大值得到,μ表示相关滤波响应图中旁瓣的均值,σ表示旁瓣的标准差。
阈值的选择:峰值旁瓣比的值越大,说明跟踪效果越好;值变小,说明出现了遮挡,跟踪效果变差。考虑到不同序列的具体情况,算法中并没有将PSR阈值设为某个固定值而跟踪序列相关联。假设初始帧的相关滤波最大响应值为ρ0,实验中取0.5ρ0作为阈值若当前帧的峰值旁瓣比PSR大于初始帧滤波响应最大值的一半时,即PSR>0.5ρ0,判定没有发生遮挡,跟踪结果采用利用相关滤波预测的目标位置。
若当前帧的峰值旁瓣比PSR不大于初始帧滤波响应最大值的一半时,即 PSR≤0.5ρ0,判定发生遮挡,跟踪的结果采用遮挡后的处理策略。
步骤3包括:
步骤3.1:用转移模型p(xk|xk-1)生成粒子,根据先验概率密度p(x0)初始化粒子集;其中,xk表示第k时刻系统的状态值。
步骤3.2:对每个粒子进行重要性采样,即服从重要性概率密度函数中随机采样N个粒子
步骤3.3:根据下式计算得到N个随机粒子中的有效粒子个数
步骤3.4:判断当前有效粒子个数是否满足设定的阈值,若满足,则执行步骤3.5,否则,执行步骤3.2进行重采样,重新获得N个随机粒子;
步骤3.5:对采样得到的每个粒子进行相关滤波,得到的每个粒子的响应分布值为:
其中,表示k时刻第i个粒子对应的观测值,α和x分别表示相关滤波器系数和目标外观模型,为k时刻第i个粒子通过相关滤波器获得的响应分布,分别表示为傅里叶反变换和傅里叶变换,φ表示为核函数;
步骤3.6:最后计算加权平均值得到粒子的状态。搜索粒子响应的最大值,并使其移动到响应分布最大值对应的位置,此时粒子的状态记为在此基础上,定义:
有粒子权重与相关滤波器的响应成正比,即经过相关滤波器分析后,每个粒子的状态都被移动到状态此时目标的最佳状态估计为:
利用相关滤波能引导粒子向目标分布状态模式移动,一定程度上减少了粒子的个数,降低了粒子滤波的计算复杂度。所提的算法能很好的解决目标遮挡问题,当目标发生遮挡时,利用粒子滤波和相关滤波相结合的方案进行跟踪。由于粒子滤波能解决尺度变化问题,因此本发明对目标发生尺度变化也具有一定的鲁棒性。
图3为粒子滤波的示意图;其中,
①表示在k-1时刻,随机采样N个权重值为的粒子用粒子集表示,其中i=1,2,...N;
②表示根据跟踪系统模型的观测值,利用相关滤波器对粒子的响应更新粒子权重值,得到新的粒子集
③表示重采样,丢弃权重值小的粒子,根据权重比例复制多个权重值大的粒子,并将重采样后的粒子权重值重新设为
随时间推移会出现粒子权重退化的现象,故设置阈值判定粒子的权重是否发生退化。一般情况下,有效粒子的个数越少,权值的方差越大,实际应用中,有效粒子数近似为:
④表示在k时刻利用跟踪系统模型的状态转移模型对当前时刻粒子的状态进行预测,粒子集为
⑤表示根据观测值更新k时刻粒子的权重值,得到此时的粒子集
为验证本发明提出方法的有效性,我们使用OTB2013数据集,在标准跟踪库平台进行实验,选取了3组发生遮挡或尺度变化的视频序列进行测试(序列的详细信息见表 1),并将跟踪结果与传统相关滤波算法CSK,KCF算法,基于相关滤波跟踪算法进行尺度问题改进的DSST算法法以及最新的相关滤波和粒子滤波进行结合的CPF算法进行比较,跟踪效果的对比图见图4。
表1测试序列的相关信息
。
Claims (8)
1.一种结合粒子滤波的相关滤波目标跟踪方法,其特征在于:当前帧跟踪目标被判定为发生遮挡时,进行预测目标位置,具体包括以下步骤:
步骤1:生成并初始化粒子,得到粒子集;
步骤2:服从重要性概率密度函数q(xk|yk)对粒子集进行随机采样,得到N个随机粒子
步骤3:根据下式计算得到N个随机粒子中的有效粒子个数
步骤4:判断当前有效粒子个数是否满足设定的阈值,若满足,则执行步骤5,否则,执行步骤2进行重采样,重新获得N个随机粒子;
步骤5:对采样得到的每个粒子进行相关滤波,得到的每个粒子的响应分布值为:
其中,表示k时刻第i个粒子对应的观测值,α和x分别表示相关滤波器系数和目标外观模型,为k时刻第i个粒子通过相关滤波器获得的响应分布,分别表示为傅里叶反变换和傅里叶变换,φ表示为核函数;
步骤6:每个粒子根据其响应分布值进行权重修正
步骤7:根据式(5)计算得到跟踪目标的最佳状态估计:
式中,为粒子移动到响应分布最大值对应的位置时粒子的状态,wk (i)为修正后的权重。
2.根据权利要求1所述的一种结合粒子滤波的相关滤波目标跟踪方法,其特征在于:所述步骤1具体实现过程为:
构建用于描述目标跟踪问题的跟踪系统模型:xk+1=fk(xk,wk);其中,xk表示第k时刻跟踪系统模型的状态值,wk表示第k时刻跟踪系统模型的动态噪声;
根据跟踪系统模型的状态值,采用状态转移模型p(xk|xk-1)生成粒子;
基于先验概率密度p(x0)初始化粒子,得到粒子集。
3.根据权利要求1所述的一种结合粒子滤波的相关滤波目标跟踪方法,其特征在于:在步骤1之前,还包括判定当前帧的跟踪目标是否发生遮挡的步骤:
利用相关滤波器计算得到当前帧的相关滤波响应图;
计算当前帧的相关滤波响应图的峰值旁瓣比,并判断当前帧的相关滤波响应图的峰值旁瓣比是否大于峰值旁瓣比阈值,若大于,则判定没有发生遮挡,该当前帧的相关滤波响应图中响应值最大的位置即为当前帧目标的预测位置;否则判定为发生遮挡,执行步骤1。
4.根据权利要求3所述的一种结合粒子滤波的相关滤波目标跟踪方法,其特征在于:所述利用相关滤波器计算得到当前帧的相关滤波响应图的步骤包括:
提取当前帧的HOG特征;
对当前帧的HOG特征进行高斯窗函数处理:
其中,N表示高斯窗函数返回一个N维向量,σ表示方差;
将经过高斯窗函数处理的结果与相关滤波器的系数进行相关卷积运算,得到滤波响应:
其中,r表示相关滤波器的滤波响应,x表示目标的外观模型,z表示目标的候选样本,α表示相关滤波器系数,表示为傅里叶反变换和傅里叶变换,φ表示为核函数。
5.根据权利要求1所述的一种结合粒子滤波的相关滤波目标跟踪方法,其特征在于:在执行完步骤7之后,根据当前帧跟踪目标的位置,对相关滤波器进行更新,具体包括:
更新目标外观模型x和更新相关滤波器的系数α:
其中,xt表示当前帧的目标样本向量,x1:t表示时间从开始到t时刻学习到的样本向量,η表示学习率,αt表示当前帧学习到的相关滤波器系数,α1:t表示从开始到t时刻学习到的相关滤波器的系数。
6.根据权利要求3所述的一种结合粒子滤波的相关滤波目标跟踪方法,其特征在于:所述相关滤波响应图的峰值旁瓣比表示为:
其中,ρ表示相关滤波响应图中最大的响应值,μ表示相关滤波响应图中旁瓣的均值,σ表示旁瓣的标准差。
7.根据权利要求3所述的一种结合粒子滤波的相关滤波目标跟踪方法,其特征在于:所述峰值旁瓣比阈值为0.5ρ0,ρ0为初始帧的相关滤波响应图中最大的响应值。
8.根据权利要求1所述的一种结合粒子滤波的相关滤波目标跟踪方法,其特征在于:在执行完步骤7之后,对当前帧跟踪目标中心位置的进行特征提取,作为下一帧的跟踪目标的初始位置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910830346.7A CN110598614B (zh) | 2019-09-04 | 2019-09-04 | 一种结合粒子滤波的相关滤波目标跟踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910830346.7A CN110598614B (zh) | 2019-09-04 | 2019-09-04 | 一种结合粒子滤波的相关滤波目标跟踪方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110598614A true CN110598614A (zh) | 2019-12-20 |
CN110598614B CN110598614B (zh) | 2022-08-26 |
Family
ID=68857260
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910830346.7A Active CN110598614B (zh) | 2019-09-04 | 2019-09-04 | 一种结合粒子滤波的相关滤波目标跟踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110598614B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113051529A (zh) * | 2021-03-17 | 2021-06-29 | 哈尔滨工程大学 | 一种基于统计观测局地化均权重粒子滤波数据同化方法 |
CN113096157A (zh) * | 2021-04-30 | 2021-07-09 | 华侨大学 | 一种可靠的局部目标跟踪方法及跟踪器 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106875426A (zh) * | 2017-02-21 | 2017-06-20 | 中国科学院自动化研究所 | 基于相关粒子滤波的视觉跟踪方法及装置 |
CN108983215A (zh) * | 2018-05-25 | 2018-12-11 | 哈尔滨工程大学 | 一种基于最大互相关熵自适应无迹粒子滤波器的目标跟踪方法 |
CN109360224A (zh) * | 2018-09-29 | 2019-02-19 | 吉林大学 | 一种融合kcf和粒子滤波的抗遮挡目标跟踪方法 |
CN109685073A (zh) * | 2018-12-28 | 2019-04-26 | 南京工程学院 | 一种基于核相关滤波的尺度自适应目标跟踪算法 |
-
2019
- 2019-09-04 CN CN201910830346.7A patent/CN110598614B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106875426A (zh) * | 2017-02-21 | 2017-06-20 | 中国科学院自动化研究所 | 基于相关粒子滤波的视觉跟踪方法及装置 |
CN108983215A (zh) * | 2018-05-25 | 2018-12-11 | 哈尔滨工程大学 | 一种基于最大互相关熵自适应无迹粒子滤波器的目标跟踪方法 |
CN109360224A (zh) * | 2018-09-29 | 2019-02-19 | 吉林大学 | 一种融合kcf和粒子滤波的抗遮挡目标跟踪方法 |
CN109685073A (zh) * | 2018-12-28 | 2019-04-26 | 南京工程学院 | 一种基于核相关滤波的尺度自适应目标跟踪算法 |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113051529A (zh) * | 2021-03-17 | 2021-06-29 | 哈尔滨工程大学 | 一种基于统计观测局地化均权重粒子滤波数据同化方法 |
CN113096157A (zh) * | 2021-04-30 | 2021-07-09 | 华侨大学 | 一种可靠的局部目标跟踪方法及跟踪器 |
CN113096157B (zh) * | 2021-04-30 | 2023-07-28 | 华侨大学 | 一种可靠的局部目标跟踪方法及跟踪器 |
Also Published As
Publication number | Publication date |
---|---|
CN110598614B (zh) | 2022-08-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111354017B (zh) | 一种基于孪生神经网络及平行注意力模块的目标跟踪方法 | |
CN110135500B (zh) | 一种基于自适应深度特征滤波器的多场景下目标跟踪方法 | |
CN110120064B (zh) | 一种基于互强化与多注意机制学习的深度相关目标跟踪算法 | |
Zhang et al. | Sequential particle swarm optimization for visual tracking | |
CN110909591B (zh) | 用编码向量的行人图像检测自适应非极大值抑制处理方法 | |
CN106875426B (zh) | 基于相关粒子滤波的视觉跟踪方法及装置 | |
CN111260738A (zh) | 基于相关滤波和自适应特征融合的多尺度目标跟踪方法 | |
CN109166139B (zh) | 一种结合快速背景抑制的尺度自适应目标跟踪方法 | |
CN110598614B (zh) | 一种结合粒子滤波的相关滤波目标跟踪方法 | |
CN111986225A (zh) | 一种基于角点检测和孪生网络的多目标跟踪方法及装置 | |
CN111931722B (zh) | 一种结合颜色比率特征的相关滤波跟踪方法 | |
WO2017168462A1 (en) | An image processing device, an image processing method, and computer-readable recording medium | |
CN116228817B (zh) | 一种基于相关滤波的实时抗遮挡抗抖动单目标跟踪方法 | |
JP2022027464A (ja) | 映像の深度推定に関する方法及び装置 | |
CN111402303A (zh) | 一种基于kfstrcf的目标跟踪架构 | |
CN112489088A (zh) | 一种基于记忆单元的孪生网络视觉跟踪方法 | |
CN110147768B (zh) | 一种目标跟踪方法及装置 | |
CN115471525A (zh) | 基于融合孪生网络与卡尔曼滤波的目标跟踪方法及系统 | |
CN114821580A (zh) | 一种分阶段融入去噪模块的含噪图像分割方法 | |
CN114694261A (zh) | 一种基于多级监督图卷积的视频三维人体姿态估计方法及系统 | |
CN113516713A (zh) | 一种基于伪孪生网络的无人机自适应目标跟踪方法 | |
CN115588030B (zh) | 基于孪生网络的视觉目标跟踪方法及设备 | |
CN110751671B (zh) | 一种基于核相关滤波与运动估计的目标跟踪方法 | |
CN110580712A (zh) | 一种使用运动信息与时序信息的改进CFNet视频目标追踪方法 | |
CN114022510A (zh) | 一种基于内容检索的目标长时跟踪方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |