CN108985375A - 考虑粒子权值空间分布的多特征融合跟踪方法 - Google Patents

考虑粒子权值空间分布的多特征融合跟踪方法 Download PDF

Info

Publication number
CN108985375A
CN108985375A CN201810772795.6A CN201810772795A CN108985375A CN 108985375 A CN108985375 A CN 108985375A CN 201810772795 A CN201810772795 A CN 201810772795A CN 108985375 A CN108985375 A CN 108985375A
Authority
CN
China
Prior art keywords
target
particle
weight
tracking
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201810772795.6A
Other languages
English (en)
Other versions
CN108985375B (zh
Inventor
李军
曹梦婷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Lanzhou Modern Vocational College
Original Assignee
李军
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 李军 filed Critical 李军
Priority to CN201810772795.6A priority Critical patent/CN108985375B/zh
Publication of CN108985375A publication Critical patent/CN108985375A/zh
Application granted granted Critical
Publication of CN108985375B publication Critical patent/CN108985375B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features

Landscapes

  • Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了考虑粒子权值空间分布的多特征融合跟踪方法,假设n帧目标图像序列为I1,I2,L,In,确定目标在第1帧图像中的位置通过状态转移模型,根据st‑1预测当前帧状态st,实现粒子传播,得到新的粒子集;计算相应粒子的偏差和距离,进行权值的融合计算;根据特征融合之后的粒子权值估计目标当前位置;更新:确定是否需要进行目标模型更新;根据对当前帧候选目标位置的权值估计结果,自适应重新抽取M个粒子,建立新的粒子集,然后返回重新开始。本发明的有益效果是在不同复杂背景下取得了较好的跟踪精度和稳定性。

Description

考虑粒子权值空间分布的多特征融合跟踪方法
技术领域
本发明属于视频处理技术领域,涉及一种考虑粒子权值空间分布的多特征融合跟踪方法。
背景技术
视频目标跟踪的主要目的是根据先验信息和当前的观测信息不断的确定当前帧中目标的具体参量信息(包括位置、速度、偏转角度等)。在实时监控、远程会议、智能家居、人机交互以及智能驾驶等领域具有广泛的应用,是计算机视觉最为活跃的研究领域之一。虽然近年来研究人员提出了很多优秀的跟踪方法,由于目标受到遮挡、光照变化、平面内外旋转等不同复杂背景的干扰,因此,开发实时、鲁棒的跟踪算法仍然是一个十分具有挑战性的研究课题。
传统的视觉跟踪系统主要由外观模型(观测模型)、运动模型和搜索策略(优化方法)三部分组成。其中,外观模型是系统的核心,影响着整个系统跟踪算法的结构。早期的研究主要是以静态特征构建目标的观测模型,无法精确描述目标的表观变化参量,往往导致跟踪漂移、甚至失败。随后,研究人员提出采用自适应更新的表观建模方法,对跟踪的前景目标进行实时的动态表观模型更新,具有较好的动态适应能力。根据外观模型的不同,可以将自适应表观建模跟踪方法概括为生成式跟踪和判别式跟踪两类。其中,生成式跟踪方法主要是通过学习一个视觉模型来表征跟踪目标,并且在帧图像中搜索同跟踪目标特征最相似的区域。该类方法主要包括基于模板、基于子空间的和基于稀疏表示的模型。基于模板的算法将目标表征为一个或多个模板,并在到来的帧图像中进行匹配,得分最高的区域即为目标区域;增量视觉跟踪(incremental visual tracking,IVT)方法是目前最受欢迎的子空间跟踪方法,该方法利用低维的主成分分析(principal component analysis,PCA)子空间表征目标,并通过在线更新PCA子空间获取稳健的目标表观模型。尽管IVT对光照改变和姿态改变具有较好的鲁棒性,但是该方法对部分遮挡和背景杂波过于敏感。基于稀疏表示的目标跟踪方法通过一系列的系数约束,利用多种目标对目标进行混合建模,有效提升了动态情况下目标的建模精度,但是由于繁琐的稀疏优化,导致该算法计算复杂、实时性较差。判别式跟踪方法主要是通过考虑正负样本,将跟踪的目标从背景目标中区别出来(将跟踪问题看作是二值分类问题)。可以利用经典的分类方法实现有效的跟踪。目前研究中用于目标跟踪的分类方法主要包括自举(boosting),支持向量机(support vector machine),朴素贝叶斯,随机森林,多事例学习(multiple instance learning,MIL), 尺度学习以及结构学习,等。在训练数据有限的情况下,生成式跟踪方法可以达到更加优化和普适的跟踪结果,但是当训练数据集合足够大的情况下,判别式跟踪方法的性能要优于生成式跟踪方法。而且,该类方法需要对目标的表观模型进行不断的更新,这种更新严重依赖于上一帧的目标表征结果。由于在更新的过程中无法度量目标表观模型更新的有效性,导致这两类方法对目标的遮挡、光照突变以及尺度变化等复杂环境下会引入背景样本信息,引起目标模型漂移,导致跟踪精度降低、甚至失败。
因此,建立鲁棒精确的动态目标表观模型是实现鲁棒精确跟踪的前提。结合生成式和判别式跟踪方法的优点,本发明在传统粒子滤波的框架内提出了一种考虑粒子权值空间分布的多特征融合跟踪方法。该方法属于生成与判别混合式跟踪方法。该方法采用颜色和梯度方向直方图特征构建目标表观模型,并利用粒子权值的空间分布状态度量不同特征的判别能力。其中,粒子权值的空间分布状态主要是通过粒子权值的标准偏差进行度量,而粒子权值的标准偏差是采用特征概率密度函数的log似然比进行计算。然后联合粒子权值的标准偏差和观测模型的 Bhattacharyya构建特征自适应融合的权值计算公式,有效实现了多特征表观模型的自适应融合更新;给出了遮挡等复杂情况下的实时感知标准,并基于特征稳定性构建目标模型的自适应更新方法,有效避免了复杂环境下的目标模型漂移问题。最后,基于不同复杂序列验证了本发明方法的有效性,并基于标准的测试序列库对算法的优越性和整体性能进行了详细的对比分析。
发明内容
本发明的目的在于提供考虑粒子权值空间分布的多特征融合跟踪方法,本发明的有益效果是在不同复杂背景下取得了较好的跟踪精度和稳定性。通过标准测试序列的对比,表明本发明方法具有优秀的跟踪性能,有效避免了复杂环境下的目标模型漂移问题。
本发明所采用的技术方案是按照以下步骤进行:
①假设n帧目标图像序列为I1,I2,L,In,确定目标在第1帧图像中的位置
(1)初始化:t=1
初始化粒子集;
(2)跟踪过程;
②传播:通过状态转移模型,根据st-1预测当前帧状态st,实现粒子传播,得到新的粒子集;
③融合:计算相应粒子的偏差和距离,进行权值的融合计算;
④估计:根据特征融合之后的粒子权值估计目标当前位置;
⑤更新:确定是否需要进行目标模型更新;
⑥重采样:根据对当前帧候选目标位置的权值估计结果,自适应重新抽取M个粒子,建立新的粒子集,然后返回步骤①。
进一步,步骤③融合实现方式为:
其中,权重融合因子μd取值为0到1之间,为了实现μd的在线自适应调整,需要设计一个度量指标来判断不同特征对目标的表征能力,采用粒子权重的标准偏差对粒子的空间分布状态和判别能力进行表征:特征的判别能力即
假定第i个采样粒子表征的目标区域为 为t时刻粒子i表征的目标矩形区域的中心,Wt i为目标区域的宽和高,假设hf为特征f的目标直方图,hb为背景直方图,则在考虑目标和部分背景的情况下,将目标和背景的概率密度函数p(u)和q(u)计算为
其中,nf和nb分别为目标和背景的像素个数,则可以将特征直方图第u个bin的 log似然比函数定义为
其中,max(·)和min(·)函数保证L(u)≤1,ε=0.001,该相似度函数将目标区域特征值映射为正值,将背景区域特征值映射为负值,计算特征f的相似度函数的方差
var(Lf)=E(L(u)2)-(E[L(u)])2 (6)
于是,特征f的区分度可以定义为
σf=var[Lf] (7)
由于PF是一种统计估计的形式,在跟踪的过程中,无法在线的知道目标的真实位置,但是却知道目标出现在权值最大的区域的概率最大,因此,在实际跟踪中,将表征目标的粒子赋予较大权值的特征,最大值计算为
式中,N表示粒子的采样个数,联合式(7)和式(8)将两种度量特征判别能力的指标进行融合,获取自适应特征融合权重因子的计算表达式为
假设一共有M个特征,则相应的第m个特征的权值μm计算为
进一步,步骤⑤更新方法:假设初始目标模型为s0
1)目标稳定状态
给定初始化集合Ls={s0},假设候选目标模型为st(t=1,2,L),设定可靠性阈值λ∈(0,1),计算若ωmax>λ,则将当前候选目标模型加入集合Ls,并用其更新s0,重复上述过程,直到出现第1个不满足条件的目标模型st+1,得到Ls={s0,s1,L,st};
2)目标不确定状态
初始化不确定状态集合Lo=φ,将不满足1)的候选目标模型st+i(i=1,2,L) 加入Lo,假设经过m帧以后,出现候选目标模型st+m重新满足ωmax>λ,则停止上述过程,得到Lo={st+1,st+2,L,st+m-1};否则,对于融合后的特征模型,若m超过指定阈值m0,则认为跟踪失败,若m<m0,则对目标模型采用下式进行更新:
st=βs0+(1-β)st-1 (11)
其中,β∈(0,1)为自适应更新因子,可靠性阈值按照下式进行更新:
λt=(1-α)λt-1+αωmax (12)
其中,α∈(0,1)为场景学习因子;
遮挡处理
1)遮挡判断:设定遮挡阈值T0,计算当前判别能力最强特征的粒子最大权值
如果ωmax<T0则认为发生了遮挡,将遮挡阈值设定为一段时间内粒子最大权值的平均值,即
其中,为目标sj∈Ls(j∈[1,k])的最大粒子权值,k为在集合Ls选择的目标模型的个数;
2)遮挡处理:判定目标处于遮挡状态后,保存Ls中的最后一个目标模型,利用状态转移模型对目标位置进行传播,根据状态方程对其运动轨迹进行预测,增加粒子数量,扩大搜索范围,并计算若ωmax>λT0,则认为重新捕获了目标,其中:λ∈(0,1)为调节因子。
附图说明
图1是本发明示意图;
图2是山地摩托车空间翻越的视频序列;
图3是歌手在灯光剧烈变化的舞台唱歌的视频序列。
具体实施方式
下面结合具体实施方式对本发明进行详细说明。
本发明权值融合实现方式为:
其中,权重融合因子μd取值为0到1之间。实现调整权重因子μd的自适应调整,是实现多特征自适应融合的关键。为了实现μd的在线自适应调整,需要设计一个度量指标来判断不同特征对目标的表征能力。当一种特征能够对表征目标的粒子赋予较高的权值,对表征背景的粒子赋予较低的权值,则认为该特征具有较高的判别能力,很好地区分背景和目标,应该对该特征赋予较高的权值;相反,如果一个特征对表征目标和背景的粒子赋予近似相同的权值,则认为该特征判别能力较差,无法有效区分目标和背景,则应该赋予较低的权值。因此,如何度量不同特征的判别能力是实现自适应融合的关键。
采用粒子权重的标准偏差对粒子的空间分布状态和判别能力进行表征。
一个特征的判别能力(为便于分析表示为F)应该同其本身权值的标准偏差成正比,同其他特征的标准偏差成反比,即
假定第i个采样粒子表征的目标区域为 为t时刻粒子i表征的目标矩形区域的中心,Wt i为目标区域的宽和高。背景区域的选择只需要考虑目标外围的局部背景,背景区域宽W和高H的取值应覆盖目标区域,并使目标与背景区域面积接近,本发明选择假设 hf为特征f的目标直方图,hb为背景直方图,则在考虑目标和部分背景的情况下,可以将目标和背景的概率密度函数p(u)和q(u)计算为
其中,nf和nb分别为目标和背景的像素个数,则可以将特征直方图第u个bin的 log似然比函数定义为
其中,max(·)和min(·)函数保证L(u)≤1,ε为保证log(·)函数有意义的极小值,本发明取ε=0.001,该相似度函数将目标区域特征值映射为正值,将背景区域特征值映射为负值。从L(u)的取值可知,目标与背景的特征值差异越大,L(u)的取值越分散,因此,可通过特征相似度函数的方差描述各特征对目标和背景的区分度,方差较大的特征具有较高的区分度。计算特征f的相似度函数的方差
var(Lf)=E(L(u)2)-(E[L(u)])2 (6)
于是,特征f的区分度可以定义为(高斯方差)
σf=var[Lf] (7)
由于PF是一种统计估计的形式,在跟踪的过程中,无法在线的知道目标的真实位置,但是却知道目标出现在权值最大的区域的概率最大。因此,在实际跟踪中,总是喜欢那些能够将表征目标的粒子(在目标真实区域采样的粒子)赋予较大权值的特征。其最大值计算为
式中,N表示粒子的采样个数。联合式(7)和式(8)可以将两种度量特征判别能力的指标进行融合,获取自适应特征融合权重因子的计算表达式为
等式(9)可以很容易的扩展到评估多个不同特征情况,并能够有效度量不同特征的判别能力。假设一共有M个特征,则相应的第m个特征的权值μm计算为
因此,本发明提出的特征融合方法可以扩展到任意多特征的在线自适应融合领域。根据前面的分析可以将这些特征融合成一个简单的相对权值线性组合。从而保证在跟踪过程中,在每一帧图像中都能够获取判别能力最强的特征集合。本发明采用了颜色直方图和HOG直方图特征进行特征融合。
目标模型的动态更新及遮挡处理
目标模型更新
为了避免目标模型漂移,本发明利用特征稳定性度量的定义,充分考虑目标模型的时域相关性,对于不同特征目标模型采用异步更新的模式,提出一种目标模型的状态划分更新策略。假设初始目标模型为s0
1)目标稳定状态
目标稳定状态主要用来描述目标在跟踪过程中的缓慢变化过程。给定初始化集合Ls={s0},假设候选目标模型为st(t=1,2,L),设定可靠性阈值λ∈(0,1),计算若ωmax>λ,则将当前候选目标模型加入集合Ls,并用其更新s0,重复上述过程,直到出现第1个不满足条件的目标模型st+1,得到Ls={s0,s1,L,st}。
2)目标不确定状态
初始化不确定状态集合Lo=φ,将不满足1)的候选目标模型st+i(i=1,2,L) 加入Lo,假设经过m帧以后,出现候选目标模型st+m重新满足ωmax>λ,则停止上述过程,得到Lo={st+1,st+2,L,st+m-1};否则,对于融合后的特征模型,若m超过指定阈值m0(本发明取m0=35),则认为跟踪失败。实验表明,如果目标模型的突变是由光照变化、遮挡等因素引起的,则目标模型通常会经过不确定状态回到稳定状态,Lo仍能表示真实的目标序列。若m<m0,则对目标模型采用下式进行更新:
st=βs0+(1-β)st-1 (11)
其中,β∈(0,1)为自适应更新因子,本发明初始化β=0.1,可靠性阈值按照下式进行更新:
λt=(1-α)λt-1+αωmax (12)
其中,α∈(0,1)为场景学习因子,本发明初始化为α=0.2。
上述更新方式不仅考虑到初始目标模型和上一帧目标模型包含的信息以及不同特征变化率对当前目标模型的影响,而且能够保证目标模型的动态变化对不同场景有更强的适应性,具有更高的精确性。
遮挡处理
1)遮挡判断:当目标发生遮挡的时候,粒子的判别能力会降低,进而产生相对较低的权值,根据粒子的最大权值阈值判断目标遮挡状态的发生。首先,设定遮挡阈值T0,计算当前判别能力最强特征的粒子最大权值
如果ωmax<T0则认为发生了遮挡。为了避免阈值选择对场景的变化过于敏感,将遮挡阈值设定为一段时间内粒子最大权值的平均值,即
其中,为目标sj∈Ls(j∈[1,k])的最大粒子权值,k为在集合Ls选择的目标模型的个数,可以根据实际情况动态设置,本发明选择k=10。
2)遮挡处理:判定目标处于遮挡状态后,保存Ls中的最后一个目标模型,利用状态转移模型对目标位置进行传播,根据状态方程对其运动轨迹进行预测,增加粒子数量,扩大搜索范围,并计算若ωmax>λT0,则认为重新捕获了目标.其中:λ∈(0,1)为调节因子,本发明初始化λ=0.8。
梯度方向直方图(histogram of gradients,HOG)特征
本发明采用梯度直方图(HOG)特征作为目标的形状信息进行表征,首先,对获取的原始图像进行伽马校正,对图像进行颜色空间的标准化(归一化),调节图像的对比度,降低图像局部的阴影和光照变化所造成的影响,同时可以抑制噪音的干扰;然后,利用原始图像同水平核[-1,0,1]和垂直梯度核[-1,0,1]T进行卷积,获取图像梯度信息,给定图像中任意一点像素坐标(x,y),则该像素的幅值和方向可以计算为
其中,px(x,y)和py(x,y)表示水平和垂直梯度值。将目标区域划分为若干个矩形细胞单元(cell)。每一个cell同直方图的边缘方向相关(将每一个cell中的直方图划分为9个bin),将梯度方向在0°~180°(也有在360°的范围内)划分为9 个离散化的bin。每一个cell中的每一个像素具有一个权值来对该像素表征的特征是属于哪一个bin进行权值投票(针对该部分主要是在0°~180°的方向空间的 9个划分单元进行权值投票,该像素特征权值最高所对应的方向bin即为该像素的梯度方向)。文中将每一个cell中每一个像素的幅值作为该像素方向角度bin 的权值。因此,一个cell中的某一个binζ(本发明中共有9个bin)的直方图可以计算为
其中,δ为狄拉克函数,为量化的方向,从orient(x,y)中计算得到。Np为每一个cell的像素个数。对于每一个cell单元,可以将其方向梯度直方图表示为
其中N为该cell单元方向梯度直方图的量化个数,也就是bin的个数。实际的跟踪过程中,将一个候选的矩形方框划分为9个矩形的小单元(cell)。则每一个 cell同9个bin的边缘方向直方图相关。所有9个bin的直方图被级联成一个单一的81维特征矢量Hhog。每一个cell单元的区域具有50%的重叠率,也就是说,在形成最终的直方图特征的时候,每一个像素不仅仅对一个cell做了贡献。为了处理光照和对比度的改变,每一个单元细胞(cell)的梯度值被局部归一化,根据梯度的L2范数,计算如下:
q×q=3×3单元(cell),N应该为每个cell内的直方图bin的个数(N=9),调节参量ε=0.01。归一化以后,一个粒子表示的目标的矩形方框的直方图可以计算为
其中,B为划分单元区域的个数,且B=q×q,被包含在目标的矩形方框区域中。实验与结果分析
实验平台及说明
本发明算法在MATLAB R2011b实验环境下完成。实验硬件平台为Intel(R) Core(TM)i5-45703.2GHz CPU,8GB RAM的笔记本电脑,软件平台为Matlab R2011b。为验证本发明方法的有效性,首先,针对遮挡、尺寸变换以及光照变化等复杂背景下的跟踪情况进行有效性分析;接着,基于标准跟踪视频序列库选择了9段标准的复杂序列进行了算法性能的整体跟踪效果分析,并将跟踪结果同现有的部分优秀跟踪算法进行了对比分析。为了验定量分析跟踪方法的性能,实验中采用中心位置误差(Center Location Error,CLE)作为算法性能的评测标准,计算如下:
其中,i为视频序列的帧索引值,为目标的跟踪结果位置,为目标的真实位置。
特征融合的有效性分析
为分析本发明方法的有效性,该部分主要针对遮挡、目标旋转和光照及尺度三种复杂情况下的跟踪效果进行了有效性分析。为便于比较,实验中同时进行了单独基于颜色特征和单独基于HOG特征的PF跟踪结果,具体如图1、图2和图 3所示。
图1为一个女生浇花的视频序列,该序列的复杂背景主要体现在花对目标的遮挡,从图1的(a)中给出的部分跟踪序列结果可以看出,在第200帧的时候,目标开始出现遮挡,从图1的(b)中的误差曲线可以看出,此时基于颜色特征的跟踪误差开始增加,到200帧的时候,由于大面积遮挡出现了漂移,误差逐渐增大,从图中可以看出实际的跟踪已经失去了价值;而基于HOG特征的跟踪方法在部分遮挡开始的时候能够捕捉部分目标的方向梯度和边缘信息,虽然遮挡以后的误差也在增加,但是效果要好于基于颜色特征的跟踪结果。而本发明方法能够在两种很好的在两个特征中选择鲁棒的表观模型,从图1的(c)中的权值自适应融合曲线可以看出,当目标出现大面积遮挡的情况下,本发明方法能够很好的增加HOG特征的权值比重,提升了判别能力强的特征的权值,达到了实时优化的跟踪效果,且性能优于单独的特征建模跟踪方法。
图2为山地摩托车空间翻越的视频序列,该序列的复杂背景主要体现在跟踪目标在空中的快速旋转和形变。从图2的(a)中可以看出,三种方法都能够实现该序列的有效跟踪,但是单独基于HOG特征的跟踪结果会在快速旋转过程中出现较大的漂移,精度较低低,主要原因是因为目标较小,在快速旋转过程中,目标的边缘即梯度变化较快,导致匹配精度变差;而在快速旋转过程中,目标的颜色特征基本上保持了较好的稳定性,因为颜色的空间分布相对稳定,但是当目标与背景颜色相近的时候,颜色特征也会产生更大的误差,如图中第180帧,此时的目标和背景区域颜色特征几乎相似,导致颜色特征的跟踪结果变差。从图2的(b)中的CLE曲线可以看出,本发明方法保持了较高的跟踪精度,且整个跟踪过程中颜色特征保持了较高的跟踪精度,这一点可以从图2的(c)中的权值融合曲线中可以看出,进一步说明了颜色特征对旋转具有较强的鲁棒性。
图3为歌手在灯光剧烈变化的舞台唱歌的视频序列,该序列的复杂背景主要表现在目标尺度大小的平面缩放和光照的剧烈变化。图3的(a)中给出了该序列的部分跟踪结果,从图3的(b)中可以看出,基于颜色跟踪的方法在90帧的时候就开始了漂移,误差逐渐增加,主要是因为光照的剧烈变化降低了颜色特征的判别能力;同样可以看出,随着光照的剧烈变化,基于HOG特征的跟踪精度也在降低,主要式因为在光照剧烈变化的同时目标的尺度也发生了较大的变化,原理摄像镜头,导致边缘即方向梯度产生了较大的差别,跟踪结果收到影响,但是相比较而言,基于HOG特征的跟踪效果要优越基于颜色的跟踪效果。但是从图3的(b)中的CLE曲线可以看出,虽然本发明方法保持了相对较好的跟踪精度,但是随着目标尺度和光照的改变,跟踪的误差也在增加。从图3的(c)中的权值融合曲线可以看出,随着光照和尺度的变化,基于HOG特征的判别能力要逐渐占据较大的权重,有效避免了因光照对颜色的改变引起的漂移问题。
针对复杂背景条件下视频目标的鲁棒跟踪问题,本发明充分利用不同特征对目标的判别能力,在粒子滤波的框架内实现了不同特征的生成式与判别式融合跟踪方法,实现了跟踪过程中不同特征表征能力的自适应权重赋值和融合处理。同传统的多特征融合方法方法相比,本发明方法还具有以下优点:
(1)采用粒子权值的空间分布状态度量不同特征对前景目标的判别能力,并基于特征概率密度函数的log似然比计算粒子权值的标准偏差来表征粒子权值的空间分布状态,很好地考虑了粒子本身对目标和背景的表征能力,充分利用用了前景目标和背景区域的粒子判别能力。
(2)联合粒子的标准偏差和Bhattacharyya系数构建特征权值的自适应融合公式,实现多特征表观模型的自适应融合更新,增强了融合的有效性,并给出了一种便于扩展的多特征融合方式;
(3)提出了一种遮挡背景的实时感知标准,并基于特征稳定性构建目标模型的自适应更新方法,有效避免了复杂环境下的目标模型漂移问题。
最后,基于不同复杂背景下的测试视频对本发明方法的有效性进行了分析,并基于国际通用测试序列进行了详细的测试分析,验证了本发明方法的精确性和优越性。
以上所述仅是对本发明的较佳实施方式而已,并非对本发明作任何形式上的限制,凡是依据本发明的技术实质对以上实施方式所做的任何简单修改,等同变化与修饰,均属于本发明技术方案的范围内。

Claims (3)

1.考虑粒子权值空间分布的多特征融合跟踪方法,其特征在于按照以下步骤进行:
①假设n帧目标图像序列为I1,I2,L,In,确定目标在第1帧图像中的位置
(1)初始化:t=1
初始化粒子集;
(2)跟踪过程;
②传播:通过状态转移模型,根据st-1预测当前帧状态st,实现粒子传播,得到新的粒子集;
③融合:计算相应粒子的偏差和距离,进行权值的融合计算;
④估计:根据特征融合之后的粒子权值估计目标当前位置;
⑤更新:确定是否需要进行目标模型更新;
⑥重采样:根据对当前帧候选目标位置的权值估计结果,自适应重新抽取M个粒子,建立新的粒子集,然后返回步骤①。
2.按照权利要求1所述考虑粒子权值空间分布的多特征融合跟踪方法,其特征在于:所述步骤③融合实现方式为:
其中,权重融合因子μd取值为0到1之间,为了实现μd的在线自适应调整,需要设计一个度量指标来判断不同特征对目标的表征能力,采用粒子权重的标准偏差对粒子的空间分布状态和判别能力进行表征:特征的判别能力即
假定第i个采样粒子表征的目标区域为 为t时刻粒子i表征的目标矩形区域的中心,Wt i为目标区域的宽和高,假设hf为特征f的目标直方图,hb为背景直方图,则在考虑目标和部分背景的情况下,将目标和背景的概率密度函数p(u)和q(u)计算为
其中,nf和nb分别为目标和背景的像素个数,则可以将特征直方图第u个bin的log似然比函数定义为
其中,max(·)和min(·)函数保证L(u)≤1,ε=0.001,该相似度函数将目标区域特征值映射为正值,将背景区域特征值映射为负值,计算特征f的相似度函数的方差
var(Lf)=E(L(u)2)-(E[L(u)])2 (6)
于是,特征f的区分度可以定义为
σf=var[Lf] (7)
由于PF是一种统计估计的形式,在跟踪的过程中,无法在线的知道目标的真实位置,但是却知道目标出现在权值最大的区域的概率最大,因此,在实际跟踪中,将表征目标的粒子赋予较大权值的特征,最大值计算为
式中,N表示粒子的采样个数,联合式(7)和式(8)将两种度量特征判别能力的指标进行融合,获取自适应特征融合权重因子的计算表达式为
假设一共有M个特征,则相应的第m个特征的权值μm计算为
3.按照权利要求1所述考虑粒子权值空间分布的多特征融合跟踪方法,其特征在于:所述步骤⑤更新方法:假设初始目标模型为s0
1)目标稳定状态
给定初始化集合Ls={s0},假设候选目标模型为st(t=1,2,L),设定可靠性阈值λ∈(0,1),计算若ωmax>λ,则将当前候选目标模型加入集合Ls,并用其更新s0,重复上述过程,直到出现第1个不满足条件的目标模型st+1,得到Ls={s0,s1,L,st};
2)目标不确定状态
初始化不确定状态集合Lo=φ,将不满足1)的候选目标模型st+i(i=1,2,L)加入Lo,假设经过m帧以后,出现候选目标模型st+m重新满足ωmax>λ,则停止上述过程,得到Lo={st+1,st+2,L,st+m-1};否则,对于融合后的特征模型,若m超过指定阈值m0,则认为跟踪失败,若m<m0,则对目标模型采用下式进行更新:
st=βs0+(1-β)st-1 (11)
其中,β∈(0,1)为自适应更新因子,可靠性阈值按照下式进行更新:
λt=(1-α)λt-1+αωmax (12)
其中,α∈(0,1)为场景学习因子;
遮挡处理
1)遮挡判断:设定遮挡阈值T0,计算当前判别能力最强特征的粒子最大权值
如果ωmax<T0则认为发生了遮挡,将遮挡阈值设定为一段时间内粒子最大权值的平均值,即
其中,为目标sj∈Ls(j∈[1,k])的最大粒子权值,k为在集合Ls选择的目标模型的个数;
2)遮挡处理:判定目标处于遮挡状态后,保存Ls中的最后一个目标模型,利用状态转移模型对目标位置进行传播,根据状态方程对其运动轨迹进行预测,增加粒子数量,扩大搜索范围,并计算若ωmax>λT0,则认为重新捕获了目标,其中:λ∈(0,1)为调节因子。
CN201810772795.6A 2018-07-14 2018-07-14 考虑粒子权值空间分布的多特征融合跟踪方法 Active CN108985375B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810772795.6A CN108985375B (zh) 2018-07-14 2018-07-14 考虑粒子权值空间分布的多特征融合跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810772795.6A CN108985375B (zh) 2018-07-14 2018-07-14 考虑粒子权值空间分布的多特征融合跟踪方法

Publications (2)

Publication Number Publication Date
CN108985375A true CN108985375A (zh) 2018-12-11
CN108985375B CN108985375B (zh) 2021-02-09

Family

ID=64548519

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810772795.6A Active CN108985375B (zh) 2018-07-14 2018-07-14 考虑粒子权值空间分布的多特征融合跟踪方法

Country Status (1)

Country Link
CN (1) CN108985375B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110288538A (zh) * 2019-05-23 2019-09-27 南京理工大学 一种多特征融合的运动目标阴影检测及消除方法
CN110660081A (zh) * 2019-09-18 2020-01-07 西安交通大学 一种基于自适应的特征选择的目标跟踪方法
CN112184762A (zh) * 2020-09-05 2021-01-05 天津城建大学 一种基于特征融合的灰狼优化粒子滤波目标跟踪算法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100233146A1 (en) * 2002-09-09 2010-09-16 Reactive Surfaces, Ltd. Coatings and Surface Treatments Having Active Enzymes and Peptides
CN102831409A (zh) * 2012-08-30 2012-12-19 苏州大学 基于粒子滤波的运动行人视频自动跟踪方法及系统
CN106127808A (zh) * 2016-06-20 2016-11-16 浙江工业大学 一种基于颜色与局部二值模式特征融合的抗遮挡粒子滤波目标跟踪方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100233146A1 (en) * 2002-09-09 2010-09-16 Reactive Surfaces, Ltd. Coatings and Surface Treatments Having Active Enzymes and Peptides
CN102831409A (zh) * 2012-08-30 2012-12-19 苏州大学 基于粒子滤波的运动行人视频自动跟踪方法及系统
CN106127808A (zh) * 2016-06-20 2016-11-16 浙江工业大学 一种基于颜色与局部二值模式特征融合的抗遮挡粒子滤波目标跟踪方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
李睿等: "基于自适应背景的多特征融合目标跟踪", 《计算机应用》 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110288538A (zh) * 2019-05-23 2019-09-27 南京理工大学 一种多特征融合的运动目标阴影检测及消除方法
CN110660081A (zh) * 2019-09-18 2020-01-07 西安交通大学 一种基于自适应的特征选择的目标跟踪方法
CN110660081B (zh) * 2019-09-18 2022-02-11 西安交通大学 一种基于自适应的特征选择的目标跟踪方法
CN112184762A (zh) * 2020-09-05 2021-01-05 天津城建大学 一种基于特征融合的灰狼优化粒子滤波目标跟踪算法

Also Published As

Publication number Publication date
CN108985375B (zh) 2021-02-09

Similar Documents

Publication Publication Date Title
Liu et al. Context-aware three-dimensional mean-shift with occlusion handling for robust object tracking in RGB-D videos
Tu et al. RGB-T image saliency detection via collaborative graph learning
Luo et al. 3d-ssd: Learning hierarchical features from rgb-d images for amodal 3d object detection
CN107833221B (zh) 一种基于多通道特征融合和机器学习的漏水检测方法
Chen et al. A hierarchical model incorporating segmented regions and pixel descriptors for video background subtraction
Wang et al. Integrating color and shape-texture features for adaptive real-time object tracking
CN105260749B (zh) 基于方向梯度二值模式和软级联svm的实时目标检测方法
CN102903119B (zh) 一种目标跟踪方法和装置
CN101470809B (zh) 一种基于扩展混合高斯模型的运动目标检测方法
CN103886325B (zh) 一种分块的循环矩阵视频跟踪方法
CN107784663A (zh) 基于深度信息的相关滤波跟踪方法及装置
CN111882586B (zh) 一种面向剧场环境的多演员目标跟踪方法
CN106991686B (zh) 一种基于超像素光流场的水平集轮廓跟踪方法
CN103902960A (zh) 一种实时人脸识别系统及其方法
CN113592911B (zh) 表观增强深度目标跟踪方法
CN112884742A (zh) 一种基于多算法融合的多目标实时检测、识别及跟踪方法
CN106204658A (zh) 运动图像跟踪方法及装置
CN108985375A (zh) 考虑粒子权值空间分布的多特征融合跟踪方法
CN109544592A (zh) 针对相机移动的运动目标检测算法
Yi et al. Motion keypoint trajectory and covariance descriptor for human action recognition
CN109711267A (zh) 一种行人重识别、行人运动轨迹生成方法及装置
Prakhya et al. Sparse depth odometry: 3D keypoint based pose estimation from dense depth data
CN107886066A (zh) 一种基于改进hog‑sslbp的行人检测方法
Zhang et al. Visual saliency based object tracking
Cheng et al. YOLOv3 Object Detection Algorithm with Feature Pyramid Attention for Remote Sensing Images.

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20210826

Address after: 730300 No.500 Jiulongjiang street, Xicha Vocational Education Park, Lanzhou New Area, Lanzhou City, Gansu Province

Patentee after: Lanzhou Modern Vocational College

Address before: 730000 402, No. 72, Fujia lane, Chengguan District, Lanzhou City, Gansu Province

Patentee before: Li Jun