CN103530604A - 一种基于直推的鲁棒视觉跟踪方法 - Google Patents

一种基于直推的鲁棒视觉跟踪方法 Download PDF

Info

Publication number
CN103530604A
CN103530604A CN201310450216.3A CN201310450216A CN103530604A CN 103530604 A CN103530604 A CN 103530604A CN 201310450216 A CN201310450216 A CN 201310450216A CN 103530604 A CN103530604 A CN 103530604A
Authority
CN
China
Prior art keywords
sample
target
confidence level
follows
sigma
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201310450216.3A
Other languages
English (en)
Inventor
查宇飞
熊磊
毕笃彦
何林远
王晨
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Air Force Engineering University of PLA
Original Assignee
Air Force Engineering University of PLA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Air Force Engineering University of PLA filed Critical Air Force Engineering University of PLA
Priority to CN201310450216.3A priority Critical patent/CN103530604A/zh
Publication of CN103530604A publication Critical patent/CN103530604A/zh
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

本发明公开了一种基于直推的鲁棒视觉跟踪方法,包括以下步骤:在第一帧中手动获得初始目标;在后续帧中,通过粒子滤波采样获得大量候选目标,作为未标记样本,而将以前的跟踪结果作为标记样本,以所有样本为顶点建立一张图;通过最小化代价函数,获得候选目标属于真实目标的置信度,并将具有最大置信度的候选目标作为当前估计;最后更新正样本集,将置信度高的样本加入到正样本集,并删除置信度低的样本。本发明解决了运动目标外观变化较大的问题,提出了一种基于图直推学习的视觉目标鲁棒跟踪方法,可广泛应用各种公共场所的视频监控,同时还可以用于机载侦察与监视系统,获得可观的军事效益和提升公共安全服务。

Description

一种基于直推的鲁棒视觉跟踪方法
技术领域
本发明属于计算机视觉和模式识别技术领域,尤其涉及一种基于直推的鲁棒视觉跟踪方法。
背景技术
运动目标跟踪作为计算机视觉领域的一项最基础的核心技术,它是后续的各种高级处理,如目标识别、目标行为分析、视频图像的压缩编码等高层次视频处理和应用理解的基础。目标跟踪的实质是通过对图像传感器拍摄到的视频序列进行分析,计算出目标在每帧图像中的位置、大小和运动速度等参数。其难点在于图像是从三维空间到二维平面的投影,本身存在信息损失,而且运动目标并不是一个确定不变的信号,它在跟踪过程中会发生旋转、缩放、位移等各种复杂的变化。除此之外,背景复杂、摄像机发生相对位移、光照变化、目标被遮挡等因素都会增加运动目标跟踪的复杂性。因此,在复杂环境下如何对运动目标进行准确、鲁棒的跟踪依然是一项非常具有挑战性的任务。
目前有大量关于目标跟踪方面的文献,大致可以将它们分为两类:基于模板匹配的跟踪和基于分类的跟踪,基于模板匹配的跟踪,首先对目标进行有效地描述,然后在图像中搜索与模板最匹配的区域作为目标在当前图像中的状态。这种方法本质上是在高维数据空间中,寻找最近邻域数据。但是,对于内部和外部都变化的图像来说,很难找到一个合适的模板来有效地描述目标。一种改进的方法是,让模板不断更新以适应目标的变化,但这样也会产生问题:误差的积累使得模板偏移真实的目标。典型的基于模板的方法如,特征跟踪,WSL跟踪,核跟踪和SMOG跟踪。
最近基于分类的跟踪受到了广泛的关注。这种方法将跟踪问题当作分类问题来处理,目的是寻找一个目标和背景之间的最优分类面,从而在图像序列中跟踪目标,为了适应目标和背景的变化,这类方法采取更新决策面的策略,取代模板法中的更新目标模板方法。与模板匹配的不同之处在于,基于分类的跟踪不仅考虑目标信息,而且还考虑背景信息。Lin等利用Fisher线性判别函数在子空间中对目标区域和背景区域分类,取得了比较好的结果,Nguyen等也是采用Fisher线性判别函数来分类,不同之处在于它们选用的特征不同,前者是全局特征,而后者是局部特征。由于Fisher线性判别函数最优的前提条件是目标和背景都是等方差单高斯分布,而在实际中很难满足这个假设。
1.IVT跟踪技术方案及其缺陷。
IVT跟踪技术假设目标在特征子空间中保持恒定,在粒子滤波的框架下,通过增量PCA变换获得目标的特征向量,实现对目标的鲁棒跟踪。其跟踪流程如下:
(1)在第一帧中,手动标定目标的位置;
(2)初始化目标的特征基和均值;
(3)在下一帧中,利用粒子采样获得大量的候选目标;
(4)在当前帧中,根据观测模型计算每个粒子的似然概率,从而获得该粒子的权重;
(5)存储似然概率最大的粒子。当存储的粒子积累到一定程度后,对样本的特征基,均值进行增量更新。
(6)执行第(3)步。
IVT跟踪技术通过上述迭代过程实现对目标的鲁棒跟踪。这种方法的缺陷在于,它们仅仅关注目标信息,完全忽略了背景信息,而在实际中,背景信息对目标跟踪是有很大帮助的。
2.图嵌入跟踪模型技术方案及其缺陷。
图嵌入模型跟踪技术将跟踪问题看作分类问题来处理,将目标和背景分布嵌入到图模型中,解决背景多模态的问题,其跟踪流程如下:
(1)根据目标上一帧目标的状态和当前观测图像,得到目标在当前图像的估计;
(2)根据当前目标状态获得目标的重建误差,并依据重建误差在当前图像中对目标进行采样;
(3)根据基于图的观测模型,计算每个粒子的似然概率;
(4)根据正负样本,获得每个粒子的最大后验概率;
(5)更新正负样本;
(6)执行(2)。
然而这种方法有两个潜在的前提假设:(1)目标是高斯分布;(2)目标和背景是线性可分的。此外,这种方法中负样本选取的好坏将直接影响到跟踪结果。
但是,现有的技术对于目标特征变化较大没有很好的处理方法,且在使用中受限。
发明内容
本发明实施例的目的在于提供一种现有的技术对于目标特征变化较大没有很好的处理方法,且在使用中受限的问题。
本发明实施例是这样实现的,一种基于直推的鲁棒视觉跟踪方法,所述基于直推的鲁棒视觉跟踪方法包括以下步骤:
在第一帧中手动获得初始目标;
在后续帧中,通过粒子滤波采样获得大量候选目标,作为未标记样本,而将以前的跟踪结果作为标记样本,以所有样本为顶点建立一张图;
通过最小化代价函数,获得候选目标属于真实目标的置信度,并将具有最大置信度的候选目标作为当前估计;
最后更新正样本集,将置信度高的样本加入到正样本集,并删除置信度低的样本。
进一步,通过应用Lucas-kanade算法预测计算p(zt|zt-1),获得大量候选目标。
进一步,计算p(zt|zt-1)的具体步骤为:
图像中目标的状态可以用仿射图像变换表示,用W(s,p)表示仿射变换:
W ( s , p ) = p 1 p 3 p 5 p 2 p 4 p 6 x y 1
其中p=(p1,p2,p3,p4,p5,p6)表示仿射参数,s=(dx,dy)T是目标在图像中的位置状态,
Lucas-Kanade算法可以为粒子的产生过程提供一种启发式预测,Lucas-Kanade算法的目标是最小化图像和模板之间的最小平方误差,已知当前的估计p,通过迭代的方法计算参数增量△p,能量函数可以写作:
E ( Δp ) = Σ s | | I ( w ( s , p + Δp ) ) - T ( s ) | | 2
其中T(s)是模板图像,令
Figure BDA0000389056050000053
得到:
Δp = H - 1 Σ s [ ▿ I ∂ w ∂ p ] T [ I ( w ( s , p ) ) - T ( s ) ]
其中
Figure BDA0000389056050000058
是图像I的梯度图像,H是hessian矩阵:
H = Σ s [ ▿ I ∂ w ∂ p ] T [ ▿ I ∂ w ∂ p ]
假设在第t-1帧图像中的估计为zt-1,在第t帧图像中通过Lucas-Kanade算法迭代得到增量△p,则可以预测当前的状态为:
z ^ t = z t - 1 + Δp
设状态zt中的每个参数都是独立的高斯分布,均值为?
Figure BDA0000389056050000059
p ( z t | z t - 1 ) = N ( z t | z ^ t , Σ )
其中N()是高斯分布,根据p(zt|zt-1),在当前图像中采样,获得候选目标。
进一步,在候选目标中采样用含有隐含变量的一阶马尔科夫模型来描述运动目标的跟踪过程。
进一步,一阶马尔科夫模型来描述运动目标的跟踪过程的步骤为:根据p(zt|zt-1),在当前图像中采样,获得候选目标,
假设目标在t时刻的真实状态和观测状态分别为zt和ot,跟踪问题可以描述为:已知观测状态Ot={o1,o2,…,ot}和t时刻以前的估计状态Zt-1={z1,z2,…,zt-1}来估计目标在t时刻的状态zt,根据贝叶斯准则,可以表示为如下形式:
p ( z t | z 1 : t - 1 , O t ) = p ( o t | z t ) ∫ z t - 1 p ( z t | z t - 1 ) p ( z t - 1 | o t - 1 ) dz t - 1
由上式可知,跟踪过程可以分成以下两步:
预测:
p ( z t | O t - 1 ) = ∫ z t - 1 p ( z t | z t - 1 ) p ( z t - 1 | O t - 1 ) dz t - 1
更新:
p(zt|Ot)∝p(ot|zt)p(zt|Ot-1)。
进一步,通过计算图拉普拉斯得到真实目标的置信度。
进一步,图拉普拉斯计算的具体步骤为:
得到标记样本和未标记样本,所有样本属于
Figure BDA0000389056050000064
样本的标记为yi∈{-1,1},图可以分为三个子图:标记样本构成的子图,未标记样本构成的子图以及标记样本和未标记样本构成的子图,相应的权重矩阵可以表示为:
W = W ll W lu W ul W uu
其中Wlu和Wul是转置矩阵,
标注样本子图采用全连接图,权重定义如下:
w ij ll = 1 , if y i = y j 0 , others
未标记样本子图采用k近邻图,即,如果样本xi是样本xj的k近邻,则将这两个样本连接起来,权重定义为:
w ij uu = exp ( - | | x i - x j | | 2 2 σ 2 ) , if x j ∈ knn ( x i ) 0 , others
其中σ是方差,在实验中,取σ=1.5,k=7,
标记样本和未标记样本的子图也采用k近邻图,和未标记样本子图的区别在于,样本xi和样本xj分别属于标记样本和未标记样本,权重矩阵表示如下:
w ij ul = exp ( - | | x i - x j | | 2 2 σ 2 ) , if x j ∈ knn ( x i ) 0 , others
其中σ是方差,在实验中,取σ=1.5,k=3,
利用目标在连续帧中的一致性来约束目标模型,用
Figure BDA0000389056050000074
表示正样本属于真实目标的置信度:
y i = exp ( - exp ( - | | x i - UU T x i | | 2 ) 2 σ 2 ) , if x i ∈ L 0 , if x i ∈ U
其中,U是通过在线主成分分析算法得到的子空间的基。
进一步,利用最小化代价函数,并获得候选目标的置信度的具体步骤为:
令{(x1,y1),…,(xl,yl)}为标记样本,
Figure BDA0000389056050000081
yi∈{1,…,C},{xl+1…xl+u}是未标记样本,l<<u,分别用L和U来分别表示标记样本集和未标记样本集,在本文中只考虑两类情形,即C=2,
一般来说,相似样本具有相同的标记,图的顶点表示所有的样本点,包括标记样本和未标记样本,图的边表示所连接点的相似性,定义两个顶点(xi,xj)之间的权重如下:
w i , j = exp ( - | | x i - x j | | 2 2 &sigma; 2 )
其中σ是方差,
定义函数表示样本属于其中一类的置信度,代价函数定义如下:
J ( f ) = &Sigma; i = 1 l ( f ( x i ) - y i ) 2 + &lambda; &Sigma; i , j = 1 n | | f ( x i ) - f ( x j ) | | 2 w i , j
其中λ>0是规则化参数,实验中取λ=1,yi表示样本属于该类的真实置信度,在上式中,第一项和第二项分别表示全局约束和局部约束,f的解表达式为:
f*argminJ(f)
用矩阵形式重写公式,得到:
J(f)=(f(X)-Y)T(f(X)-Y)+λf(X)TLf(X)
其中L=D-W是图拉普拉斯矩阵,D是对角矩阵,用来描述顶点的维度:
d ii = &Sigma; j = 1 n w ij
因此,图拉普拉斯矩阵L是对称和半正定的,
Figure BDA0000389056050000092
可以得到:
(I-λL)f=Y
问题的解表示为:
f=(I-λL)-1Y。
进一步,状态估计,通过直推学习,获得候选目标属于目标的置信度f的步骤为:
选择具有最大置信度的候选目标,作为当前图像中的目标估计,
z ^ t arg max f ( z t i ) .
进一步,更新正样本集,将正样本集合记做
Figure BDA0000389056050000094
其中πi是样本
Figure BDA0000389056050000095
的置信度,正样本集的按如下方式建立:初始的正样本集由手动获得的正样本组成,并令其置信度为1,在后续帧中,利用遗忘因子来降低以前正样本的置信度,Δ=α*Δ,在当前帧中,通过直推学习得到所有候选目标的置信度,选择其中置信度较大的候选目标加入到正样本集中,Δadd={(xii)|πi1},在正样本集中,删除置信度低的样本,Δdelete={(xii)|πi2},输出:状态估计
本发明的基于直推的鲁棒视觉跟踪方法,通过将目标跟踪看作一个直推学习问题。直推学习同时利用标注样本和未标注样本,学习分类器,标记样本用来最大化不同类别之间的分类间隔,未标记样本用来逼近数据的内部结构,从而获得好的分类结果。在发明中,流形假设取代高斯分布假设,也就是说,如果两个样本的连线通过一个高密度区域,那么它们属于同一类的概率很大。本发明解决了运动目标外观变化较大的问题,提出了一种基于图直推学习的视觉目标鲁棒跟踪方法,可广泛应用各种公共场所的视频监控,同时还可以用于机载侦察与监视系统,获得可观的军事效益和提升公共安全服务。
附图说明
图1是本发明实施例提供的基于直推的鲁棒视觉跟踪方法的流程图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
图1示出了本发明提供的基于直推的鲁棒视觉跟踪方法流程。为了便于说明,仅仅示出了与本发明相关的部分。
本发明的基于直推的鲁棒视觉跟踪方法,该基于直推的鲁棒视觉跟踪方法包括以下步骤:
在第一帧中手动获得初始目标;
在后续帧中,通过粒子滤波采样获得大量候选目标,作为未标记样本,而将以前的跟踪结果作为标记样本,以所有样本为顶点建立一张图;
通过最小化代价函数,获得候选目标属于真实目标的置信度,并将具有最大置信度的候选目标作为当前估计;
最后更新正样本集,将置信度高的样本加入到正样本集,并删除置信度低的样本。
作为本发明实施例的一优化方案,通过应用Lucas-kanade算法预测计算p(zt|zt-1),获得大量候选目标。
作为本发明实施例的一优化方案,计算p(zt|zt-1)的具体步骤为:
图像中目标的状态可以用仿射图像变换表示,用W(s,p)表示仿射变换:
W ( s , p ) = p 1 p 3 p 5 p 2 p 4 p 6 x y 1
其中p=(p1,p2,p3,p4,p5,p6)表示仿射参数,s=(dx,dy)T是目标在图像中的位置状态,
Lucas-Kanade算法可以为粒子的产生过程提供一种启发式预测,Lucas-Kanade算法的目标是最小化图像和模板之间的最小平方误差,已知当前的估计p,通过迭代的方法计算参数增量Δp,能量函数可以写作:
E ( &Delta;p ) = &Sigma; s | | I ( w ( s , p + &Delta;p ) ) - T ( s ) | | 2
其中T(s)是模板图像,令
Figure BDA0000389056050000122
得到:
&Delta;p = H - 1 &Sigma; s [ &dtri; I &PartialD; w &PartialD; p ] T [ I ( w ( s , p ) ) - T ( s ) ]
其中
Figure BDA0000389056050000128
是图像I的梯度图像,H是hessian矩阵:
H = &Sigma; s [ &dtri; I &PartialD; w &PartialD; p ] T [ &dtri; I &PartialD; w &PartialD; p ]
假设在第t-1帧图像中的估计为zt-1,在第t帧图像中通过Lucas-Kanade算法迭代得到增量△p,则可以预测当前的状态为:
z ^ t = z t - 1 + &Delta;p
设状态zt中的每个参数都是独立的高斯分布,均值为
Figure BDA0000389056050000126
p ( z t | z t - 1 ) = N ( z t | z ^ t , &Sigma; )
其中N()是高斯分布,根据p(zt|zt-1),在当前图像中采样,获得候选目标。
作为本发明实施例的一优化方案,在候选目标中采样用含有隐含变量的一阶马尔科夫模型来描述运动目标的跟踪过程。
作为本发明实施例的一优化方案,一阶马尔科夫模型来描述运动目标的跟踪过程的步骤为:根据p(zt|zt-1),在当前图像中采样,获得候选目标,
假设目标在t时刻的真实状态和观测状态分别为zt和ot,跟踪问题可以描述为:已知观测状态Ot={o1,o2,…,ot}和t时刻以前的估计状态Zt-1={z1,z2,…,zt-1}来估计目标在t时刻的状态zt,根据贝叶斯准则,可以表示为如下形式:
p ( z t | z 1 : t - 1 , O t ) = p ( o t | z t ) &Integral; z t - 1 p ( z t | z t - 1 ) p ( z t - 1 | o t - 1 ) dz t - 1
由上式可知,跟踪过程可以分成以下两步:
预测:
p ( z t | O t - 1 ) = &Integral; z t - 1 p ( z t | z t - 1 ) p ( z t - 1 | O t - 1 ) dz t - 1
更新:
p(zt|Ot)∝p(ot|zt)p(zt|Ot-1)。
作为本发明实施例的一优化方案,通过计算图拉普拉斯得到真实目标的置信度。
作为本发明实施例的一优化方案,图拉普拉斯计算的具体步骤为:
得到标记样本和未标记样本,所有样本
Figure BDA0000389056050000135
属于
Figure BDA0000389056050000136
,样本
Figure BDA0000389056050000137
的标记为yi∈{-1,1},图可以分为三个子图:标记样本构成的子图,未标记样本构成的子图以及标记样本和未标记样本构成的子图,相应的权重矩阵可以表示为:
W = W ll W lu W ul W uu
其中Wlu和Wul是转置矩阵,
标注样本子图采用全连接图,权重定义如下:
w ij ll = 1 , if y i = y j 0 , others
未标记样本子图采用k近邻图,即,如果样本xi是样本xj的k近邻,则将这两个样本连接起来,权重定义为:
w ij uu = exp ( - | | x i - x j | | 2 2 &sigma; 2 ) , if x j &Element; knn ( x i ) 0 , others
其中σ是方差,在实验中,取σ=1.5,k=7,
标记样本和未标记样本的子图也采用k近邻图,和未标记样本子图的区别在于,样本xi和样本xj分别属于标记样本和未标记样本,权重矩阵表示如下:
w ij ul = exp ( - | | x i - x j | | 2 2 &sigma; 2 ) , if x j &Element; knn ( x i ) 0 , others
其中σ是方差,在实验中,取σ=1.5,k=3,
利用目标在连续帧中的一致性来约束目标模型,用
Figure BDA0000389056050000145
表示正样本属于真实目标的置信度:
y i = exp ( - exp ( - | | x i - UU T x i | | 2 ) 2 &sigma; 2 ) , if x i &Element; L 0 , if x i &Element; U
其中,U是通过在线主成分分析算法得到的子空间的基。
作为本发明实施例的一优化方案,利用最小化代价函数,并获得候选目标的置信度的具体步骤为:
令{(x1,y1),…,(xl,yl)}为标记样本,
Figure BDA0000389056050000144
yi∈{1,…,C},{xl+1…xl+u}是未标记样本,l<<u,分别用L和U来分别表示标记样本集和未标记样本集,在本文中只考虑两类情形,即C=2,
一般来说,相似样本具有相同的标记,图的顶点表示所有的样本点,包括标记样本和未标记样本,图的边表示所连接点的相似性,定义两个顶点(xi,xj)之间的权重如下:
w i , j = exp ( - | | x i - x j | | 2 2 &sigma; 2 )
其中σ是方差,
定义函数
Figure BDA0000389056050000152
表示样本属于其中一类的置信度,代价函数定义如下:
J ( f ) = &Sigma; i = 1 l ( f ( x i ) - y i ) 2 + &lambda; &Sigma; i , j = 1 n | | f ( x i ) - f ( x j ) | | 2 w i , j
其中λ>0是规则化参数,实验中取λ=1,yi表示样本属于该类的真实置信度,在上式中,第一项和第二项分别表示全局约束和局部约束,f的解表达式为:
f*argminJ(f)
用矩阵形式重写公式,得到:
J(f)=(f(X)-Y)T(f(X)-Y)+λf(X)TLf(X)
其中L=D-W是图拉普拉斯矩阵,D是对角矩阵,用来描述顶点的维度:
d ii = &Sigma; j = 1 n w ij
因此,图拉普拉斯矩阵L是对称和半正定的,
Figure BDA0000389056050000162
可以得到:
(I-λL)f=Y
问题的解表示为:
f=(I-λL)-1Y。
作为本发明实施例的一优化方案,状态估计,通过直推学习,获得候选目标属于目标的置信度f的步骤为:
选择具有最大置信度的候选目标,作为当前图像中的目标估计,
z ^ t arg max f ( z t i ) .
作为本发明实施例的一优化方案,更新正样本集,将正样本集合记做
Figure BDA0000389056050000164
其中πi是样本的置信度,正样本集的按如下方式建立:初始的正样本集由手动获得的正样本组成,并令其置信度为1,在后续帧中,利用遗忘因子来降低以前正样本的置信度,Δ=α*Δ,在当前帧中,通过直推学习得到所有候选目标的置信度,选择其中置信度较大的候选目标加入到正样本集中,Δadd={(xii)|πi1},在正样本集中,删除置信度低的样本,Δdelete={(xii)|πi2},输出:状态估计?
Figure BDA0000389056050000166
下面结合附图及具体实施例对本发明的应用原理作进一步描述。
如图1所示,本发明实施例的基于直推的鲁棒视觉跟踪方法包括以下步骤:
S101:在第一帧中手动获得初始目标;
S102:在后续帧中,通过粒子滤波采样获得大量候选目标,作为未标记样本,而将以前的跟踪结果作为标记样本,以所有样本为顶点建立一张图;
S103:通过最小化代价函数,获得候选目标属于真实目标的置信度,并将具有最大置信度的候选目标作为当前估计;
S104:最后更新正样本集,将置信度高的样本加入到正样本集,并删除置信度低的样本。
本发明的基于图直推的鲁棒视觉跟踪方法的具体步骤如下:
输入:给定当前的状态估计zt和正样本集
Figure BDA0000389056050000172
步骤1.应用Lucas-kanade算法预测,
图像中目标的状态可以用仿射图像变换表示,用W(s,p)表示仿射变换:
W ( s , p ) = p 1 p 3 p 5 p 2 p 4 p 6 x y 1 - - - ( 1 )
其中p=(p1,p2,p3,p4,p5,p6)表示仿射参数,s=(dx,dy)T是目标在图像中的位置状态,
Lucas-Kanade算法[141]可以为粒子的产生过程提供一种启发式预测,Lucas-Kanade算法的目标是最小化图像和模板之间的最小平方误差,已知当前的估计p,通过迭代的方法计算参数增量Δp,能量函数可以写作:
E ( &Delta;p ) = &Sigma; s | | I ( w ( s , p + &Delta;p ) ) - T ( s ) | | 2 - - - ( 2 )
其中T(s)是模板图像,令
Figure BDA0000389056050000182
得到:
&Delta;p = H - 1 &Sigma; s [ &dtri; I &PartialD; w &PartialD; p ] T [ I ( w ( s , p ) ) - T ( s ) ] - - - ( 3 )
其中
Figure BDA0000389056050000188
是图像I的梯度图像,H是hessian矩阵:
H = &Sigma; s [ &dtri; I &PartialD; w &PartialD; p ] T [ &dtri; I &PartialD; w &PartialD; p ] - - - ( 4 )
假设在第t-1帧图像中的估计为zt-1,在第t帧图像中通过Lucas-Kanade算法迭代得到增量Δp,则可以预测当前的状态为:
z ^ t = z t - 1 + &Delta;p - - - ( 5 )
设状态zt中的每个参数都是独立的高斯分布,均值为
Figure BDA0000389056050000186
p ( z t | z t - 1 ) = N ( z t | z ^ t , &Sigma; ) - - - ( 6 )
其中N()是高斯分布,根据p(zt|zt-1),在当前图像中采样,获得候选目标;
步骤2.采样,根据p(zt|zt-1),在当前图像中采样,获得候选目标,
假设目标在t时刻的真实状态和观测状态分别为zt和ot,可以用含有隐含变量的一阶马尔科夫(Markov)模型来描述运动目标的跟踪过程[140],如图6.5所示,跟踪问题可以描述为:已知观测状态Ot={o1,o2,…,ot}和t时刻以前的估计状态Zt-1={z1,z2,…,zt-1}来估计目标在t时刻的状态zt,根据贝叶斯准则,可以表示为如下形式:
p ( z t | z 1 : t - 1 , O t ) = p ( o t | z t ) &Integral; z t - 1 p ( z t | z t - 1 ) p ( z t - 1 | o t - 1 ) dz t - 1 - - - ( 7 )
由上式可知,跟踪过程可以分成以下两步:
预测:
p ( z t | O t - 1 ) = &Integral; z t - 1 p ( z t | z t - 1 ) p ( z t - 1 | O t - 1 ) dz t - 1 - - - ( 8 )
更新:
p(zt|Ot)∝p(ot|zt)p(zt|Ot-1)   (9)
步骤3.计算图拉普拉斯,
在跟踪过程中,我们已经得到标记样本和未标记样本,如上节所述,所有样本
Figure BDA0000389056050000192
属于
Figure BDA0000389056050000193
样本
Figure BDA0000389056050000194
的标记为yi∈{-1,1},图可以分为三个子图:标记样本构成的子图,未标记样本构成的子图以及标记样本和未标记样本构成的子图,相应的权重矩阵可以表示为:
W = W ll W lu W ul W uu - - - ( 10 )
其中Wlu和Wul是转置矩阵,
标注样本子图采用全连接图,权重定义如下:
w ij ll = 1 , if y i = y j 0 , others - - - ( 11 )
未标记样本子图采用k近邻图,即,如果样本xi是样本xj的k近邻,则将这两个样本连接起来,权重定义为:
w ij uu = exp ( - | | x i - x j | | 2 2 &sigma; 2 ) , if x j &Element; knn ( x i ) 0 , others - - - ( 12 )
其中σ是方差,在实验中,取σ=1.5,k=7,
标记样本和未标记样本的子图也采用k近邻图,和未标记样本子图的区别在于,样本xi和样本xj分别属于标记样本和未标记样本,权重矩阵表示如下:
w ij ul = exp ( - | | x i - x j | | 2 2 &sigma; 2 ) , if x j &Element; knn ( x i ) 0 , others - - - ( 13 )
其中σ是方差,在实验中,取σ=1.5,k=3,
利用目标在连续帧中的一致性来约束目标模型,最近,Ross等人借用SKL算法在线更新特征向量用于目标跟踪,获得了好的效果,用
Figure BDA0000389056050000202
表示正样本
Figure BDA0000389056050000203
属于真实目标的置信度:
y i = exp ( - exp ( - | | x i - UU T x i | | 2 ) 2 &sigma; 2 ) , if x i &Element; L 0 , if x i &Element; U - - - ( 14 )
其中,U是通过在线主成分分析算法[71]得到的子空间的基;
步骤4.直推学习,最小化代价函数,并获得候选目标的置信度,
令{(x1,y1),…,(xl,yl)}为标记样本,
Figure BDA0000389056050000205
yi∈{1,…,C},{xl+1…xl+u}是未标记样本,l<<u,分别用L和U来分别表示标记样本集和未标记样本集,在本文中只考虑两类情形,即C=2,
一般来说,相似样本具有相同的标记,图的顶点表示所有的样本点,包括标记样本和未标记样本,图的边表示所连接点的相似性,定义两个顶点(xi,xj)之间的权重如下:
w i , j = exp ( - | | x i - x j | | 2 2 &sigma; 2 ) - - - ( 15 )
其中σ是方差,
定义函数
Figure BDA0000389056050000211
表示样本属于其中一类的置信度,代价函数定义如下:
J ( f ) = &Sigma; i = 1 l ( f ( x i ) - y i ) 2 + &lambda; &Sigma; i , j = 1 n | | f ( x i ) - f ( x j ) | | 2 w i , j - - - ( 16 )
其中λ>0是规则化参数,实验中取λ=1,yi表示样本属于该类的真实置信度,在上式中,第一项和第二项分别表示全局约束和局部约束,f的解表达式为:
f*argminJ(f)   (17)
用矩阵形式重写公式(6.2),得到:
J(f)=(f(X)-Y)T(f(X)-Y)+λf(X)TLf(X)   (18)
其中L=D-W是图拉普拉斯矩阵,D是对角矩阵,用来描述顶点的维度:
d ii = &Sigma; j = 1 n w ij - - - ( 19 )
因此,图拉普拉斯矩阵L是对称和半正定的,
Figure BDA0000389056050000215
可以得到:
(I-λL)f=Y   (20)
问题的解表示为:
f=(I-λL)-1Y   (21)
步骤5.状态估计,通过直推学习,获得候选目标属于目标的置信度f,选择具有最大置信度的候选目标,作为当前图像中的目标估计,
z ^ t arg max f ( z t i ) - - - ( 22 )
步骤6.更新正样本集,
正样本的选择在算法中非常重要,将正样本集合记做
Figure BDA0000389056050000222
其中πi是样本
Figure BDA0000389056050000223
的置信度,正样本集的按如下方式建立:初始的正样本集由手动获得的正样本组成,并令其置信度为1,在后续帧中,利用遗忘因子来降低以前正样本的置信度,Δ=α*Δ,在当前帧中,通过直推学习得到所有候选目标的置信度,选择其中置信度较大的候选目标加入到正样本集中,Δadd={(xii)|πi1},在正样本集中,删除置信度低的样本,Δdelete={(xii)|πi2},
输出:状态估计
Figure BDA0000389056050000224
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。

Claims (10)

1.一种基于直推的鲁棒视觉跟踪方法,其特征在于,所述基于直推的鲁棒视觉跟踪方法包括以下步骤:
在第一帧中手动获得初始目标;
在后续帧中,通过粒子滤波采样获得大量候选目标,作为未标记样本,而将以前的跟踪结果作为标记样本,以所有样本为顶点建立一张图;
通过最小化代价函数,获得候选目标属于真实目标的置信度,并将具有最大置信度的候选目标作为当前估计;
最后更新正样本集,将置信度高的样本加入到正样本集,并删除置信度低的样本。
2.如权利要求1所述的基于直推的鲁棒视觉跟踪方法,其特征在于,通过应用Lucas-kanade算法预测计算p(zt|zt-1),获得大量候选目标。
3.如权利要求2所述的基于直推的鲁棒视觉跟踪方法,其特征在于,计算p(zt|zt-1)的具体步骤为:
图像中目标的状态可以用仿射图像变换表示,用W(s,p)表示仿射变换:
W ( s , p ) = p 1 p 3 p 5 p 2 p 4 p 6 x y 1
其中p=(p1,p2,p3,p4,p5,p6)表示仿射参数,s=(dx,dy)T是目标在图像中的位置状态,
Lucas-Kanade算法可以为粒子的产生过程提供一种启发式预测,Lucas-Kanade算法的目标是最小化图像和模板之间的最小平方误差,已知当前的估计p,通过迭代的方法计算参数增量Δp,能量函数可以写作:
E ( &Delta;p ) = &Sigma; s | | I ( w ( s , p + &Delta;p ) ) - T ( s ) | | 2
其中T(s)是模板图像,令
Figure FDA0000389056040000022
得到:
&Delta;p = H - 1 &Sigma; s [ &dtri; I &PartialD; w &PartialD; p ] T [ I ( w ( s , p ) ) - T ( s ) ]
其中?I是图像I的梯度图像,H是hessian矩阵:
H = &Sigma; s [ &dtri; I &PartialD; w &PartialD; p ] T [ &dtri; I &PartialD; w &PartialD; p ]
假设在第t-1帧图像中的估计为zt-1,在第t帧图像中通过Lucas-Kanade算法迭代得到增量△p,则可以预测当前的状态为:
z ^ t = z t - 1 + &Delta;p
设状态zt中的每个参数都是独立的高斯分布,均值为
Figure FDA0000389056040000026
p ( z t | z t - 1 ) = N ( z t | z ^ t , &Sigma; )
其中N()是高斯分布,根据p(zt|zt-1),在当前图像中采样,获得候选目标。
4.如权利要求1所述的基于直推的鲁棒视觉跟踪方法,其特征在于,在候选目标中采样用含有隐含变量的一阶马尔科夫模型来描述运动目标的跟踪过程。
5.如权利要求4所述的基于直推的鲁棒视觉跟踪方法,其特征在于,一阶马尔科夫模型来描述运动目标的跟踪过程的步骤为:根据p(zt|zt-1),在当前图像中采样,获得候选目标,
假设目标在t时刻的真实状态和观测状态分别为zt和ot,跟踪问题可以描述为:已知观测状态Ot={o1,o2,…,ot}和t时刻以前的估计状态Zt-1={z1,z2,…,zt-1}来估计目标在t时刻的状态zt,根据贝叶斯准则,可以表示为如下形式:
p ( z t | z 1 : t - 1 , O t ) = p ( o t | z t ) &Integral; z t - 1 p ( z t | z t - 1 ) p ( z t - 1 | o t - 1 ) dz t - 1
由上式可知,跟踪过程可以分成以下两步:
预测:
p ( z t | O t - 1 ) = &Integral; z t - 1 p ( z t | z t - 1 ) p ( z t - 1 | O t - 1 ) dz t - 1
更新:
p(zt|Ot)∝p(ot|zt)p(zt|Ot-1)。
6.如权利要求1所述的基于直推的鲁棒视觉跟踪方法,其特征在于,通过计算图拉普拉斯得到真实目标的置信度。
7.如权利要求6所述的基于直推的鲁棒视觉跟踪方法,其特征在于,图拉普拉斯计算的具体步骤为:
得到标记样本和未标记样本,所有样本属于
Figure FDA0000389056040000034
样本
Figure FDA0000389056040000035
的标记为yi∈{-1,1},图可以分为三个子图:标记样本构成的子图,未标记样本构成的子图以及标记样本和未标记样本构成的子图,相应的权重矩阵可以表示为:
W = W ll W lu W ul W uu
其中Wlu和Wul是转置矩阵,
标注样本子图采用全连接图,权重定义如下:
w ij ll = 1 , if y i = y j 0 , others
未标记样本子图采用k近邻图,即,如果样本xi是样本xj的k近邻,则将这两个样本连接起来,权重定义为:
w ij ll = exp ( - | | x i - x j | | 2 2 &sigma; 2 ) , if x j &Element; knn ( x i ) 0 , others
其中σ是方差,在实验中,取σ=1.5,k=7,
标记样本和未标记样本的子图也采用k近邻图,和未标记样本子图的区别在于,样本xi和样本xj分别属于标记样本和未标记样本,权重矩阵表示如下:
w ij ul = exp ( - | | x i - x j | | 2 2 &sigma; 2 ) , if x j &Element; knn ( x i ) 0 , others
其中σ是方差,在实验中,取σ=1.5,k=3,
利用目标在连续帧中的一致性来约束目标模型,用表示正样本l属于真实目标的置信度:
y i = exp ( - exp ( - | | x i - UU T x i | | 2 ) 2 &sigma; 2 ) , if x i &Element; L 0 , if x i &Element; U
其中,U是通过在线主成分分析算法得到的子空间的基。
8.如权利要求1所述的基于直推的鲁棒视觉跟踪方法,其特征在于,利用最小化代价函数,并获得候选目标的置信度的具体步骤为:
令{(x1,y1),…,(xl,yl)}为标记样本,
Figure FDA0000389056040000051
yi∈{1,…,C},{xl+1…xl+u}是未标记样本,l<<u,分别用L和U来分别表示标记样本集和未标记样本集,在本文中只考虑两类情形,即C=2,
相似样本具有相同的标记,图的顶点表示所有的样本点,包括标记样本和未标记样本,图的边表示所连接点的相似性,定义两个顶点(xi,xj)之间的权重如下:
w i , j = exp ( - | | x i - x j | | 2 2 &sigma; 2 )
其中σ是方差,
定义函数
Figure FDA0000389056040000053
表示样本属于其中一类的置信度,代价函数定义如下:
J ( f ) = &Sigma; i = 1 l ( f ( x i ) - y i ) 2 + &lambda; &Sigma; i , j = 1 n | | f ( x i ) - f ( x j ) | | 2 w i , j
其中λ>0是规则化参数,实验中取λ=1,yi表示样本属于该类的真实置信度,在上式中,第一项和第二项分别表示全局约束和局部约束,f的解表达式为:
f*=argminJ(f)
用矩阵形式重写公式,得到:
J(f)=(f(X)-Y)T(f(X)-Y)+λf(X)TLf(X)
其中L=D-W是图拉普拉斯矩阵,D是对角矩阵,用来描述顶点的维度:
d ii = &Sigma; j = 1 n w ij
因此,图拉普拉斯矩阵L是对称和半正定的,
Figure FDA0000389056040000062
可以得到:
(I-λL)f=Y
问题的解表示为:
f=(I-λL)-1Y。
9.如权利要求1所述的基于直推的鲁棒视觉跟踪方法,其特征在于,状态估计,通过直推学习,获得候选目标属于目标的置信度f的步骤为:
选择具有最大置信度的候选目标,作为当前图像中的目标估计,
z ^ t arg max f ( z t i ) .
10.如权利要求1所述的基于直推的鲁棒视觉跟踪方法,其特征在于,更新正样本集,将正样本集合记做
Figure FDA0000389056040000064
其中πi是样本
Figure FDA0000389056040000065
的置信度,正样本集的按如下方式建立:初始的正样本集由手动获得的正样本组成,并令其置信度为1,在后续帧中,利用遗忘因子来降低以前正样本的置信度,Δ=α*Δ,在当前帧中,通过直推学习得到所有候选目标的置信度,选择其中置信度较大的候选目标加入到正样本集中,Δadd={(xii)|πi1},在正样本集中,删除置信度低的样本,Δdelete={(xii)|πi2},输出:状态估计
Figure FDA0000389056040000071
CN201310450216.3A 2013-09-27 2013-09-27 一种基于直推的鲁棒视觉跟踪方法 Pending CN103530604A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201310450216.3A CN103530604A (zh) 2013-09-27 2013-09-27 一种基于直推的鲁棒视觉跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201310450216.3A CN103530604A (zh) 2013-09-27 2013-09-27 一种基于直推的鲁棒视觉跟踪方法

Publications (1)

Publication Number Publication Date
CN103530604A true CN103530604A (zh) 2014-01-22

Family

ID=49932603

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201310450216.3A Pending CN103530604A (zh) 2013-09-27 2013-09-27 一种基于直推的鲁棒视觉跟踪方法

Country Status (1)

Country Link
CN (1) CN103530604A (zh)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104850832A (zh) * 2015-05-06 2015-08-19 中国科学院信息工程研究所 一种基于分级迭代的大规模图像样本标注方法及系统
CN106708806A (zh) * 2017-01-17 2017-05-24 科大讯飞股份有限公司 样本确认方法和装置及系统
CN106875417A (zh) * 2017-01-10 2017-06-20 南京邮电大学 一种基于高阶图跨时域关联的多目标跟踪方法
CN107077624A (zh) * 2014-09-23 2017-08-18 微软技术许可有限责任公司 跟踪手部/身体姿势
CN108537822A (zh) * 2017-12-29 2018-09-14 西安电子科技大学 基于加权置信度估计的运动目标跟踪方法
CN110728327A (zh) * 2019-10-18 2020-01-24 中国科学技术大学 一种具有可解释性的直推学习方法及系统
WO2020038141A1 (zh) * 2018-08-24 2020-02-27 阿里巴巴集团控股有限公司 分布式图嵌入方法、装置、设备及系统
CN112235598A (zh) * 2020-09-27 2021-01-15 深圳云天励飞技术股份有限公司 一种视频结构化处理方法、装置及终端设备

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
查宇飞等: "一种基于粒子滤波的自适应运动目标跟踪方法", 《电子与信息学报》 *
查宇飞等: "基于全局和局部约束直推学习的鲁棒跟踪研究", 《自动化学报》 *
查宇飞等: "基于区域活动轮廓运动目标跟踪方法研究", 《中国图象图形学报》 *

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107077624A (zh) * 2014-09-23 2017-08-18 微软技术许可有限责任公司 跟踪手部/身体姿势
CN104850832A (zh) * 2015-05-06 2015-08-19 中国科学院信息工程研究所 一种基于分级迭代的大规模图像样本标注方法及系统
CN104850832B (zh) * 2015-05-06 2018-10-30 中国科学院信息工程研究所 一种基于分级迭代的大规模图像样本标注方法及系统
CN106875417B (zh) * 2017-01-10 2019-10-08 南京邮电大学 一种基于高阶图跨时域关联的多目标跟踪方法
CN106875417A (zh) * 2017-01-10 2017-06-20 南京邮电大学 一种基于高阶图跨时域关联的多目标跟踪方法
CN106708806A (zh) * 2017-01-17 2017-05-24 科大讯飞股份有限公司 样本确认方法和装置及系统
CN106708806B (zh) * 2017-01-17 2020-06-02 科大讯飞股份有限公司 样本确认方法和装置及系统
CN108537822A (zh) * 2017-12-29 2018-09-14 西安电子科技大学 基于加权置信度估计的运动目标跟踪方法
CN108537822B (zh) * 2017-12-29 2020-04-21 西安电子科技大学 基于加权置信度估计的运动目标跟踪方法
WO2020038141A1 (zh) * 2018-08-24 2020-02-27 阿里巴巴集团控股有限公司 分布式图嵌入方法、装置、设备及系统
US11074295B2 (en) 2018-08-24 2021-07-27 Advanced New Technologies Co., Ltd. Distributed graph embedding method and apparatus, device, and system
CN110728327A (zh) * 2019-10-18 2020-01-24 中国科学技术大学 一种具有可解释性的直推学习方法及系统
CN110728327B (zh) * 2019-10-18 2021-11-23 中国科学技术大学 一种具有可解释性的直推学习方法及系统
CN112235598A (zh) * 2020-09-27 2021-01-15 深圳云天励飞技术股份有限公司 一种视频结构化处理方法、装置及终端设备

Similar Documents

Publication Publication Date Title
CN103530604A (zh) 一种基于直推的鲁棒视觉跟踪方法
Bhat et al. Learning what to learn for video object segmentation
Ke et al. Prototypical cross-attention networks for multiple object tracking and segmentation
Mei et al. Robust visual tracking using ℓ 1 minimization
CN110232330B (zh) 一种基于视频检测的行人重识别方法
Wan et al. Total variation regularization term-based low-rank and sparse matrix representation model for infrared moving target tracking
Lu et al. Robust visual tracking with discriminative sparse learning
CN108734109B (zh) 一种面向图像序列的视觉目标跟踪方法及系统
CN109003291A (zh) 目标跟踪方法及装置
CN105809718A (zh) 一种轨迹熵最小化的对象跟踪方法
Kundegorski et al. A photogrammetric approach for real-time 3D localization and tracking of pedestrians in monocular infrared imagery
Yusuf et al. Enhancing Vehicle Detection and Tracking in UAV Imagery: A Pixel Labeling and Particle Filter Approach
Elayaperumal et al. Visual object tracking using sparse context-aware spatio-temporal correlation filter
Cygert et al. Vehicle detection with self-training for adaptative video processing embedded platform
Yu et al. Recognition of human continuous action with 3D CNN
Xue et al. Robust correlation tracking for UAV videos via feature fusion and saliency proposals
Castellano et al. Crowd flow detection from drones with fully convolutional networks and clustering
Chen et al. Ship tracking for maritime traffic management via a data quality control supported framework
Tulyakov et al. Hybrid vae: Improving deep generative models using partial observations
Yang et al. Toward robust online visual tracking
Zanjani et al. Improving semantic video segmentation by dynamic scene integration
Kundegorski et al. Posture estimation for improved photogrammetric localization of pedestrians in monocular infrared imagery
Li et al. A Robust Deep Learning Enhanced Monocular SLAM System for Dynamic Environments
Li et al. Adaptive object tracking algorithm based on eigenbasis space and compressive sampling
CN110660079A (zh) 一种基于时空上下文的单目标跟踪方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20140122