CN103530604A - 一种基于直推的鲁棒视觉跟踪方法 - Google Patents
一种基于直推的鲁棒视觉跟踪方法 Download PDFInfo
- Publication number
- CN103530604A CN103530604A CN201310450216.3A CN201310450216A CN103530604A CN 103530604 A CN103530604 A CN 103530604A CN 201310450216 A CN201310450216 A CN 201310450216A CN 103530604 A CN103530604 A CN 103530604A
- Authority
- CN
- China
- Prior art keywords
- sample
- target
- confidence level
- follows
- sigma
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Analysis (AREA)
Abstract
本发明公开了一种基于直推的鲁棒视觉跟踪方法,包括以下步骤:在第一帧中手动获得初始目标;在后续帧中,通过粒子滤波采样获得大量候选目标,作为未标记样本,而将以前的跟踪结果作为标记样本,以所有样本为顶点建立一张图;通过最小化代价函数,获得候选目标属于真实目标的置信度,并将具有最大置信度的候选目标作为当前估计;最后更新正样本集,将置信度高的样本加入到正样本集,并删除置信度低的样本。本发明解决了运动目标外观变化较大的问题,提出了一种基于图直推学习的视觉目标鲁棒跟踪方法,可广泛应用各种公共场所的视频监控,同时还可以用于机载侦察与监视系统,获得可观的军事效益和提升公共安全服务。
Description
技术领域
本发明属于计算机视觉和模式识别技术领域,尤其涉及一种基于直推的鲁棒视觉跟踪方法。
背景技术
运动目标跟踪作为计算机视觉领域的一项最基础的核心技术,它是后续的各种高级处理,如目标识别、目标行为分析、视频图像的压缩编码等高层次视频处理和应用理解的基础。目标跟踪的实质是通过对图像传感器拍摄到的视频序列进行分析,计算出目标在每帧图像中的位置、大小和运动速度等参数。其难点在于图像是从三维空间到二维平面的投影,本身存在信息损失,而且运动目标并不是一个确定不变的信号,它在跟踪过程中会发生旋转、缩放、位移等各种复杂的变化。除此之外,背景复杂、摄像机发生相对位移、光照变化、目标被遮挡等因素都会增加运动目标跟踪的复杂性。因此,在复杂环境下如何对运动目标进行准确、鲁棒的跟踪依然是一项非常具有挑战性的任务。
目前有大量关于目标跟踪方面的文献,大致可以将它们分为两类:基于模板匹配的跟踪和基于分类的跟踪,基于模板匹配的跟踪,首先对目标进行有效地描述,然后在图像中搜索与模板最匹配的区域作为目标在当前图像中的状态。这种方法本质上是在高维数据空间中,寻找最近邻域数据。但是,对于内部和外部都变化的图像来说,很难找到一个合适的模板来有效地描述目标。一种改进的方法是,让模板不断更新以适应目标的变化,但这样也会产生问题:误差的积累使得模板偏移真实的目标。典型的基于模板的方法如,特征跟踪,WSL跟踪,核跟踪和SMOG跟踪。
最近基于分类的跟踪受到了广泛的关注。这种方法将跟踪问题当作分类问题来处理,目的是寻找一个目标和背景之间的最优分类面,从而在图像序列中跟踪目标,为了适应目标和背景的变化,这类方法采取更新决策面的策略,取代模板法中的更新目标模板方法。与模板匹配的不同之处在于,基于分类的跟踪不仅考虑目标信息,而且还考虑背景信息。Lin等利用Fisher线性判别函数在子空间中对目标区域和背景区域分类,取得了比较好的结果,Nguyen等也是采用Fisher线性判别函数来分类,不同之处在于它们选用的特征不同,前者是全局特征,而后者是局部特征。由于Fisher线性判别函数最优的前提条件是目标和背景都是等方差单高斯分布,而在实际中很难满足这个假设。
1.IVT跟踪技术方案及其缺陷。
IVT跟踪技术假设目标在特征子空间中保持恒定,在粒子滤波的框架下,通过增量PCA变换获得目标的特征向量,实现对目标的鲁棒跟踪。其跟踪流程如下:
(1)在第一帧中,手动标定目标的位置;
(2)初始化目标的特征基和均值;
(3)在下一帧中,利用粒子采样获得大量的候选目标;
(4)在当前帧中,根据观测模型计算每个粒子的似然概率,从而获得该粒子的权重;
(5)存储似然概率最大的粒子。当存储的粒子积累到一定程度后,对样本的特征基,均值进行增量更新。
(6)执行第(3)步。
IVT跟踪技术通过上述迭代过程实现对目标的鲁棒跟踪。这种方法的缺陷在于,它们仅仅关注目标信息,完全忽略了背景信息,而在实际中,背景信息对目标跟踪是有很大帮助的。
2.图嵌入跟踪模型技术方案及其缺陷。
图嵌入模型跟踪技术将跟踪问题看作分类问题来处理,将目标和背景分布嵌入到图模型中,解决背景多模态的问题,其跟踪流程如下:
(1)根据目标上一帧目标的状态和当前观测图像,得到目标在当前图像的估计;
(2)根据当前目标状态获得目标的重建误差,并依据重建误差在当前图像中对目标进行采样;
(3)根据基于图的观测模型,计算每个粒子的似然概率;
(4)根据正负样本,获得每个粒子的最大后验概率;
(5)更新正负样本;
(6)执行(2)。
然而这种方法有两个潜在的前提假设:(1)目标是高斯分布;(2)目标和背景是线性可分的。此外,这种方法中负样本选取的好坏将直接影响到跟踪结果。
但是,现有的技术对于目标特征变化较大没有很好的处理方法,且在使用中受限。
发明内容
本发明实施例的目的在于提供一种现有的技术对于目标特征变化较大没有很好的处理方法,且在使用中受限的问题。
本发明实施例是这样实现的,一种基于直推的鲁棒视觉跟踪方法,所述基于直推的鲁棒视觉跟踪方法包括以下步骤:
在第一帧中手动获得初始目标;
在后续帧中,通过粒子滤波采样获得大量候选目标,作为未标记样本,而将以前的跟踪结果作为标记样本,以所有样本为顶点建立一张图;
通过最小化代价函数,获得候选目标属于真实目标的置信度,并将具有最大置信度的候选目标作为当前估计;
最后更新正样本集,将置信度高的样本加入到正样本集,并删除置信度低的样本。
进一步,通过应用Lucas-kanade算法预测计算p(zt|zt-1),获得大量候选目标。
进一步,计算p(zt|zt-1)的具体步骤为:
图像中目标的状态可以用仿射图像变换表示,用W(s,p)表示仿射变换:
其中p=(p1,p2,p3,p4,p5,p6)表示仿射参数,s=(dx,dy)T是目标在图像中的位置状态,
Lucas-Kanade算法可以为粒子的产生过程提供一种启发式预测,Lucas-Kanade算法的目标是最小化图像和模板之间的最小平方误差,已知当前的估计p,通过迭代的方法计算参数增量△p,能量函数可以写作:
假设在第t-1帧图像中的估计为zt-1,在第t帧图像中通过Lucas-Kanade算法迭代得到增量△p,则可以预测当前的状态为:
其中N()是高斯分布,根据p(zt|zt-1),在当前图像中采样,获得候选目标。
进一步,在候选目标中采样用含有隐含变量的一阶马尔科夫模型来描述运动目标的跟踪过程。
进一步,一阶马尔科夫模型来描述运动目标的跟踪过程的步骤为:根据p(zt|zt-1),在当前图像中采样,获得候选目标,
假设目标在t时刻的真实状态和观测状态分别为zt和ot,跟踪问题可以描述为:已知观测状态Ot={o1,o2,…,ot}和t时刻以前的估计状态Zt-1={z1,z2,…,zt-1}来估计目标在t时刻的状态zt,根据贝叶斯准则,可以表示为如下形式:
由上式可知,跟踪过程可以分成以下两步:
预测:
更新:
p(zt|Ot)∝p(ot|zt)p(zt|Ot-1)。
进一步,通过计算图拉普拉斯得到真实目标的置信度。
进一步,图拉普拉斯计算的具体步骤为:
其中Wlu和Wul是转置矩阵,
标注样本子图采用全连接图,权重定义如下:
未标记样本子图采用k近邻图,即,如果样本xi是样本xj的k近邻,则将这两个样本连接起来,权重定义为:
其中σ是方差,在实验中,取σ=1.5,k=7,
标记样本和未标记样本的子图也采用k近邻图,和未标记样本子图的区别在于,样本xi和样本xj分别属于标记样本和未标记样本,权重矩阵表示如下:
其中σ是方差,在实验中,取σ=1.5,k=3,
其中,U是通过在线主成分分析算法得到的子空间的基。
进一步,利用最小化代价函数,并获得候选目标的置信度的具体步骤为:
令{(x1,y1),…,(xl,yl)}为标记样本,yi∈{1,…,C},{xl+1…xl+u}是未标记样本,l<<u,分别用L和U来分别表示标记样本集和未标记样本集,在本文中只考虑两类情形,即C=2,
一般来说,相似样本具有相同的标记,图的顶点表示所有的样本点,包括标记样本和未标记样本,图的边表示所连接点的相似性,定义两个顶点(xi,xj)之间的权重如下:
其中σ是方差,
定义函数表示样本属于其中一类的置信度,代价函数定义如下:
其中λ>0是规则化参数,实验中取λ=1,yi表示样本属于该类的真实置信度,在上式中,第一项和第二项分别表示全局约束和局部约束,f的解表达式为:
f*argminJ(f)
用矩阵形式重写公式,得到:
J(f)=(f(X)-Y)T(f(X)-Y)+λf(X)TLf(X)
其中L=D-W是图拉普拉斯矩阵,D是对角矩阵,用来描述顶点的维度:
因此,图拉普拉斯矩阵L是对称和半正定的,
(I-λL)f=Y
问题的解表示为:
f=(I-λL)-1Y。
进一步,状态估计,通过直推学习,获得候选目标属于目标的置信度f的步骤为:
选择具有最大置信度的候选目标,作为当前图像中的目标估计,
进一步,更新正样本集,将正样本集合记做其中πi是样本的置信度,正样本集的按如下方式建立:初始的正样本集由手动获得的正样本组成,并令其置信度为1,在后续帧中,利用遗忘因子来降低以前正样本的置信度,Δ=α*Δ,在当前帧中,通过直推学习得到所有候选目标的置信度,选择其中置信度较大的候选目标加入到正样本集中,Δadd={(xi,πi)|πi>τ1},在正样本集中,删除置信度低的样本,Δdelete={(xi,πi)|πi<τ2},输出:状态估计
本发明的基于直推的鲁棒视觉跟踪方法,通过将目标跟踪看作一个直推学习问题。直推学习同时利用标注样本和未标注样本,学习分类器,标记样本用来最大化不同类别之间的分类间隔,未标记样本用来逼近数据的内部结构,从而获得好的分类结果。在发明中,流形假设取代高斯分布假设,也就是说,如果两个样本的连线通过一个高密度区域,那么它们属于同一类的概率很大。本发明解决了运动目标外观变化较大的问题,提出了一种基于图直推学习的视觉目标鲁棒跟踪方法,可广泛应用各种公共场所的视频监控,同时还可以用于机载侦察与监视系统,获得可观的军事效益和提升公共安全服务。
附图说明
图1是本发明实施例提供的基于直推的鲁棒视觉跟踪方法的流程图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
图1示出了本发明提供的基于直推的鲁棒视觉跟踪方法流程。为了便于说明,仅仅示出了与本发明相关的部分。
本发明的基于直推的鲁棒视觉跟踪方法,该基于直推的鲁棒视觉跟踪方法包括以下步骤:
在第一帧中手动获得初始目标;
在后续帧中,通过粒子滤波采样获得大量候选目标,作为未标记样本,而将以前的跟踪结果作为标记样本,以所有样本为顶点建立一张图;
通过最小化代价函数,获得候选目标属于真实目标的置信度,并将具有最大置信度的候选目标作为当前估计;
最后更新正样本集,将置信度高的样本加入到正样本集,并删除置信度低的样本。
作为本发明实施例的一优化方案,通过应用Lucas-kanade算法预测计算p(zt|zt-1),获得大量候选目标。
作为本发明实施例的一优化方案,计算p(zt|zt-1)的具体步骤为:
图像中目标的状态可以用仿射图像变换表示,用W(s,p)表示仿射变换:
其中p=(p1,p2,p3,p4,p5,p6)表示仿射参数,s=(dx,dy)T是目标在图像中的位置状态,
Lucas-Kanade算法可以为粒子的产生过程提供一种启发式预测,Lucas-Kanade算法的目标是最小化图像和模板之间的最小平方误差,已知当前的估计p,通过迭代的方法计算参数增量Δp,能量函数可以写作:
假设在第t-1帧图像中的估计为zt-1,在第t帧图像中通过Lucas-Kanade算法迭代得到增量△p,则可以预测当前的状态为:
其中N()是高斯分布,根据p(zt|zt-1),在当前图像中采样,获得候选目标。
作为本发明实施例的一优化方案,在候选目标中采样用含有隐含变量的一阶马尔科夫模型来描述运动目标的跟踪过程。
作为本发明实施例的一优化方案,一阶马尔科夫模型来描述运动目标的跟踪过程的步骤为:根据p(zt|zt-1),在当前图像中采样,获得候选目标,
假设目标在t时刻的真实状态和观测状态分别为zt和ot,跟踪问题可以描述为:已知观测状态Ot={o1,o2,…,ot}和t时刻以前的估计状态Zt-1={z1,z2,…,zt-1}来估计目标在t时刻的状态zt,根据贝叶斯准则,可以表示为如下形式:
由上式可知,跟踪过程可以分成以下两步:
预测:
更新:
p(zt|Ot)∝p(ot|zt)p(zt|Ot-1)。
作为本发明实施例的一优化方案,通过计算图拉普拉斯得到真实目标的置信度。
作为本发明实施例的一优化方案,图拉普拉斯计算的具体步骤为:
其中Wlu和Wul是转置矩阵,
标注样本子图采用全连接图,权重定义如下:
未标记样本子图采用k近邻图,即,如果样本xi是样本xj的k近邻,则将这两个样本连接起来,权重定义为:
其中σ是方差,在实验中,取σ=1.5,k=7,
标记样本和未标记样本的子图也采用k近邻图,和未标记样本子图的区别在于,样本xi和样本xj分别属于标记样本和未标记样本,权重矩阵表示如下:
其中σ是方差,在实验中,取σ=1.5,k=3,
其中,U是通过在线主成分分析算法得到的子空间的基。
作为本发明实施例的一优化方案,利用最小化代价函数,并获得候选目标的置信度的具体步骤为:
令{(x1,y1),…,(xl,yl)}为标记样本,yi∈{1,…,C},{xl+1…xl+u}是未标记样本,l<<u,分别用L和U来分别表示标记样本集和未标记样本集,在本文中只考虑两类情形,即C=2,
一般来说,相似样本具有相同的标记,图的顶点表示所有的样本点,包括标记样本和未标记样本,图的边表示所连接点的相似性,定义两个顶点(xi,xj)之间的权重如下:
其中σ是方差,
其中λ>0是规则化参数,实验中取λ=1,yi表示样本属于该类的真实置信度,在上式中,第一项和第二项分别表示全局约束和局部约束,f的解表达式为:
f*argminJ(f)
用矩阵形式重写公式,得到:
J(f)=(f(X)-Y)T(f(X)-Y)+λf(X)TLf(X)
其中L=D-W是图拉普拉斯矩阵,D是对角矩阵,用来描述顶点的维度:
因此,图拉普拉斯矩阵L是对称和半正定的,
(I-λL)f=Y
问题的解表示为:
f=(I-λL)-1Y。
作为本发明实施例的一优化方案,状态估计,通过直推学习,获得候选目标属于目标的置信度f的步骤为:
选择具有最大置信度的候选目标,作为当前图像中的目标估计,
作为本发明实施例的一优化方案,更新正样本集,将正样本集合记做其中πi是样本的置信度,正样本集的按如下方式建立:初始的正样本集由手动获得的正样本组成,并令其置信度为1,在后续帧中,利用遗忘因子来降低以前正样本的置信度,Δ=α*Δ,在当前帧中,通过直推学习得到所有候选目标的置信度,选择其中置信度较大的候选目标加入到正样本集中,Δadd={(xi,πi)|πi>τ1},在正样本集中,删除置信度低的样本,Δdelete={(xi,πi)|πi<τ2},输出:状态估计?
下面结合附图及具体实施例对本发明的应用原理作进一步描述。
如图1所示,本发明实施例的基于直推的鲁棒视觉跟踪方法包括以下步骤:
S101:在第一帧中手动获得初始目标;
S102:在后续帧中,通过粒子滤波采样获得大量候选目标,作为未标记样本,而将以前的跟踪结果作为标记样本,以所有样本为顶点建立一张图;
S103:通过最小化代价函数,获得候选目标属于真实目标的置信度,并将具有最大置信度的候选目标作为当前估计;
S104:最后更新正样本集,将置信度高的样本加入到正样本集,并删除置信度低的样本。
本发明的基于图直推的鲁棒视觉跟踪方法的具体步骤如下:
步骤1.应用Lucas-kanade算法预测,
图像中目标的状态可以用仿射图像变换表示,用W(s,p)表示仿射变换:
其中p=(p1,p2,p3,p4,p5,p6)表示仿射参数,s=(dx,dy)T是目标在图像中的位置状态,
Lucas-Kanade算法[141]可以为粒子的产生过程提供一种启发式预测,Lucas-Kanade算法的目标是最小化图像和模板之间的最小平方误差,已知当前的估计p,通过迭代的方法计算参数增量Δp,能量函数可以写作:
假设在第t-1帧图像中的估计为zt-1,在第t帧图像中通过Lucas-Kanade算法迭代得到增量Δp,则可以预测当前的状态为:
其中N()是高斯分布,根据p(zt|zt-1),在当前图像中采样,获得候选目标;
步骤2.采样,根据p(zt|zt-1),在当前图像中采样,获得候选目标,
假设目标在t时刻的真实状态和观测状态分别为zt和ot,可以用含有隐含变量的一阶马尔科夫(Markov)模型来描述运动目标的跟踪过程[140],如图6.5所示,跟踪问题可以描述为:已知观测状态Ot={o1,o2,…,ot}和t时刻以前的估计状态Zt-1={z1,z2,…,zt-1}来估计目标在t时刻的状态zt,根据贝叶斯准则,可以表示为如下形式:
由上式可知,跟踪过程可以分成以下两步:
预测:
更新:
p(zt|Ot)∝p(ot|zt)p(zt|Ot-1) (9)
步骤3.计算图拉普拉斯,
在跟踪过程中,我们已经得到标记样本和未标记样本,如上节所述,所有样本属于样本的标记为yi∈{-1,1},图可以分为三个子图:标记样本构成的子图,未标记样本构成的子图以及标记样本和未标记样本构成的子图,相应的权重矩阵可以表示为:
其中Wlu和Wul是转置矩阵,
标注样本子图采用全连接图,权重定义如下:
未标记样本子图采用k近邻图,即,如果样本xi是样本xj的k近邻,则将这两个样本连接起来,权重定义为:
其中σ是方差,在实验中,取σ=1.5,k=7,
标记样本和未标记样本的子图也采用k近邻图,和未标记样本子图的区别在于,样本xi和样本xj分别属于标记样本和未标记样本,权重矩阵表示如下:
其中σ是方差,在实验中,取σ=1.5,k=3,
其中,U是通过在线主成分分析算法[71]得到的子空间的基;
步骤4.直推学习,最小化代价函数,并获得候选目标的置信度,
令{(x1,y1),…,(xl,yl)}为标记样本,yi∈{1,…,C},{xl+1…xl+u}是未标记样本,l<<u,分别用L和U来分别表示标记样本集和未标记样本集,在本文中只考虑两类情形,即C=2,
一般来说,相似样本具有相同的标记,图的顶点表示所有的样本点,包括标记样本和未标记样本,图的边表示所连接点的相似性,定义两个顶点(xi,xj)之间的权重如下:
其中σ是方差,
其中λ>0是规则化参数,实验中取λ=1,yi表示样本属于该类的真实置信度,在上式中,第一项和第二项分别表示全局约束和局部约束,f的解表达式为:
f*argminJ(f) (17)
用矩阵形式重写公式(6.2),得到:
J(f)=(f(X)-Y)T(f(X)-Y)+λf(X)TLf(X) (18)
其中L=D-W是图拉普拉斯矩阵,D是对角矩阵,用来描述顶点的维度:
因此,图拉普拉斯矩阵L是对称和半正定的,
(I-λL)f=Y (20)
问题的解表示为:
f=(I-λL)-1Y (21)
步骤5.状态估计,通过直推学习,获得候选目标属于目标的置信度f,选择具有最大置信度的候选目标,作为当前图像中的目标估计,
步骤6.更新正样本集,
正样本的选择在算法中非常重要,将正样本集合记做其中πi是样本的置信度,正样本集的按如下方式建立:初始的正样本集由手动获得的正样本组成,并令其置信度为1,在后续帧中,利用遗忘因子来降低以前正样本的置信度,Δ=α*Δ,在当前帧中,通过直推学习得到所有候选目标的置信度,选择其中置信度较大的候选目标加入到正样本集中,Δadd={(xi,πi)|πi>τ1},在正样本集中,删除置信度低的样本,Δdelete={(xi,πi)|πi<τ2},
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。
Claims (10)
1.一种基于直推的鲁棒视觉跟踪方法,其特征在于,所述基于直推的鲁棒视觉跟踪方法包括以下步骤:
在第一帧中手动获得初始目标;
在后续帧中,通过粒子滤波采样获得大量候选目标,作为未标记样本,而将以前的跟踪结果作为标记样本,以所有样本为顶点建立一张图;
通过最小化代价函数,获得候选目标属于真实目标的置信度,并将具有最大置信度的候选目标作为当前估计;
最后更新正样本集,将置信度高的样本加入到正样本集,并删除置信度低的样本。
2.如权利要求1所述的基于直推的鲁棒视觉跟踪方法,其特征在于,通过应用Lucas-kanade算法预测计算p(zt|zt-1),获得大量候选目标。
3.如权利要求2所述的基于直推的鲁棒视觉跟踪方法,其特征在于,计算p(zt|zt-1)的具体步骤为:
图像中目标的状态可以用仿射图像变换表示,用W(s,p)表示仿射变换:
其中p=(p1,p2,p3,p4,p5,p6)表示仿射参数,s=(dx,dy)T是目标在图像中的位置状态,
Lucas-Kanade算法可以为粒子的产生过程提供一种启发式预测,Lucas-Kanade算法的目标是最小化图像和模板之间的最小平方误差,已知当前的估计p,通过迭代的方法计算参数增量Δp,能量函数可以写作:
其中?I是图像I的梯度图像,H是hessian矩阵:
假设在第t-1帧图像中的估计为zt-1,在第t帧图像中通过Lucas-Kanade算法迭代得到增量△p,则可以预测当前的状态为:
其中N()是高斯分布,根据p(zt|zt-1),在当前图像中采样,获得候选目标。
4.如权利要求1所述的基于直推的鲁棒视觉跟踪方法,其特征在于,在候选目标中采样用含有隐含变量的一阶马尔科夫模型来描述运动目标的跟踪过程。
5.如权利要求4所述的基于直推的鲁棒视觉跟踪方法,其特征在于,一阶马尔科夫模型来描述运动目标的跟踪过程的步骤为:根据p(zt|zt-1),在当前图像中采样,获得候选目标,
假设目标在t时刻的真实状态和观测状态分别为zt和ot,跟踪问题可以描述为:已知观测状态Ot={o1,o2,…,ot}和t时刻以前的估计状态Zt-1={z1,z2,…,zt-1}来估计目标在t时刻的状态zt,根据贝叶斯准则,可以表示为如下形式:
由上式可知,跟踪过程可以分成以下两步:
预测:
更新:
p(zt|Ot)∝p(ot|zt)p(zt|Ot-1)。
6.如权利要求1所述的基于直推的鲁棒视觉跟踪方法,其特征在于,通过计算图拉普拉斯得到真实目标的置信度。
7.如权利要求6所述的基于直推的鲁棒视觉跟踪方法,其特征在于,图拉普拉斯计算的具体步骤为:
其中Wlu和Wul是转置矩阵,
标注样本子图采用全连接图,权重定义如下:
未标记样本子图采用k近邻图,即,如果样本xi是样本xj的k近邻,则将这两个样本连接起来,权重定义为:
其中σ是方差,在实验中,取σ=1.5,k=7,
标记样本和未标记样本的子图也采用k近邻图,和未标记样本子图的区别在于,样本xi和样本xj分别属于标记样本和未标记样本,权重矩阵表示如下:
其中σ是方差,在实验中,取σ=1.5,k=3,
利用目标在连续帧中的一致性来约束目标模型,用表示正样本l属于真实目标的置信度:
其中,U是通过在线主成分分析算法得到的子空间的基。
8.如权利要求1所述的基于直推的鲁棒视觉跟踪方法,其特征在于,利用最小化代价函数,并获得候选目标的置信度的具体步骤为:
令{(x1,y1),…,(xl,yl)}为标记样本,yi∈{1,…,C},{xl+1…xl+u}是未标记样本,l<<u,分别用L和U来分别表示标记样本集和未标记样本集,在本文中只考虑两类情形,即C=2,
相似样本具有相同的标记,图的顶点表示所有的样本点,包括标记样本和未标记样本,图的边表示所连接点的相似性,定义两个顶点(xi,xj)之间的权重如下:
其中σ是方差,
其中λ>0是规则化参数,实验中取λ=1,yi表示样本属于该类的真实置信度,在上式中,第一项和第二项分别表示全局约束和局部约束,f的解表达式为:
f*=argminJ(f)
用矩阵形式重写公式,得到:
J(f)=(f(X)-Y)T(f(X)-Y)+λf(X)TLf(X)
其中L=D-W是图拉普拉斯矩阵,D是对角矩阵,用来描述顶点的维度:
因此,图拉普拉斯矩阵L是对称和半正定的,
(I-λL)f=Y
问题的解表示为:
f=(I-λL)-1Y。
9.如权利要求1所述的基于直推的鲁棒视觉跟踪方法,其特征在于,状态估计,通过直推学习,获得候选目标属于目标的置信度f的步骤为:
选择具有最大置信度的候选目标,作为当前图像中的目标估计,
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310450216.3A CN103530604A (zh) | 2013-09-27 | 2013-09-27 | 一种基于直推的鲁棒视觉跟踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310450216.3A CN103530604A (zh) | 2013-09-27 | 2013-09-27 | 一种基于直推的鲁棒视觉跟踪方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN103530604A true CN103530604A (zh) | 2014-01-22 |
Family
ID=49932603
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201310450216.3A Pending CN103530604A (zh) | 2013-09-27 | 2013-09-27 | 一种基于直推的鲁棒视觉跟踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN103530604A (zh) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104850832A (zh) * | 2015-05-06 | 2015-08-19 | 中国科学院信息工程研究所 | 一种基于分级迭代的大规模图像样本标注方法及系统 |
CN106708806A (zh) * | 2017-01-17 | 2017-05-24 | 科大讯飞股份有限公司 | 样本确认方法和装置及系统 |
CN106875417A (zh) * | 2017-01-10 | 2017-06-20 | 南京邮电大学 | 一种基于高阶图跨时域关联的多目标跟踪方法 |
CN107077624A (zh) * | 2014-09-23 | 2017-08-18 | 微软技术许可有限责任公司 | 跟踪手部/身体姿势 |
CN108537822A (zh) * | 2017-12-29 | 2018-09-14 | 西安电子科技大学 | 基于加权置信度估计的运动目标跟踪方法 |
CN110728327A (zh) * | 2019-10-18 | 2020-01-24 | 中国科学技术大学 | 一种具有可解释性的直推学习方法及系统 |
WO2020038141A1 (zh) * | 2018-08-24 | 2020-02-27 | 阿里巴巴集团控股有限公司 | 分布式图嵌入方法、装置、设备及系统 |
CN112235598A (zh) * | 2020-09-27 | 2021-01-15 | 深圳云天励飞技术股份有限公司 | 一种视频结构化处理方法、装置及终端设备 |
-
2013
- 2013-09-27 CN CN201310450216.3A patent/CN103530604A/zh active Pending
Non-Patent Citations (3)
Title |
---|
查宇飞等: "一种基于粒子滤波的自适应运动目标跟踪方法", 《电子与信息学报》 * |
查宇飞等: "基于全局和局部约束直推学习的鲁棒跟踪研究", 《自动化学报》 * |
查宇飞等: "基于区域活动轮廓运动目标跟踪方法研究", 《中国图象图形学报》 * |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107077624A (zh) * | 2014-09-23 | 2017-08-18 | 微软技术许可有限责任公司 | 跟踪手部/身体姿势 |
CN104850832A (zh) * | 2015-05-06 | 2015-08-19 | 中国科学院信息工程研究所 | 一种基于分级迭代的大规模图像样本标注方法及系统 |
CN104850832B (zh) * | 2015-05-06 | 2018-10-30 | 中国科学院信息工程研究所 | 一种基于分级迭代的大规模图像样本标注方法及系统 |
CN106875417B (zh) * | 2017-01-10 | 2019-10-08 | 南京邮电大学 | 一种基于高阶图跨时域关联的多目标跟踪方法 |
CN106875417A (zh) * | 2017-01-10 | 2017-06-20 | 南京邮电大学 | 一种基于高阶图跨时域关联的多目标跟踪方法 |
CN106708806A (zh) * | 2017-01-17 | 2017-05-24 | 科大讯飞股份有限公司 | 样本确认方法和装置及系统 |
CN106708806B (zh) * | 2017-01-17 | 2020-06-02 | 科大讯飞股份有限公司 | 样本确认方法和装置及系统 |
CN108537822A (zh) * | 2017-12-29 | 2018-09-14 | 西安电子科技大学 | 基于加权置信度估计的运动目标跟踪方法 |
CN108537822B (zh) * | 2017-12-29 | 2020-04-21 | 西安电子科技大学 | 基于加权置信度估计的运动目标跟踪方法 |
WO2020038141A1 (zh) * | 2018-08-24 | 2020-02-27 | 阿里巴巴集团控股有限公司 | 分布式图嵌入方法、装置、设备及系统 |
US11074295B2 (en) | 2018-08-24 | 2021-07-27 | Advanced New Technologies Co., Ltd. | Distributed graph embedding method and apparatus, device, and system |
CN110728327A (zh) * | 2019-10-18 | 2020-01-24 | 中国科学技术大学 | 一种具有可解释性的直推学习方法及系统 |
CN110728327B (zh) * | 2019-10-18 | 2021-11-23 | 中国科学技术大学 | 一种具有可解释性的直推学习方法及系统 |
CN112235598A (zh) * | 2020-09-27 | 2021-01-15 | 深圳云天励飞技术股份有限公司 | 一种视频结构化处理方法、装置及终端设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103530604A (zh) | 一种基于直推的鲁棒视觉跟踪方法 | |
Bhat et al. | Learning what to learn for video object segmentation | |
Ke et al. | Prototypical cross-attention networks for multiple object tracking and segmentation | |
Mei et al. | Robust visual tracking using ℓ 1 minimization | |
CN110232330B (zh) | 一种基于视频检测的行人重识别方法 | |
Wan et al. | Total variation regularization term-based low-rank and sparse matrix representation model for infrared moving target tracking | |
Lu et al. | Robust visual tracking with discriminative sparse learning | |
CN108734109B (zh) | 一种面向图像序列的视觉目标跟踪方法及系统 | |
CN109003291A (zh) | 目标跟踪方法及装置 | |
CN105809718A (zh) | 一种轨迹熵最小化的对象跟踪方法 | |
Kundegorski et al. | A photogrammetric approach for real-time 3D localization and tracking of pedestrians in monocular infrared imagery | |
Yusuf et al. | Enhancing Vehicle Detection and Tracking in UAV Imagery: A Pixel Labeling and Particle Filter Approach | |
Elayaperumal et al. | Visual object tracking using sparse context-aware spatio-temporal correlation filter | |
Cygert et al. | Vehicle detection with self-training for adaptative video processing embedded platform | |
Yu et al. | Recognition of human continuous action with 3D CNN | |
Xue et al. | Robust correlation tracking for UAV videos via feature fusion and saliency proposals | |
Castellano et al. | Crowd flow detection from drones with fully convolutional networks and clustering | |
Chen et al. | Ship tracking for maritime traffic management via a data quality control supported framework | |
Tulyakov et al. | Hybrid vae: Improving deep generative models using partial observations | |
Yang et al. | Toward robust online visual tracking | |
Zanjani et al. | Improving semantic video segmentation by dynamic scene integration | |
Kundegorski et al. | Posture estimation for improved photogrammetric localization of pedestrians in monocular infrared imagery | |
Li et al. | A Robust Deep Learning Enhanced Monocular SLAM System for Dynamic Environments | |
Li et al. | Adaptive object tracking algorithm based on eigenbasis space and compressive sampling | |
CN110660079A (zh) | 一种基于时空上下文的单目标跟踪方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20140122 |