CN101923719A - 一种基于粒子滤波和光流矢量的视频目标跟踪方法 - Google Patents

一种基于粒子滤波和光流矢量的视频目标跟踪方法 Download PDF

Info

Publication number
CN101923719A
CN101923719A CN2009100864084A CN200910086408A CN101923719A CN 101923719 A CN101923719 A CN 101923719A CN 2009100864084 A CN2009100864084 A CN 2009100864084A CN 200910086408 A CN200910086408 A CN 200910086408A CN 101923719 A CN101923719 A CN 101923719A
Authority
CN
China
Prior art keywords
particle
light stream
stream vector
image
video target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN2009100864084A
Other languages
English (en)
Other versions
CN101923719B (zh
Inventor
郑鹏程
刘铁华
见良
孙季川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
China Digital Video Beijing Ltd
Original Assignee
China Digital Video Beijing Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by China Digital Video Beijing Ltd filed Critical China Digital Video Beijing Ltd
Priority to CN 200910086408 priority Critical patent/CN101923719B/zh
Publication of CN101923719A publication Critical patent/CN101923719A/zh
Application granted granted Critical
Publication of CN101923719B publication Critical patent/CN101923719B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

本发明公开了一种视频目标跟踪方法,尤其是公开了一种基于粒子滤波和光流矢量的视频目标跟踪方法。该方法首先对t时刻图像创建L级高斯金字塔,计算每级高斯金字塔图像x和y方向的灰度梯度;再对t-1时刻图像的M个特征点求解其在t时刻图像中的位置偏移;再对t-1时刻图像的N个粒子重新进行采样,并对新采样的N个粒子利用随机数或光流矢量进行重新分布;然后再计算N个粒子的RGB直方图,并根据RGB直方图计算每个粒子的权重,再将N个粒子位置根据权重进行加权平均,得到跟踪目标t时刻图像的估计位置;最后对估计位置进行稳定性比较计算,得到跟踪目标的最终位置。该方法能够高效、准确地实现视频目标的跟踪。

Description

一种基于粒子滤波和光流矢量的视频目标跟踪方法
技术领域
本发明涉及一种视频目标跟踪方法,尤其是涉及一种基于粒子滤波和光流矢量的视频目标跟踪方法,特别适用于高质量、高效率视频以及图像的特效处理及合成软件中。
背景技术
在图像/视频后期处理软件中,对运动图像的像素特征区域进行跟踪,跟踪数据可以用来控制其它物体的运动和稳定运动物体,这有广泛的需求。
粒子滤波算法具有很好的实用性,用于粒子滤波跟踪算法的粒子滤波器的基本思想来源于Perfect Monte Carlo(PMC)仿真,在PMC中,任意函数的数学期望:E(g(x0:K))=∫g(x0:k)P(x0:k|z1:k)dx0:k,可以近似为其中离散样本
Figure B2009100864084D0000012
是从后验分布函数f(x|z)中产生的N个点的独立分布同分布序列。当N足够大的时候,
Figure B2009100864084D0000013
)绝对收敛于E(g(x0:k))。其核心思想是利用一系列随机样本的加权和表示所需的后验概率密度,得到状态的估计值。粒子滤波跟踪算法可以参阅:Katja Nummiaro,Esther Koller-Meier,Luc Van Gool.An adaptive color-based particle filter.Image and Vision Computing,2003,21:99-110。
但是,现有的粒子滤波跟踪方法以概率分布为基础,容易造成跟踪不稳定的现象;同时,假如跟踪目标运动很快,而粒子的概率分布无法到达跟踪目标的大致区域,从而导致无法进行跟踪。
光流矢量能够准确的估计出物体的运动,其基本思想是比较两幅图像的亮度差异,是x、y方向的亮度差偏导为0,从而得到匹配的运动信息。光流矢量算法课参阅:B_D_Lucas and T_Kanade,An iterative image registrationtechnique with an application tostereo,vision_IJCAI_1981。
目前,还未有一种采用粒子滤波并结合光流矢量来对视频目标进行跟踪的方法。
发明内容
针对现有技术中存在的缺陷,本发明的目的是提供一种高效、准确的基于粒子滤波和光流矢量的视频目标跟踪方法。
为实现上述目的,本发明采用的技术方案为,一种基于粒子滤波和光流矢量的视频目标跟踪方法,包括以下步骤:
(1)对t时刻图像创建L级高斯金字塔,计算每级高斯金字塔图像x和y方向的灰度梯度,所述t和L为正整数;
(2)对t-1时刻图像的M个特征点根据步骤(1)中计算出的灰度梯度求解其在t时刻图像中的位置偏移;
(3)对t-1时刻图像的N个粒子重新进行采样,并对新采样的N个粒子利用随机数或光流矢量进行重新分布;
(4)计算N个粒子的RGB直方图,并根据RGB直方图计算每个粒子的权重,然后将N个粒子位置根据权重进行加权平均,得到跟踪目标t时刻图像的估计位置;
(5)对估计位置进行稳定性比较计算,得到跟踪目标的最终位置;
(6)在t+1时刻,重复上述步骤。
如上所述的视频目标跟踪方法,步骤(1)中,创建L级高斯金字塔的过程包括以下步骤:
①将t时刻图像转化为灰度图;
②对灰度图进行高斯模糊;
③对高斯模糊后的灰度图创建L级高斯金字塔。所述L≤4。
如上所述的视频目标跟踪方法,步骤(2)中,如果某个特征点丢失,则采用网格将跟踪目标搜索区域划分成与丢失特征点区域大小相同的K个图像区域,利用图像灰度差的平方和匹配丢失特征点区域,估计丢失特征点的近似位置;然后利用估计的近似位置作为初始位置重新求解该特征点在下一帧图像中的位置偏移;所述跟踪目标搜索区域是指在图像的哪个范围中产生特征点的区域。
如上所述的视频目标跟踪方法,步骤(3)中所述对t-1时刻图像的N个粒子进行重新采样的方法包括以下步骤:
①根据t-1时刻图像的N个粒子权重计算每个粒子归一化的概率;
②产生0至1之间的随机数r;
③在N个粒子中寻找归一化概率大于或等于r的粒子,如果存在就把该粒子取出来作为新的粒子。
如上所述的视频目标跟踪方法,步骤(3)中对新采样的N个粒子利用随机数或光流矢量进行重新分布的方法为:首先获得N个粒子的光流矢量;然后判断丢失光流矢量的粒子数量,如果丢失光流矢量的粒子数量小于90%,则采用光流矢量对N个粒子进行重新分布;否则,采用随机数对N个粒子进行重新分布。
如上所述的视频目标跟踪方法,在得到跟踪目标的最终位置后,还包括更新RGB直方图的步骤。
如上所述的视频目标跟踪方法,步骤(5)中对估计位置进行稳定性比较计算的具体过程为:
在计算出来的跟踪目标估计位置后,与输入的t-1时刻初始位置周围3×3像素矩形范围,形成10个搜索位置,在其中找一个新位置,使它与上一帧t-1时刻目标区域灰度差的平方和最小,用这个新位置作为输出结果。
本发明所述方法,通过光流矢量对粒子进行重新分布,能够大大提高跟踪的准确性。如果光流矢量丢失,则启动纯粹粒子跟踪,等找到光流矢量后重新使用光流矢量,这个自适应方法能够解决光流矢量无法跟踪目标丢失情况的难题。由于本发明结合了光流矢量对运动估计的准确性和粒子滤波的高效性的优点,因此具有很好的实时性和准确性。
附图说明
图1是本发明所述方法流程图。
具体实施方式
下面结合具体实施方式和附图,对本发明进行详细描述。
本发明是基于粒子滤波和光流矢量的视频跟踪方法,在跟踪过程中,如果某一时刻N个粒子丢失的光流数量小于90%,则采用光流矢量来对N个粒子进行重新分布。与采用随机数的方式相比,更能够稳定跟踪目标。本发明有如下输入参数:粒子个数(N个,N为正整数)、特征点个数(M个,M为正整数)、跟踪目标选择矩形区域、跟踪目标搜索矩形区域。其中,粒子个数用来确定采用多少个随机分布的粒子来计算RGB直方图。特征点个数用来确定需要在跟踪目标上产生多少个特征点,来计算光流矢量信息。跟踪目标选择矩形区域用来确定在图像的哪个范围中产生特征点。跟踪目标搜索矩形区域用来在哪个范围中预搜索丢失的特征点。
图1出示了本发明所述方法的主要流程图,包括以下步骤:
(1)对t时刻图像创建L级高斯金字塔,计算每级高斯金字塔图像x和y方向的灰度梯度,所述t和L为正整数。
首先将t时刻图像转化为灰度图,然后将转化后的灰度图进行Gaussian(高斯)模糊,再对高斯模糊后的灰度图创建L级Gaussian金字塔,求解每级Gaussian金字塔图像x和y方向的灰度梯度。所述L为正整数,一般不超过4。
本实施例中采用的Gaussian函数为:
Figure B2009100864084D0000041
其导函数为:
Figure B2009100864084D0000042
以σ=0.7的Gaussian函数作为二维卷积核函数,对t时刻图像的灰度图进行二维卷积,得到初始模糊图像。
以σ=1.0的Gaussian函数和Gaussian导函数作为二维卷积核函数,将初始模糊图像用Gaussian导函数做横向一维卷积,然后将结果用Gaussian函数做列向一维卷积,可以得到初始模糊图像x方向的灰度梯度gx。将初始模糊图像用Gaussian函数做横向一维卷积,然后将结果用Gaussian导函数做列向一维卷积,可以得到初始模糊图像y方向的灰度梯度gy
Gaussian金字塔将Gaussian模糊后的原始大小灰度图依次缩小L级,每级大小是上一级金字塔的1/16。金字塔数学模型算法可参阅:Jean-Yves Bouguet Intel Corporation Microprocessor Research Labs,Pyramidal Implementation of the Lucas Kanade Feature Tracker Description of the algorithm。
以σ=3.6的Gaussian函数作为二维卷积核函数,对Gaussian金字塔第n级模糊图像进行二维卷积,得到金字塔第n级模糊图像。其中,n为正整数,1≤n≤4。
以σ=1.0的Gaussian函数和Gaussian导函数作为二维卷积核函数,将金字塔第n级模糊图像用Gaussian导函数做横向一维卷积,然后将结果用Gaussian函数做列向一维卷积,可以得到金字塔第n级图像的x方向的灰度梯度gx,将金字塔第n级模糊图像用Gaussian函数做横向一维卷积,然后将结果用Gaussian导函数做列向一维卷积,可以得到金字塔第n级图像的y方向的灰度梯度gy
上述σ值均是经验值,也可以取其它值的高斯函数及导函数作为二维卷积核函数。
(2)对t-1时刻的M个特征点根据下面的公式求解其在t时刻图像中的位置偏移。
这个过程由于原始公式是一个积分近似估计公式,所以采用Newton(牛顿)迭代法进行逼近求得最优解。
原始公式为:Tz=a,其中
a = ∫ ∫ w [ I ( X → ) - J ( X → ) ] xg x xg y yg x yg x g x g y
其中,gx表示每级金字塔图像在x方向的灰度梯度,gy表示每级金字塔图像在y方向的灰度梯度,∫∫w表示在7×7的矩形区域离散数据的和。
仿射变换的六个运动参数:zT=[dxx,dyx,dxy,dyy,dx,dy]仿射变换矩阵: d xx d xy d x d yx d yy d y 0 0 1 x i y i 1 = x inew y inew 1
dxx,dyx,dxy,dyy表示特征点的旋转和缩放,dx,dy表示特征点的平移。
T = ∫ ∫ w x 2 g x 2 x 2 g x g y xyg x 2 xyg x g y xg x 2 xg x g y x 2 g x g y x 2 g y 2 xyg x g y xyg y 2 xg x g y xg y 2 xyg x 2 xyg x g y y 2 g x 2 y 2 g x g y yg x 2 yg x g y xyg x g y xyg y 2 y 2 g x g y y 2 g y 2 yg x g y yg y 2 xg x 2 xg x g y yg x 2 yg x g y g x 2 g x g y xg x g y xg y 2 xg x g y yg y 2 g x g y g y 2 wdX
x表示L级金字塔图像中像素x位置,y代表L级金字塔图像中像素y位置,gx表示L级金字塔图像中像素x方向灰度梯度,gy代表L级金字塔图像中像素y方向灰度梯度。
L级金字塔图像经过上述公式逐次计算后得到M个特征点t时刻图像中的位置偏移参数:dx,dy
在迭代过程中,如果迭代步骤超过了最大迭代步骤或者特征点新位置已经超过了边界或者特征点新位置与目标区域的亮度差超过了一定的门限(经验值),便认为特征点丢失。对于这种情况,本实施例采用网格将跟踪目标搜索区域划分成与特征点区域大小相同的K个图像区域,利用特征点每一个新的矩形区域与目标矩形区域中的每个像素逐点计算亮度差再求和,取具有最小亮度差的平方和(SSD)的新位置作为新的估计位置再进行求解。然后用这个近似估计位置作为初始位置重新求解特征点在下一帧图像中的位置偏移。
(3)对t-1时刻N个粒子进行重新采样。
①根据t-1时刻粒子权重计算N个粒子归一化的概率:
C t - 1 0 = 0 , C t - 1 n = C t - 1 n - 1 + W t - 1 n , C t - 1 / n = C t - 1 n C t - 1 N ;
②产生0-1之间的随机数r;
③在N个粒子中寻找归一化的概率满足
Figure B2009100864084D0000064
的粒子,如果存在就把该粒子取出来作为新的粒子。
经过重采样后,只留下一个或几个权重较大的粒子,其他粒子随机选取。这样,能够得到较多具有较大权重的粒子而舍弃一些权值较小的粒子。
(4)对t时刻新采样的N个粒子进行重新分布。
①按照下面的公式计算N个粒子x、y方向的光流矢量。每个粒子包含的特征点的平均位置偏移便是该粒子的光流矢量,公式如下:
Δx i = Σ i = 0 k ( x t k - x t - 1 k ) k , Δy i = Σ i = 0 k ( y t k - y t - 1 k ) k , k∈recti
其中,Δxi表示t时刻粒子的x方向光流矢量,Δyi表示t时刻粒子的y方向光流矢量,xt表示特征点t时刻的x位置,yt特征点t时刻的y位置,xt-1、yt-1的含义与xt、yt类似,recti表示粒子的矩形范围。
在粒子的矩形区域中,根据特征矩阵
Figure B2009100864084D0000073
得出的特征值中选出最优的K个特征点(特征值越大越优),求出这k个特征点的平均位置偏移。
其中,gx表示每级金字塔图像在X方向的灰度梯度,gy表示每级金字塔图像在Y方向的灰度梯度,∫∫w表示在7×7的矩形区域离散数据的和。K一般取值为40。粒子的矩形区域是指与跟踪目标选择矩形区域具有相同的宽高,但是中心点不同的矩形区域。
②统计有多少个粒子丢失了光流矢量,并根据丢失光流矢量粒子的数量采用不同的方式对t时刻新采样的N个粒子进行重新分布。
如果粒子中的特征点不存在了,那么这个粒子便丢失了光流矢量。通过这种方式来统计有多少个粒子丢失了光流矢量。
如果丢失光流矢量的粒子数量≥90%,则认为跟踪目标在当前帧中不存在了,用随机数来对N个粒子进行位置和大小的重新分布。
设t-1时刻跟踪目标的运动速度为:
vec x ‾ = Δ x ‾ vecunitperpixel
vec y ‾ = Δ y ‾ vecunitperpixel
Figure B2009100864084D0000082
Figure B2009100864084D0000083
分别表示t-1时刻运动目标的位置偏移。
通过下面公式得到t时刻每个粒子的新位置:
x t i = x t - 1 i + r t i × vect x ‾ × vecunitperpixel + r t i × H t - 1 i
y t i = y t - 1 i + r t i × vect y ‾ × vecunitperpixel + r t i × W t - 1 i
H t i = H t - 1 i + r t i × scaleunit
W t i = W t - 1 i + r t i × scaleunit
其中,
Figure B2009100864084D0000088
为高斯随机数,
Figure B2009100864084D0000089
为粒子的宽,
Figure B2009100864084D00000810
为粒子高。
如果丢失光流矢量的粒子数量<90%,则用光流矢量来对N个粒子进行位置和大小的重新分布,采用的公式如下:
x t i = x t - 1 i + Δ x i
y t i = y t - 1 i + Δ y i
H t i = H t - 1 i + r t i × scaleunit
W t i = W t - 1 i + r t i × scaleunit
其中,是t时刻粒子的x方向新位置,是t-1时刻粒子x方向旧位置,Δxi是t时刻粒子的x方向光流矢量,是t时刻粒子的y方向新位置,
Figure B2009100864084D00000818
是t-1时刻粒子y方向旧位置,Δyi是t时刻粒子的y方向光流矢量,
Figure B2009100864084D00000819
是t时刻粒子的高度,
Figure B2009100864084D00000820
是t-1时刻粒子高度,
Figure B2009100864084D00000821
是t时刻随机数,scaleunit是缩放单位,
Figure B2009100864084D00000822
是t时刻粒子的宽度,
Figure B2009100864084D00000823
是t-1时刻粒子宽度,
Figure B2009100864084D00000824
是t时刻随机数。
如果在t-1时刻所有粒子光流矢量都丢失了,则认为跟踪目标消失在t-1时刻的图像中。如果在当前帧t时刻丢失光流矢量的粒子数量≤10%,则认为跟踪目标重新回到了当前画面中,利用光流矢量重新计算分布粒子。
采用粒子的光流运动矢量进行粒子重新分布,能够逐渐收敛得到权重最大的那个粒子,从而稳定跟踪目标。
(5)计算N个粒子的RGB直方图,并根据RGB直方图计算每个粒子的权重,然后将N个粒子位置根据权重进行加权平均,得到跟踪目标在当前帧图像t时刻的估计位置。
①采用下面公式计算N个粒子在y位置的RGB直方图:
p y ( u ) = f Σ i = 1 I k ( | | y - x i | | a ) δ [ h ( x i ) - u ]
其中,Epanechnikov核函数为:
Figure B2009100864084D0000092
Figure B2009100864084D0000093
f为归一化系数,
Figure B2009100864084D0000094
δ为Kronecker冲击函数。
②采用如下公式计算两个离散直方图p={p(u)}u=1....m、q={q(u)}u=1...m的Bhattacharyya系数:
Figure B2009100864084D0000095
③采用如下公式计算N个粒子的权重:
W i = 1 2 π σ e - ( 1 - ρ [ p , q ] ) 2 σ 2
④将N个粒子位置根据权重进行加权平均,得到粒子滤波的跟踪结果:
x ‾ t = f Σ i = 1 N W i × x t i
y ‾ t = f Σ i = 1 N W i × y t i
其中,f为归一化系数:
Figure B2009100864084D0000099
(6)在计算出来目标新位置后,与输入的t-1时候初始位置周围3×3像素矩形范围,形成10个搜索位置,找一个新位置,它与上一帧t-1时候目标区域灰度差的平方和(SSD)为最小,用这个新位置最为输出结果,这个办法用来稳定跟踪结果。
S(x,y)=(∫∫w|(J(X)-I(X))|)
( x t , y i ) = min ( S ( x , y ) , S ( x ‾ y , y ‾ t ) ) , ( x in + 1 , y in + 1 ) ≥ x , y ≥ ( x in - 1 , y in - 1 )
其中,S表示这个位置的亮度与模板的亮度差,x、y表示在以xin、yin为中心的新位置。
(7)对RGB直方图进行更新。
由于亮度变化和摄像机参数可能影响跟踪结果,因此为了保证跟踪具有较好精度,在相似度超过一定阈值(经验值)后对目标直方图进行更新。
更新公式为:
q t ( u ) = ( 1 - α ) q t - 1 ( u ) + α P t ( u )
其中,为t时刻更新的新的直方图,是t时候估计出来的直方图,为t-1时刻旧的直方图,α是插值经验值,一般是0.2。
(8)在t+1时刻重复上述步骤。
在上述方法实现过程中,涉及到许多算法,如将RGB图像转换成灰度图的算法、求金字塔模糊灰度图的算法、求金字塔灰度梯度图像的算法、根据下一级金字塔数据采样上一级金字塔数据的算法、特征点丢失后在搜索矩形区域中求解与特征点近似位置的算法、用牛顿迭代法求解特征点的光流矢量的算法、以及粒子RGB直方图计算和权重计算等。由于其计算量大,因此跟踪效率较低。为了提高该方法的效率,本发明将基于粒子滤波和光流矢量的视频目标跟踪方法中所涉及的每个大计算量算法在多CPU上并行计算,在每个CPU上运行一个线程,负责处理一部分行数据,将所有行数据均匀分配到每个CPU上;当每个线程完成自己的任务后,向线程同步管理者发事件告知,当线程同步管理者在得到所有线程完成当前任务的时间都到来后,启动所有线程开始后续任务事件。
显然,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围。这样,倘若本发明的这些修改和变型属于本发明权利要求及其同等技术的范围之内,则本发明也意图包含这些改动和变型在内。

Claims (9)

1.一种基于粒子滤波和光流矢量的视频目标跟踪方法,包括以下步骤:
(1)对t时刻图像创建L级高斯金字塔,计算每级高斯金字塔图像x和y方向的灰度梯度,所述t和L为正整数;
(2)对t-1时刻图像的M个特征点根据步骤(1)中计算出的灰度梯度求解其在t时刻图像中的位置偏移;
(3)对t-1时刻图像的N个粒子重新进行采样,并对新采样的N个粒子利用随机数或光流矢量进行重新分布;
(4)计算N个粒子的RGB直方图,并根据RGB直方图计算每个粒子的权重,然后将N个粒子位置根据权重进行加权平均,得到跟踪目标t时刻图像的估计位置;
(5)对估计位置进行稳定性比较计算,得到跟踪目标的最终位置;
(6)在t+1时刻,重复上述步骤。
2.如权利要求1所述的一种基于粒子滤波和光流矢量的视频目标跟踪方法,其特征在于,步骤(1)中,创建L级高斯金字塔的过程包括以下步骤:
①将t时刻图像转化为灰度图;
②对灰度图进行高斯模糊;
③对高斯模糊后的灰度图创建L级高斯金字塔。
3.如权利要求1所述的一种基于粒子滤波和光流矢量的视频目标跟踪方法,其特征在于:所述L≤4。
4.如权利要求1所述的一种基于粒子滤波和光流矢量的视频目标跟踪方法,其特征在于:步骤(2)中,如果某个特征点丢失,则采用网格将跟踪目标搜索区域划分成与丢失特征点区域大小相同的K个图像区域,利用图像灰度差的平方和匹配丢失特征点区域,估计丢失特征点的近似位置;然后利用估计的近似位置作为初始位置重新求解该特征点在下一帧图像中的位置偏移;所述跟踪目标搜索区域是指在图像的哪个范围中产生特征点的区域。
5.如权利要求1所述的一种基于粒子滤波和光流矢量的视频目标跟踪方法,其特征在于,步骤(3)中所述对t-1时刻图像的N个粒子进行重新采样的方法包括以下步骤:
①根据t-1时刻图像的N个粒子权重计算每个粒子归一化的概率;
②产生0至1之间的随机数r;
③在N个粒子中寻找归一化概率大于或等于r的粒子,如果存在就把该粒子取出来作为新的粒子。
6.如权利要求1所述的一种基于粒子滤波和光流矢量的视频目标跟踪方法,其特征在于,步骤(3)中对新采样的N个粒子利用随机数或光流矢量进行重新分布的方法为:首先获得N个粒子的光流矢量;然后判断丢失光流矢量的粒子数量,如果丢失光流矢量的粒子数量小于90%,则采用光流矢量对N个粒子进行重新分布;否则,采用随机数对N个粒子进行重新分布。
7.如权利要求1所述的一种基于粒子滤波和光流矢量的视频目标跟踪方法,其特征在于,步骤(5)中对估计位置进行稳定性比较计算的具体过程为:
在计算出来的跟踪目标估计位置后,与输入的t-1时刻初始位置周围3×3像素矩形范围,形成10个搜索位置,在其中找一个新位置,使它与上一帧t-1时刻目标区域灰度差的平方和最小,用这个新位置作为输出结果。
8.如权利要求1至7之一所述的一种基于粒子滤波和光流矢量的视频目标跟踪方法,其特征在于:所述方法在得到跟踪目标的最终位置后,还包括更新RGB直方图的步骤。
9.如权利要求1至7之一所述的一种基于粒子滤波和光流矢量的视频目标跟踪方法,其特征在于:将该方法中所涉及的每个大计算量算法在多CPU上并行计算,在每个CPU上运行一个线程,负责处理一部分行数据,将所有行数据均匀分配到每个CPU上;当每个线程完成自己的任务后,向线程同步管理者发事件告知,当线程同步管理者在得到所有线程完成当前任务的时间都到来后,启动所有线程开始后续任务事件。
CN 200910086408 2009-06-12 2009-06-12 一种基于粒子滤波和光流矢量的视频目标跟踪方法 Expired - Fee Related CN101923719B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN 200910086408 CN101923719B (zh) 2009-06-12 2009-06-12 一种基于粒子滤波和光流矢量的视频目标跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN 200910086408 CN101923719B (zh) 2009-06-12 2009-06-12 一种基于粒子滤波和光流矢量的视频目标跟踪方法

Publications (2)

Publication Number Publication Date
CN101923719A true CN101923719A (zh) 2010-12-22
CN101923719B CN101923719B (zh) 2013-03-06

Family

ID=43338629

Family Applications (1)

Application Number Title Priority Date Filing Date
CN 200910086408 Expired - Fee Related CN101923719B (zh) 2009-06-12 2009-06-12 一种基于粒子滤波和光流矢量的视频目标跟踪方法

Country Status (1)

Country Link
CN (1) CN101923719B (zh)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102156991A (zh) * 2011-04-11 2011-08-17 上海交通大学 基于四元数的物体光流跟踪方法
CN102663674A (zh) * 2012-04-27 2012-09-12 上海交通大学 并行化实时无标记人体运动跟踪方法
CN103177455A (zh) * 2013-03-20 2013-06-26 南京理工大学 基于多核dsp的klt运动目标跟踪算法的实现方法
CN103793880A (zh) * 2014-03-04 2014-05-14 山东科技大学 一种结构自适应和结构保持的图像局部扭曲方法
CN103902812A (zh) * 2014-03-05 2014-07-02 深圳大学 一种粒子滤波方法、装置及目标跟踪方法、装置
WO2015014111A1 (zh) * 2013-08-01 2015-02-05 华为技术有限公司 一种光流跟踪方法和装置
CN106560728A (zh) * 2015-10-06 2017-04-12 通用汽车环球科技运作有限责任公司 用于目标速度估算的雷达视觉融合
CN106570861A (zh) * 2016-10-25 2017-04-19 深圳市高巨创新科技开发有限公司 一种无人机的光流测速方法及系统
CN106611412A (zh) * 2015-10-20 2017-05-03 成都理想境界科技有限公司 贴图视频生成方法及装置
CN107220596A (zh) * 2017-05-11 2017-09-29 西安电子科技大学 基于级联纠错机制的人体姿态估计方法
WO2018137132A1 (en) * 2017-01-24 2018-08-02 SZ DJI Technology Co., Ltd. Method and system for feature tracking using image pyramids
CN108846856A (zh) * 2018-06-12 2018-11-20 广州视源电子科技股份有限公司 图片特征点的跟踪方法和跟踪装置
CN112132918A (zh) * 2020-08-28 2020-12-25 稿定(厦门)科技有限公司 基于粒子的聚光灯效果实现方法及装置

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101325691B (zh) * 2007-06-14 2010-08-18 清华大学 融合不同生存期的多个观测模型的跟踪方法和跟踪装置
CN101399969B (zh) * 2007-09-28 2012-09-05 三星电子株式会社 基于运动相机的运动目标检测与跟踪的系统、设备和方法

Cited By (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102156991A (zh) * 2011-04-11 2011-08-17 上海交通大学 基于四元数的物体光流跟踪方法
CN102156991B (zh) * 2011-04-11 2013-05-01 上海交通大学 基于四元数的物体光流跟踪方法
CN102663674A (zh) * 2012-04-27 2012-09-12 上海交通大学 并行化实时无标记人体运动跟踪方法
CN102663674B (zh) * 2012-04-27 2014-06-25 上海交通大学 并行化实时无标记人体运动跟踪方法
CN103177455A (zh) * 2013-03-20 2013-06-26 南京理工大学 基于多核dsp的klt运动目标跟踪算法的实现方法
CN103177455B (zh) * 2013-03-20 2016-04-20 南京理工大学 基于多核dsp的klt运动目标跟踪算法的实现方法
WO2015014111A1 (zh) * 2013-08-01 2015-02-05 华为技术有限公司 一种光流跟踪方法和装置
US9536147B2 (en) 2013-08-01 2017-01-03 Huawei Technologies Co., Ltd. Optical flow tracking method and apparatus
CN103793880A (zh) * 2014-03-04 2014-05-14 山东科技大学 一种结构自适应和结构保持的图像局部扭曲方法
CN103793880B (zh) * 2014-03-04 2016-09-21 山东科技大学 一种结构自适应和结构保持的图像局部扭曲方法
CN103902812A (zh) * 2014-03-05 2014-07-02 深圳大学 一种粒子滤波方法、装置及目标跟踪方法、装置
CN103902812B (zh) * 2014-03-05 2016-05-04 深圳大学 一种粒子滤波方法、装置及目标跟踪方法、装置
CN106560728A (zh) * 2015-10-06 2017-04-12 通用汽车环球科技运作有限责任公司 用于目标速度估算的雷达视觉融合
CN106560728B (zh) * 2015-10-06 2019-06-21 通用汽车环球科技运作有限责任公司 用于目标速度估算的雷达视觉融合
CN106611412A (zh) * 2015-10-20 2017-05-03 成都理想境界科技有限公司 贴图视频生成方法及装置
CN106570861A (zh) * 2016-10-25 2017-04-19 深圳市高巨创新科技开发有限公司 一种无人机的光流测速方法及系统
WO2018137132A1 (en) * 2017-01-24 2018-08-02 SZ DJI Technology Co., Ltd. Method and system for feature tracking using image pyramids
US11100652B2 (en) 2017-01-24 2021-08-24 SZ DJI Technology Co., Ltd. Method and system for feature tracking using image pyramids
CN107220596A (zh) * 2017-05-11 2017-09-29 西安电子科技大学 基于级联纠错机制的人体姿态估计方法
CN107220596B (zh) * 2017-05-11 2020-04-21 西安电子科技大学 基于级联纠错机制的人体姿态估计方法
CN108846856A (zh) * 2018-06-12 2018-11-20 广州视源电子科技股份有限公司 图片特征点的跟踪方法和跟踪装置
CN108846856B (zh) * 2018-06-12 2020-11-03 广州视源电子科技股份有限公司 图片特征点的跟踪方法和跟踪装置
CN112132918A (zh) * 2020-08-28 2020-12-25 稿定(厦门)科技有限公司 基于粒子的聚光灯效果实现方法及装置
CN112132918B (zh) * 2020-08-28 2022-08-05 稿定(厦门)科技有限公司 基于粒子的聚光灯效果实现方法及装置

Also Published As

Publication number Publication date
CN101923719B (zh) 2013-03-06

Similar Documents

Publication Publication Date Title
CN101923719B (zh) 一种基于粒子滤波和光流矢量的视频目标跟踪方法
CN101923718B (zh) 基于粒子滤波和光流矢量的视频目标跟踪方法的优化方法
Black Combining intensity and motion for incremental segmentation and tracking over long image sequences
Barnum et al. Analysis of rain and snow in frequency space
EP1836683B1 (en) Method for tracking moving object in video acquired of scene with camera
WO2009113144A1 (ja) 対象物追跡装置および対象物追跡方法
CN103888767B (zh) Umh块匹配运动估计与光流场运动估计相结合的一种帧率提升方法
CN106228572B (zh) 一种带状态标注的长期静止物体检测与跟踪方法
CN101877130A (zh) 复杂场景下基于粒子滤波器的运动目标跟踪方法
Philip et al. A comparative study of block matching and optical flow motion estimation algorithms
CN106023256B (zh) 面向增强现实辅助维修系统平面目标粒子滤波跟踪的状态观测方法
Roy et al. A comprehensive survey on computer vision based approaches for moving object detection
CN101923716B (zh) 一种改善粒子滤波跟踪效果的方法
CN104616035A (zh) 基于图像全局特征及SURF算法的Visual Map快速匹配方法
Sakaino A semitransparency-based optical-flow method with a point trajectory model for particle-like video
CN114419102B (zh) 一种基于帧差时序运动信息的多目标跟踪检测方法
Lei et al. Research of the real-time detection of traffic flow based on OpenCV
CN101231694B (zh) 基于多个高斯分布的运动目标分割方法
Cabido et al. High speed articulated object tracking using GPUs: A particle filter approach
Lee et al. Real-time Object Segmentation based on GPU
Wang et al. An improved particle filter tracking algorithm based on motion and appearance features
Fan et al. Geometric motion flow (GMF): A New feature for traffic surveillance
ZHANG et al. Project Articles
Takada et al. Robust Human Tracking to Occlusion in Crowded Scenes
Moallem et al. Robust and fast tracking algorithm in video sequences by adaptive window sizing using a novel analysis on spatiotemporal gradient powers

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
ASS Succession or assignment of patent right

Owner name: BEIJING CULTURAL AND SCIENTIFIC FINANCING LEASE CO

Free format text: FORMER OWNER: XIN'AOTE(BEIJING) VIDEO TECHNOLOGY CO., LTD.

Effective date: 20150210

C41 Transfer of patent application or patent right or utility model
COR Change of bibliographic data

Free format text: CORRECT: ADDRESS; FROM: 100080 HAIDIAN, BEIJING TO: 100044 SHUNYI, BEIJING

TR01 Transfer of patent right

Effective date of registration: 20150210

Address after: 100044, room 2, building 1, No. 401, Golden Sail Road, Beijing, Shunyi District

Patentee after: Beijing culture science and technology finance leasing Limited by Share Ltd

Address before: 100080 Beijing city Haidian District xicaochang No. 1 Beijing Silicon Valley computer city 15 1501-1506 room

Patentee before: China Digital Video (Beijing) Limited

TR01 Transfer of patent right

Effective date of registration: 20170930

Address after: 100143 Beijing city Haidian District xicaochang No. 1 Silicon Valley computer city 15 1501-1506 room

Patentee after: China Digital Video (Beijing) Limited

Address before: 100044, room 2, building 1, No. 401, Golden Sail Road, Beijing, Shunyi District

Patentee before: Beijing culture science and technology finance leasing Limited by Share Ltd

TR01 Transfer of patent right
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20130306

Termination date: 20170612

CF01 Termination of patent right due to non-payment of annual fee