CN101404086B - 基于视频的目标跟踪方法及装置 - Google Patents

基于视频的目标跟踪方法及装置 Download PDF

Info

Publication number
CN101404086B
CN101404086B CN200810130984XA CN200810130984A CN101404086B CN 101404086 B CN101404086 B CN 101404086B CN 200810130984X A CN200810130984X A CN 200810130984XA CN 200810130984 A CN200810130984 A CN 200810130984A CN 101404086 B CN101404086 B CN 101404086B
Authority
CN
China
Prior art keywords
target
particle
template
edge
clue
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN200810130984XA
Other languages
English (en)
Other versions
CN101404086A (zh
Inventor
刘云海
全晓臣
谢宝磊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang University ZJU
Original Assignee
Zhejiang University ZJU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang University ZJU filed Critical Zhejiang University ZJU
Priority to CN200810130984XA priority Critical patent/CN101404086B/zh
Publication of CN101404086A publication Critical patent/CN101404086A/zh
Application granted granted Critical
Publication of CN101404086B publication Critical patent/CN101404086B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

本发明公开了一种基于多线索融合和粒子滤波的视频目标跟踪方法及其装置,该方法根据颜色、边缘、特征点三个线索进行自适应融合得到目标的观测信息,然后用粒子滤波技术对目标状态进行更新,具体步骤包括:A、提取目标模板并初始化目标参数;B、根据运动模型,对粒子集合进行动态预测;C、根据多线索融合信息更新粒子权重;D、更新目标的运动状态。本发明能提高对复杂环境下运动目标的跟踪效果及跟踪的稳定性,其跟踪目标可以包括人的头部、行人和汽车等。

Description

基于视频的目标跟踪方法及装置
技术领域
本发明属于信号处理中计算机视觉与模式分析技术领域,具体涉及一种基于多线索融合的视频中目标跟踪的方法及装置。
背景技术
目标跟踪最早应用于军事方面,近来随着视频技术的发展,视频中的目标跟踪成为热门的研究课题。它是计算机视觉研究领域的核心课题之一,是行为识别、视频检索等更高级视频应用的基础,也是智能视频监控的重要组成部分。
目标跟踪中一个关键步骤是数据关联,如何使用最有效的线索来表达和描述目标是关键。目前主要的线索有加权颜色直方图,颜色的小波特征,特征点特征和二值形状模板等。但传统的跟踪方法多数是基于单线索的方法,当环境和场景变化时,目标的单一特征或线索容易丢失,使跟踪失败或变得非常困难,也就是只利用目标某一方面的特征不能进一步的提高跟踪算法的可靠性和准确性。
为了解决这一问题,最根本的方法是同时利用目标的多种线索进行跟踪,由于目标多种线索同时丢失的可能性不大,只要跟踪算法能够适应环境的变化,选择合适而可靠的线索作为跟踪依据,那么就能得到较为可靠和准确的跟踪结果。另外,根据经验和研究发现,人眼利用单线索进行目标跟踪的情况远远少于利用多线索的情况,这也给基于多线索的目标跟踪方法提供了生物学上的依据。如公开号为CN1619593的中国专利公开了一种“基于多特征信息融合的视频运动目标自适应跟踪方法”,该专利依据模糊逻辑自适应融合颜色和形状线索信息来描述目标的观测信息,并用遗传算法来进行目标搜索,提高了跟踪的可靠性。但其仅指定跟踪目标为人的头部,有一定的局限性,而且基于遗传算法的搜索方式只寻找与目标最相似的候选目标,往往不能有效处理图像中“多峰”的情况,如暂时遮挡等,造成跟踪不稳定。
发明内容
本发明的目的是为了克服现有技术中的不足,提供一种基于多线索融合和粒子滤波的视频目标跟踪方法及其装置,提高对复杂环境下运动目标的跟踪效果。
为了实现上述目的,本发明的基于视频的目标跟踪方法是通过以下技术方案实现的:
该方法根据颜色、边缘、特征点三个线索进行自适应融合得到目标的观测信息,然后用粒子滤波技术对目标状态进行更新,具体内容包括:
A、提取目标模板并初始化目标参数;
B、根据运动模型,对粒子集合进行动态预测;
C、根据多线索融合信息更新粒子权重;
D、更新目标的运动状态。
在上述技术方案中,在所述的步骤A中,所述的提取目标模板并初始化目标参数的具体实现步骤如下:
A1、建立目标的加权颜色直方图模板;
A2、建立目标的特征点模板;
A3、建立目标的边缘模板;
A4、初始化目标运动状态和粒子集合。
在上述技术方案中,在所述的步骤B中,所述的运动模型包括静止、匀速和加速三种情况。
在上述技术方案中,在所述的步骤C中,所述的根据多线索融合信息更新粒子权重的具体步骤包括:
C1、提取粒子集合中每个粒子各个线索的信息,并分别计算与目标模板之间的相似性;
其中颜色线索采用Bhattacharyya距离衡量相似性,边缘和特征点线索采用改进的Hausdorff距离衡量相似性。
C2、第一帧粒子集合中每个线索最小的相似度来确定相应线索的观测噪声,确定后就保持不变,每个线索的观测噪声是由跟踪第一帧时粒子集合中每个线索对应最小的相似度确定,确定后就保持不变;
C3、计算每个粒子的各个线索对应的观测似然函数;
C4、计算每个粒子的各个线索的可信度,粒子集合中各个线索的可信度是由各个线索相应最大的观测似然确定;
C5、对各个线索进行加权和融合,得到最终的观测似然;
C6、根据最终的观测似然更新粒子的权重。
在上述技术方案中,在所述的步骤D中,更新目标运动状态包括:
D1、用加权准则确定目标的位置;
D2、判断是否要对粒子集合重采样;
D3、判断是否跟踪结束,如果是则结束跟踪,如果否则进行下一帧的处理。
本发明的另一目的在于公开了一种基于视频的目标跟踪装置,它包括目标获取装置,目标初始化装置,目标状态预测装置,多线索融合装置,目标状态更新装置。
本发明与背景技术相比,具有如下有益效果:
1、采用颜色、边缘和特征点三种线索来描述目标的观测信息,并根据三个线索的似然函数自适应调整融合的权重,比采用单一线索的方法更能有效的描述目标信息。
2、采用粒子滤波技术对目标状态进行估计,比基于遗传算法的搜索策略能有效处理图像中的“多峰”现象,如暂时遮挡等,从而提高了跟踪的稳定性。本发明的跟踪目标可以包括人的头部,行人,汽车等。
附图说明
图1是本发明方法的流程图;
图2是图1流程图中步骤10的具体流程图;
图3是图1流程图中步骤30的具体流程图;
图4是本发明装置的原理框图。
具体实施方式
下面,结合附图和具体实施例对本发明做进一步说明。
本发明的基于视频的目标跟踪方法主要包含以下实现步骤:
步骤10、建立目标的特征模板并初始化特征集合
跟踪目标可以采用人机交互的方式在视频中指定区域,也可以根据视频的运动目标检测自动获取跟踪区域。假设目标是一个中心为(x0,y0),长宽分别为m,n的矩形区域,但不限定是矩形区域,可以是任意的形状。根据这些先验知识建立目标的特征模板并初始化目标粒子集合,具体的实现步骤如下:
步骤11、建立目标的加权直方图模板
由于远离目标中心的区域可能被遮挡或受到背景影响,是相对不可靠的,对目标区域内不同坐标位置赋予不同的权重,坐标与区域中心的距离越近,其相应的权值就越大,可信度越高。因此,本发明对目标区域建立二维高斯核密度分布,体现区域内每一个坐标的距离权重。
K ( x i , y i ) = G ( | x i - x 0 | m , | y i - y 0 | n ) - - - ( 1 )
其中G(x,y)表示标准的二维高斯分布函数。
为了减少视频信号各通道间的耦合关系,在目标的HSV颜色空间建立直方图。将H和S通道量化Nhs级,V通道量化为Nv级,通常为了降低光线强度变化的敏感度,使Nv<Nhs,因此直方图共有m=2Nhs+Nv级,定义函数b(xi,yi)→{1,…m}表示图像在坐标(xi,yi)处的像素值对于上述m级的映射。定义其加权颜色直方图模板q={qu}n=1,2,…m,其中qu表示级号为u的颜色量的概率,定义如下:
q u = C H &Sigma; y i = 1 m &Sigma; x i = 1 n K ( x i , y i ) &delta; [ b ( x i , y i ) - u ] - - - ( 2 )
其中δ为Kronecker函数,K(xi,yi)K(xi)为像素点对应的二维高斯分布概率,CH是归化一因子。
步骤12、建立目标的特征点模板
特征点提取方法如下:
E ( x , y ) = &Sigma; u , v w ( u , v ) [ I ( x + u , x + v ) - I ( x , y ) ] 2
                                   (3)
= [ u , v ] M [ u v ]
M = &Sigma; u , v w ( u , v ) I x 2 I x I y I x I y I y 2 - - - ( 4 )
式(3),式(4)为特征点检测使用的像素相关函数,其中I为图像像素矩阵,w是用来进行降噪处理的平滑窗,I(x,y)为(x,y)点的像素值,Ix、Iy分别为图像像素在水平方向和垂直方向的1阶偏微商,
Figure G200810130984XD0005132307QIETU
Figure G200810130984XD0005132309QIETU
分别为图像像素在水平方向和垂直方向的2阶偏微商,(u,v)为偏移坐标。最后通过计算特征点的响应函数就可以得出图像中的特征点
R=det(M)-ktr2(M)    k∈[0,0.04]    (5)
设定一个合理的阈值,当R大于阈值的时候,则判断为特征点。目标检测到的特征点集合记为E。
步骤13、建立目标的边缘模板
提取目标的边缘特征,基本步骤为:平滑、增强和检测。方法如下:
1)用高斯滤波器对待处理图像进行平滑处理,即选取合适的Gauss滤波器函数的标准方差σ和邻域大小对图像f(x,y)进行卷积运算,得到平滑图像,以达到抑制噪声的作用。
2)计算滤波后图像中每个像素梯度的幅值M和方向θ。采用以下2×2大小的模板P和Q分别对x和y方向的一阶偏导数近似:
P = 1 2 &times; - 1 1 - 1 1 Q = 1 2 &times; 1 1 - 1 - 1 - - - ( 6 )
M ( i , j ) = P 2 ( i , j ) + Q 2 ( i , j ) - - - ( 7 )
θ(i,j)=arctan[Q(i,j)/P(i,j)]       (8)
3)对梯度幅值进行非极大值抑制,图像上(i,j)点处幅值M(i,j)的大小不能确定该点是否为边缘点,需要采用非极大值抑制确定边缘点,即细化幅值图像中的屋脊带,保留幅值局部变化最大的点。
4)用双阈值算法检测和连接边缘。设定高阈值为T1,低阈值为T2。像素点对应的幅值只要大于T1,则指定其为边缘点,而连接此点的象素,只要其值大于T2也被指定为边缘点。
目标检测到的边缘点集记为F。
步骤14、初始化目标跟踪参数和粒子集合
定义目标的初始运动参数X0={x0,y0},粒子集合为 { X t ( i ) , w t ( i ) , i = 1 , &CenterDot; &CenterDot; &CenterDot; N } 并且 &Sigma; w t ( i ) = 1 , 其中N为粒子个数。每个粒子代表目标的一个可能的运动状态,只考虑平移运动来说,也就是目标一个可能的位置。每个粒子跟目标具有相同的参数, X t ( i ) = { x t ( i ) , y t ( i ) } . 初始化粒子集合参数为:
X 0 ( i ) = X 0 + b x b y &xi; - - - ( 9 )
其中,ξ为[-1,1]内的随机数,bx,by分别为粒子在x轴和y轴方向上的传播范围。
步骤20、粒子集合动态预测
t-1时刻第i个粒子状态
Figure G200810130984XD00066
到t时刻第i个粒子状态的动态模型是采用一阶AR模型的模式,即
Figure G200810130984XD00068
可由
Figure G200810130984XD00069
经过下式确定性漂移和随机扩散得到
X t ( i ) = AX t - 1 ( i ) + BN t - 1 n - - - ( 10 )
式中A表示确定性部分,由目标的运动模型来确定。B为随机部分,表示t-1时刻的噪声矩阵。这些参数的确定可以通过对图像序列的学习得到,也可以根据经验设定。
步骤30、根据多线索融合信息更新粒子权重
步骤31、计算线索的相似性
对于每一个粒子状态,分别提取每个线索并计算其与线索模板的相似性。
步骤311、计算颜色线索相似性
提取当前时刻每个粒子
Figure G200810130984XD00071
对应的加权颜色直方图模板
Figure G200810130984XD00072
采用Bhattacharyya距离衡量真实目标颜色分布q和候选目标颜色分布
Figure G200810130984XD00073
之间的相似性,
D ( q , q ( X t ( i ) ) = ( 1 - &Sigma; u = 1 m q u q u ( X 1 ( i ) ) ) 1 / 2 - - - ( 11 )
D越小,则分布的相似度越高,对于两个同样的加权颜色直方图模板,D=0表示一个完美的匹配。
步骤312、计算特征点线索相似性
提取当前时刻每个粒子
Figure G200810130984XD00075
对应的特征点模板
Figure G200810130984XD00076
采用改进的Hausdorff距离(Modified Hausdorff Distance,MHD)衡量目标特征点模板E和目标特征点模板
Figure G200810130984XD00077
的之间的相似性。
Hausdorff距离用来衡量两个点集的匹配程度,假设空间中存在两个点集A={a1,…ap},B={b1,…bq},则集合A,B间的Hausdorff距离定义为:
H(A,B)=max(h(A,B),h(B,A))               (12)
(12)中的h(A,B)和h(B,A)分别为A集合到B集合和B集合到A集合的单向Hausdorff距离,两者定义如下:
h ( A , B ) = max a &Element; A min b &Element; B | | a - b | | - - - ( 13 )
h ( B , A ) = max b &Element; B min a &Element; A || a - b || - - - ( 14 )
‖·‖表示距离范数,这里取L2(欧式范数)。如果在待度量的集合中存在噪声点,就可能导致度量结果很大的误差。而实际应用当中,噪声点的混入是相当普遍甚至不可避免的现象,因此,使得Hausdorff距离的实用性、有效性大大降低。本发明采用改进型Haudorff距离(MHD),将单向Hausdorff距离定义为(NA为集合A元素的个数):
h ( A , B ) = 1 N A &Sigma; a &Element; A min b &Element; B || a - b || - - - ( 15 )
MHD将单个元素代表整个集合的思想扩展为集合内所有元素的平均作用,从而很大程度上提高了算法对噪声的适应性。
步骤313、计算边缘线索相似性
提取当前时刻每个粒子
Figure G200810130984XD00082
对应的边缘点集
Figure G200810130984XD00083
同步骤312,利用改进Hausdorff距离来衡量目标边缘模板F和目标特征点模板
Figure G200810130984XD00084
的之间的相似性。
步骤32、计算线索的观测噪声
如果跟踪帧为第一帧,则执行步骤32。由于每个线索的观测噪声不一样,其相应的相似性物理意义也是不一样的,不好直接比较,需考虑观测噪声的影响,才有比较的意义。这里用第一帧粒子集合中每个线索最小的相似度来确定相应线索的观测噪声,确定后就保持不变。公式如下:
&sigma; edge = min { D ( q , q ( X t ( i ) ) , i = 1 &CenterDot; &CenterDot; &CenterDot; N } - - - ( 16 )
&sigma; corner = min { H ( E , E ( X t ( i ) ) , i = 1 &CenterDot; &CenterDot; &CenterDot; N } - - - ( 17 )
&sigma; edge = min { H ( F , F ( X t ( i ) ) , i = 1 &CenterDot; &CenterDot; &CenterDot; N } - - - ( 18 )
步骤33、计算线索的观测似然
计算每个粒子的每个线索对应的观测似然函数,计算公式如下所示:
p color ( Z color , t | X t ( i ) ) = 1 2 &pi; &sigma; color exp ( - D 2 ( q , q ( X t ( i ) ) 2 &sigma; color 2 ) - - - ( 19 )
p corner ( Z corner , t X t ( i ) ) = 1 2 &pi; &sigma; corner exp ( - H 2 ( E , E ( X t ( i ) ) 2 &sigma; corner 2 ) - - - ( 20 )
p edge ( Z edge , t | X t ( i ) ) = 1 2 &pi; &sigma; edge exp ( - H 2 ( F , F ( X t ( i ) ) 2 &sigma; edge 2 ) - - - ( 21 )
其中Zcolor,t,Zcorner,t,Zedgc,t分别为t时刻各个线索对应的观测值。
步骤34、计算线索的可信度
根据线索的质量来确定加权和中线索对应的可信度。当线索质量好的时候,加大相对应的可信度,以突出质量好的线索。一般来说,可以用线索观测似然来评价线索的质量,如果线索的观测似然越高,则此时线索质量越好。因此,线索l的可信度由粒子集合中相对应最大的观测似然来决定,定义如下:
&alpha; ^ l = max { p l ( Z l | X t ( i ) ) , i = 1 &CenterDot; &CenterDot; &CenterDot; N } - - - ( 22 )
其中l为相对应的线索。对这些权重做归一化得:
&alpha; l = &alpha; ^ l &Sigma; l = 1 L &alpha; ^ l , l = 1 , &CenterDot; &CenterDot; &CenterDot; L - - - ( 23 )
步骤35、计算总的观测似然
根据自适应调整后的权重,使用加权和公式,得到每个粒子最终的似然函数:
p ( Z k | X t ( i ) ) = &alpha; color p color ( Z color | X t ( i ) ) + &alpha; edge p edge ( Z edge | X t ( i ) ) + &alpha; corner p corner ( Z corner | X t ( i ) ) - - - ( 24 )
根据似然函数可以更新粒子的权重并归一化:
w t ( i ) = w t - 1 ( i ) p ( Z t | X t ( i ) ) &Sigma; w t - 1 ( i ) p ( z t | X t ( i ) ) - - - ( 25 )
步骤40、估计目标的位置
根据步骤35得到的各个粒子的概率权重,估计得到当前时刻目标的位置:
X t = &Sigma; n = 1 N w t ( i ) X t ( i ) - - - ( 26 )
步骤50、粒子集合重采样
为了防止粒子由于权重过小而产生退化现象,对粒子进行重采样。先通过公式(27)计算目标的有效采样大小Neff的估计值
Figure G200810130984XD0009132850QIETU
N ^ eff = 1 &Sigma; i = 1 N ( w t i ) 2 - - - ( 27 )
如果
Figure G200810130984XD00097
越小,则说明粒子集合退化现象越严重。设定一个合理的阈值NT,如果 N ^ eff < N T , 则对粒子集合进行重新采样。重新采样步骤如下:
1)根据公式(28)计算累积概率分布
c t ( 0 ) = 0
c t ( i ) = c t ( i - 1 ) + w t ( i - 1 ) - - - ( 28 )
c t - 1 &prime; ( n ) = c t - 1 ( n ) c t - 1 ( N )
2)产生N个服从均匀分布的随机数un∈[0,1]
3)在集合
Figure G200810130984XD00106
中选择满足条件 c t - 1 &prime; ( j ) &GreaterEqual; r n 的最小j,令 X t ( n ) = X t j , w t ( n ) = N - 1 , 0≤n≤N。
步骤60、判断跟踪是否结束
如果运动目标出了边框,可判断跟踪结束,开始下个目标新的跟踪。如果没有出边框,则继续跟踪。
如图4,本发明的基于视频的目标跟踪装置主要包含以下部分:
1)目标获取装置。根据实际情况可以有两种方法,一是通过人机交互获取要跟踪的目标,二是通过目标检测自动获取要跟踪的目标,通过对背景进行混合高斯建模,然后利用背景差的方法得到运动目标。
2)目标初始化装置。分别建立目标的加权颜色直方图模板,边缘模板和特征点模板,初始化目标的运动状态和粒子集合。
3)目标状态预测装置。根据目标的运动模型,对粒子集合进行动态预测。
4)多线索融合装置。分别计算颜色、边缘和特征点三个线索的相似性,由相似性确定相应线索的观测噪声、观测似然以及可信度,用加权和融合的方式确定总的观测似然,更新并归一化粒子集合的权重。
5)目标状态更新装置。用加权准则确定目标的位置,对粒子集合进行重采样,并判断跟踪是否结束。如果跟踪结束则退出,如果没还没有结束则对下一帧进行处理。

Claims (3)

1.一种基于视频的目标跟踪方法,其特征在于根据颜色、边缘、特征点三个线索进行自适应融合得到目标的观测信息,然后用粒子滤波技术对目标状态进行更新,具体步骤如下:
A、提取视频中目标模板并初始化目标参数;
B、根据运动模型,对粒子集合进行动态预测;
C、根据多线索融合信息更新粒子权重;
D、更新目标的运动状态;
所述步骤A中提取目标模板并初始化目标参数的具体步骤如下:
A1、建立目标的加权颜色直方图模板:目标是一个中心为(x0,y0),长宽分别为m1,n1的矩形区域,在目标的HSV颜色空间建立直方图,将H和S通道量化Nhs级,V通道量化为Nv级,因此直方图共有m2=2Nhs+Nv级,定义函数b(xi,yi)→{1,…m2}表示图像在坐标(xi,yi)处的像素值对于上述m2级的映射,定义加权颜色直方图模板q={qu1}u1=1,2,…m2,其中qu1表示级号为u1的颜色量的概率,
Figure FDA0000059507500000011
K(xi,yi)为像素点对应的二维高斯分布概率,
Figure FDA0000059507500000012
G(x,y)表示标准的二维高斯分布函数,δ为Kronecker函数,CH是归一化因子;
A2、建立目标的特征点模板:
特征点提取方法如下:
Figure FDA0000059507500000013
k∈[0,0.04],
Figure FDA0000059507500000014
其中,I为图像像素矩阵,w是用来进行降噪处理的平滑窗,I(x,y)为(x,y)点的像素值,Ix、Iy分别为图像像素在水平方向和垂直方向的1阶偏微商,
Figure FDA0000059507500000021
分别为图像像素在水平方向和垂直方向的2阶偏微商,(u2,v2)为偏移坐标;通过计算特征点的响应函数R就可以得出图像中的特征点,R=det(M1)-ktr2(M1),设定一个合理的阈值,将R大于阈值的点作为特征点,目标检测到的特征点集合记为E;
A3、建立目标的边缘模板,包括:A31、对待处理得图像进行高斯滤波;A32、计算滤波后图像中每个像素梯度的幅值M2和方向θ;A33、对梯度幅值进行非极大值抑制;A34、用双阈值算法检测和连接边缘,目标检测到的边缘点集记为F;
A4、初始化目标运动状态和粒子集合;初始化粒子集合参数为:
Figure FDA0000059507500000022
初始运动参数X0={x0,y0},粒子集合为
Figure FDA0000059507500000023
并且
Figure FDA0000059507500000024
其中N为粒子个数,ξ为[-1,1]内的随机数,bx,by分别为粒子在x轴和y轴方向上的传播范围;
步骤B中对粒子集合进行动态预测包括:t-1时刻第i个粒子状态到t时刻第i个粒子状态
Figure FDA0000059507500000027
的动态模型是采用一阶AR模型的模式;
所述步骤C的根据多线索融合信息更新粒子权重包括:
C1、提取粒子集合中每个粒子各个线索的信息,并分别计算与目标模板之间的相似性:1)提取当前时刻每个粒子
Figure FDA0000059507500000028
对应的加权颜色直方图模板
Figure FDA0000059507500000029
采用Bhattacharyya距离衡量真实目标颜色分布q和
Figure FDA00000595075000000210
之间的相似性,
D ( q , q ( X t ( i ) ) = ( 1 - &Sigma; u 1 = 1 m 2 q u 1 q u 1 ( X t ( i ) ) 1 / 2 ;
2)提取当前时刻每个粒子
Figure FDA00000595075000000212
对应的特征点模板采用改进的Hausdorff距离衡量目标特征点模板E和
Figure FDA00000595075000000214
的之间的相似性,其中,改进的Hausdorff距离定义为H(A,B)=max(h(A,B),h(B,A)),A、B为空间中存在两个点集,A={a1,…ap},B={b1,…bq},
Figure FDA00000595075000000215
NA为集合A元素的个数;
3)提取当前时刻每个粒子
Figure FDA0000059507500000031
对应的边缘点集
Figure FDA0000059507500000032
利用所述改进Hausdorff距离来衡量目标边缘模板F和
Figure FDA0000059507500000033
的之间的相似性;
C2、计算每个线索的观测噪声;其中按照下式计算每个线索的观测噪声:
&sigma; color = min { D ( q , q ( X t ( i ) ) , i = 1 . . . N } ;
&sigma; corner = min { H ( E , E ( X t ( i ) ) , i = 1 . . . N } ;
&sigma; edge = min { H ( F , F ( X t ( i ) ) , i = 1 . . . N } ;
Figure FDA0000059507500000037
为当前时刻对应的目标特征点模板
Figure FDA0000059507500000038
和目标特征点模板E之间的改进的Hausdorff距离;
Figure FDA0000059507500000039
为当前时刻的目标边缘模板
Figure FDA00000595075000000310
和目标边缘模板F之间的改进的Hausdorff距离;
C3、计算每个粒子的各个线索对应的观测似然;其中按照下式计算每个粒子的各个线索对应的观测似然:
p color ( Z color , t | X t ( i ) ) = 1 2 &pi; &sigma; color exp ( - D 2 ( q , q ( X t ( i ) ) 2 &sigma; color 2 ) ;
p corner ( Z corner , t X t ( i ) ) = 1 2 &pi; &sigma; corner exp ( - H 2 ( E , E ( X t ( i ) ) 2 &sigma; corner 2 ) ;
p edge ( Z edge , t | X t ( i ) ) = 1 2 &pi; &sigma; edge exp ( - H 2 ( F , F ( X t ( i ) ) 2 &sigma; edge 2 ) ;
其中Zcolor,t,Zcorner,t,Zedge,t分别为t时刻各个线索对应的观测值;
C4、计算相应的可信度;其中,按照下式计算相应的可信度:
线索l的可信度
Figure FDA00000595075000000314
l=1,…L,
C5、对各个线索进行加权和融合,得到最终的观测似然
Figure FDA00000595075000000316
C6、根据最终的观测似然更新粒子的权重,其中权重
Figure FDA00000595075000000317
在所述的步骤D中,更新目标运动状态包括:
D1、根据更新的各个粒子的权重,估计得到当前时刻目标的位置:
X t = &Sigma; i = 1 N w t ( i ) X t ( i ) ;
D2、判断是否要对粒子集合重采样,其中按照下式计算目标的有效采样大小Neff的估计值
Figure FDA0000059507500000042
Figure FDA0000059507500000043
设定一个合理的阈值NT,如果
Figure FDA0000059507500000044
则对粒子集合进行重新采样;
D3、判断是否跟踪结束,如果是则结束跟踪,如果否则进行下一帧的处理;其中如果运动目标出了边框,则跟踪结束。
2.根据权利要求1所述的基于视频的目标跟踪方法,其特征在于,在所述的步骤C2中,每个线索的观测噪声是由跟踪第一帧时粒子集合中每个线索对应最小的相似度确定,确定后就保持不变。
3.根据权利要求1所述的基于视频的目标跟踪方法,其特征在于,在所述的步骤B中,所述的运动模型包括静止、匀速和加速三种情况。
CN200810130984XA 2008-04-30 2008-08-25 基于视频的目标跟踪方法及装置 Expired - Fee Related CN101404086B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN200810130984XA CN101404086B (zh) 2008-04-30 2008-08-25 基于视频的目标跟踪方法及装置

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN200810060785.6 2008-04-30
CN200810060785 2008-04-30
CN200810130984XA CN101404086B (zh) 2008-04-30 2008-08-25 基于视频的目标跟踪方法及装置

Publications (2)

Publication Number Publication Date
CN101404086A CN101404086A (zh) 2009-04-08
CN101404086B true CN101404086B (zh) 2012-05-09

Family

ID=40538091

Family Applications (1)

Application Number Title Priority Date Filing Date
CN200810130984XA Expired - Fee Related CN101404086B (zh) 2008-04-30 2008-08-25 基于视频的目标跟踪方法及装置

Country Status (1)

Country Link
CN (1) CN101404086B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8885885B2 (en) 2012-10-05 2014-11-11 International Business Machines Corporation Multi-cue object association

Families Citing this family (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011035470A1 (en) * 2009-09-24 2011-03-31 Hewlett-Packard Development Company, L.P. Particle tracking method and apparatus
CN101739692B (zh) * 2009-12-29 2012-05-30 天津市亚安科技股份有限公司 实时视频目标的快速相关跟踪方法
CN101872422B (zh) * 2010-02-10 2012-11-21 杭州海康威视数字技术股份有限公司 可精确辨别目标的人流量统计的方法及系统
CN102169632A (zh) * 2011-05-13 2011-08-31 北方工业大学 一种平面交叉路口的车流量检测方法
US8379848B2 (en) * 2011-07-07 2013-02-19 Cape Light Institute, Inc. Method of providing a portable true random number generator based on the microstructure and noise found in digital images
CN102509306B (zh) * 2011-10-08 2014-02-19 西安理工大学 一种基于视频的特定目标的跟踪方法
CN102521612B (zh) * 2011-12-16 2013-03-27 东华大学 一种基于协同关联粒子滤波的多视频目标主动跟踪方法
CN102750550A (zh) * 2012-06-06 2012-10-24 初红霞 基于视频的多目标跟踪方法及装置
CN103854292B (zh) * 2012-11-28 2018-02-23 中兴通讯股份有限公司 一种人数及人群运动方向的计算方法及装置
CN103237197B (zh) * 2013-04-10 2016-04-13 中国科学院自动化研究所 用于鲁棒跟踪的自适应多特征融合的方法
CN103281779B (zh) * 2013-06-13 2015-08-12 北京空间飞行器总体设计部 基于背景学习的射频层析成像方法
CN104019813B (zh) * 2014-06-19 2017-01-25 无锡知谷网络科技有限公司 目标即时定位和构建地图的方法与系统
CN104392469B (zh) * 2014-12-15 2017-05-31 辽宁工程技术大学 一种基于软特征理论的目标跟踪方法
CN104637049A (zh) * 2014-12-16 2015-05-20 北京航天时代光电科技有限公司 一种光纤绕环质量的自动检测方法
CN105989615A (zh) * 2015-03-04 2016-10-05 江苏慧眼数据科技股份有限公司 一种基于多特征融合的行人跟踪方法
CN106780539B (zh) * 2016-11-30 2019-08-20 航天科工智能机器人有限责任公司 机器人视觉跟踪方法
CN106815860B (zh) * 2017-01-17 2019-11-29 湖南优象科技有限公司 一种基于有序比对特征的目标跟踪方法
CN106815862B (zh) * 2017-01-24 2020-03-10 武汉大学 一种基于卷积轮廓特征的目标跟踪方法
CN107656265B (zh) * 2017-09-19 2021-03-30 电子科技大学 针对多帧检测前跟踪短航迹的粒子滤波融合方法
CN107833240B (zh) * 2017-11-09 2020-04-17 华南农业大学 多跟踪线索引导的目标运动轨迹提取和分析方法
CN110706194B (zh) * 2018-06-21 2021-07-06 北京三快在线科技有限公司 一种定位方法、装置及移动设备
CN109213322B (zh) * 2018-08-23 2021-05-04 深圳大学 一种虚拟现实中手势识别的方法及系统
CN109461174B (zh) * 2018-10-25 2021-01-29 北京陌上花科技有限公司 视频目标区域跟踪方法和视频平面广告植入方法及系统
CN110222763B (zh) * 2019-06-04 2021-08-03 浙江大华技术股份有限公司 一种直方图匹配方法、移动终端和计算机存储介质
CN110443807A (zh) * 2019-06-27 2019-11-12 中国地质大学(武汉) 一种基于亮度均衡的光照不均匀图像阈值分割方法
CN113673283A (zh) * 2020-05-14 2021-11-19 惟亚(上海)数字科技有限公司 一种基于增强现实的平滑跟踪方法
CN113920172B (zh) * 2021-12-14 2022-03-01 成都睿沿芯创科技有限公司 一种目标跟踪方法、装置、设备以及存储介质
CN115249254B (zh) * 2022-09-21 2022-12-30 江西财经大学 一种基于ar技术的目标跟踪方法及系统

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1619593A (zh) * 2004-12-09 2005-05-25 上海交通大学 基于多特征信息融合的视频运动目标自适应跟踪方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1619593A (zh) * 2004-12-09 2005-05-25 上海交通大学 基于多特征信息融合的视频运动目标自适应跟踪方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
梁志勇等.基于多特征分析的动态目标智能跟踪算方法.《微型电脑应用》.2005,第21卷(第2期),3-4,7. *
钟小品等.基于融合策略自适应的多线索跟踪方法.《电子与信息学报》.2007,第29卷(第5期),1017-1022. *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8885885B2 (en) 2012-10-05 2014-11-11 International Business Machines Corporation Multi-cue object association
US9104919B2 (en) 2012-10-05 2015-08-11 International Business Machines Corporation Multi-cue object association

Also Published As

Publication number Publication date
CN101404086A (zh) 2009-04-08

Similar Documents

Publication Publication Date Title
CN101404086B (zh) 基于视频的目标跟踪方法及装置
CN104574445B (zh) 一种目标跟踪方法
CN107748873B (zh) 一种融合背景信息的多峰目标跟踪方法
CN101246547B (zh) 一种根据场景变化特征对视频中运动物体检测的方法
CN102598057B (zh) 自动对象识别、然后根据对象形状进行对象跟踪的方法和系统
CN102789568B (zh) 一种基于深度信息的手势识别方法
CN101777116B (zh) 一种基于动作跟踪的脸部表情分析方法
CN101447082B (zh) 一种运动目标实时检测方法
CN103258213B (zh) 一种用于智能交通系统中的动态车辆车型识别方法
CN102385690B (zh) 基于视频图像的目标跟踪方法及系统
CN108053419A (zh) 基于背景抑制和前景抗干扰的多尺度目标跟踪方法
CN107742099A (zh) 一种基于全卷积网络的人群密度估计、人数统计的方法
CN102831439A (zh) 手势跟踪方法及系统
CN105405151A (zh) 基于粒子滤波和加权Surf的抗遮挡目标跟踪方法
CN106778468A (zh) 3d人脸识别方法及设备
CN102567994B (zh) 基于角点高斯特性分析的红外小目标检测方法
CN106355604A (zh) 图像目标跟踪方法与系统
CN106778474A (zh) 3d人体识别方法及设备
CN101853397A (zh) 一种基于人类视觉特性的仿生人脸检测方法
CN105335701A (zh) 一种基于hog与d-s证据理论多信息融合的行人检测方法
CN108537143B (zh) 一种基于重点区域特征比对的人脸识别方法与系统
CN106611158A (zh) 人体3d特征信息的获取方法及设备
CN103020614A (zh) 基于时空兴趣点检测的人体运动识别方法
CN109697727A (zh) 基于相关滤波和度量学习的目标跟踪方法、系统及存储介质
CN103456029A (zh) 一种抗相似颜色和光照变化干扰的Mean Shift跟踪方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20120509

Termination date: 20150825

EXPY Termination of patent right or utility model