CN103886322A - 一种基于SVM和Mean-Shift的视频目标跟踪方法 - Google Patents

一种基于SVM和Mean-Shift的视频目标跟踪方法 Download PDF

Info

Publication number
CN103886322A
CN103886322A CN201210560133.5A CN201210560133A CN103886322A CN 103886322 A CN103886322 A CN 103886322A CN 201210560133 A CN201210560133 A CN 201210560133A CN 103886322 A CN103886322 A CN 103886322A
Authority
CN
China
Prior art keywords
target
frame
sigma
mean
svm
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201210560133.5A
Other languages
English (en)
Inventor
刘海亮
罗笑南
杨艾琳
苏航
曾坤
潘炎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Research Institute of Sun Yat Sen University
Original Assignee
Shenzhen Research Institute of Sun Yat Sen University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Research Institute of Sun Yat Sen University filed Critical Shenzhen Research Institute of Sun Yat Sen University
Priority to CN201210560133.5A priority Critical patent/CN103886322A/zh
Publication of CN103886322A publication Critical patent/CN103886322A/zh
Pending legal-status Critical Current

Links

Images

Abstract

本发明公开了一种基于SVM和Mean-Shift的视频目标跟踪方法,包括以下步骤:在第一帧图像中选择目标范围和背景范围;以第一帧图像中的像素数据训练SVM分类器;下一帧图像中相同位置的背景范围内,运用SVM分类像素和数据,得到含目标和背景两部分的置信图;在置信图范围内运用Mean-Shift均值漂移方法得到目标中心位置;在目标处以10%的比例缩放目标框大小,并将缩放结果与上一帧中目标相比较,最相似者为最终目标大小;根据所述下一帧的数据训练新的SVM分类器,重复步骤3继续循环,直至跟踪到最后一帧,完成跟踪过程。本发明基于SVM训练分类器以及Mean-Shift方法,具有较好的实时性、准确性和鲁棒性,适用于动态背景及非刚性目标的跟踪。

Description

一种基于SVM和Mean-Shift的视频目标跟踪方法
技术领域
本发明涉及一种视频跟踪方法,尤其涉及一种基于SVM和Mean-Shift的视频目标跟踪方法。
背景技术
随着计算机视觉技术的发展,运动视频目标跟踪技术已经成为武器制导、模式识别,计算机视觉等领域的重要课题。由于运动视频目标跟踪技术在军事和民用领域都有广阔的应用前景,国内外有许多学者从事这一课题的研究,并提出了许多经典的目标跟踪方法。运动视频目标跟踪把图像处理、计算机视觉和信息科学有机结合起来,形成了一种能从视频图像中实时地自动识别出目标,提取目标位置信息,自动跟踪目标的技术。
视频跟踪是根据一组给定的视频图像序列,对其中感兴趣的目标进行识别并分析其运动形态的过程。可以针对视频跟踪问题的具体情况进行如下分类:(1)序列图像中背景是否固定,即为静态背景或动态背景;(2)图像中的目标数量,即单目标或多目标;(3)图像中的目标类型,即刚性目标或非刚性目标。
由于现实环境具有复杂性,如目标被遮挡、背景中存在与目标特征相似的物体、光线亮度的变化、目标快速运动、背景物体的运动等问题,如何提高目标跟踪实时性、准确性和鲁棒性,解决复杂背景下的目标跟踪一直是人们研究的热点。对于噪声较多的视频目标跟踪,可以首先采用一些滤波方法去除部分噪声干扰,增强图像中的目标数据。对跟踪的轨迹变化,大部分的跟踪方法都假定目标的运动轨迹是平滑、没有突变的。很多文献都运用了不断更新跟踪模板的方法来适应一定程度上的目标遮挡,对于目标全部遮挡的情况,一般采用与目标的先验信息相比较的方法来适应。这里的先验信息包括图像中目标的外观、形状、边缘或者直方图等。如果目标具有不规则的形状,目前多采用各种特定的目标模型描述方法,如:目标的轮廓模型、目标的骨骼模型、目标的有关节连接模型(适用于人体跟踪)等。
目前,国外学者对目标跟踪技术都进行了比较深入的研究。1994年,JimIvins等人提出用限制性主动区域模型对彩色图形序列进行快速跟踪的方法。1995年,YZ.Chen将无参估计理论应用到目标跟踪领域,提出基于Mean Shift(均值漂移)方法的目标跟踪方法。1996年,S.Asaad在机器人视觉实验中运用边缘信息有效进行了目标跟踪。1997年,P.Fieguth和D.Terzopouloslg等人进行了基于颜色的目标跟踪方法的研究。1998年,M.Kass等人提出用主动轮廓模型进行目标跟踪。2000年,Y.Zhong等人提出了基于可变形模板进行目标跟踪的方法。2001年,Gi-Jeong Jang等人提出用自适应颜色模型进行目标跟踪,同年Y.Bar-Shalom[8]等人提出基于运动估计的估计跟踪方法。2003年,Ryuzo Okada等人基于光流的边缘信息,进行了运动目标跟踪的研究。2007年,R.Venkatesh Babu等提出基于运动估计与颜色模型相结合的跟踪方法。
在Mean Shift跟踪方法中,通常,核窗口由初始跟踪窗口的大小决定,而且在整个跟踪过程中不再发生变化。然而,当目标存在明显尺度变化的时候,尤其是当目标尺寸逐渐增大以至超出核窗宽范围的时候,固定不变的核窗宽常常会导致目标的丢失。
CAMSHIFT(Continuous Adaptive Mean-Shift,连续自适应均值漂移)方法作为连续自适应的Mean Shift,通过自动调节核窗口大小以及被跟踪目标在图像中的大小从而可以有效地解决目标变形问题,但其方法也收敛于局部最大值,并没有对目标的相似度做判定。当CAMSHIFT的搜索窗口里面包含多个特征相似候选模型时,CAMSHIFT方法无法辨别是否出现干扰,经常出现跟踪精度不够的问题。而且,当目标运动物体缓慢地通过障碍物或进行快速无规则运动时,CAMSHIFT方法将很容易失效,导致目标跟踪丢失。同时,当目标瞬间有个较大的加速度或被遮挡时,CAMSHIFT跟踪方法容易失效。
因此,有必要提供一种视频目标跟踪方法来解决现有缺陷。
发明内容
本发明的目的在于提供一种具有较高的实时性、准确性和鲁棒性的基于SVM(Support Vector Machine,支持向量机)和Mean-Shift的视频目标跟踪方法。
本发明提供了一种基于SVM和Mean-Shift的视频目标跟踪方法,包括以下步骤:步骤1:在第一帧图像中选择目标范围和背景范围;步骤2:以第一帧图像中的像素数据训练SVM分类器;步骤3:下一帧图像中相同位置的背景范围内,运用SVM分类像素和数据,得到含目标和背景两部分的置信图;步骤4:在置信图范围内运用Mean-Shift均值漂移方法得到目标中心位置;步骤5:在目标处以10%的比例缩放目标框大小,并将缩放结果与上一帧中目标相比较,最相似者为最终目标大小;步骤6:根据所述下一帧的数据训练新的SVM分类器,重复步骤3继续循环,直至跟踪到最后一帧,完成跟踪过程。
较佳地,所述SVM分类器的训练过程为:假定训练数据包括了N组数据对,(xi,yi)(i=1,2,......n),其中xi=(xi1,xi2,...,xin),yi∈(-1,1)代表点xi的类,所述SVM分类器为
wx+b=0
调整w和b以使min|wxi+b|大于或等于1,满足条件|wxi+b|=1的向量xi被称作支持向量,边缘d定义如下
d = 2 | | w | |
确定最佳分类平面,使两个分界面之间的距离达到最大,此时对应的参数w达到最小,寻找w和b的合适值,而且要满足使d最小,因此,线性分类问题就被化为如下的最优化问题:
min 1 2 | | w | | 2
s.t.yi(w*xi+b)≥1,i=1,2,......n
对应的拉格朗日函数如下:
J ( w , b , ∂ ) = 1 2 w · w - Σ i = 1 m ∂ i { yi ( w · xi - b ) - 1 }
其中
Figure BSA00000827594900034
是拉格朗日乘子,解是函数对应的极值点,求解变换后,转化为以下的对偶问题:
min Q ( ∂ ) = Σ i ∂ i - 1 2 Σ i Σ j ∂ i ∂ jyiyjxixi
s . t . Σ i ∂ iyi = 0
计算得到的最佳的拉格朗日乘子表示为
Figure BSA00000827594900041
最后计算得到最佳的权重向量:
w * = Σ i ∂ i * yixi
并使用支持向量得到最佳的偏移b=1-w*·xi。
较佳地,所述Mean-Shift均值漂移方法包括以下子步骤:
输入:目标模型
Figure BSA00000827594900043
以及在上一帧中心点
Figure BSA00000827594900044
的位置;
输出:当前帧的中心位置
Figure BSA00000827594900045
步骤41:计算候选目标模型
Figure BSA00000827594900046
并估计相似度:
ρ [ p ^ ( y ^ 0 ) , q ^ ] = Σ u = 1 m p ^ u ( y ^ 0 ) q ^ u ;
步骤42:计算当前各点权重: w i = Σ u = 1 m q ^ u p ^ u ( y u 0 ) δ [ b ( x i ) - u ] ;
步骤43:计算一个漂移值:
y ^ 1 = Σ i = 1 n h x i w i g ( | | y ^ 0 - x i h | | 2 ) Σ i = 1 n h w i g ( | | y ^ 0 - x i h | | 2 )
步骤44:计算并估计相似度 ρ [ p ^ ( y ^ 0 ) , q ^ ] = Σ u = 1 m p ^ u ( y ^ 0 ) q ^ u ;
步骤45:当 &rho; [ p ^ ( y ^ 1 ) , q ^ ] < &rho; [ p ^ ( y ^ 0 ) , q ^ ] ,
Figure BSA000008275949000413
计算
&rho; [ p ^ ( y ^ 1 ) , q ^ ] ;
步骤46:如果
Figure BSA00000827594900052
输出
Figure BSA00000827594900053
结束;否则,
Figure BSA00000827594900054
转步骤42。
较佳地,所述置信图为二值图像,所述置信图的像素分为目标部分和背景部分,置信图是用训练之后的SVM分类器对图像中的一部分进行分类得到的,在第一帧中,人为选定需要跟踪的目标框,在图像允许范围内自动选择背景框范围,标记目标框内像素为1,位于背景框内且在目标框之外的像素为-1,以所述数据为样本训练SVM分类器,得到二值分类器,对下一帧图像中相同的背景框位置内的像素,运用训练后的SVM分类器进行分类,得到置信图。
较佳地,所述步骤5的相似度比较过程具体为:假定两幅目标图像分别为M*N以及Mc*Nc,将两幅图像都分为C*C的子块组合,其中C为整数,根据图像和目标大小确定具体数值,行与列像素余数忽略,共得到C2个子块;
统计每一块内的目标像素数目所占比例,得到数组P={p1,p2,,,p C2}和Q={q1,q2,,,q C2};运用相关性准则计算两个数组的相似度代替目标图像相似度,用Q(P,Q)表示两幅图像的相似度,计算方法表示为:
Q ( P , Q ) = cov ( P ( i , j ) , Q ( i , j ) ) D P , D Q
式中,DP、DQ分别为两组数据的独立方差,cov(P,Q)为两组数据的协方差,且有:
( P ( i , j ) , Q ( i , j ) ) = 1 C 2 &times; C 2 &Sigma; i = 1 C 2 &Sigma; j = 1 C 2 ( P ( i , j ) - P _ ) ( Q ( i , j ) - Q _ )
式中,
Figure BSA00000827594900057
分别为两组数据均值,最终选择与上一帧图像置信图内目标相似性最大的矩形框大小作为本帧图像跟踪结果的目标大小。
与现有技术相比,本发明所提供的基于SVM和Mean-Shift的视频目标跟踪方法,从运动目标跟踪的三个指标:实时性、准确性和鲁棒性出发,在传统的Mean-Shift跟踪方法基础上,引入了SVM分类器,建立了一种有效的动态背景和非刚性目标跟踪框架。本发明中提出的方法适用于动态背景及非刚性目标的跟踪,且实时性较好。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其它的附图。
图1是本发明实施例的基于SVM和Mean-Shift的视频目标跟踪方法的流程示意图;
图2是本发明实施例的基于SVM和Mean-Shift的视频目标跟踪方法的另一流程示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其它实施例,都属于本发明保护的范围。
参考图1及图2,本发明提供了一种基于SVM和Mean-Shift的视频目标跟踪方法,包括以下步骤:
步骤S001:在第一帧图像中选择目标范围和背景范围;
步骤S002:以第一帧图像中的像素数据训练SVM分类器;
步骤S003:下一帧图像中相同位置的背景范围内,运用SVM分类像素和数据,得到含目标和背景两部分的置信图;
步骤S004:在置信图范围内运用Mean-Shift均值漂移方法得到目标中心位置;
步骤S005:在目标处以10%的比例缩放目标框大小,并将缩放结果与上一帧中目标相比较,最相似者为最终目标大小;
步骤S006:根据所述下一帧的数据训练新的SVM分类器,重复步骤3继续循环,直至跟踪到最后一帧,完成跟踪过程。
支持向量机理论可以说是从线性可分情况下的最优分类面发展而来的,所述训练SVM分类器的训练过程为:假定训练数据包括了N组数据对,(xi,yi)(i=1,2,......n),其中xi=(xi1,xi2,...,xin),yi∈(-1,1)代表点xi的类,所述SVM分类器为
wx+b=0
为了简单起见,我们需要调整w和b以使min|wxi+b|大于或等于1,满足条件|wxi+b|=1的向量xi被称作支持向量,边缘d定义如下
d = 2 | | w | |
确定最佳分类平面的原则就是,使两个分界面之间的距离达到最大,此时对应的参数w达到最小。我们需要找到合适的w和b,而且要满足使d最小,因此,线性分类问题就被化为如下的最优化问题:
min 1 2 | | w | | 2
s.t.yi(w*xi+b)≥1,i=1,2,......n
解决以上问题要用到拉格朗日函数法,对应的拉格朗日函数如下:
J ( w , b , &PartialD; ) = 1 2 w &CenterDot; w - &Sigma; i = 1 m &PartialD; i { yi ( w &CenterDot; xi - b ) - 1 }
其中是拉格朗日乘子,解是函数对应的极值点,经过一系列的求解变换之后,该问题可以转化为以下的对偶问题:
min Q ( &PartialD; ) = &Sigma; i &PartialD; i - 1 2 &Sigma; i &Sigma; j &PartialD; i &PartialD; jyiyjxixi
s . t . &Sigma; i &PartialD; iyi = 0
计算得到的最佳的拉格朗日乘子表示为
Figure BSA00000827594900077
最后计算得到最佳的权重向量:
w * = &Sigma; i &PartialD; i * yixi
并使用支持向量得到最佳的偏移b=1-w*·xi。
将当前的分类面求取问题扩展到复杂分类问题中,当无法运用简单的线性法分类时,需要以复杂的超平面作为分类面,可以通过非线性映射将输入空间变换到高维空间,之后在高维空间寻求最佳超平面,这样做的效果等同于在输入空间建立一个复杂的超平面。此时需要运用核函数计算,本发明中采用常用的径向基函数作为核函数,完成SVM分类器的训练。
较佳地,所述Mean-Shift均值漂移方法包括以下子步骤:
输入:目标模型
Figure BSA00000827594900081
以及在上一帧中心点
Figure BSA00000827594900082
的位置;
输出:当前帧的中心位置
Figure BSA00000827594900083
步骤41:计算候选目标模型并估计相似度:
&rho; [ p ^ ( y ^ 0 ) , q ^ ] = &Sigma; u = 1 m p ^ u ( y ^ 0 ) q ^ u ;
步骤42:计算当前各点权重: w i = &Sigma; u = 1 m q ^ u p ^ u ( y u 0 ) &delta; [ b ( x i ) - u ] ;
步骤43:计算一个漂移值:
y ^ 1 = &Sigma; i = 1 n h x i w i g ( | | y ^ 0 - x i h | | 2 ) &Sigma; i = 1 n h w i g ( | | y ^ 0 - x i h | | 2 )
步骤44:计算
Figure BSA00000827594900088
并估计相似度 &rho; [ p ^ ( y ^ 0 ) , q ^ ] = &Sigma; u = 1 m p ^ u ( y ^ 0 ) q ^ u ;
步骤45:当 &rho; [ p ^ ( y ^ 1 ) , q ^ ] < &rho; [ p ^ ( y ^ 0 ) , q ^ ] ,
Figure BSA000008275949000811
计算
&rho; [ p ^ ( y ^ 1 ) , q ^ ] ;
步骤46:如果
Figure BSA00000827594900092
输出结束;否则,
Figure BSA00000827594900094
转步骤42。
在实际的目标跟踪应用中,Mean-Shift先确定当前帧的搜索窗口,计算其质心位置,然后调整搜索窗口,将搜索窗口的中心移动到质心,如果移动距离大于预设的阈值,则重新计算调整后的窗口质心,进行新一轮的窗口位置更新,直到移动窗口的位置小于阈值或迭代次数超过一个最大值,最后将窗口的位置作为下一帧运算的输入值,如此循环迭代。
为了计算搜索窗口的质心,可以通过如下方法计算。
计算零阶矩:
M 00 = &Sigma; x &Sigma; y I ( x , y )
分别计算出x和y的一阶矩:
M 10 = &Sigma; x &Sigma; y xI ( x , y ) ; M 01 = &Sigma; x &Sigma; y yI ( x , y )
计算搜索窗口的质心:
x c = M 10 M 00 ; y c = M 01 M 00
较佳地,所述置信图为二值图像,所述置信图的像素分为目标部分和背景部分,置信图是用训练之后的SVM分类器对图像中的一部分进行分类得到的,在第一帧中,人为选定需要跟踪的目标框,在图像允许范围内自动选择背景框范围,标记目标框内像素为1,位于背景框内且在目标框之外的像素为-1,以所述数据为样本训练SVM分类器,得到二值分类器,对下一帧图像中相同的背景框位置内的像素,运用训练后的SVM分类器进行分类,得到置信图。
较佳地,所述步骤S005的相似度比较过程具体为:假定两幅目标图像分别为M*N以及Mc*Nc,将两幅图像都分为C*C的子块组合,其中C为整数,根据图像和目标大小确定具体数值,行与列像素余数忽略,共得到C2个子块;
统计每一块内的目标像素数目所占比例,得到数组P={p1,p2,,,p C2}和Q={q1,q2,,,q C2};运用相关性准则计算两个数组的相似度代替目标图像相似度,用Q(P,Q)表示两幅图像的相似度,计算方法表示为:
Q ( P , Q ) = cov ( P ( i , j ) , Q ( i , j ) ) D P , D Q
式中,DP、DQ分别为两组数据的独立方差,cov(P,Q)为两组数据的协方差,且有:
( P ( i , j ) , Q ( i , j ) ) = 1 C 2 &times; C 2 &Sigma; i = 1 C 2 &Sigma; j = 1 C 2 ( P ( i , j ) - P _ ) ( Q ( i , j ) - Q _ )
式中,
Figure BSA00000827594900103
分别为两组数据均值,最终选择与上一帧图像置信图内目标相似性最大的矩形框大小作为本帧图像跟踪结果的目标大小。
综上,本发明的视频目标跟踪方法,首先,在初始图像中选择包含目标的矩形框,以其中数据作为目标数据,标记为1,将目标框之外更大一些的区域设为背景,标记其中像素为-1。之后运用目标像素和背景像素训练SVM分类器,运用得到的分类器在下一幅图像中的相同背景区域内分类像素,得到只含有两类像素(即目标和背景)的置信图;在置信图范围内运用Mean-Shift方法寻求目标中心位置,移动目标和背景框到求得的中心位置,以10%比例缩放目标框大小并与上一帧目标相比较,取最相似者为最终目标大小;以其中数据训练新的SVM分类器,如此循环,完成整个跟踪过程。
与现有技术相比,本发明所提供的基于SVM和Mean-Shift的视频目标跟踪方法,分析了目前计算机视觉领域比较典型的视频目标跟踪方法,并细致地分析了它们的缺陷,为实现较为理想的视频目标跟踪方法,从运动目标跟踪的三个指标:实时性、准确性和鲁棒性出发,在传统的Mean-Shift跟踪方法基础上,引入了SVM分类器,建立了一种有效的动态背景和非刚性目标跟踪框架。该方法引入了相似度判定技术,有效地解决了背景干扰,提高了跟踪的精度。本发明中提出的方法适用于动态背景及非刚性目标的跟踪,且实时性较好。
以上对本发明实施例所提供的一种基于SVM和Mean-Shift的视频目标跟踪方法,进行了详细介绍,本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本发明的限制。

Claims (5)

1.一种基于SVM和Mean-Shift的视频目标跟踪方法,其特征在于,包括以下步骤:
步骤1:在第一帧图像中选择目标范围和背景范围;
步骤2:以第一帧图像中的像素数据训练SVM分类器;
步骤3:下一帧图像中相同位置的背景范围内,运用SVM分类像素和数据,得到含目标和背景两部分的置信图;
步骤4:在置信图范围内运用Mean-Shift均值漂移方法得到目标中心位置;
步骤5:在目标处以10%的比例缩放目标框大小,并将缩放结果与上一帧中目标相比较,最相似者为最终目标大小;
步骤6:根据所述下一帧的数据训练新的SVM分类器,重复步骤3继续循环,直至跟踪到最后一帧,完成跟踪过程。
2.如权利要求1所述的基于SVM和Mean-Shift的视频目标跟踪方法,其特征在于,所述SVM分类器的训练过程为:
假定训练数据包括了N组数据对,(xi,yi)(i=1,2,......n),其中xi=(xi1,xi2,...,xin),yi∈(-1,1)代表点xi的类,所述SVM分类器为
wx+b=0
调整w和b以使min|wxi+b|大于或等于1,满足条件|wxi+b|=1的向量xi被称作支持向量,边缘d定义如下
d = 2 | | w | |
确定最佳分类平面,使两个分界面之间的距离达到最大,此时对应的参数w达到最小,寻找w和b的合适值,而且要满足使d最小,因此,线性分类问题就被化为如下的最优化问题:
min 1 2 | | w | | 2
s.t.yi(w*xi+b)≥1,i=1,2,......n
对应的拉格朗日函数如下:
J ( w , b , &PartialD; ) = 1 2 w &CenterDot; w - &Sigma; i = 1 m &PartialD; i { yi ( w &CenterDot; xi - b ) - 1 }
其中
Figure FSA00000827594800021
是拉格朗日乘子,解是函数对应的极值点,求解变换后,转化为以下的对偶问题:
min Q ( &PartialD; ) = &Sigma; i &PartialD; i - 1 2 &Sigma; i &Sigma; j &PartialD; i &PartialD; jyiyjxixi
s . t . &Sigma; i &PartialD; iyi = 0
计算得到的最佳的拉格朗日乘子表示为
Figure FSA00000827594800024
最后计算得到最佳的权重向量:
w * = &Sigma; i &PartialD; i * yixi
并使用支持向量得到最佳的偏移b=1-w*·xi。
3.如权利要求1所述的基于SVM和Mean-Shift的视频目标跟踪方法,其特征在于,所述Mean-Shift均值漂移方法包括以下子步骤:
输入:目标模型以及在上一帧中心点的位置;
输出:当前帧的中心位置
步骤41:计算候选目标模型并估计相似度:
&rho; [ p ^ ( y ^ 0 ) , q ^ ] = &Sigma; u = 1 m p ^ u ( y ^ 0 ) q ^ u ;
步骤42:计算当前各点权重: w i = &Sigma; u = 1 m q ^ u p ^ u ( y u 0 ) &delta; [ b ( x i ) - u ] ;
步骤43:计算一个漂移值:
y ^ 1 = &Sigma; i = 1 n h x i w i g ( | | y ^ 0 - x i h | | 2 ) &Sigma; i = 1 n h w i g ( | | y ^ 0 - x i h | | 2 )
步骤44:计算
Figure FSA00000827594800032
并估计相似度 &rho; [ p ^ ( y ^ 1 ) , q ^ ] = &Sigma; u = 1 m p ^ u ( y ^ 1 ) q ^ u ;
步骤45:当 &rho; [ p ^ ( y ^ 1 ) , q ^ ] < &rho; [ p ^ ( y ^ 0 ) , q ^ ] ,
Figure FSA00000827594800035
计算
&rho; [ p ^ ( y ^ 1 ) , q ^ ] ;
步骤46:如果输出
Figure FSA00000827594800038
结束;否则,
Figure FSA00000827594800039
转步骤42。
4.如权利要求1所述的基于SVM和Mean-Shift的视频目标跟踪方法,其特征在于,所述置信图为二值图像,所述置信图的像素分为目标部分和背景部分,置信图是用训练之后的SVM分类器对图像中的一部分进行分类得到的,在第一帧中,人为选定需要跟踪的目标框,在图像允许范围内自动选择背景框范围,标记目标框内像素为1,位于背景框内且在目标框之外的像素为-1,以所述数据为样本训练SVM分类器,得到二值分类器,对下一帧图像中相同的背景框位置内的像素,运用训练后的SVM分类器进行分类,得到置信图。
5.如权利要求1所述的基于SVM和Mean-Shift的视频目标跟踪方法,其特征在于,所述步骤5的相似度比较过程具体为:
假定两幅目标图像分别为M*N以及Mc*Nc,将两幅图像都分为C*C的子块组合,其中C为整数,根据图像和目标大小确定具体数值,行与列像素余数忽略,共得到C2个子块;
统计每一块内的目标像素数目所占比例,得到数组P={p1,p2,,,p C2}和Q={q1,q2,,,q C2};
运用相关性准则计算两个数组的相似度代替目标图像相似度,用Q(P,Q)表示两幅图像的相似度,计算方法表示为:
Q ( P , Q ) = cov ( P ( i , j ) , Q ( i , j ) ) D P , D Q
式中,DP、DQ分别为两组数据的独立方差,cov(P,Q)为两组数据的协方差,且有:
( P ( i , j ) , Q ( i , j ) ) = 1 C 2 &times; C 2 &Sigma; i = 1 C 2 &Sigma; j = 1 C 2 ( P ( i , j ) - P _ ) ( Q ( i , j ) - Q _ )
式中,
Figure FSA00000827594800043
分别为两组数据均值,最终选择与上一帧图像置信图内目标相似性最大的矩形框大小作为本帧图像跟踪结果的目标大小。
CN201210560133.5A 2012-12-20 2012-12-20 一种基于SVM和Mean-Shift的视频目标跟踪方法 Pending CN103886322A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201210560133.5A CN103886322A (zh) 2012-12-20 2012-12-20 一种基于SVM和Mean-Shift的视频目标跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201210560133.5A CN103886322A (zh) 2012-12-20 2012-12-20 一种基于SVM和Mean-Shift的视频目标跟踪方法

Publications (1)

Publication Number Publication Date
CN103886322A true CN103886322A (zh) 2014-06-25

Family

ID=50955205

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201210560133.5A Pending CN103886322A (zh) 2012-12-20 2012-12-20 一种基于SVM和Mean-Shift的视频目标跟踪方法

Country Status (1)

Country Link
CN (1) CN103886322A (zh)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104240265A (zh) * 2014-09-01 2014-12-24 深圳市华尊科技有限公司 一种基于全局约束的多目标跟踪方法和系统
CN105184811A (zh) * 2015-05-25 2015-12-23 西北工业大学 一种基于结构支持向量机的多尺度目标跟踪方法
CN105224912A (zh) * 2015-08-31 2016-01-06 电子科技大学 基于运动信息和轨迹关联的视频行人检测和跟踪方法
CN105405152A (zh) * 2015-10-29 2016-03-16 西安电子科技大学 基于结构化支持向量机的自适应尺度目标跟踪方法
CN105547635A (zh) * 2015-12-11 2016-05-04 浙江大学 一种用于风洞试验的非接触式结构动力响应测量方法
CN105787964A (zh) * 2016-02-29 2016-07-20 深圳电科技有限公司 目标跟踪方法和装置
CN106372590A (zh) * 2016-08-29 2017-02-01 江苏科技大学 一种基于机器视觉的海面船只智能跟踪系统及其方法
CN106875415A (zh) * 2016-12-29 2017-06-20 北京理工雷科电子信息技术有限公司 一种动态背景中弱小动目标的连续稳定跟踪方法
CN107451601A (zh) * 2017-07-04 2017-12-08 昆明理工大学 基于时空上下文全卷积网络的运动工件识别方法
CN108805952A (zh) * 2018-05-31 2018-11-13 北京金山安全软件有限公司 一种制作幻灯片特效的方法、装置、电子设备及介质
CN109087332A (zh) * 2018-06-11 2018-12-25 西安电子科技大学 一种基于分块相关的遮挡检测方法
CN109949341A (zh) * 2019-03-08 2019-06-28 广东省智能制造研究所 一种基于人体骨架结构化特征的行人目标跟踪方法
CN110427982A (zh) * 2019-07-12 2019-11-08 北京航天光华电子技术有限公司 一种基于图像处理的自动布线机路线校正方法及系统
CN111052753A (zh) * 2017-08-30 2020-04-21 Vid拓展公司 跟踪式视频缩放
CN114663977A (zh) * 2022-03-24 2022-06-24 龙港市添誉信息科技有限公司 长时间跨度视频图像行人监测精准追踪方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1897015A (zh) * 2006-05-18 2007-01-17 王海燕 基于机器视觉的车辆检测和跟踪方法及系统
CN102737385A (zh) * 2012-04-24 2012-10-17 中山大学 一种基于camshift和卡尔曼滤波的视频目标跟踪方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1897015A (zh) * 2006-05-18 2007-01-17 王海燕 基于机器视觉的车辆检测和跟踪方法及系统
CN102737385A (zh) * 2012-04-24 2012-10-17 中山大学 一种基于camshift和卡尔曼滤波的视频目标跟踪方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
DORIN COMANICIU ET AL: "Kernel-based object tracking", 《IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE》 *
侯一民等: "基于SVM与Mean-Shift的非刚性目标跟踪框架", 《系统工程与电子技术》 *
徐星: "基于最小一范数的稀疏表示音乐流派与乐器分类算法研究", 《中国优秀硕士学位论文全文数据库》 *

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104240265A (zh) * 2014-09-01 2014-12-24 深圳市华尊科技有限公司 一种基于全局约束的多目标跟踪方法和系统
CN104240265B (zh) * 2014-09-01 2017-02-15 深圳市华尊科技股份有限公司 一种基于全局约束的多目标跟踪方法和系统
CN105184811A (zh) * 2015-05-25 2015-12-23 西北工业大学 一种基于结构支持向量机的多尺度目标跟踪方法
CN105224912A (zh) * 2015-08-31 2016-01-06 电子科技大学 基于运动信息和轨迹关联的视频行人检测和跟踪方法
CN105224912B (zh) * 2015-08-31 2018-10-16 电子科技大学 基于运动信息和轨迹关联的视频行人检测和跟踪方法
CN105405152B (zh) * 2015-10-29 2018-06-26 西安电子科技大学 基于结构化支持向量机的自适应尺度目标跟踪方法
CN105405152A (zh) * 2015-10-29 2016-03-16 西安电子科技大学 基于结构化支持向量机的自适应尺度目标跟踪方法
CN105547635A (zh) * 2015-12-11 2016-05-04 浙江大学 一种用于风洞试验的非接触式结构动力响应测量方法
CN105547635B (zh) * 2015-12-11 2018-08-24 浙江大学 一种用于风洞试验的非接触式结构动力响应测量方法
CN105787964A (zh) * 2016-02-29 2016-07-20 深圳电科技有限公司 目标跟踪方法和装置
CN106372590A (zh) * 2016-08-29 2017-02-01 江苏科技大学 一种基于机器视觉的海面船只智能跟踪系统及其方法
CN106875415A (zh) * 2016-12-29 2017-06-20 北京理工雷科电子信息技术有限公司 一种动态背景中弱小动目标的连续稳定跟踪方法
CN106875415B (zh) * 2016-12-29 2020-06-02 北京理工雷科电子信息技术有限公司 一种动态背景中弱小动目标的连续稳定跟踪方法
CN107451601A (zh) * 2017-07-04 2017-12-08 昆明理工大学 基于时空上下文全卷积网络的运动工件识别方法
CN111052753A (zh) * 2017-08-30 2020-04-21 Vid拓展公司 跟踪式视频缩放
CN108805952A (zh) * 2018-05-31 2018-11-13 北京金山安全软件有限公司 一种制作幻灯片特效的方法、装置、电子设备及介质
CN109087332A (zh) * 2018-06-11 2018-12-25 西安电子科技大学 一种基于分块相关的遮挡检测方法
CN109949341A (zh) * 2019-03-08 2019-06-28 广东省智能制造研究所 一种基于人体骨架结构化特征的行人目标跟踪方法
CN110427982A (zh) * 2019-07-12 2019-11-08 北京航天光华电子技术有限公司 一种基于图像处理的自动布线机路线校正方法及系统
CN114663977A (zh) * 2022-03-24 2022-06-24 龙港市添誉信息科技有限公司 长时间跨度视频图像行人监测精准追踪方法

Similar Documents

Publication Publication Date Title
CN103886322A (zh) 一种基于SVM和Mean-Shift的视频目标跟踪方法
CN107748873B (zh) 一种融合背景信息的多峰目标跟踪方法
CN103514441B (zh) 基于移动平台的人脸特征点定位跟踪方法
CN102737385A (zh) 一种基于camshift和卡尔曼滤波的视频目标跟踪方法
CN104050488B (zh) 一种基于切换的卡尔曼滤波模型的手势识别方法
CN102324025A (zh) 基于高斯肤色模型和特征分析的人脸检测与跟踪方法
Geng et al. Combining CNN and MRF for road detection
CN103886325A (zh) 一种分块的循环矩阵视频跟踪方法
CN101840579A (zh) 一种利用视频分割与粒子滤波实现多目标跟踪方法
CN113592911B (zh) 表观增强深度目标跟踪方法
CN110321937A (zh) 一种Faster-RCNN结合卡尔曼滤波的运动人体跟踪方法
CN106780564A (zh) 一种基于先验模型约束的抗干扰轮廓跟踪方法
CN104156976A (zh) 一种抗遮挡目标检测的多特征点跟踪方法
CN110472577A (zh) 一种基于自适应相关滤波的长时视频跟踪方法
Zhang et al. A survey on instance segmentation: Recent advances and challenges
CN109712171A (zh) 一种基于相关滤波器的目标跟踪系统及目标跟踪方法
CN102663773A (zh) 视频目标的双核式自适应融合跟踪方法
Liu et al. Vehicle tracking based on shape information and inter-frame motion vector
Tu et al. A biologically inspired vision-based approach for detecting multiple moving objects in complex outdoor scenes
Li et al. Visual slam in dynamic scenes based on object tracking and static points detection
CN108053425B (zh) 一种基于多通道特征的高速相关滤波目标跟踪方法
CN110349176A (zh) 基于三重卷积网络和感知干扰学习的目标跟踪方法和系统
CN104318589A (zh) 基于ViSAR的异常变化检测与跟踪方法
Shiravandi et al. Hand gestures recognition using dynamic Bayesian networks
Chen et al. A robust target tracking algorithm based on spatial regularization and adaptive updating model

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20140625