CN103218830A - 基于形心跟踪和改进GVF Snake的视频对象轮廓提取方法 - Google Patents

基于形心跟踪和改进GVF Snake的视频对象轮廓提取方法 Download PDF

Info

Publication number
CN103218830A
CN103218830A CN2013101166993A CN201310116699A CN103218830A CN 103218830 A CN103218830 A CN 103218830A CN 2013101166993 A CN2013101166993 A CN 2013101166993A CN 201310116699 A CN201310116699 A CN 201310116699A CN 103218830 A CN103218830 A CN 103218830A
Authority
CN
China
Prior art keywords
frame
profile
initial
centre
dtri
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN2013101166993A
Other languages
English (en)
Other versions
CN103218830B (zh
Inventor
祝世平
高洁
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fengxian Xinzhongmu Feed Co ltd
Original Assignee
Beihang University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beihang University filed Critical Beihang University
Priority to CN201310116699.3A priority Critical patent/CN103218830B/zh
Publication of CN103218830A publication Critical patent/CN103218830A/zh
Application granted granted Critical
Publication of CN103218830B publication Critical patent/CN103218830B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

本发明公开了一种基于形心跟踪和改进GVF Snake的视频对象轮廓提取方法,该方法的特征在于:根据短时间内相邻帧的运动趋势相似的前提,将视频序列分成若干小段,每段有k帧视频,取段内的前两帧为关键帧,通过基于t显著性检验的变化检测消除背景边界的影响,获取初始运动区域;提取临界四边形作为关键帧的初始轮廓,进行帧内GVF Snake演变,搜索精确轮廓,然后以关键帧帧间运动对象轮廓形心间的运动矢量来预测后续帧的初始轮廓,再进行后续帧帧内GVF Snake精确轮廓定位;以此类推,实现所有帧的对象轮廓提取。改进模型采用4方向各项异性扩散并采用下降速度较快的保真项系数来增强其进入凹陷的能力,且保持对弱边界的收敛。该方法克服了手动获取初始轮廓的缺点。

Description

基于形心跟踪和改进GVF Snake的视频对象轮廓提取方法
技术领域
本发明涉及一种视频对象轮廓提取的处理方法,特别涉及一种基于形心跟踪和改进的GVF Snake视频对象轮廓提取方法。本方法克服了手动绘制初始轮廓的缺点,对传统GVF Snake方法进行了改进,精确度有很大提高。实验证明,本方法成功提取出目标凹陷部分并对弱边界有较好的收敛效果,提高了轮廓提取的精确度,使该方法更具有实用性和推广性。 
背景技术
运动目标轮廓提取是计算机视觉领域的热门研究方向,被广泛应用于安全监控、行为识别等许多领域,运动目标轮廓提取就是在一段视频序列的每帧图像中精确地找到所感兴趣的运动目标的轮廓。形状复杂的目标难以用简单的几何形状来表示,基于轮廓的方法提供了较为准确的形状描述。这类方法的主要思想是用先前帧建立的目标模型找到当前帧的目标区域。基于轮廓的跟踪方法可以分为两类:形状匹配方法和轮廓跟踪方法。前者在当前帧中搜索目标形状,后者则通过状态空间模型或直接的能量最小化函数推演初始轮廓在当前帧中的新位置。 
形状匹配方法类似于基于模板的跟踪,在当前帧中搜索目标的轮廓和相关模型。Zhang采用基于块仿射分类和HD跟踪的视频分割方法(参见ZHANG Xiao-bo,LIU Wen-yao.Video segmentation method based on block affine classification and Hausdorff tracking[J].Journal of Computer Applications,2008,25(4):1084-1086.),自动得到运动对象的二值模型并在随后帧中使用Hausdorff距离进行跟踪,将视频对象运动分为慢变和快变两部分,分别结合背景边缘模型进行匹配更新,分割效果较好,但是计算较为复杂。另一种形状匹配方法是在连续两帧中寻找关联轮廓,建立轮廓关联,或称为轮廓匹配(参见Qinkun Xiao,Xiaojuan Hu,Song Gao,Haiyun Wang.Object detection based on contour learning and template matching[C].20108th World Congress on Intelligent Control and Automation(WCICA),2010:6361-6365),是类似于点匹配的一种方法。这种方法使用了目标的外观特征。 
轮廓检测通常由背景减除实现。轮廓被提取后,匹配由计算目标模型和每个轮廓之间的距离实现。目标模型可以使密度函数(颜色或边缘直方图)、轮廓边界、目标边缘或这些信息的组合,Sato和Aggarwal用Hough变换计算轮廓轨迹(参见Sato,K,Aggarwal,J.K.Temporal spatio-temporal transform and its application to tracking and interaction[J].Computer Vision and Image Understanding,2004,96(2):100-128)。轮廓跟踪方法从前一帧的轮廓位置开始轮廓推演, 得到当前帧的轮廓。前提是当前帧和前一帧的目标轮廓有所交叠。轮廓检测这类方法又有两种不同的实现方式,用状态空间模型建模轮廓的形状和运动,或直接用梯度搜索等轮廓能量最小化方法推演轮廓。基于状态空间模型跟踪的方法都是采用显式的方法表达轮廓,如参数样条曲线。这种表达不能处理拓扑结构的变化。而轮廓推演的方法则能够解决拓扑变化带来的问题。用轮廓推演的跟踪与目标分割的方法有些类似。分割和跟踪都是通过贪婪方法或梯度下降来最小化能量。 
Kass等提出的原始Snake(参见Kass M,Witkin A,Terzopoulos D.Snake:active contour models[J].International Journal of Computer Vision.1988,1(4),321-331)模型由一组控制点组成,基本Snake模型是一条被控制的连续曲线,其曲线受图像力和外部限制力的影响:x(s)=(x(s),y(s))。内部样条力用来加以分段平滑限制。图像力把Snake推向显著图像特征,如线、边、主观轮廓等。参数(x(s),y(s))表达Snake的位置,我们可以写出如下能量函数: 
E = ∫ 0 1 1 2 [ α | x ′ ( s ) | 2 + β | x ′ ′ ( s ) | 2 ] + E ext ( x ( s ) ) ds
其中第1项称为弹性能量是x的一阶导数的模,第2项称为弯曲能量是x的二阶导数的模,第3项是外部力。弹性能量和弯曲能量合称内部能量内部力控制轮廓线的弹性形变。外部力负责推动Snake靠近理想的局部最小值。选取适当的参数α和β将能量函数E极小化,当能量函数最小化时对应的x(s)就是对物体的轮廓提取。在能量函数极小化过程中弹性能量迅速把轮廓线压缩成一个光滑的圆,弯曲能量驱使轮廓线成为光滑曲线或直线而图像力则使轮廓线向图像的高梯度位置靠拢基本Snake模型就是在这3个力的联合作用下工作的。 
在基本Snake模型中外部能量一般只取控制点或连线所在位置的图像局部特征,通常选取梯度作为该特征: 
E ext 1 ( x , y ) = - | ▿ I ( x , y ) | 2
E ext 2 ( x , y ) = - | ▿ ( G σ ( x , y ) ) * I ( x , y ) | 2
其中Gσ是一个二维高斯平滑方程标准差为σ,
Figure BDA00003013997300026
是梯度操作算子。 
最终对图像对象轮廓的提取转化为求解能量函数E极小化,最小化能量方程需满足如下欧拉方程,该欧拉方程可视为力平衡方程: 
α x ′ ′ ( s ) - βx ′ ′ ′ ′ ( s ) - ▿ E ext = 0
为了求解上述欧拉方程,将x看作是变量为t和s的动态方程,故该方程可写作: 
x t ( s , t ) = αx ′ ′ ( s , t ) - βx ′ ′ ′ ′ ( s , t ) - ▿ E ext 当x(s,t)稳定时,xt(s,t)项消失,便可求解方程上述方程。 
Kass等提出的基本Snake模型对初始轮廓非常敏感,即初始轮廓曲线必须接近图像期望的边缘,并且有可能收敛到局部极值点,甚至发散;而且模型外力捕捉范围小,无法进入深度凹陷区域,尽管也有很多改进方法但效果都不理想;另外,模型对噪声非常敏感,并且存在边界泄漏问题。 
Xu等提出的GVF Snake(参见Chenyang Xu;Prince,J.L.Snakes,shapes,and gradient vector flow.IEEE Transactions on Image Processing[J].1998,7(3),359-369)很好地解决了这些问题。它不再从能量最小化的观点上看待Snake模型,而是将其视为一个力的平衡过程。该模型对图像的梯度矢量进行扩散以扩大Snake的捕获区,同时矢量间固有的竞争机制使GVF场能够驱动Snake进入目标的凹陷区。设I(x,y)为原始灰度图像,f(x,y)是其对应的边缘梯度图像,定义梯度矢量流场: 
v(x,y)=(u(x,y),v(x,y)) 
其分量通过极小化如下能量泛函得到: 
E = ∫ ∫ μ ( u x 2 + u y 2 + v x 2 + v y 2 ) + | ▿ f | 2 | V - ▿ f | dxdy
其中,f是被处理图像I的边缘;
Figure BDA00003013997300039
f是f的梯度场;μ是控制参数,可以根据图像的噪声来设定,噪声变大,μ值增加。 
该梯度矢量流场满足如下欧拉方程组: 
μ ▿ 2 u - ( u - f x ) ( f x 2 + f y 2 ) = 0
μ ▿ 2 v - ( v - f y ) ( f x 2 + f y 2 ) = 0
方程第1项为扩散项,这里的
Figure BDA00003013997300034
是拉普拉斯算子。用拉普拉斯算子扩散高斯平滑后的图像相当于高斯卷积,这样在扩散边缘梯度的同时平滑一幅图像的噪声。方程的第2项(u-fx)或(v-fy)为保真项,保真项系数为在边界处
Figure BDA00003013997300036
取得最大值,而在远离边界处为0,这样可以控制仅在边界处恢复边缘梯度以避免对整幅图像的恢复而导致的弱化扩散效果。 
上述方程组可通过将u和v视作关于时间t的函数来求解: 
u t ( x , y , t ) = μ ▿ 2 u ( x , y , t ) - ( u ( x , y , t ) - f x ( x , y ) ) · ( f x ( x , y ) 2 + f y ( x , y ) 2 )
v t ( x , y , t ) = μ ▿ 2 v ( x , y , t ) - ( v ( x , y , t ) - f x ( x , y ) ) · ( f x ( x , y ) 2 + f y ( x , y ) 2 )
解得v(x,y)后,将其代替方程
Figure BDA00003013997300042
Figure BDA00003013997300043
可得: 
x t ( s , t ) = αx ′ ′ ( s , t ) - β x ′ ′ ′ ′ ( s , t ) - v
通过求解上述方程组可求得GVF Snake,当其停止迭代时便收敛到对象边界处。 
GVF Snake模型有效地扩大了外力的捕捉范围,同时较好地分割出目标的凹陷部分。但是也存在不足: 
1.当目标存在弱边界的情况下,过度平滑会导致图像边缘信息的丢失而使弱边界处力场产生错误指向; 
2.过度恢复被平滑的原始图像梯度会产生边缘增强和移位,当图像具有深度凹陷边缘时,会因为凹陷处边缘法线方向梯度值的增强而弱化GVF Snake进入深度凹陷部分的能力。 
发明内容:
本发明在对于传统GVF Snake活动轮廓模型改进的基础上,提出了基于形心跟踪和改进的GVF Snake活动轮廓模型的视频目标轮廓提取方法。根据短时间内相邻帧的运动趋势相似的前提下,可以将视频序列首先分成若干个小段,每段有k帧视频,选取段内的前两帧为关键帧。首先,通过基于t显著性检验的变化检测方法消除背景边界的影响,并获取关键帧初始运动变化区域的临界四边形作为GVF Snake的初始轮廓并通过形心跟踪方法以获取非关键帧的初始轮廓。然后对获取的初始轮廓应用改进的GVF Snake模型以获得精确的轮廓边界。该改进模型采用4方向各项异性扩散并采用下降速度较快的保真项系数来增强GVF Snake进入凹陷的能力,且保持对弱边界的收敛。本方法克服了手动绘制初始轮廓的缺点,对传统GVF Snake方法进行了改进提高了精确度。可以成功分割出目标凹陷部分并对弱边界有较好的收敛效果。这是一种新的视频对象轮廓提取方法,它的提出有效地解决了当目标存在弱边界的情况下,过度平滑会导致图像边缘信息的丢失而使弱边界处力场产生错误指向及过度恢复被平滑的原始图像梯度会产生边缘增强和移位及当图像具有深度凹陷边缘时,会因为凹陷处边缘法线方向梯度值的增强而弱化GVF Snake进入深度凹陷部分的能力的问题。 
本发明要解决的技术问题是: 
1.传统Snake模型大都需要手动绘制初始轮廓; 
2.当目标存在弱边界的情况下,过度平滑会导致图像边缘信息的丢失而使弱边界处力场产生错误指向; 
3.过度恢复被平滑的原始图像梯度会产生边缘增强和移位,当图像具有深度凹陷边缘时,会因为凹陷处边缘法线方向梯度值的增强而弱化GVF Snake进入深度凹陷部分的能力; 
本发明解决其技术问题所采用的技术方案:基于变化检测和改进的GVF Snake视频对象轮廓提取方法,包括以下步骤: 
步骤一:利用每段前三帧的两幅帧差图像进行t显著性变化检测。对差值图像中的每个像素点邻域进行t显著性变化检测,从而准确判断该像素点是否属于视频对象,继而获取初始运动变化区域; 
步骤二:对获取的初始运动变化区域进行逐行逐列检测获取初始运动变化区域的四个临界点,并以这四个点构造临界四边形,作为关键帧改进的GVF Snake的初始轮廓; 
步骤三:应用改进的GVF Snake于关键帧的初始轮廓,以获取关键帧的精确轮廓; 
步骤四:求取精确轮廓的精确形心,并获取形心间的运动矢量; 
步骤五:根据获取的运动矢量应用形心跟踪方法获得非关键帧的初始形心和初始轮廓位置; 
步骤六:应用改进的GVF Snake于非关键帧的初始轮廓,以获取非关键帧的精确轮廓; 
步骤七:重复步骤四-步骤六获得后续非关键帧的精确轮廓; 
步骤八:重复步骤一-步骤七,最终获取整个视频序列中运动对象的精确轮廓。 
本发明与现有技术相比所具有的优点在于: 
1.传统Snake提取视频对象轮廓的方法大都需要手动获取初始轮廓,而本方法利用变化检测获取初始运动变化区域继而得到临界四边形的方法克服了手动获取初始轮廓的缺点; 
2.本方法利用t分布显著性检验检测帧间的变化,不需要知道视频内噪声的方差因此避免了噪声参数的估计,且获取帧差图像时不需要手动实验获取阈值,可以根据t分布表查找获得最优阈值。假设检验的统计技术可以很好的抑制相机噪声对轮廓提取结果的影响; 
3.本方法利用形心跟踪方法克服了每帧均要提取初始轮廓的缺点,可以提高执行速度; 
4.本方法利用改进的GVF Snake模型有效地扩大了外力的捕捉范围,同时解决了当目标存在弱边界的情况下,过度平滑会导致图像边缘信息的丢失而使弱边界处力场产生错误指向的问题及过度恢复被平滑的原始图像梯度会产生边缘增强和移位,当图像具有深度凹陷边缘时,会因为凹陷处边缘法线方向梯度值的增强而弱化GVF Snake进入深度凹陷部分的能力的问题。 
附图说明:
图1是本发明的基于形心跟踪和改进的GVF Snake方法的视频对象轮廓提取方法的流程图; 
图2是形心跟踪方法的原理图; 
图3是Lab视频序列经过本发明方法分别植入两种GVF Snake方法的处理效果对比图:其中(a)表示Lab视频序列的第36帧至第39帧经过本发明方法植入传统GVF Snake方法提取的视频对象轮廓;(b)Lab视频序列的第36帧至第39帧经过本发明方法植入改进的GVF Snake方法提取的视频对象轮廓; 
图4是Lobby视频序列经过本发明方法分别植入两种GVF Snake方法的处理效果对比图:其中(a)表示Lobby视频序列的第59帧至第61帧经过本发明方法植入传统GVF Snake方法提取的视频对象轮廓;(b)Lobby视频序列的第59帧至第61帧经过本发明方法植入改进的GVF Snake方法提取的视频对象轮廓; 
图5是Parking lot视频序列经过本发明方法分别植入两种GVF Snake方法的处理效果对比图:其中(a)表示Lobby视频序列的第35帧至第37帧经过本发明方法植入传统GVF Snake方法提取的视频对象轮廓;(b)Parking lot视频序列的第35帧至第37帧经过本发明方法植入改进的GVF Snake方法提取的视频对象轮廓; 
图6是Stair way视频序列经过本发明方法分别植入两种GVF Snake方法的处理效果对比图:其中(a)表示Lobby视频序列的第79帧至第81帧经过本发明方法植入传统GVF Snake方法提取的视频对象轮廓;(b)Stair way视频序列的第79帧至第81帧经过本发明方法植入改进的GVF Snake方法提取的视频对象轮廓; 
图7是Walk man视频序列经过本发明方法分别植入两种GVF Snake方法的处理效果对比图:其中(a)表示Lobby视频序列的第23帧至第25帧经过本发明方法植入传统GVF Snake方法提取的视频对象轮廓;(b)Walk man视频序列的第23帧至第25帧经过本发明方法植入改进的GVF Snake方法提取的视频对象轮廓。 
具体实施方式:
下面结合附图及具体实施方式进一步详细介绍本发明。 
本发明是基于形心跟踪和改进GVF Snake的视频对象轮廓提取方法,图1为本发明方法的流程图,本方法包括以下步骤: 
步骤一:根据短时间内相邻帧的运动趋势相似的前提,将视频序列分成若干个小段,每段有4帧视频图像,选取段内的前两帧为关键帧。每段前三帧的两幅帧差图像进行t显著性变化检测。获取帧差图像时,设定图像中像素值未变化区域的值为0,像素值变化区域的绝对值大于0。然后,对帧差值图像中的每个像素点邻域进行t显著性变化检测,从而准确判断该像素点是否属于视频对象,继而获取初始运动变化区域: 
设视频序列灰度化后第n帧为Fn(x,y)。视频序列内每帧图像噪声记为Nn(x,y)方差记为 
Figure BDA00003013997300071
故可将视频序列中第n帧灰度图像Fn(x,y)表示为: 
F n ( x , y ) = F ‾ n ( x , y ) + N n ( x , y )
其中
Figure BDA00003013997300073
为视频图像的实际值。根据上式,可得帧差图像: 
FD ( x , y ) = | F ‾ n ( x , y ) - F ‾ ( n - 1 ) ( x , y ) + N n ( x , y ) - N ( n - 1 ) ( x , y ) |
设D(x,y)=Nn(x,y)-N(n-1)(x,y),其中Nn(x,y)与N(n-1)(x,y)是概率密度相同并且相互独立的随机变量,故D(x,y)仍为加性零均值高斯噪声随机变量,方差为
Figure BDA00003013997300075
由于各个像素点的噪声是互相独立的,如果窗内所有不为零的帧差值都是由噪声引起的,这些值的均值μ应该为零,所以根据概率论知识进行假设检验,设位置(x,y)为背景(即零假设H0):H0:μ=0。在噪声方差未知的情况下,采用t显著性检验检测,根据邻域窗内的像素点构造统计测试量t: 
t = A d ( n ) s / p
其中,Ad(n)和s分别为邻域窗内的样本均值和样本方差。 
A d ( n ) = 1 p Σ - n n Σ - n n | FD ( x + l , y + m ) |
s = 1 p - 1 Σ - n n Σ - n n ( FD ( x + l , y + m ) - A d ( n ) ) 2
根据显著性测试理论,阈值由给定的显著性水平α和t所服从的分布决定: 
T n = { ( x , y ) n : | t | ≥ t α 2 ( p - 1 ) }
显著性水平α的选择与具体视频序列中的摄像机噪声强度相关,根据设定的显著性水平α,若
Figure BDA000030139973000710
成立,则该中心像素点属于T(n)。 
初始运动变化区域可表示为 
M ( n ) = 255 , ( x , y ) n ∈ T ( n ) 0 , others
经过对称帧检测出的变化区域相与操作,可将视频对象运动不明显部分包含在内,得到完整的运动变化区域: 
CDM n ( x , y ) = 255 , M n , n - 1 ( x , y ) = 255 ∩ M n , n - 1 ( x , y ) = 255 0 , others
步骤二:将得到的运动变化区域进行逐像素遍历,找到运动区域的水平和垂直方向的临界边界坐标,具体表示为: 
Xmax=max(x|CDMn(x,y)==255) 
Xmin=min(x|CDMn(x,y)==255) 
Ymax=max(y|CDMn(x,y)==255) 
Ymin=min(y|CDMn(x,y)==255) 
max()表示取最大值操作,min()表示取最小值操作。Xmax表示运动区域在水平方向的最大位置,Xmin表示运动区域在水平方向的最小位置。Ymax表示运动区域在垂直方向的最大位置,Ymin表示运动区域在垂直方向的最小位置。由以上四个边界位置围成的封闭矩形即为运动区域的外接矩形,也就作为当前帧GVF Snake的初始轮廓。 
步骤三:应用改进的GVF Snake于获得的初始轮廓上。将GVF Snake模型扩散项改写为各项异性扩散,其在连续区域的偏微分方程为: 
∂ I ∂ t = div ( c ( | ▿ I | ) ▿ I )
其中,c(x)为扩散系数选用: 
c ( | ▿ I | ) = 1 1 + [ | ▿ I | 2 - K 2 ] / [ K 2 ( 1 + K 2 ) ]
由于各项异性采用的梯度求解算子仍与传统的GVF Snake模型相同,对噪声敏感尤其是在边界很弱的情况下。故本方法引用一个四向的梯度算子以减轻噪声的影响。 
f ( i , j ) = | ▿ I E ( i , j ) | 2 + | ▿ I W ( i , j ) | 2 + | ▿ I S ( i , j ) | 2 + | ▿ I N ( i , j ) | 2 4
▿ I E ( i , j ) = I ( i , j + 1 ) - I ( i , j )
▿ I W ( i , j ) = I ( i , j - 1 ) - I ( i , j )
▿ I S ( i , j ) = I ( i + 1 , j ) - I ( i , j )
▿ I N ( i , j ) = I ( i - 1 , j ) - I ( i , j )
采用衰减速度更快的
Figure BDA00003013997300091
作为保真项系数。由此得到新的各向异性扩散模型,其欧拉方程组如下: 
u = μ · div [ c ( | ▿ u | ) ▿ u ] - [ 1 - exp ( | f x 2 + f y 2 | K 2 ) ] ( u - f x )
v = μ · div [ c ( | ▿ v | ▿ v ) ] - [ 1 - exp ( - | f x 2 + f y 2 | K 2 ) ] ( v - f y )
将上述方程离散化,迭代求得对边缘梯度映射扩散后的矢量场,再以此矢量场作为静态外部力引入GVF Snake模型求出目标轮廓。 
为了说明本发明方法的有效性,选择了视频测试序列“Lab”、“Lobby”、“Parking lot”、“Stair way”和“Walkman”作为实验对象。 
表1选取的视频序列 
本发明选择C语言作为所述方法的实现语言,CPU为
Figure BDA00003013997300095
CoreTM2Duo E6300,1.86GHz主频,内存大小为2G,使用Visual Studio2008开发环境编程实现。 
为了更好的反映本发明方法的正确性,本发明采用MPEG-4核心实验中由Wollborn等提出的准确性评价。空间准确性评价定义了每一帧分割对象掩膜的空间准确度SA(Spatial Accuracy)。 
则可由如下公式给出方法的分割正确率。 
Ω ( I s , I g ) = 1 - | I e - I r | I r
式中,Ie和Ir分别表示第t帧的参考分割和实际分割方法所得到的对象模板;空间准确度反映了每一帧的分割结果与参考分割模板之间的形状相似程度,SA越大,表明分割越准确,SA越小,表明分割越不准确。 
表2至表6分别列出了本发明方法植入传统GVF Snake和改进的GVF Snake的空间准确度 对比。通过对比可以看出,本发明方法的空间准确度绝对优于对比方法。 
Figure BDA00003013997300101
表2“Lab”视频序列采用传统GVF和改进GVF的空间准确度对比 
Figure BDA00003013997300102
表3“Lobby”视频序列采用传统GVF和改进GVF的空间准确度对比 
Figure BDA00003013997300103
表4“Parking lot”视频序列采用传统GVF和改进GVF的空间准确度对比 
Figure BDA00003013997300111
表5“Stair way”视频序列采用传统GVF和改进GVF的空间准确度对比 
Figure BDA00003013997300112
表6“Walkman”视频序列采用传统GVF和改进GVF的空间准确度对比 。

Claims (5)

1.一种基于形心跟踪和改进GVF Snake的视频对象轮廓提取方法,该视频对象轮廓提取方法的特征在于:根据短时间内相邻帧的运动趋势相似的前提,将视频序列首先分成若干个小段,每段有k帧视频图像,选取段内的前两帧为关键帧;通过基于t显著性检验的变化检测方法消除背景边界的影响,并获取初始运动变化区域;取初始运动变化区域的临界四边形作为关键帧内GVF Snake的初始轮廓,然后进行帧内GVF Snake演变,搜索精确轮廓;而后根据关键帧间运动对象形心间的运动矢量来预测勾勒后续帧的初始轮廓,再在此基础上进行帧内GVF Snake演变实现精确轮廓定位;以此类推,从而实现所有帧的视频对象轮廓提取;改进的GVF Snake模型采用4方向各项异性扩散并采用下降速度较快的保真项系数来增强GVFSnake进入凹陷的能力,且保持对弱边界的收敛。该视频对象轮廓提取方法的具体步骤如下:
步骤一:变化检测应用于关键帧初始运动变化区域的提取。首先,利用每段前三帧的两幅帧差图像进行t显著性变化检测,获取帧差图像时,设定图像中像素值未变化区域的值为0,像素值变化区域的绝对值大于0。然后,对帧差图像中的每个像素点邻域进行t显著性变化检测,从而准确判断该像素点是否属于视频对象,继而获取初始运动变化区域;
步骤二:对获取的初始运动变化区域进行逐行逐列检测获取初始运动变化区域的四个临界点,并以这四个点构造临界四边形,作为关键帧内改进的GVF Snake的初始轮廓;
步骤三:应用改进的GVF Snake于获取的关键帧的初始轮廓,迭代演变得到关键帧的精确轮廓;
步骤四:求取精确轮廓的精确形心,并获取轮廓形心间的运动矢量;
步骤五:根据获取的运动矢量应用形心跟踪方法获得非关键帧的初始形心和初始轮廓;
步骤六:应用改进的GVF Snake于非关键帧的初始轮廓,以获取非关键帧的精确轮廓;
步骤七:重复步骤四-步骤六获得后续非关键帧的精确轮廓;
步骤八:重复步骤一-步骤七于下一分段小组直至视频序列结束,最终获取整个视频序列中运动对象的精确轮廓。
2.根据权利要求1中所述的一种基于形心跟踪和改进GVF Snake的视频对象轮廓提取方法,其特征在于:所述步骤一的初始运动变化区域的获取:对每段前三帧的两幅帧差图像进行t显著性变化检测。获取帧差图像时,设定图像中像素值未变化区域的值为0,像素值变化区域的绝对值大于0并在帧差图像中设为255。然后,对帧差图像中的每个像素点邻域进行t显著性变化检测,从而准确判断该像素点是否属于该帧的视频对象,继而获取初始运动变化区域,具体步骤如下:
设视频序列灰度化后第n帧为Fn(x,y)。视频序列内每帧图像噪声记为Nn(x,y)方差记为
Figure FDA00003013997200021
故可将视频序列中第n帧灰度图像Fn(x,y)表示为:
F n ( x , y ) = F ‾ n ( x , y ) + N n ( x , y )
其中
Figure FDA00003013997200023
为视频图像的实际值。根据上式,可得帧差图像:
FD ( x , y ) = | F ‾ n ( x , y ) - F ‾ ( n - 1 ) ( x , y ) + N n ( x , y ) - N ( n - 1 ) ( x , y ) |
设D(x,y)=Nn(x,y)-N(n-1)(x,y),其中Nn(x,y)与N(n-1)(x,y)是概率密度相同并且相互独立的随机变量,故D(x,y)仍为加性零均值高斯噪声随机变量,方差为
Figure FDA000030139972000211
由于各个像素点的噪声是互相独立的,如果窗内所有不为零的帧差值都是由噪声引起的,这些值的均值μ应该为零,所以根据概率论知识进行假设检验,设位置(x,y)为背景(即零假设H0):H0:μ=0。在噪声方差未知的情况下,采用t显著性检验检测,根据邻域窗内的像素点构造统计测试量t:
t = A d ( n ) s / p
其中,Ad(n)和s分别为邻域窗内的样本均值和样本方差。
A d ( n ) = 1 p Σ - n n Σ - n n | FD ( x + l , y + m ) |
s = 1 p - 1 Σ - n n Σ - n n ( FD ( x + l , y + m ) - A d ( n ) ) 2
根据显著性测试理论,阈值由给定的显著性水平α和t所服从的分布决定:
T n = { ( x , y ) n : | t | ≥ t α 2 ( p - 1 ) }
显著性水平α的选择与具体视频序列中的摄像机噪声强度相关,根据设定的显著性水平α,若
Figure FDA00003013997200029
成立,则该中心像素点属于T(n)。
初始运动变化区域可表示为:
M ( n ) = 255 , ( x , y ) n ∈ T ( n ) 0 , others
经过对称帧检测出的变化区域相与操作,可将视频对象运动不明显部分包含在内,得到完整的运动变化区域:
CDM n ( x , y ) = 255 , M n , n - 1 ( x , y ) = 255 ∩ M n , n - 1 ( x , y ) = 255 0 , others
3.根据权利要求1中所述的一种基于形心跟踪和改进GVF Snake的视频对象轮廓提取方法,其特征在于:所述步骤二的对获取的初始运动变化区域进行逐行逐列检测获取初始运动变化区域的四个临界点,并以这四个点构造临界四边形,作为关键帧改进的GVF Snake的初始轮廓,具体步骤如下:
将得到的运动变化区域进行逐像素遍历,找到运动区域的水平和垂直方向的临界边界坐标,具体表示为:
Xmax=max(x|CDMn(x,y)==255)
Xmin=min(x|CDMn(x,y)==255)
Ymax=max(y|CDMn(x,y)==255)
Ymin=min(y|CDMn(x,y)==255)
max()表示取最大值操作,min()表示取最小值操作。Xmax表示运动区域在水平方向的最大位置,Xmin表示运动区域在水平方向的最小位置。Ymax表示运动区域在垂直方向的最大位置,Ymin表示运动区域在垂直方向的最小位置。由以上四个边界位置围成的封闭矩形即为运动区域的外接矩形,也就作为当前帧GVF Snake的初始轮廓。
4.根据权利要求1中所述的一种基于形心跟踪和改进GVF Snake的视频对象轮廓提取方法,其特征在于:所述步骤三和六应用的改进的GVF Snake模型,具体步骤如下:
(1).将GVF Snake模型扩散项改写为各项异性扩散,其在连续区域的偏微分方程为:
∂ I ∂ t = div ( c ( | ▿ I | ) ▿ I )
其中,c(x)为扩散系数,其选择原则是保证x→∞时c(x)→0,即梯度增强时扩散强度
降低,在边界出扩散终止,故c(x)通常选用:
c 1 ( | ▿ I | ) = 1 1 + [ | ▿ I | 2 - K 2 ] / [ K 2 ( 1 + K 2 ) ]
c 2 = ( | ▿ I | ) = exp ( - [ x K ] 2 )
k为梯度敏感度参数,k值越低,梯度大小相同处的扩散就越微弱;反之,k越高,梯度值大小相同处的扩散就越强烈。
(2).由于各项异性采用的梯度求解算子仍与传统的GVF Snake模型相同,对噪声敏感尤其是在边界很弱的情况下。故本方法引用一个四向的梯度算子以减轻噪声的影响。
f ( i , j ) = | ▿ I E ( i , j ) | 2 + | ▿ I W ( i , j ) | 2 + | ▿ I S ( i , j ) | 2 + | ▿ I N ( i , j ) | 2 4
▿ I E ( i , j ) = I ( i , j + 1 ) - I ( i , j )
▿ I W ( i , j ) = I ( i , j - 1 ) - I ( i , j )
▿ I S ( i , j ) = I ( i + 1 , j ) - I ( i , j )
▿ I N ( i , j ) = I ( i - 1 , j ) - I ( i , j )
(3).通过各项异性扩散能够在得到指向目标边界的梯度矢量流场的同时更好地保留边界梯度强度,为了在扩散的同时恢复目标边缘梯度的强度且不至于因为过度增强而弱化驱动GVF Snake进入目标凹陷部分的能力,本发明采用衰减速度更快的
Figure FDA00003013997200042
作为保真项系数,其中,f为原始图像;(fx,fy)为图像梯度;K为梯度敏感度参数,K的取值与扩散系数中的梯度敏感度参数取值相同。
由此得到新的各向异性扩散模型,其欧拉方程组如下:
u = μ · div [ c ( | ▿ u | ) ▿ u ] - [ 1 - exp ( | f x 2 + f y 2 | K 2 ) ] ( u - f x )
v = μ · div [ c ( | ▿ v | ▿ v ) ] - [ 1 - exp ( - | f x 2 + f y 2 | K 2 ) ] ( v - f y )
将上述方程离散化,迭代求得对边缘梯度映射扩散后的矢量场,再以此矢量场作为静态外部力引入GVF Snake模型求出目标轮廓。
5.根据权利要求1中所述的一种基于形心跟踪和改进GVF Snake的视频对象轮廓提取方法,其特征在于:所述步骤五应用的形心跟踪方法,具体步骤如下:
(1).将原始视频序列以四帧F1、F2、F3、F4为一分割小组,将原始视频序列划分成若干组,选取F1、F2为关键帧,F1、F2进行帧间差分得M1,F3、F4进行帧间差分得M2,对M1和M2进行运动变化检测,获取运动对象的大致位置,并求出运动区域的外接矩形作为F1、F2的初始轮廓,分别为Rect1、Rect2。
(2).分别计算F1、F2运动对象的精确轮廓的形心Pos1、Pos2,并计算这两个形心间的运动矢量(MV_1to2.x,MV_1to2.y)。设(x,y)为精确轮廓S上的任意一点,则形心(Posn.x,Posn.y)中:
Posn . x = ( x 1 + x 2 + x 3 + . . . + x k ) / k = Σ i = 1 k x i / k
Posn . y = ( y 1 + y 2 + y 3 + . . . + y k ) / k = Σ i = 1 k y i / k
设关键帧F1、F2对应的经过GVF Snake收缩得到的精确轮廓的形心分别为(X1,Y1)=(Pos1.x,Pos1.y),(X2,Y2)=(Pos2.x,Pos2.y),则精确轮廓的运动矢量可以表示为:
MV_1to2.x=Pos2.x-Pos1.x
MV_1to2.y=Pos2.y-Pos1.y
其中,Pos1.x、Pos2.x分别表示关键帧F1、F2精确轮廓的形心横坐标,Pos1.y、Pos2.y分别表示关键帧F1、F2精确轮廓的形心纵坐标。
3).投影映射得到非关键帧F3、F4的初始轮廓:设每个分割小组的非关键帧为F3、F4,F3、F4的初始形心及初始轮廓都是由前一帧的精确轮廓根据形心间的运动矢量投影映射得到的。F3的初始轮廓就是将F2的精确轮廓以初始形心Pos'3为中心,(MV_1to2.x,MV_1to2.y)为偏移量向F3投影映射。其中,Pos'3为:
Pos3'.x=Pos2.x+MV_1to2.x
Pos3'.y=Pos2.y+MV_1to2.y
经过应用改进的GVF Snake于获取的初始轮廓得到对象的精确轮廓,并经过计算获得F3的精确形心(X3,Y3)=(Pos3.x,Pos3.y)。从而计算获得F2到F3的运动向量。同样,F4的初始轮廓是将F3的精确轮廓以初始形心Pos'4为中心,(MV_2to3.x,MV_2to3.y)为偏移量向F4投影映射得到的。其中,(MV_2to3.x,MV_2to3.y)为:
MV_2to3.x=Pos3.x-Pos2.x
MV_2to3.y=Pos3.y-Pos2.y
公式中Pos2.x,Pos2.y表示精确轮廓F2的形心横纵坐标,Pos3.x,Pos3.y表示非关键帧F3形心的横纵坐标。对F4内的初始轮廓采用改进的GVF Snake得到精确轮廓。
CN201310116699.3A 2013-04-07 2013-04-07 基于形心跟踪和改进GVF Snake的视频对象轮廓提取方法 Expired - Fee Related CN103218830B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201310116699.3A CN103218830B (zh) 2013-04-07 2013-04-07 基于形心跟踪和改进GVF Snake的视频对象轮廓提取方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201310116699.3A CN103218830B (zh) 2013-04-07 2013-04-07 基于形心跟踪和改进GVF Snake的视频对象轮廓提取方法

Publications (2)

Publication Number Publication Date
CN103218830A true CN103218830A (zh) 2013-07-24
CN103218830B CN103218830B (zh) 2016-09-14

Family

ID=48816573

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201310116699.3A Expired - Fee Related CN103218830B (zh) 2013-04-07 2013-04-07 基于形心跟踪和改进GVF Snake的视频对象轮廓提取方法

Country Status (1)

Country Link
CN (1) CN103218830B (zh)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104320592A (zh) * 2014-10-30 2015-01-28 浙江大学 一种单幅编码图像的自适应视频重建方法
CN104537683A (zh) * 2014-11-18 2015-04-22 浙江大学 基于编码图像散粒特性的运动区域搜索方法
CN106023224A (zh) * 2016-05-30 2016-10-12 天水师范学院 一种中药材显微图像的pcnn自动分割方法
CN108596109A (zh) * 2018-04-26 2018-09-28 济南浪潮高新科技投资发展有限公司 一种基于神经网络和运动矢量的目标检测方法及装置
CN109410227A (zh) * 2018-05-15 2019-03-01 刘宇轩 一种基于gvf模型的土地利用图斑轮廓提取算法
CN110188664A (zh) * 2019-05-28 2019-08-30 福州大学 一种基于Snake的车载激光点云矢量道路边界精细提取方法
CN110753932A (zh) * 2017-04-16 2020-02-04 脸谱公司 用于提供内容的系统和方法
CN112700467A (zh) * 2019-10-22 2021-04-23 株洲中车时代电气股份有限公司 一种基于运动轨迹的人物跟踪方法及系统
CN113298035A (zh) * 2021-06-17 2021-08-24 上海红檀智能科技有限公司 基于图像识别的无人机电力杆塔检测及自主巡航方法
CN114178553A (zh) * 2021-11-30 2022-03-15 西安交通大学 一种增材制造工艺中工件最佳成型方向确定方法及系统
CN116434126A (zh) * 2023-06-13 2023-07-14 清华大学 农作物的微振动速度检测方法及装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102129691A (zh) * 2011-03-22 2011-07-20 北京航空航天大学 一种采用Snake轮廓模型的视频对象跟踪分割方法
CN102970528A (zh) * 2012-12-28 2013-03-13 北京航空航天大学 基于变化检测和帧差累积的视频对象分割方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102129691A (zh) * 2011-03-22 2011-07-20 北京航空航天大学 一种采用Snake轮廓模型的视频对象跟踪分割方法
CN102970528A (zh) * 2012-12-28 2013-03-13 北京航空航天大学 基于变化检测和帧差累积的视频对象分割方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
王宇 等: "一种新的基于各向异性扩散的GVF模型", 《计算机工程》, vol. 36, no. 4, 28 February 2010 (2010-02-28) *
祝世平 等: "基于Snake活动轮廓模型的视频跟踪分割方法", 《光电子.激光》, vol. 24, no. 1, 31 January 2013 (2013-01-31) *

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104320592A (zh) * 2014-10-30 2015-01-28 浙江大学 一种单幅编码图像的自适应视频重建方法
CN104537683A (zh) * 2014-11-18 2015-04-22 浙江大学 基于编码图像散粒特性的运动区域搜索方法
CN104537683B (zh) * 2014-11-18 2017-05-03 浙江大学 基于编码图像散粒特性的运动区域搜索方法
CN106023224A (zh) * 2016-05-30 2016-10-12 天水师范学院 一种中药材显微图像的pcnn自动分割方法
CN110753932A (zh) * 2017-04-16 2020-02-04 脸谱公司 用于提供内容的系统和方法
CN110753932B (zh) * 2017-04-16 2023-05-23 元平台公司 用于提供内容的系统和方法
CN108596109B (zh) * 2018-04-26 2021-04-13 浪潮集团有限公司 一种基于神经网络和运动矢量的目标检测方法及装置
CN108596109A (zh) * 2018-04-26 2018-09-28 济南浪潮高新科技投资发展有限公司 一种基于神经网络和运动矢量的目标检测方法及装置
CN109410227A (zh) * 2018-05-15 2019-03-01 刘宇轩 一种基于gvf模型的土地利用图斑轮廓提取算法
CN109410227B (zh) * 2018-05-15 2023-07-14 刘宇轩 一种基于gvf模型的土地利用图斑轮廓提取算法
CN110188664A (zh) * 2019-05-28 2019-08-30 福州大学 一种基于Snake的车载激光点云矢量道路边界精细提取方法
CN110188664B (zh) * 2019-05-28 2022-05-24 福州大学 一种基于Snake的车载激光点云矢量道路边界精细提取方法
CN112700467A (zh) * 2019-10-22 2021-04-23 株洲中车时代电气股份有限公司 一种基于运动轨迹的人物跟踪方法及系统
CN113298035A (zh) * 2021-06-17 2021-08-24 上海红檀智能科技有限公司 基于图像识别的无人机电力杆塔检测及自主巡航方法
CN114178553A (zh) * 2021-11-30 2022-03-15 西安交通大学 一种增材制造工艺中工件最佳成型方向确定方法及系统
CN116434126A (zh) * 2023-06-13 2023-07-14 清华大学 农作物的微振动速度检测方法及装置
CN116434126B (zh) * 2023-06-13 2023-09-19 清华大学 农作物的微振动速度检测方法及装置

Also Published As

Publication number Publication date
CN103218830B (zh) 2016-09-14

Similar Documents

Publication Publication Date Title
CN103218830A (zh) 基于形心跟踪和改进GVF Snake的视频对象轮廓提取方法
Tian et al. Active contour model combining region and edge information
Hu et al. Active contour-based visual tracking by integrating colors, shapes, and motions
CN103886619B (zh) 一种融合多尺度超像素的目标跟踪方法
CN103871076A (zh) 基于光流法和超像素分割的运动目标提取方法
CN104200485A (zh) 一种面向视频监控的人体跟踪方法
CN104036523A (zh) 一种基于SURF特征的改进Mean Shift的目标跟踪方法
CN101924871A (zh) 基于均值偏移的视频目标跟踪方法
CN103310194A (zh) 视频中基于头顶像素点梯度方向的行人头肩部检测方法
CN106780564B (zh) 一种基于先验模型约束的抗干扰轮廓跟踪方法
Yin et al. Background subtraction for moving cameras based on trajectory-controlled segmentation and label inference
CN104036528A (zh) 一种基于全局搜索的实时分布场目标跟踪方法
Zhang et al. Robust head tracking based on multiple cues fusion in the kernel-bayesian framework
CN104574435A (zh) 基于块聚类的运动相机前景分割方法
Liu et al. Robust kernel-based tracking algorithm with background contrasting
CN102279925B (zh) 链式处理人脸识别方法及系统
Yuan-ming et al. Enhanced mean shift tracking algorithm based on evolutive asymmetric kernel
Olszewska et al. Multi-feature vector flow for active contour tracking
Lee et al. Robust detection of preceding vehicles in crowded traffic conditions
Ge et al. Active contour evolved by joint probability classification on Riemannian manifold
Fu et al. Marked watershed and image morphology based motion detection and performance analysis
Tao et al. A novel adaptive motion detection based on k-means clustering
CN113297990B (zh) 基于高斯掩模光流的人体足部运动目标检测方法
Sun et al. A refined particle filter based on determined level set model for robust contour tracking
Laaroussi et al. Video-surveillance system for tracking moving people using color interest points

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
TR01 Transfer of patent right

Effective date of registration: 20191107

Address after: Room 1609, Jian'an building, No. 3, Section 1, Wanjiali Middle Road, Martian street, Furong district, Changsha City, Hunan Province

Patentee after: Changsha liuteng Technology Co.,Ltd.

Address before: 100191 Haidian District, Xueyuan Road, No. 37,

Patentee before: BEIHANG University

TR01 Transfer of patent right
TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20191122

Address after: 221700 Dashahe town forest farm, Fengxian County, Xuzhou City, Jiangsu Province

Patentee after: XUZHOU ZHONGHUIFU YINGJIE FEED Co.,Ltd.

Address before: Room 1609, Jian'an building, No. 3, Section 1, Wanjiali Middle Road, Martian street, Furong district, Changsha City, Hunan Province

Patentee before: Changsha liuteng Technology Co.,Ltd.

TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20220324

Address after: 221700 south of cuihuayuan village, West Third Ring Road, Fengxian Economic Development Zone, Xuzhou City, Jiangsu Province

Patentee after: FENGXIAN XINZHONGMU FEED CO.,LTD.

Address before: 221700 Dashahe town forest farm, Feng County, Xuzhou City, Jiangsu Province

Patentee before: XUZHOU ZHONGHUIFU YINGJIE FEED Co.,Ltd.

CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20160914