CN100583126C - 基于快速图像配准的视角变化条件下视频前景提取方法 - Google Patents
基于快速图像配准的视角变化条件下视频前景提取方法 Download PDFInfo
- Publication number
- CN100583126C CN100583126C CN200810059124A CN200810059124A CN100583126C CN 100583126 C CN100583126 C CN 100583126C CN 200810059124 A CN200810059124 A CN 200810059124A CN 200810059124 A CN200810059124 A CN 200810059124A CN 100583126 C CN100583126 C CN 100583126C
- Authority
- CN
- China
- Prior art keywords
- background
- training
- video
- light stream
- foreground
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/28—Quantising the image, e.g. histogram thresholding for discrimination between background and foreground patterns
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于快速图像配准的视角变化条件下视频前景分割的方法。本方法利用一组不同视角下的训练背景图像进行Isomap流形学习获得背景模型。然后,对由于相机运动等原因而引起视角变化的视频,可以实时地进行前景分割,即:将其中每帧的前景和背景进行分割。前景分割过程首先通过视频帧和最接近的训练背景图像间的光流构造一幅和视频帧的视角完全相同的背景图像,然后通过背景减除来获得前景区域。为了解决光流计算的低效率问题,本方法使用一种基于流形的光流插值来避免在线阶段的光流计算,在背景建模阶段预先计算视角相似的背景图像之间的光流,在前景分割阶段,利用新视频帧在背景流形上的位置快速插值获得光流。获得了很高的效率。
Description
技术领域
本发明涉及视频与图像处理领域,尤其涉及一种基于快速图像配准的视角变化条件下视频前景提取方法。
背景技术
前景提取是指将视频中的前景物体(如人物)和背景相分离的过程。前景的位置、形状、运动等信息对于图像和视频理解非常关键,许多后期的视觉分析都是基于前景提取的结果。 例如,安全监控系统可以通过前景提取来监控特定的动作与行为;交通监控系统可以根据前景(车辆)提取来评估交通状态;人机交互系统可以通过提取的前景来识别人体的手势或动作从而产生响应;动作捕获系统可以通过前景提取来恢复三维人体运动;视频和动画编缉系统则可以通过前景提取将一段视频的前景附加到另外一段视频上,从而产生特效。
复杂条件下的前景提取是一项较困难的工作,困难主要来源于背景的高度复杂性,背景本身的变化,以及相机运动带来的视角变化。背景减除法(background subtraction)是一种广泛使用的方法,它假定背景已知而且是静态的,通过将视频帧和背景图像进行逐像素比较来提取前景。这种方法在背景本身发生变化或者相机发生运动的情况下显然会失效。为了解决背景的局部变化问题(如摇摆的树枝,荡漾的水波),混合高斯模型(Mixture Gaussian Model)方法被广泛使用,如1 999年在IEEE Conference on Computer Vision and PatternRecognition(CVPR)会议上发表的《Adaptive background mixture models forrealtime tracking》。该方法认为,图像上每个像素的颜色值可以有多个来源。例如,随着树枝的摇摆,某个像素在某些时刻对应着树叶的颜色,而在另一些时刻对应着天空的颜色。于是,可以用混合高斯模型来对各个像素的颜色值进行建模。 为了解决阴影和高亮等光照问题,1999年的IEEE ICCV Frame-rateWorkshop上发表了《A statistical approach for real-time robust backgroundsubtraction and shadow detection》一文,公开了一种将色品和亮度分离的颜色模型扩展了传统的背景减除方法。为了解决背景的缓慢的变化问题(如光照的渐变),还有一些方法通过自适应的滤波来不断的更新背景统计模型,如1997年在IEEE Transactions on Pattern Analysis and Machine Intelligence上发表的《Pfinder:Real-time tracking of human body》。另一种方法则使用隐马尔科夫模型(Hidden Markov Model)来解决背景本身的变化,如2002年在IEEE Transactionson Pattern Analysis and Machine Intelligence上发表的《An HMM basedsegmentation method for traffic monitoring movies》。
以上方法的共同点在于,他们都假定拍照的相机是静止不动的,即整个视频的视角是保持不变的。而事实上,现实中的大多数视频拍摄时相机都是运动的。例如,很多视频是用手持相机拍摄的,手的抖动会使视角发生变化;很多监控相机通过旋转视角来监控大范围的区域。在这些情况下,传统背景减除方法都不可用。如图1,(a)是一包含前景的视频帧;(b1)是处于相同视角的背景图像;(c1)是由于相机抖动而视角略有位移的背景图像;(b2)和(c2)分别是利用(b1)和(c1)通过背景减除获得的前景图。可以看出,背景减除对视角的微小变化也非常敏感。
另一方面,研究人员也提出了某些专门针对运动相机的前景提取方法。例如,2000年在IEEE Conference on Computer Vision and Pattern Recognition(CVPR)会议上发表的《Scene modeling for wide area surveillance and image synthesis》利用一系列不同视角的图像建立视频全景图,然后对于新视频帧,首先定位它在全景图中的位置,然后再用背景减除提取前景。这种方法在有运动视差(motionparallax)的情况下会失效。2000年在IEEE Transactions on Pattern Analysis andMachine Intelligence上发表的《Detecting salient motion by accumulatingdirectionally-consistent flow》通过计算光流(optical flow),将光流不一致的局部区域作为前景。这种方法假定前景的运动和背景有显著的不同,且前景的运动方向要始终保持一致。
发明内容
本发明的目的是提供一种基于快速图像配准的视角变化条件下视频前景提取方法。
基于快速图像配准的视角变化条件下视频前景分割的方法包括离线的背景训练和在线的前景分割两个阶段,
离线的背景训练阶段包括如下步骤:
(1)获取训练背景图像集{Bn};
(2)利用训练背景图像集来进行Isomap流形学习,获得其所在的低维流形;
(3)利用窗口相关性方法、基于角点的插值和基于局部高斯模型的奇异值去除方法来计算在背景流形上位置接近的训练背景图像之间的光流;
在线的前景分割阶段包括如下步骤:
(4)对每个新来的包含前景的视频帧F,首先利用扩展的Isomap计算该帧在背景流形上的位置;
(5)在计算获得新视频帧F在背景流形上的位置之后,在背景流形的局部欧氏范围内进行光流插值,得到从最接近的背景训练图像B(F)到F的光流OBF;
(6)根据B(F)和OBF构造出和F处在完全相同的视角下的背景图像BF;
(7)利用图像F和BF,通过背景减除,即获得F的前景区域,完成了F的前景分割。
所述的获取训练背景图像集{Bn}:拍摄不同视角的背景图像来获取训练背景图像集,或者使用视频中空的不包含前景的背景帧作为训练背景图像集。
所述的利用训练背景图像集来进行Isomap流形学习,获得训练背景图像集所在的低维流形:对于D维向量集{Bn}(n=1,2,...,N),首先计算一个N×N的距离矩阵S,公式如下:
Sij=||Bi-Bj||(i,j=1,2,...,N), 1
其中||Bi-Bj||即为Bi与Bj之间的L2距离;然后,根据距离矩阵S构造最短路径矩阵S’,即:方阵S’记录了{Bn}中任意两个顶点Bj和Bi之间的最短路径;然后,由距离矩阵S’来构造矩阵M:
M=HSH/2, 2
其中的矩阵H由Hij=δij-1/N定义;于是,{Bn}在d维流形上的映射{cn}(d<<D)由下式计算:
其中λ1,λ2,...,λd为矩阵M的前d个非负特征值(降序排列),e1,e2,...,ed是对应的特征向量,{Bn}的本征维度d由降维后的残差确定,当残差变化曲线停止随维度上升而降低时,维度作为本征维度d。
所述的利用窗口相关性方法、基于角点的插值和基于局部高斯模型的奇异值去除方法来计算在背景流形上位置接近的训练背景图像之间的光流:对于{Bn}中任一样本Bi,在流形上寻找它最接近的k个邻居并计算Bi和每个邻居间的光流;计算从Bi到Bj的光流的方法如下:定义一个局部窗口大小,对于Bi上的点P0:(x0,y0),在Bj的(x0,y0)点附近寻找点P’:(x0+Δx,y0+Δy),使得Bj上以P’为中心的窗口和Bi上以P0为中心的窗口的相关性最大,相关性定义为:
其中W1和W2为两个窗口,W1和W2为窗口W1和W2的颜色均值;只计算角点处的光流,同时,非角点处光流采用k近邻插值由邻近的角点处光流插值得到;在插值之前,采用局部高斯模型去除角点处光流的奇异值,用EM算法来迭代去除角点处光流的奇异值,在EM算法的每一步迭代中,对每个不为奇异值的光流Oi,利用其他临近的到不为奇异值的光流来计算一个局部高斯模型,然后利用这个局部高斯模型来判断Oi是否应为奇异值。
所述的对每个新来的包含前景的视频帧F,首先利用扩展的Isomap计算该帧在背景流形上的位置:位置坐标计算公式如下:
cN+1=C*(S-sN+1)/2 5
其中,S是由Isomap计算的样本间距离矩阵S的列向量的均值,sN+1是新视频帧和训练背景图像的距离平方组成的N维向量,C是所有训练样本的低维坐标构成的矩阵,C*表示矩阵C的伪逆的转置。
所述的在计算获得新视频帧F在背景流形上的位置之后,在背景流形的局部欧氏范围内进行光流插值,得到从最接近的背景训练图像B(F)到F的光流ORF:设背景流形维数为d,选取在背景流形上和F距离最接近的d+1个训练背景图像B(F),B2,...,Bd+1,将背景流形上从B(F)到B2,从B(F)到B3,...,从B(F)到Bd+1的向量分别用vB2,vB3,...,vB(d+1)来表示,将从B(F)到F的向量用vBF表示,则vBF可以由下式表达成vB2,vB3,...,vB3的线性组合:
vBF=α1vB2+α2vB3+...+αdvB(d+1) 6
再令OB2,OB3,OBF表示从B(F)到B2,从B(F)到B3,...,从B(F)到Bd+1的光流,令OBF表示从B(F)到F的向量,则OBF可以用同样的权重由下式快速计算得到:
OBF=α1OB2+α1OB3+...+αdOB(d+1) 7
其中OB2,OB3,...,OB(d+1)已在背景训练训练阶段计算得到。
所述的根据B(F)和OBF构造出一个图像获得和F处在完全相同的视角下的背景图像BF:设图像高h像素,宽w像素,首先构造一个h*w的空图像作为BF的初始图像;BF的像素(x,y)的颜色由下式计算:
BF(x,y)=B(F)(x-OBF(x,y),y-OBF(x,y)) 8
所述的利用图像F和与其处在完全相同视角下的背景图像BF,通过背景减除,即获得F的前景区域,完成了F的前景分割:对于每个像素坐标(x,y),计算F和BF的颜色R/G/B三分量差值:
[C(x,y)R,C(x,y)G,C(x,y)B]=
[||F(x,y)R-BF(x,y)R||,||F(x,y)G-BF(x,y)G||,||F(x,y)B-BF(x,y)B||] 9
其中C(x,y)R/G/B表示两幅图像的(x,y)像素颜色的R/G/B分量差值,F(x,y)表示图像F的像素(x,y)颜色R/G/B分量,BF(x,y)R/G/B表示图像BF的像素(x,y)颜色R/G/B分量;之后,计算向量C(x,y)在RGB空间的代表亮度的长度和代表色品的角度,如果角度超过阈值,则像素(x,y)为前景像素,否则为背景像素。
本发明具有的有益的效果是:方法具有准确、鲁棒和高效的特点。通过流形学习的背景建模避免了在线阶段的光流计算。所有的光流计算都在离线阶段预先完成,在线阶段的光流通过插值的方式得到,极大地提高了效率,使得本方法能够实时地对视频进行前景分割。由于对于每帧的前景提取是相互独立的,本方法也避免了跟踪机制往往存在的误差累积和难以从错误中自动恢复等问题。实验证明该方法在相机平移(translating)、旋转(panning/tilting)、滚动(rolling)、镜头缩放(zooming)等条件下均有良好的效果。
附图说明
图1是以背景流形维数d=2为例的流形上的光流插值过程;
图2是实施例一所用的视频的若干代表帧、每帧构造出的背景、以及提取的前景;
图3是实施例二所用的视频的若干代表帧、每帧构造出的背景、以及提取的前景。
具体实施方式
基于快速图像配准的视角变化条件下视频前景分割的方法包括离线的背景训练和在线的前景分割两个阶段,
离线的背景训练阶段包括如下步骤:
(1)获取训练背景图像集{Bn};
(2)利用训练背景图像集来进行Isomap流形学习,获得其所在的低维流形;
(3)利用窗口相关性方法、基于角点的插值和基于局部高斯模型的奇异值去除方法来计算在背景流形上位置接近的训练背景图像之间的光流;
在线的前景分割阶段包括如下步骤:
(4)对每个新来的包含前景的视频帧F,首先利用扩展的Isomap计算该帧在背景流形上的位置;
(5)在计算获得新视频帧F在背景流形上的位置之后,在背景流形的局部欧氏范围内进行光流插值,得到从最接近的背景训练图像B(F)到F的光流OBF;
(6)根据B(F)和OBF构造出和F处在完全相同的视角下的背景图像BF;
(7)利用图像F和BF,通过背景减除,即获得F的前景区域,完成了F的前景分割。
所述的获取训练背景图像集{Bn}:拍摄不同视角的背景图像来获取训练背景图像集,或者使用视频中空的不包含前景的背景帧作为训练背景图像集。本方法需要一组背景图像{Bn}用来进行背景训练。这些图像是不包含前景的纯背景图像,并处于不同的视角下。{Bn}所处的视角应当能够大致涵盖接下来在线提取阶段相机的运动范围。例如,如果是为了解决相机由于手持而产生的抖动,则可以手持该相机在同一个场景下拍摄一些没有前景的背景图像作为{Bn};如果是处理已有的视频,很多视频中存在一些“空”的不包含任何前景的帧,这些帧可以作为训练图像;对于旋转监控相机,则可以手动拍摄一些不同视角下的纯背景图像。对于{Bn}中的训练图像数量,一般而言,该数量随着视角变化自由度的增加而增加。例如,对于仅存在抖动的情况,50幅左右的训练背景图像就可以达到良好的效果;对于相机大范围旋转的情况(典型的如旋转监控相机),则需要200~300幅训练背景图像;而如果相机同时存在旋转、抖动和缩放,则需要500~600幅训练背景图像。
所述的利用训练背景图像集来进行Isomap流形学习,获得训练背景图像集所在的低维流形:对于D维向量集{Bn}(n=1,2,...,N),首先计算一个N×N的距离矩阵S,公式如下:
Sij=||Bi-Bj||(i,j=1,2,...,N), 1
其中||Bi-Bj||即为Bi与Bj之间的L2距离;然后,根据距离矩阵S构造最短路径矩阵S’,即:方阵S’记录了{Bn}中任意两个顶点Bj和Bi之间的最短路径;然后,由距离矩阵S’来构造矩阵M:
M=HSH/2, 2
其中的矩阵H由Hij=δij-1/N定义;于是,{Bn}在d维流形上的映射{cn}(d<<D)由下式计算:
其中λ1,λ2,...,λd为矩阵M的前d个非负特征值(降序排列),e1,e2,...,ed是对应的特征向量,{Bn}的本征维度d由降维后的残差确定,当残差变化曲线停止随维度上升而降低时,维度作为本征维度d。
在获取训练背景图像集{Bn}之后,要对{Bn}进行Isomap流形降维。假设{Bn}在原始高维图像空间中的维数为D,坐标为Bi,Isomap的计算步骤如下:
(a)计算距离方阵S:
(b)构造最短路径
以{Bn}中的每个样本为顶点构造一个邻居图G,对于图中的任何两个顶点Bi与Bj,方阵S的Sij项是它们之间的距离。对于任何i和j,当且仅当Bj是Bi的邻居时,将邻居图G中的Bi与Bj相连。邻居的判断可以用k最近邻法或epsilon法。
k最近邻法:所有的顶点中(除Bi外)和Bi最接近的k个顶点是Bi的邻居。
epsilon法:取一个阈值epsilon,对于任意一个顶点Bj(j≠i),如果||Bi-Bj||<epsilon,则Bj是Bi的邻居。
然后,在邻居图G中计算任意两个顶点Bj和Bi之间的最短路径,最短路径的计算方法可以用dijska法等方法。
(c)计算流形坐标
关于{Bn}的本征维度,也即流形的维数d,可以由降维后的残差确定,当残差停止随维度上升时,所处的维度即为本征维度。本征维度也可以利用相机的运动自由度来确定。如前所述,相机的转动、歪斜、缩放分别对应的自由度为2、1、1。例如,如果相机只做转动,则相机运动自由度为2,流形维数也是2;如果相机同时做转动、歪斜和缩放,则相机运动自由度为4,流形维数也为4。我们推荐的方法是:如果相机的运动类型很容易确定,那么就用相机运动的自由度作为流形维数d,如果相机运动类型不确定或者很复杂,则可以用Isomap降维后的残茶来确定d。
所述的利用窗口相关性方法、基于角点的插值和基于局部高斯模型的奇异值去除方法来计算在背景流形上位置接近的训练背景图像之间的光流:在确定了训练背景图像{Bn}的低维流形之后,要计算视角相近的训练背景图像之间的光流。由于{Bn}中的图像在流形上的坐标即反映了它们的视角关系,所以,在流形上距离接近的训练背景图像,它们的视角也接近。对于{Bn}中任一样本Bi,在流形上寻找它最接近的k个邻居并计算Bi和每个邻居间的光流;计算从Bi到Bj的光流的方法如下:定义一个局部窗口大小,对于Bi上的点P0:(x0,y0),在Bj的(x0,y0)点附近寻找点P’:(x0+Δx,y0+Δy),使得Bj上以P’为中心的窗口和Bi上以P0为中心的窗口的相关性最大,相关性定义为:
其中W1和W2为两个窗口,W1和W2为窗口W1和W2的颜色均值;光流的孔径问题(aperture problem)导致只有在图像的角点处计算得到的光流才是最可靠的,只需计算角点处的光流即可,这既可以提高准确率,又可以加快计算的速度。同时,非角点处光流采用k近邻插值由邻近的角点处光流插值得到;在插值之前,采用局部高斯模型去除角点处光流的奇异值,用EM算法来迭代去除角点处光流的奇异值,在EM算法的每一步迭代中,对每个不为奇异值的光流Oi,利用其他临近的到不为奇异值的光流来计算一个局部高斯模型,然后利用这个局部高斯模型来判断Oi是否应为奇异值。
所述的对每个新来的包含前景的视频帧F,首先利用扩展的Isomap计算该帧在背景流形上的位置:本方法对于每个视频帧的处理是独立的,设当前处理的视频帧为F。当F到达后,第一步是要对其进行流形映射,即确定F在背景流形上的位置。位置坐标计算公式如下:
cN+1=C*(S-sN+1)/2 5
其中,S是由Isomap计算的样本间距离矩阵S的列向量的均值,sN+1是新视频帧和训练背景图像的距离平方组成的N维向量,C是所有训练样本的低维坐标构成的矩阵,C*表示矩阵C的伪逆的转置。
所述的在计算获得新视频帧F在背景流形上的位置之后,在背景流形的局部欧氏范围内进行光流插值,得到从最接近的背景训练图像B(F)到F的光流OBF:设背景流形维数为d,选取在背景流形上和F距离最接近的d+1个训练背景图像B(F),B2,...,Bd+1,将背景流形上从B(F)到B2,从B(F)到B3,...,从B(F)到Bd+1的向量分别用vB2,vB3,...,vB(d+1)来表示,将从B(F)到F的向量用vBF表示,则vBF可以由下式表达成vB2,vB3,...,vB3的线性组合:
vBF=α1vB2+α2vB3+...+αdvB(d+1) 6
再令OB2,OB3,OBF表示从B(F)到B2,从B(F)到B3,...,从B(F)到Bd+1的光流,令OBF表示从B(F)到F的向量,则OBF可以用同样的权重由下式快速计算得到:
OBF=α1OB2+α1OB3+...+αdOB(d+1) 7
其中OB2,OB3,...,OB(d+1)已在背景训练训练阶段计算得到。
所述的根据B(F)和OBF构造出一个图像获得和F处在完全相同的视角下的背景图像BF:设图像高h像素,宽w像素,首先构造一个h*w的空图像作为BF的初始图像;BF的像素(x,y)的颜色由下式计算:
BF(x,y)=B(F)(x-OBF(x,y),y-OBF(x,y)) 8
所述的利用图像F和与其处在完全相同视角下的背景图像BF,通过背景减除,即获得F的前景区域,完成了F的前景分割:对于每个像素坐标(x,y),计算F和BF的颜色R/G/B三分量差值:
[C(x,y)R,C(x,y)G,C(x,y)B]=
[||F(x,y)R-BF(x,y)R||,||F(x,y)G-BF(x,y)G||,||F(x,y)B-BF(x,y)B||] 9
其中C(x,y)R/G/B表示两幅图像的(x,y)像素颜色的R/G/B分量差值,F(x,y)表示图像F的像素(x,y)颜色R/G/B分量,BF(x,y)R/G/B表示图像BF的像素(x,y)颜色R/G/B分量;之后,计算向量C(x,y)在RGB空间的代表亮度的长度和代表色品的角度,如果角度超过阈值,则像素(x,y)为前景像素,否则为背景像素。
实施例1
要对一个旋转的监控相机拍摄的视频进行前景提取。如图2所示为视频中的几个代表帧和前景提取的结果。相机拍摄到的图象分辨率为320*240。下面结合前面所述的具体技术方案说明该实例实施的步骤,如下:
1.训练背景图像的获取
在相机的旋转范围内,随机选取300个视角,拍摄300幅纯背景图像作为训练背景图像集{Bn}。
2.训练背景图像的流形降维
对300幅训练背景图像用Isomap进行降维(具体计算步骤如前面所示,不再罗列)。在判断邻居图G的邻居时,采用k最近邻法,取k=6。由于本例中旋转相机的视角变化自由度为2(竖直方向的仰角和水平方向的偏离角),因此Isomap降维时流形维数d取2。
3.训练背景图像的光流计算
对于{Bn}中任一样本Bi,在流形上寻找它最接近的k(k取6)个邻居并计算Bi和每个邻居间的光流。计算光流采用局部窗口相关性距离法,具体计算公式如前所述,不再罗列。在计算光流时,只计算角点处的光流,非角点处光流由邻近的角点处光流插值得到(采用k近邻插值,k取5)。在插值之前,采用局部高斯模型去除角点处光流的奇异值。
4.新视频帧的流形映射
本步骤是在线阶段的开始,从这里开始对每个新视频帧F提取前景。首先对F进行流形映射,即确定F在背景流形上的位置。具体计算公式如前所述,不再罗列。
5.新视频帧的光流插值
在确定新视频帧F在流形上的位置之后,在背景流形的局部欧氏范围内进行光流插值,获得从F到最接近的背景训练图像B(F)之间的光流OBF:在本例中,流形维数d=2,如图1,选取在背景流形上和F距离最接近的3个训练背景图像B(F),B2,B3(按距离升序排列)。假定背景流形上从B(F)到B2、从B(F)到B3、从B(F)到F的向量分别用vB2、vB3、vBF来表示,vBF可以表达成vB2与vB3的线性组合:
vBF=αvB2+βvB3
再令OB2,OB3,OBF表示从B(F)到B2,从B(F)到B3,从B(F)到F的光流,则OBF可以用同样的权重由OB2,OB3和快速插值得到:
OBF=αOB2+βOB3
其中OB2,OB3和已在背景训练训练阶段(步骤3)计算得到。
6.新视频帧的背景构造
在插值获得从F到最接近的背景训练图像B(F)之间的光流OBF之后,根据B(F)和OBF构造出一个图像获得和F处在完全相同的视角下的背景图像BF:由OBF所记录的B(F)和F的像素间对应关系,根据已知的训练背景图像B(F),即可以构造出图像BF,它是一个背景图像,且和F处在完全相同的视角。
7.背景减除和前景提取
在构造出和新视频帧F处在完全相同视角下的背景图像BF后,就可以利用利用图像F和BF,通过背景减除,即获得F的前景区域,完成了F的前景分割。背景减除是指根据图像F和BF逐像素进行颜色的比较,获得F的前景区域。在本例中,本方法的在线前景提取的速度为30帧/秒,达到实时要求。
实施例2
要对一个由于手持而抖动,同时又有缩放变化的相机拍摄的视频进行前景提取。如图3所示为视频中的几个代表帧和前景提取的结果。相机拍摄到的图象分辨率为320*240。下面结合前面所述的具体技术方案说明该实例实施的步骤,如下:
1.训练背景图像的获取
取相机的8个缩放级别,在每个缩放级别上随机抖动拍摄100幅图像,于是,训练背景图像集{Bn}包含800幅背景图像。
2.训练背景图像的流形降维
对640幅训练背景图像用Isomap进行降维(具体计算步骤如前面所示,不再罗列)。在判断邻居图G的邻居时,采用k最近邻法,取k=6。由于本例中相机的视角变化自由度为4(竖直方向的仰角、水平方向的偏离角、歪斜角度和缩放比例),因此Isomap降维时流形维数d取4。
3.训练背景图像的光流计算
对于{Bn}中任一样本Bi,在流形上寻找它最接近的k(k取6)个邻居并计算Bi和每个邻居间的光流。计算光流采用局部窗口相关性距离法,具体计算公式如前所述,不再罗列。在计算光流时,只计算角点处的光流,非角点处光流由邻近的角点处光流插值得到(采用k近邻插值,k取5)。在插值之前,采用局部高斯模型去除角点处光流的奇异值。
4.新视频帧的流形映射
本步骤是在线阶段的开始,从这里开始对每个新视频帧F提取前景。首先对F进行流形映射,即确定F在背景流形上的位置。具体计算公式如前所述,不再罗列。
5.新视频帧的光流插值
在确定新视频帧F在流形上的位置之后,在背景流形的局部欧氏范围内进行光流插值,获得从F到最接近的背景训练图像B(F)之间的光流OBF:在本例中,流形维数d=4,所以,选取在背景流形上和F距离最接近的5个训练背景图像B(F),B2,B3,B4,B5(按距离升序排列)。假定背景流形上从B(F)到B2、从B(F)到B3、从B(F)到B4、从B(F)到B5、从B(F)到F的向量分别用vB2、vB3、vB4、vB5、vBF来表示,vBF可以表达成vB2、vB3、vB4、vB5的线性组合:
vBF=αvB2+βvB3+γvB4+δvB5
再令OB2、OB3、OB4、OB5、OBF表示从B(F)到B2、从B(F)到B3、从B(F)到B4、从B(F)到B5、从B(F)到F的光流,则OBF可以用同样的权重由OB2、OB3、OB4、OB5快速插值得到:
OBF=αOB2+βOB3+γOB4+δOB5
其中OB2、OB3、OB4、OB5和已在背景训练训练阶段(步骤3)计算得到。
6.新视频帧的背景构造
在插值获得从F到最接近的背景训练图像B(F)之间的光流OBF之后,根据B(F)和OBF构造出一个图像获得和F处在完全相同的视角下的背景图像BF:由OBF所记录的B(F)和F的像素间对应关系,根据已知的训练背景图像B(F),即可以构造出图像BF,它是一个背景图像,且和F处在完全相同的视角。
7.背景减除和前景提取
在构造出和新视频帧F处在完全相同视角下的背景图像BF后,就可以利用利用图像F和BF,通过背景减除,即获得F的前景区域,完成了F的前景分割。背景减除是指根据图像F和BF逐像素进行颜色的比较,获得F的前景区域。
Claims (8)
1.一种基于快速图像配准的视角变化条件下视频前景分割的方法,其特征在于包括离线的背景训练和在线的前景分割两个阶段,
离线的背景训练阶段包括如下步骤:
(1)获取训练背景图像集{Bn};
(2)利用训练背景图像集来进行Isomap流形学习,获得其所在的低维流形;
(3)利用窗口相关性方法、基于角点的插值和基于局部高斯模型的奇异值去除方法来计算在背景流形上位置接近的训练背景图像之间的光流;
在线的前景分割阶段包括如下步骤:
(4)对每个新来的包含前景的视频帧F,首先利用扩展的Isomap计算该帧在背景流形上的位置;
(5)在计算获得新视频帧F在背景流形上的位置之后,在背景流形的局部欧氏范围内进行光流插值,得到从最接近的背景训练图像B(F)到F的光流OBF;
(6)根据B(F)和OBF构造出和F处在完全相同的视角下的背景图像BF;
(7)利用视频帧F和BF,通过背景减除,即获得F的前景区域,完成了F的前景分割。
2.根据权利要求1所述的一种基于快速图像配准的视角变化条件下视频前景分割的方法,其特征在于,所述的获取训练背景图像集{Bn}:拍摄不同视角的背景图像来获取训练背景图像集,或者使用视频中空的不包含前景的背景帧作为训练背景图像集。
3.根据权利要求1所述的一种基于快速图像配准的视角变化条件下视频前景分割的方法,其特征在于,所述的利用训练背景图像集来进行Isomap流形学习,获得训练背景图像集所在的低维流形:对于D维向量集{Bn},其中n=1,2,...,N,首先计算一个N×N的距离矩阵S,公式如下:
Sij=||Bi-Bj||i,j=1,2,...,N, 1
其中||Bi-Bj||即为Bi与Bj之间的L2距离;然后,根据距离矩阵S构造最短路径矩阵S’,即:方阵S’记录了{Bn}中任意两个顶点Bj和Bi之间的最短路径;然后,由最短路径矩阵S’来构造矩阵M:
M=HS’H/2, 2
其中的矩阵H由Hij=δij-1/N定义;于是,{Bn}在d维流形上的映射{cn},d<<D,由下式计算:
其中λ1,λ2,...,λd为矩阵M的前d个降序排列的非负特征值,e1,e2,...,ed是对应的特征向量,{Bn}的本征维度d由降维后的残差确定,当残差变化曲线停止随维度上升而降低时,维度作为本征维度d。
4.根据权利要求1所述的一种基于快速图像配准的视角变化条件下视频前景分割的方法,其特征在于,所述的利用窗口相关性方法、基于角点的插值和基于局部高斯模型的奇异值去除方法来计算在背景流形上位置接近的训练背景图像之间的光流:对于{Bn}中任一样本Bi,在流形上寻找它最接近的k个邻居并计算Bi和每个邻居间的光流;计算从Bi到Bj的光流的方法如下:定义一个局部窗口大小,对于Bi上的点P0:(x0,y0),在Bj的(x0,y0)点附近寻找点P’:(x0+Δx,y0+Δy),使得Bj上以P’为中心的窗口和Bi上以P0为中心的窗口的相关性最大,相关性定义为:
其中W1和W2为两个窗口,W1和W2为窗口W1和W2的颜色均值;只计算角点处的光流,同时,非角点处光流采用k近邻插值由邻近的角点处光流插值得到;在插值之前,采用局部高斯模型去除角点处光流的奇异值,用EM算法来迭代去除角点处光流的奇异值,在EM算法的每一步迭代中,对每个不为奇异值的光流Oi,利用其他临近的到不为奇异值的光流来计算一个局部高斯模型,然后利用这个局部高斯模型来判断Oi是否应为奇异值。
5.根据权利要求1所述的一种基于快速图像配准的视角变化条件下视频前景分割的方法,其特征在于,所述的对每个新来的包含前景的视频帧F,首先利用扩展的Isomap计算该帧在背景流形上的位置:位置坐标计算公式如下:
cN+1=C*(S-sN+1)/2 5
其中,S是由Isomap计算的样本间距离矩阵S的列向量的均值,sN+1是新视频帧和训练背景图像的距离平方组成的N维向量,C是所有训练样本的低维坐标构成的矩阵,C*表示矩阵C的伪逆的转置。
6.根据权利要求1所述的一种基于快速图像配准的视角变化条件下视频前景分割的方法,其特征在于,所述的在计算获得新视频帧F在背景流形上的位置之后,在背景流形的局部欧氏范围内进行光流插值,得到从最接近的背景训练图像B(F)到F的光流OBF:设背景流形维数为d,选取在背景流形上和F距离最接近的d+1个训练背景图像B(F),B2,...,Bd+1,将背景流形上从B(F)到B2,从B(F)到B3,...,从B(F)到Bd+1的向量分别用vB2,vB3,...,vB(d+1)来表示,将从B(F)到F的向量用vBF表示,则vBF由下式表达成vB2,vB3,...,vB(d+1)的线性组合:
vBF=α1vB2+α2vB3+...+αdvB(d+1) 6
再令OB2,OB3,...,OB(d+1)表示从B(F)到B2,从B(F)到B3,...,从B(F)到Bd+1的光流,则OBF用同样的权重由下式快速计算得到:
OBF=α1OB2+α2OB3+...+αdOB(d+1) 7
其中OB2,OB3,...,OB(d+1)已在背景训练训练阶段计算得到。
7.根据权利要求1所述的一种基于快速图像配准的视角变化条件下视频前景分割的方法,其特征在于,所述的根据B(F)和OBF构造出和F处在完全相同的视角下的背景图像BF:设图像高h像素,宽w像素,首先构造一个h*w的空图像作为BF的初始图像;BF的像素(x,y)的颜色由下式计算:
BF(x,y)=B(F)(x-OBF(x,y),y-OBF(x,y)) 8
8.根据权利要求1所述的一种基于快速图像配准的视角变化条件下视频前景分割的方法,其特征在于,所述的利用视频帧F和与其处在完全相同视角下的背景图像BF,通过背景减除,即获得F的前景区域,完成了F的前景分割:对于每个像素坐标(x,y),计算F和BF的颜色R/G/B三分量差值:
[C(x,y)R,C(x,y)G,C(x,y)B]=
[||F(x,y)R-BF(x,y)R||,||F(x,y)G-BF(x,y)G||,||F(x,y)B-BF(x,y)B||] 9
其中C(x,y)R/G/B表示两幅图像的像素(x,y)颜色的R/G/B分量差值,F(x,y)R/G/B表示视频帧F的像素(x,y)颜色R/G/B分量,BF(x,y)R/G/B表示图像BF的像素(x,y)颜色R/G/B分量;之后,计算向量C(x,y)在RGB空间的代表亮度的长度和代表色品的角度,如果角度超过阈值,则像素(x,y)为前景像素,否则为背景像素。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN200810059124A CN100583126C (zh) | 2008-01-14 | 2008-01-14 | 基于快速图像配准的视角变化条件下视频前景提取方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN200810059124A CN100583126C (zh) | 2008-01-14 | 2008-01-14 | 基于快速图像配准的视角变化条件下视频前景提取方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN101216888A CN101216888A (zh) | 2008-07-09 |
CN100583126C true CN100583126C (zh) | 2010-01-20 |
Family
ID=39623319
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN200810059124A Expired - Fee Related CN100583126C (zh) | 2008-01-14 | 2008-01-14 | 基于快速图像配准的视角变化条件下视频前景提取方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN100583126C (zh) |
Families Citing this family (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101339658B (zh) * | 2008-08-12 | 2010-09-01 | 北京航空航天大学 | 航拍交通视频的快速鲁棒配准方法 |
CN101882219B (zh) * | 2009-05-08 | 2013-09-11 | 财团法人工业技术研究院 | 图像辨识以及输出方法及其系统 |
CN102054270B (zh) * | 2009-11-10 | 2013-06-05 | 华为技术有限公司 | 一种视频图像中提取前景的方法及装置 |
CN101853505B (zh) * | 2010-05-13 | 2012-06-13 | 复旦大学 | 一种基于像素扩散的前景提取方法 |
CN101937565B (zh) * | 2010-09-16 | 2013-04-24 | 上海交通大学 | 基于运动目标轨迹的动态图像配准方法 |
CN102129689B (zh) * | 2011-02-24 | 2012-11-14 | 南京大学 | 自动增益场景下基于相机响应函数的背景建模方法 |
US9373040B2 (en) * | 2011-11-01 | 2016-06-21 | Google Inc. | Image matching using motion manifolds |
CN102833464B (zh) * | 2012-07-24 | 2015-06-17 | 常州展华机器人有限公司 | 智能视频监控用结构化背景重建方法 |
JP6090786B2 (ja) | 2013-05-09 | 2017-03-08 | 国立大学法人 東京大学 | 背景差分抽出装置及び背景差分抽出方法 |
CN106204636B (zh) * | 2016-06-27 | 2019-03-22 | 北京大学深圳研究生院 | 基于监控视频的视频前景提取方法 |
CN106815844A (zh) * | 2016-12-06 | 2017-06-09 | 中国科学院西安光学精密机械研究所 | 一种基于流形学习的抠图方法 |
CN106815854B (zh) * | 2016-12-30 | 2020-05-15 | 西安交通大学 | 一种基于正则误差建模的在线视频前景背景分离方法 |
CN108961304B (zh) * | 2017-05-23 | 2022-04-26 | 阿里巴巴集团控股有限公司 | 识别视频中运动前景的方法和确定视频中目标位置的方法 |
CN109308670B (zh) * | 2018-09-21 | 2021-06-01 | 国家电网有限公司 | 基于行为预测的变电站安全管控方法 |
CN110580703B (zh) * | 2019-09-10 | 2024-01-23 | 广东电网有限责任公司 | 一种配电线路的检测方法、装置、设备及存储介质 |
CN111275800B (zh) | 2020-01-15 | 2021-09-14 | 北京字节跳动网络技术有限公司 | 动画生成方法、装置、电子设备及计算机可读存储介质 |
CN111723767B (zh) * | 2020-06-29 | 2023-08-08 | 杭州海康威视数字技术股份有限公司 | 一种图像处理方法、装置及计算机存储介质 |
CN112601029B (zh) * | 2020-11-25 | 2023-01-03 | 上海卫莎网络科技有限公司 | 一种已知背景先验信息的视频分割方法、终端和存储介质 |
-
2008
- 2008-01-14 CN CN200810059124A patent/CN100583126C/zh not_active Expired - Fee Related
Non-Patent Citations (4)
Title |
---|
Motion-BasedBackgroundSubtractionusingAdaptiveKernelDensityEstimation. Anurag Mittal,Nikos Paragios.Proceedings of the2004IEEEComputerSocietyConference on ComputerVision and PatternRecognition,Vol.2 . 2004 |
Motion-BasedBackgroundSubtractionusingAdaptiveKernelDensityEstimation. Anurag Mittal,Nikos Paragios.Proceedings of the2004IEEEComputerSocietyConference on ComputerVision and PatternRecognition,Vol.2 . 2004 * |
基于特征光流的角点匹配快速算法. 杨常清等.光电工程,第33卷第4期. 2006 |
基于特征光流的角点匹配快速算法. 杨常清等.光电工程,第33卷第4期. 2006 * |
Also Published As
Publication number | Publication date |
---|---|
CN101216888A (zh) | 2008-07-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN100583126C (zh) | 基于快速图像配准的视角变化条件下视频前景提取方法 | |
CN104867161B (zh) | 一种视频处理方法及装置 | |
Zhang et al. | Semantic segmentation of urban scenes using dense depth maps | |
Marin et al. | Learning appearance in virtual scenarios for pedestrian detection | |
Brostow et al. | Semantic object classes in video: A high-definition ground truth database | |
CN111680655A (zh) | 一种面向无人机航拍影像的视频目标检测方法 | |
CN105528794A (zh) | 基于混合高斯模型与超像素分割的运动目标检测方法 | |
Yao et al. | Learning deformable action templates from cluttered videos | |
CN102999892A (zh) | 基于区域遮罩的深度图像与rgb图像的智能融合方法 | |
CN108280844B (zh) | 一种基于区域候选框跟踪的视频目标定位方法 | |
CN102932605A (zh) | 一种视觉感知网络中摄像机的组合选择方法 | |
CN105741319B (zh) | 基于盲目更新策略和前景模型的改进视觉背景提取方法 | |
CN103735269A (zh) | 一种基于视频多目标跟踪的高度测量方法 | |
Trinh et al. | Efficient UAV video event summarization | |
CN110852241A (zh) | 一种应用于护理机器人的小目标检测方法 | |
Van den Bergh et al. | Real-time stereo and flow-based video segmentation with superpixels | |
Cheng et al. | Semantic segmentation for pedestrian detection from motion in temporal domain | |
CN110516527B (zh) | 一种基于实例分割的视觉slam回环检测改进方法 | |
CN101719280A (zh) | 红外弱小目标检测方法 | |
CN104200455B (zh) | 一种基于运动统计特征分析的关键姿态提取方法 | |
CN107563371A (zh) | 基于线激光光条的动态搜索感兴趣区域的方法 | |
CN113920254B (zh) | 一种基于单目rgb的室内三维重建方法及其系统 | |
Bagheri et al. | Temporal mapping of surveillance video | |
CN113505812A (zh) | 一种基于双流卷积网络的高压断路器轨迹动作识别方法 | |
Yuyao et al. | The infrared-visible complementary recognition network based on context information |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
C17 | Cessation of patent right | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20100120 Termination date: 20140114 |