CN103279961A - 基于深度恢复和运动估计的视频分割方法 - Google Patents

基于深度恢复和运动估计的视频分割方法 Download PDF

Info

Publication number
CN103279961A
CN103279961A CN201310197108XA CN201310197108A CN103279961A CN 103279961 A CN103279961 A CN 103279961A CN 201310197108X A CN201310197108X A CN 201310197108XA CN 201310197108 A CN201310197108 A CN 201310197108A CN 103279961 A CN103279961 A CN 103279961A
Authority
CN
China
Prior art keywords
alpha
motion
measured
image
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201310197108XA
Other languages
English (en)
Inventor
章国锋
鲍虎军
孙佰贵
熊君君
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang University ZJU
Beijing Samsung Telecommunications Technology Research Co Ltd
Original Assignee
Zhejiang University ZJU
Beijing Samsung Telecommunications Technology Research Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang University ZJU, Beijing Samsung Telecommunications Technology Research Co Ltd filed Critical Zhejiang University ZJU
Priority to CN201310197108XA priority Critical patent/CN103279961A/zh
Publication of CN103279961A publication Critical patent/CN103279961A/zh
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

本发明公开了一种基于深度恢复和运动估计的视频分割方法。它的步骤如下:1)通过用单应性矩阵估计或利用视频序列一致性深度恢复方法恢复出的相机运动以及稠密深度图获得背景相减量度;2)稠密运动估计,为连续的两帧图像估计其稠密运动场d和遮挡图o;3)根据交互制定的多个量度的结合策略来计算视频分割结果;4)重复步骤3)两遍以上后结束。首先,本发明能够通过运动、深度和分割信息的迭代优化,对视频进行分割。其次,本发明无须估计摄像机参数和深度信息,就能对背景做平面运动的视频进行分割。最后,本发明是多量度结合的视频分割方法,能对各种量度的准确率进行衡量,筛选出可靠的量度参加视频分割计算。

Description

基于深度恢复和运动估计的视频分割方法
技术领域
本发明涉及视频分割方法,尤其涉及一种基于深度恢复和运动估计的视频分割方法。
背景技术
视频分割是指按一定规则将视频中每一帧分割成若干区域,它在模式识别、计算机视觉、视频检索、场景识别等领域有着广泛的应用。视频分割是在图像分割的基础上发展而来的,传统的图像分割算法一般基于图像的颜色、边缘、纹理等量度进行分割。视频分割中一个难点就是相机和物体都可能运动,而且运动组成比较复杂(可能既有平移也有旋转)。双层视频分割是将视频中每帧的图像划分为前景和背景两块区域的视频分割。
对于相机几乎是静止的或者背景是已知或可以容易建模的情况,已经有不少自动双层分割的工作,比如A.Criminisi,G.Cross,A.Blake,and V.Kolmogorov,“Bilayer Segmentation ofLive Video,”Proc.IEEE CS Conf.Computer Vision and Pattern Recognition,vol.1,pp.53-60,2006.和A.M.Elgammal,D.Harwood,and L.S.Davis,“Non-Parametric Model for BackgroundSubtraction,”Proc.European Conf.Computer Vision,vol.2,pp.751-767,2000.还有J.Sun,W.Zhang,X.Tang,and H.-Y.Shum,“Background Cut,”Proc.European Conf.Computer Vision,vol.2,pp.628-641,2006。A.Criminisi等人和J.Sun等人提出了两种利用不同的空间以及时域先验对网络视频进行前景估计的方法。然而,以上这些方法都不能处理相机运动是任意的或者背景几何复杂的情况。为了获得高质量的前景抽取,一些学者提出了若干基于交互的图像/视频分割技术,如Y.-Y.Chuang,A.Agarwala,B.Curless,D.Salesin,and R.Szeliski,“Video Matting ofComplex Scenes,”ACM Trans.Graphics,vol.21,no.3,pp.243-248,2002,Y.Li,J.Sun,and H.-Y.Shum,“Video Object Cut and Paste,”ACM Trans.Graphics,vol.24,no.3,pp.595-600,2005,还有X.Bai,J.Wang,D.Simons,and G.Saprio,“Video Snapcut:Robust Video Object Cutout UsingLocalized Classifiers,”ACM Trans.Graphics,vol.28,no.3,2009和Brian L.Price,Bryan S.Morse,and Scott Cohen,“LIVEcut:Learning-based interactive video segmentation by evaluation ofmultiple propagated cues,”ICCV2009:779-786等。大部分分割技术只利用了颜色和对比度信息,而且往往假设拍摄相机基本静止不动。对于一些具有挑战性的视频序列,往往需要频繁的用户交互。在Z.Dong,L.Jiang,G.Zhang,Q.Wang,and H.Bao,“Live Video Montage with aRotating Camera,”Computer Graphics Forum,vol.28,no.7,pp.1745-1753,2009.中董等人提出了一种快速的双层分割方法,它能有效的将动态物体提取出来,但是这个方法要求相机必须是旋转的。章国锋等人提出了一个自动的视频分割方法,通过鲁棒的运动和深度估计,可以将运动的物体从手持摄像机拍摄的视频序列中高质量地抽取出来。该方法可以适用于各种相机运动类型的视频,背景场景的几何很复杂。但是对于前景运动幅度不大的情况,由于背景信息难以可靠地估计,因此该方法无法有效地提取出运动物体。
发明内容
本发明目的是克服现有技术的不足,提供一种基于深度恢复和运动估计的视频分割方法。
基于深度恢复和运动估计的视频分割方法步骤如下:
1)通过用视频序列一致性深度恢复方法恢复出的视频序列的相机运动及稠密深度图或单应性矩阵估计来获得任意两帧之间的映射关系,对于任意一个视频序列,如果背景场景是平面运动,那么将用单应性矩阵变换来表示图像变换,如果背景场景不是平面运动,利用视频序列一致性深度恢复方法恢复出的视频序列的相机运动及稠密深度图,将任意一帧Ii图像中的像素投到Ij图像上,进行包括背景相减量度在内的多种量度的计算;
2)稠密运动估计,为连续的两帧图像估计其稠密运动场d和遮挡图o。
3)根据交互制定的包括形状先验在内的多个量度的结合策略来计算能量函数中的数据项并计算空间平滑项
Figure BDA00003230032400022
以及时域平滑项
Figure BDA00003230032400023
通过GraphCut方法求解能量函数 E B ( α ) = Σ t = 1 n Σ x ∈ I t ( E d ( α x t ) + λ S Σ y ∈ N ( x ) E s ( α x t , α y t ) + λ T G ( α x t ) ) 获得分割结果,其中λs和λT为权重系数,取值为λs=0.5,λT=0.3;
4)重复步骤3)两遍以上后结束。
步骤1)中的单应性矩阵变换为:
1)如果视频中,背景的运动是平面运动,那么就求得任意两帧之间的单应性矩阵变换Hi,j,它是一个3x3的矩阵,利用单应性矩阵进行映射如下所示:
x ′ y ′ 1 ~ h 11 h 12 h 13 h 21 h 22 h 23 h 31 h 32 h 33 x y 1
即将第i帧图像上的(x,y)点映射到第j帧图像上的(x’,y’)点;
2)根据两帧之间的单应性矩阵Hi,j,将任意一帧Ii图像中的像素投到Ij图像上,进行包括运动一致性量度、背景相减量度、局部颜色概率统计量度、局部颜色概率统计量度的计算,然后通过GraphCut方法求解如下能量函数:
E B ( α ) = Σ t = 1 n Σ x ∈ I t ( E d ( α x t ) + λ S Σ y ∈ N ( x ) E s ( α x t , α y t ) + λ T G ( α x t ) )
来获得分割结果。
步骤3)中的形状先验为:
1)利用SnapCut中的方法将某一帧图像上的前景蒙版传递到其它帧图像上,同时在前景轮廓边界区域生成一组局部分类器,将初始前景蒙版以及局部分类器也传播到其它帧图像上,计算其概率图,在前景非边界区域,没有被局部分类器覆盖到的,但有被前景蒙版传播到的区域,其概率值直接取为1.0;在前景边界区域,其概率值根据如下公式:
p boundaryF ( x ) = Σ k p ClassifierF k ( x ) ( | x - c k | + ϵ ) - 1 Σ k ( | x - c k | + ϵ ) - 1
计算得到,其中,
Figure BDA00003230032400031
和SnapCut方法中的公式5的定义一致,k是局部分类器的的编号,对于像素点x来讲,k的取值范围是所有覆盖该像素点的局部分类器,ε是一个小值常量,取为0.1,ck是第k个局部分类器的窗口中心,|x-ck|代表像素点x到该窗口中心的距离,由任意一帧i图像上的形状先验传播到帧j图像上后得到的概率,如下公式所述:
p F i - j ( x ) = p boundaryF ( x ) , if x belongs to foreground boundary area . 1 , if x belongs to foreground but not boundary area . 0 , if x belongs to background area .
如果在该帧图像上有多个形状先验传播过来,那么其最终概率公式为:
p F j ( x ) = Σ i p F i - j ( x ) n ,
其中n为传播到该帧的形状先验的数量,
Figure BDA00003230032400034
为i帧图像传播到该帧j图像上的形状先验,对于前景运动幅度比较小的情况,将第一帧,即有正确前景蒙版的那一帧图像上的形状先验和前一帧图像上的形状先验传递到当前帧图像上来计算当前帧图像上的形状先验概率。
步骤3)中基于包括形状先验量度、运动一致性量度、背景相减量度、局部颜色概率统计量度、局部颜色概率统计量度,多量度结合的视频分割方法:
根据图像之间的映射关系,将任意一帧It图像的相邻2l帧图像,也就是{It-l,...,It+l}投射到It帧图像上,利用手持摄像机拍摄视频的运动/深度估计以及分割中的方法求得背景相减量度Lc,局部颜色概率统计量度Llg,运动一致性量度Lm;另外,还计算了全局颜色统计概率统计量度Lgg以及形状先验量度Ls,其中,
1)背景相减量度:将It帧图像的相邻2l帧{It-l,...,It+l}图像投射到It帧图像上来,那么对于It帧图像上的任意一像素点x,得到一系列外观一致性误差
Figure BDA000032300324000313
和视差一致性误差
Figure BDA000032300324000314
,根据公式:
A ‾ t ( x ) = median { A t - l , t ( x ) , . . . , A t + l , t ( x ) } .
D ‾ t ( x ) = median { D t - l , t ( x ) , . . . , D t + l , t ( x ) } .
利用中值滤波得到滤波后的外观一致性误差
Figure BDA00003230032400037
和视差一致性误差
Figure BDA00003230032400038
,基于公式:
L c ( α x t = 0 ) = A ‾ t ( x ) A ‾ t ( x ) + δ c ,
L c ( α x t = 1 ) = δ c A ‾ t ( x ) + δ c ,
计算得到背景相减量度,其中δc是控制其被标记为前景还是背景的标记阀值,当
Figure BDA000032300324000311
时就会有
Figure BDA000032300324000312
这表示x像素点更有可能是动态前景像素点,δc的取值为5~13。
2)局部颜色概率统计量度之背景高斯混合模型建模:通过将相邻帧图像投影过来并采用中值滤波估计出背景图像,并采用快速数字图像补全方法将其补全,用MeanShift算法对其进行分割,在每个分割块Sk上估计得到一个高斯分布
3)运动一致性量度:利用手持摄像机拍摄视频的运动/深度估计以及分割中方法得到的光流信息,计算得到任意一个像素点的前向跟踪轨迹
Figure BDA00003230032400042
和后向跟踪轨迹
Figure BDA00003230032400043
另外,利用深度或单应性矩阵信息,同样得到对应的前向跟踪轨迹
Figure BDA00003230032400044
和后向跟踪轨迹
Figure BDA00003230032400045
然后用公式:
Mt(x)=min(f(XF,X'F),f(XB,X'B))
计算得到前景/背景可信度,其中 f ( X F , X ′ F ) = max t = i + 1 , . . . , r | | x t - x ′ t | | , f ( X B , X ′ B ) = max t = l , . . . , i - 1 | | x t - x ′ t | | , 将运动一致性误差M和视差一致性误差
Figure BDA00003230032400047
结合起来,用公式:
L m ( α x t = 0 ) = max { M t ( x ) M t ( x ) + δ m , D ‾ t ( x ) D ‾ t ( x ) + δ d } ,
L m ( α x t = 1 ) = 1 - L m t ( α x t = 0 ) .
来计算基于运动一致性量度,其中,δd和δm是两个阀值,δd=0.2(Dmax-Dmin),δm=8~10,Dmax和Dmin分别为最大视差值和最小视差值。从以上公式看出,只有当M和同时都小的时候,更偏向于将该像素点划分到背景层。
4)全局颜色概率统计量度:假设视频序列中的第一帧图像有正确的前景蒙版,根据第一帧图像提供的前景蒙版,求得第一帧图像背景蒙版,根据第一帧图像的两个蒙版直接求得前景混合高斯模型以及背景高斯混合模型,其中全局前景高斯混合模型跟局部颜色概率统计量度中的前景高斯混合模型一致;
5)基于多量度结合的数据项计算:为了计算各种量度的准确率,以鲁棒地剔除不可靠量度,从中筛选出最可靠的量度进行分割计算。利用各个量度在第一帧图像生成的结果与真实结果进行对比,以此作为各个量度的准确率,在一开始的一些帧的图像上,对于画面运动比较大的序列为10帧,画面基本静止的序列更多一些,选择准确率最高的量度作为数据项,而对于后续帧的图像,则采用投票的方式,即中值滤波,选出最可靠的量度来作为数据项。
6)时空一致性分割优化:根据计算得到的数据项Ed,并结合手持摄像机拍摄视频的运动/深度估计以及分割中提出的空域平滑项Es和时域平滑项G,构造出如下能量函数:
E B ( α ) = Σ t = 1 n Σ x ∈ I t ( E d ( α x t ) + λ S Σ y ∈ N ( x ) E s ( α x t , α y t ) + λ T G ( α x t ) ) ,
其中λs和λT为权重系数,取值为λs=0.5,λT=0.3。用GraphCut方法来求解该能量方程,得到分割结果。
本发明首先能够通过运动、深度和分割信息的迭代优化,对视频进行分割。其次,无须估计摄像机参数和深度信息,就能对背景做平面运动的视频进行分割。最后,是多量度结合的视频分割方法,能对各种量度的准确率进行衡量,筛选出可靠的量度参加视频分割计算。
附图说明
图1(a)是形状先验传播中的第一帧图像的前景模板;
图1(b)是根据图1(a)生成的前景轮廓;
图1(c)是根据图1(b)在轮廓周围前景边界区域生成的局部分类器;
图1(d)是传播到下一帧的局部分类器;
图1(e)传播到下一帧的前景蒙版;
图1(f)结合图1(d)和图1(e)计算得到的概率图;
图2(a)是“IronMan-Stark_Phone”视频中提取出的一张图像;
图2(b)是“IronMan-Stark_Phone”视频中提取出的一张图像;
图2(c)是“IronMan-Stark_Phone”视频中提取出的一张图像;
图2(d)是手持摄像机拍摄视频的运动/深度估计以及分割方法的分割结果;
图2(e)是手持摄像机拍摄视频的运动/深度估计以及分割方法的分割结果;
图2(f)是手持摄像机拍摄视频的运动/深度估计以及分割方法的分割结果;
图2(g)是图2(a)在本发明中得到的分割结果,采用了背景相减,单形状先验,全局颜色概率统计这三个量度;
图2(h)是图2(b)在本发明中得到的分割结果,采用了背景相减,单形状先验,全局颜色概率统计这三个量度;
图2(i)是图2(c)在本发明中得到的分割结果,采用了背景相减,单形状先验,全局颜色概率统计这三个量度;
图3(a)是“Tranformers-Planes”视频中提取出的一张图像;
图3(b)是“Tranformers-Planes”视频中提取出的一张图像;
图3(c)是“Tranformers-Planes”视频中提取出的一张图像;
图3(d)是图3(a)在本发明中得到的分割结果,使用单应性矩阵变换来求解映射关系,并采用了背景相减,单形状先验,局部颜色概率统计这三个量度;;
图3(e)是图3(b)在本发明中得到的分割结果,使用单应性矩阵变换来求解映射关系,并采用了背景相减,单形状先验,局部颜色概率统计这三个量度;
图3(f)是图3(c)在本发明中得到的分割结果,使用单应性矩阵变换来求解映射关系,并采用了背景相减,单形状先验,局部颜色概率统计这三个量度。
具体实施方式
本发明提出了一种基于运动和深度估计的视频分割框架,通过运动、深度和分割信息的迭代优化,实现了鲁棒的运动物体抽取。特别针对背景做平面运动的视频序列,提出了一种基于单应性矩阵计算的视频分割算法,无须估计摄像机参数和深度信息,就能将运动的物体准确地分割出来。最后,本发明提出了一种基于包括形状先验、运动一致性、背景相减、局部颜色概率统计、全局颜色概率统计等多量度结合的视频分割算法,能够对各种量度的准确率进行衡量,鲁棒地剔除不可靠量度,以筛选出最可靠的量度进行分割计算。拍摄的相机可以任意运动。本发明能处理各种相机运动类型的序列,甚至前景运动幅度很小的情况也能有效地处理。
基于深度恢复和运动估计的视频分割方法步骤如下:
1)通过用视频序列一致性深度恢复方法恢复出的视频序列的相机运动及稠密深度图或单应性矩阵估计来获得任意两帧之间的映射关系,对于任意一个视频序列,如果背景场景是平面运动,那么将用单应性矩阵变换来表示图像变换,如果背景场景不是平面运动,利用视频序列一致性深度恢复方法恢复出的视频序列的相机运动及稠密深度图,将任意一帧Ii图像中的像素投到Ij图像上,进行包括背景相减量度在内的多种量度的计算;
2)稠密运动估计,为连续的两帧图像估计其稠密运动场d和遮挡图o。
3)根据交互制定的包括形状先验在内的多个量度的结合策略来计算能量函数中的数据项
Figure BDA00003230032400051
并计算空间平滑项
Figure BDA00003230032400052
以及时域平滑项
Figure BDA00003230032400053
,通过GraphCut方法求解能量函数 E B ( α ) = Σ t = 1 n Σ x ∈ I t ( E d ( α x t ) + λ S Σ y ∈ N ( x ) E s ( α x t , α y t ) + λ T G ( α x t ) ) 获得分割结果,其中λs和λT为权重系数,取值为λs=0.5,λT=0.3;
4)重复步骤3)两遍以上后结束。
步骤1)中的单应性矩阵变换为:
1)如果视频中,背景的运动是平面运动,那么就求得任意两帧之间的单应性矩阵变换Hi,j,它是一个3x3的矩阵,利用单应性矩阵进行映射如下所示:
x ′ y ′ 1 ~ h 11 h 12 h 13 h 21 h 22 h 23 h 31 h 32 h 33 x y 1
即将第i帧图像上的(x,y)点映射到第j帧图像上的(x’,y’)点;
2)根据两帧之间的单应性矩阵Hi,j,将任意一帧Ii图像中的像素投到Ij图像上,进行包括运动一致性量度、背景相减量度、局部颜色概率统计量度、局部颜色概率统计量度的计算,然后通过GraphCut方法求解如下能量函数:
E B ( α ) = Σ t = 1 n Σ x ∈ I t ( E d ( α x t ) + λ S Σ y ∈ N ( x ) E s ( α x t , α y t ) + λ T G ( α x t ) )
来获得分割结果。
步骤3)中的形状先验为:
1)利用SnapCut中的方法将某一帧图像上的前景蒙版传递到其它帧图像上,同时在前景轮廓边界区域生成一组局部分类器,将初始前景蒙版以及局部分类器也传播到其它帧图像上,计算其概率图,在前景非边界区域,没有被局部分类器覆盖到的,但有被前景蒙版传播到的区域,其概率值直接取为1.0;在前景边界区域,其概率值根据如下公式:
p boundaryF ( x ) = Σ k p ClassifierF k ( x ) ( | x - c k | + ϵ ) - 1 Σ k ( | x - c k | + ϵ ) - 1
计算得到,其中,
Figure BDA00003230032400065
和SnapCut方法中的公式5的定义一致,k是局部分类器的的编号,对于像素点x来讲,k的取值范围是所有覆盖该像素点的局部分类器,ε是一个小值常量,取为0.1,ck是第k个局部分类器的窗口中心,|x-ck|代表像素点x到该窗口中心的距离,由任意一帧i图像上的形状先验传播到帧j图像上后得到的概率,如下公式所述:
p F i - j ( x ) = p boundaryF ( x ) , if x belongs to foreground boundary area . 1 , if x belongs to foreground but not boundary area . 0 , if x belongs to background area .
如果在该帧图像上有多个形状先验传播过来,那么其最终概率公式为:
p F j ( x ) = Σ i p F i - j ( x ) n ,
其中n为传播到该帧的形状先验的数量,
Figure BDA00003230032400068
为i帧图像传播到该帧j图像上的形状先验,对于前景运动幅度比较小的情况,将第一帧,即有正确前景蒙版的那一帧图像上的形状先验和前一帧图像上的形状先验传递到当前帧图像上来计算当前帧图像上的形状先验概率。
步骤3)中基于包括形状先验量度、运动一致性量度、背景相减量度、局部颜色概率统计量度、局部颜色概率统计量度,多量度结合的视频分割方法:
根据图像之间的映射关系,将任意一帧It图像的相邻2l帧图像,也就是{It-l,...,It+l}投射到It帧图像上,利用手持摄像机拍摄视频的运动/深度估计以及分割中的方法求得背景相减量度Lc,局部颜色概率统计量度Llg,运动一致性量度Lm;另外,还计算了全局颜色统计概率统计量度Lgg以及形状先验量度Ls,其中,
1)背景相减量度:将It帧图像的相邻2l帧{It-l,...,It+l}图像投射到It帧图像上来,那么对于It帧图像上的任意一像素点x,得到一系列外观一致性误差
Figure BDA000032300324000716
和视差一致性误差
Figure BDA000032300324000717
,根据公式:
A ‾ t ( x ) = median { A t - l , t ( x ) , . . . , A t + l , t ( x ) } .
D ‾ t ( x ) = median { D t - l , t ( x ) , . . . , D t + l , t ( x ) } .
利用中值滤波得到滤波后的外观一致性误差
Figure BDA00003230032400073
和视差一致性误差
Figure BDA00003230032400074
,基于公式:
L c ( α x t = 0 ) = A ‾ t ( x ) A ‾ t ( x ) + δ c ,
L c ( α x t = 1 ) = δ c A ‾ t ( x ) + δ c ,
计算得到背景相减量度,其中δc是控制其被标记为前景还是背景的标记阀值,当时就会有
Figure BDA00003230032400078
这表示x像素点更有可能是动态前景像素点,δc的取值为5~13。
2)局部颜色概率统计量度之背景高斯混合模型建模:通过将相邻帧图像投影过来并采用中值滤波估计出背景图像,并采用快速数字图像补全方法将其补全,用MeanShift算法对其进行分割,在每个分割块Sk上估计得到一个高斯分布
Figure BDA00003230032400079
3)运动一致性量度:利用手持摄像机拍摄视频的运动/深度估计以及分割中方法得到的光流信息,计算得到任意一个像素点的前向跟踪轨迹
Figure BDA000032300324000710
和后向跟踪轨迹
Figure BDA000032300324000711
另外,利用深度或单应性矩阵信息,同样得到对应的前向跟踪轨迹
Figure BDA000032300324000712
和后向跟踪轨迹
Figure BDA000032300324000713
然后用公式:
Mt(x)=min{f(XF,X'F),f(XB,X'B)}
计算得到前景/背景可信度,其中 f ( X F , X ′ F ) = max t = i + 1 , . . . , r | | x t - x ′ t | | , f ( X B , X ′ B ) = max t = l , . . . , i - 1 | | x t - x ′ t | | , 将运动一致性误差M和视差一致性误差
Figure BDA000032300324000715
结合起来,用公式:
L m ( α x t = 0 ) = max { M t ( x ) M t ( x ) + δ m , D ‾ t ( x ) D ‾ t ( x ) + δ d } ,
L m ( α x t = 1 ) = 1 - L m t ( α x t = 0 ) .
来计算基于运动一致性量度,其中,δd和δm是两个阀值,δd=0.2(Dmax-Dmin),δm=8~10,Dmax和Dmin分别为最大视差值和最小视差值。从以上公式看出,只有当M和
Figure BDA00003230032400084
同时都小的时候,更偏向于将该像素点划分到背景层。
4)全局颜色概率统计量度:假设视频序列中的第一帧图像有正确的前景蒙版,根据第一帧图像提供的前景蒙版,求得第一帧图像背景蒙版,根据第一帧图像的两个蒙版直接求得前景混合高斯模型以及背景高斯混合模型,其中全局前景高斯混合模型跟局部颜色概率统计量度中的前景高斯混合模型一致;
5)基于多量度结合的数据项计算:为了计算各种量度的准确率,以鲁棒地剔除不可靠量度,从中筛选出最可靠的量度进行分割计算。利用各个量度在第一帧图像生成的结果与真实结果进行对比,以此作为各个量度的准确率,在一开始的一些帧的图像上,对于画面运动比较大的序列为10帧,画面基本静止的序列更多一些,选择准确率最高的量度作为数据项,而对于后续帧的图像,则采用投票的方式,即中值滤波,选出最可靠的量度来作为数据项。
6)时空一致性分割优化:根据计算得到的数据项Ed,并结合手持摄像机拍摄视频的运动/深度估计以及分割中提出的空域平滑项Es和时域平滑项G,构造出如下能量函数:
E B ( α ) = Σ t = 1 n Σ x ∈ I t ( E d ( α x t ) + λ S Σ y ∈ N ( x ) E s ( α x t , α y t ) + λ T G ( α x t ) ) ,
其中λs和λT为权重系数,取值为λs=0.5,λT=0.3。用GraphCut方法来求解该能量方程,得到分割结果。
实施例
1.求解映射关系
为了将任意一帧图像Ii映射到另一帧图像Ij上,必须求解出图像Ii和图像Ij之间的变换关系。本发明针对视频序列背景场景运动的不同情况提出了两种不同的算法。当场景不是平面运动的时候,利用视频序列一致性深度恢复的方法估计出每一帧图像的相机运动及其稠密深度图,然后根据相机参数和深度信息可以将任意一帧Ii中的像素投到Ij图像上。当背景场景做平面运动的时候,我们通过估计图像之间的单应性矩阵来进行图像之间的映射。先估计连续帧之间的单应性矩阵。采用KLT方法为连续帧抽取特征点并进行匹配,并根据初始的分割结果尽可能排除运动物体上的匹配点,以避免对背景运动的估算进行干扰。对于任意两帧i和j,只要有不少于3个匹配点,就可以估计出它们之间的单应性矩阵变换Hi,j。在求得单应性变换矩阵之后,不用相机参数以及深度信息我们就可以将Ii帧映射到Ij帧,有单应性矩阵变换参与的分割结果如图3所示。
2.稠密运动估计
采用手持摄像机拍摄视频的运动/深度估计以及分割方法或其它可替代光流算法为连续的两帧图像估计其稠密运动场和遮挡图。
3.双层分割(Bilayer Segmentation)
根据章节1中求得的映射关系,将任意一帧It的相邻2l帧,也就是{It-l,...,It+l}映射到It帧,然后利用手持摄像机拍摄视频的运动/深度估计以及分割中方法求得背景相减量度Lc,局部颜色概率统计量度Llg,以及运动一致性量度Lm。另外再计算全局颜色统计概率统计量度Lgg以及形状先验量度Ls,与之前方法的比较结果如图2-3所示。
3.1.背景相减量度
Figure BDA00003230032400097
表示It帧的任意相邻帧
Figure BDA00003230032400098
映射到It帧之后的图像。对It帧任意位置上的像素x,它跟
Figure BDA00003230032400099
帧的外观一致性误差可以定义为公式:
A t ′ , t ( x ) = 1 | W | min x ′ Σ y ∈ W | | I t ( x + y ) - I ^ t ′ , t ( x ′ + y ) | | ,
其中,W是一个3×3的窗口用于块匹配,x′是在帧上找到的与x距离在r之内的最佳块匹配的中心位置,一般r取为3。视差一致性误差可以类似地定义如下:
D t ′ , t ( x ) = 1 | W | min x ′ Σ y ∈ W | D t ( x + y ) - D ^ t ′ , t ( x ′ + y ) | .
如果将It帧的相邻2l帧{It-l,...,It+l}映射到It帧上来,那么对于It帧上的任意一个像素x,可以得到其一系列外观一致性误差
Figure BDA000032300324000911
和视差一致性误差
Figure BDA000032300324000912
。然后进行中值滤波:
A ‾ t ( x ) = median { A t - l , t ( x ) , . . . , A t + l , t ( x ) } .
D ‾ t ( x ) = median { D t - l , t ( x ) , . . . , D t + l , t ( x ) } .
基于滤波后的外观一致性误差和视差一致性误差
Figure BDA00003230032400096
,定义层概率如下:
L c ( α x t = 0 ) = A ‾ t ( x ) A ‾ t ( x ) + δ c ,
L c ( α x t = 1 ) = δ c A ‾ t ( x ) + δ c ,
其中δc是控制其被标记为前景还是背景的阀值,当时就会有
Figure BDA00003230032400104
这表示x像素点更有可能是动态前景像素点,δc=5~13。
3.2.局部颜色概率统计量度
对于每一个参考帧t,将其若干相邻帧,剔除前景像素点后的图像,映射到t帧上,那么对于t帧上的任意一个像素点,得到多个投影点。用中值滤波法估计得到一张背景图
Figure BDA00003230032400105
。对于被遮挡而在背景估计图
Figure BDA00003230032400106
上丢失的区域,利用简单的补全方法快速数字图像补全方法将其补全。然后,利用MeanShift算法对这张补全后的背景估计图进行过分割(Over Segmentation),之后在每一个分割块Sk上估计得到一个高斯分布
Figure BDA00003230032400107
对于每一个像素点,在它的局部窗口中去搜索适用与它的一个颜色分布,然后根据公式:
p ( α x t = 0 ) = max j = 1 l N ( I t ( x ) | μ m j b , Σ m j b ) ,
计算其背景颜色概率。其中l是其局部窗口中背景样本点的个数,mj表示每个样本点对应的高斯簇。
根据第一帧提供的前景蒙版,对其建立一个前景颜色高斯混合模型。然后对于任意一个像素点,根据公式:
p ( α x t = 1 ) = Σ k = 1 K f w k f N ( I x t | μ k f , Σ k f ) ,
计算得到其前景概率。其中,
Figure BDA000032300324001010
是高斯混合模型中的第k个组件(component),是该组件的相应权重,Kf是该高斯混合模型组件的个数取为7。
最后,根据以下公式:
L g ( α x t ) = log p ( α x t ) log p ( α x t = 0 ) + log p ( α x t = 1 ) ,
得到基于局部颜色概率统计量度的层概率。
3.3.运动一致性量度
有了估计得到的光流图,对t帧中的每一个像素点x,对其在相邻帧中进行前向以及后向链接,最终对每一个像素点x可以得到一个运动轨迹。为了减少在这个过程中形成的累积误差,将跟踪帧数设置为前后各10帧。在跟踪过程中,当像素点x被遮挡或是其光流一致性误差超过了一定的阀值,也就是
Figure BDA00003230032400111
τ取为2~3。那么在像素点x和x'之间断掉其链接。这里,像素点x'是像素点x在t+1帧里的对应点,其关系可以表示为x′=x+dt,t+1(x),dt,t+1(x)表示点x的光流,t到t+1帧。任意帧t上的任意像素点x的前向以及后向跟踪可以各自表示为
Figure BDA00003230032400113
此外,根据恢复的深度图或单应性矩阵,通过投影每个像素点到其它帧上的方式来得到对应的前向跟踪
Figure BDA00003230032400114
和后向跟踪
Figure BDA00003230032400115
如果像素点x是一个静态点,那么根据深度或单应性矩阵和光流两个不同的量度计算得到的在相邻帧上的两个对应点应该非常接近。通过比较两者各自生成的前向跟踪和后向跟踪,选择出具有最小差别的一个跟踪来测量其前景/背景可信度,如公式:
Mt(x)=min(f(XF,X'F),f(XB,X'B)),
其中 f ( X F , X ′ F ) = max t = i + 1 , . . . , r | | x t - x ′ t | | , f ( X B , X ′ B ) = max t = l , . . . , i - 1 | | x t - x ′ t | | . 如果Mt(x)比较大,则它可能就是前景像素点。
将运动一致性误差M和在3.1节中计算得到视差一致性误差
Figure BDA00003230032400117
结合起来,然后用公式:
L m ( α x t = 0 ) = max { M t ( x ) M t ( x ) + δ m , D ‾ t ( x ) D ‾ t ( x ) + δ d } ,
L m ( α x t = 1 ) = 1 - L m t ( α x t = 0 ) .
来计算基于运动一致性量度的层概率。其中,δd和δm是两个阀值。δd=0.2(Dmax-Dmin),δm=8~10。Dmax和Dmin分别为最大视差值和最小视差值。从以上公式可以看出,只有当M和
Figure BDA000032300324001116
同时都小的时候,才更偏向于将该像素点划分到背景层。
3.4.全局颜色概率统计量度
对于很多序列,背景往往变化很小,因此对背景估计一个全局高斯混合模型。此外,局部的背景高斯混合模型由于运动或深度估计有时候不可靠可能会出现较大的偏差。相比而言,全局的背景高斯混合模型由于不受运动和深度估计影响,要稳定很多。根据第一帧已有的分割结果,采用3.2节中的方法分别估计出前景和背景的高斯混合模型,然后计算像素的层概率:
p g ( α x t = 1 ) = Σ k = 1 K f w k f N ( I x t | μ k f , Σ k f ) ,
p g ( α x t = 0 ) = Σ k = 1 K b w k b N ( I x t | μ k b , Σ k b ) .
其中,
Figure BDA000032300324001112
是前景高斯混合模型中的第k个组件,
Figure BDA000032300324001113
是该组件的相应权重,Kf是该高斯混合模型组件的个数取为7;
Figure BDA000032300324001114
是背景高斯混合模型中的第k个组件,
Figure BDA000032300324001115
是该组件的相应权重,Kb是该背景高斯混合模型组件的个数取为7。
最后,根据以下公式进行归一化:
L gg ( α x t ) = log p g ( α x t ) log p g ( α x t = 0 ) + log p g ( α x t = 1 ) ,
从而得到基于全局颜色概率统计量度的层概率
Figure BDA00003230032400122
3.5.形状先验量度
由于已经知道了第一帧的前景蒙版,将该蒙版生成的形状先验传播到其它帧,以改善分割结果。跟SnapCut方法类似,形状先验传播包括以下四个步骤:
1.根据初始蒙版得到前景轮廓;
2.在前景边界区域生成一组局部分类器;
3.将初始蒙版以及局部分类器传播到其它帧;
4.计算概率图。
第一帧的前景蒙版见图1(a),生成的前景轮廓以及局部分类器见图1(b)(c)。和SnapCut方法相似,首先先进行光流计算,然后在前景内对每个前景像素点计算局部窗口内的光流均值,然后将蒙版以及边界区域的局部分类器传播到其它帧去。图1(e)(d)分别为传播后的前景蒙版和局部分类器。
根据SnapCut方法中的公式(1)-(3),计算得到在前景非边界区域(在图1(d)中局部分类器里的像素)的概率,计算公式如下:
p boundaryF ( x ) = Σ k p ClassifierF k ( x ) ( | x - c k | + ϵ ) - 1 Σ k ( | x - c k | + ϵ ) - 1
其中,
Figure BDA00003230032400124
和SnapCut方法中的公式3的定义一致(可以由其公式1-3推导得到),k是局部分类器的的编号(对于像素点x来讲,k的取值范围是所有覆盖该像素点的局部分类器),ε是一个小值常量取为0.1,ck是第k个局部分类器的窗口中心(|x-ck|代表像素点x到该窗口中心的距离)。另外,在非边界区域我们根据传播得到的前景蒙版来将其概率设为1或者0。最后,得到由任意一帧i的形状先验传播到帧j后得到的概率,如下公式所述:
Figure BDA00003230032400125
在计算当前帧的形状先验的时候,将多帧的形状先验传递过来,以增强计算的形状先验的可靠性。如果对某一帧有多个形状先验传播过来,那么其最终概率公式为:
p F j ( x ) = Σ i p F i - j ( x ) n
其中n为传播到该帧的形状先验的数量,
Figure BDA00003230032400127
为i帧直接传播到该帧j的形状先验。最后我们就可以得到基于形状先验量度的层概率了。通常情况下,只使用前一帧传播过来的形状先验。对于某些序列,由于前景的运动幅度很小,直接把第一帧的形状先验传播过来和前一帧的形状先验求平均。这可以显著改善分割结果,避免形状先验的误差累积,如图3所示。
3.6.多量度结合
尽管有五个对前景概率的不同量度,然而怎么去把它们综合起来仍然是一个非常具有挑战性的问题。因为,根据不同量度计算得到的量度对于不同的情况会表现出不同的准确率和可靠度,甚至某些量度在某些极端情况下会很不准确。因此,直接把这五个量度相加求平均是很不可靠的。事实上,并不是每个序列都需要用到这五个量度。比如,如果前景不怎么运动的情况下,背景无法准确估计,这时候背景相减量度和局部颜色概率统计就很不可靠。因此,拟采用用户手工选择的方式来选择使用全部量度或其中的几项,然后基于投票(即中值滤波)的方式选出最可靠的量度来生成分割数据项。如果只选用偶数项量度,那么系统会自动添加一个量度(前景概率和背景概率一致,即都是0.3),使得总数为奇数以方便投票。如果3个量度全用,那么用下面的公式,即中值滤波来生成数据项:
E d ( α x t ) = median { L c ( α x t ) , L g ( α x t ) , L m ( α x t ) , L s ( α x t ) , L gg ( α x t ) }
此外,由于这些量度在同一个序列的不同帧中表现出不同的可靠性和准确率,因而如何去预测以及度量一个量度的准确率是至关重要的。因为第一帧已经有真实的分割结果,所以简单地利用各个量度在第一帧的结果与真实结果进行一个比较,然后给每个局部分类器所在的窗口赋予各个量度的准确率,其公式为
Figure BDA00003230032400132
其中
Figure BDA00003230032400133
代表第j个量度在第i个窗口中的准确率,
Figure BDA00003230032400134
代表该窗口大小,
Figure BDA00003230032400135
代表该量度在窗口wi中预测正确的像素个数,将大于0.3的设置为前景,小于等于0.3的设置为背景。
在第一帧中,将各个局部窗口的形状先验量度的准确率都赋为1.0。随着它们传播到下一帧,预测得到下一帧各个局部分类器所在窗口内的各个量度的准确率了。由于这样的预测可能只在前面几帧内是准确的,因而设置一个整型变量N,用户可以根据需要调整其值:在前面N帧内,直接取准确率最高的量度来计算该像素点的数据项;对于后续的帧,则采用中值滤波的方式来计算每个像素点数据项。
下面是其它一些实现细节:
1)虽然在有些具有很大挑战性的视频序列中,很难得到非常鲁棒的运动一致性量度,但是一个像素点x,如果
Figure BDA00003230032400136
很大的话,它极有可能就是前景像素点。因此设置一个阀值参数τ取值为0.7,如果
Figure BDA00003230032400137
就直接认为这是一个前景像素点。当然这只作为一个可选功能,用户可以自主选择是否触发该功能。
2)在形状先验传播的过程中,在前景的边界周围可能会产生一些孤立的前景噪点。一旦出现这样的噪声区域,形状传播的准确率将会大受影响。通常情况下,在每个局部分类器所在的窗口内不能同时存在多块独立的前景区域。因此,如果出现这样的情况,就选择其中最大的一块区域作为前景而将其它的都设为背景。实验表明,这样的处理往往会使得分割的结果更加鲁棒。
3.7.构造能量方程求解
构造计算能量函数:
E B ( α ) = Σ t = 1 n Σ x ∈ I t ( E d ( α x t ) + λ S Σ y ∈ N ( x ) E s ( α x t , α y t ) + λ T G ( α x t ) ) ,
其中为3.3节中定义的数据项,
Figure BDA00003230032400142
为空间平滑项,
Figure BDA00003230032400143
为时域平滑项。
Figure BDA00003230032400144
Figure BDA00003230032400145
与手持摄像机拍摄视频的运动/深度估计以及分割方法中的定义是一样的。λS和λT为权重系数,一般λS=0.5,λT=0.3。由于
Figure BDA00003230032400146
是一个二元值,采用GraphCut方法来求解这个能量函数。为了在有限的内存下能求解,同时求解3~10帧。比如先求解0-3帧,然后固定第3帧的α,求解3-10帧,一直到所有帧的α都求解完毕。解完一遍后,根据更新的α重新计算数据项和平滑项,然后重新求解α。
4.方法引用说明
视频序列一致性深度恢复:G.Zhang,J.Jia,T.-T.Wong,and H.Bao.Consistent depth mapsrecovery from a video sequence.IEEE Transactions on Pattern Analysis and Machine Intelligence,31(6):974–988,2009.
手持摄像机拍摄视频的运动/深度估计以及分割:Guofeng Zhang,Jiaya Jia,Wei Hua,and HujunBao.Robust Bilayer Segmentation and Motion/Depth Estimation with a Handheld Camera.IEEETransactions on Pattern Analysis and Machine Intelligence(TPAMI),33(3):603-617,2011.
快速数字图像补全:M.M.Oliveira,B.Bowen,R.McKenna,and Y.-S.Chang,“Fast Digital ImageInpainting,”Proc.Int’l Conf.Visualization Imaging and Image Processing,pp.261-266,2001.
GraphCut:Y.Boykov,O.Veksler,and R.Zabih,“Fast Approximate Energy Minimization viaGraph Cuts,”IEEE Trans.Pattern Analysis and Machine Intelligence,vol.23,no.11,pp.1222-1239,Nov.2001.
SnapCut:X.Bai,J.Wang,D.Simons,and G.Saprio,“Video Snapcut:Robust Video Object CutoutUsing Localized Classifiers,”ACM Trans.Graphics,vol.28,no.3,2009.
MeanShift:D.Comaniciu and P.Meer,“Mean Shift:A Robust Approach Toward Feature SpaceAnalysis,”IEEE Trans.Pattern Analysis and Machine Intelligence,vol.24,no.5,pp.603-619,May2002.
KLT:http://www.ces.clemson.edu/~stb/klt/.

Claims (4)

1.一种基于深度恢复和运动估计的视频分割方法,其特征在于它的步骤如下:
1)通过用视频序列一致性深度恢复方法恢复出的视频序列的相机运动及稠密深度图或单应性矩阵估计来获得任意两帧之间的映射关系,对于任意一个视频序列,如果背景场景是平面运动,那么将用单应性矩阵变换来表示图像变换,如果背景场景不是平面运动,利用视频序列一致性深度恢复方法恢复出的视频序列的相机运动及稠密深度图,将任意一帧Ii图像中的像素投到Ij图像上,进行包括背景相减量度在内的多种量度的计算;
2)稠密运动估计,为连续的两帧图像估计其稠密运动场d和遮挡图o;
3)根据交互制定的包括形状先验在内的多个量度的结合策略来计算能量函数中的数据项
Figure FDA00003230032300011
并计算空间平滑项
Figure FDA00003230032300012
以及时域平滑项
Figure FDA00003230032300013
通过GraphCut方法求解能量函数 E B ( α ) = Σ t = 1 n Σ x ∈ I t ( E d ( α x t ) + λ S Σ y ∈ N ( x ) E s ( α x t , α y t ) + λ T G ( α x t ) ) 获得分割结果,其中λs和λT为权重系数,取值为λs=0.5,λT=0.3;
4)重复步骤3)两遍以上后结束。
2.根据权利要求1所述的一种基于深度恢复和运动估计的视频分割方法,其特征在于所述的步骤1)中的单应性矩阵变换为:
1)如果视频中,背景的运动是平面运动,那么就求得任意两帧之间的单应性矩阵变换Hi,j,它是一个3x3的矩阵,利用单应性矩阵进行映射如下所示:
x ′ y ′ 1 ~ h 11 h 12 h 13 h 21 h 22 h 23 h 31 h 32 h 33 x y 1
即将第i帧图像上的(x,y)点映射到第j帧图像上的(x’,y’)点;
2)根据两帧之间的单应性矩阵Hi,j,将任意一帧Ii图像中的像素投到Ij图像上,进行包括运动一致性量度、背景相减量度、局部颜色概率统计量度、局部颜色概率统计量度的计算,然后通过GraphCut方法求解如下能量函数:
E B ( α ) = Σ t = 1 n Σ x ∈ I t ( E d ( α x t ) + λ S Σ y ∈ N ( x ) E s ( α x t , α y t ) + λ T G ( α x t ) )
来获得分割结果。
3.根据权利要求1所述的一种基于深度恢复和运动估计的视频分割方法,其特征在于所述步骤3)中的形状先验为:
1)利用SnapCut中的方法将某一帧图像上的前景蒙版传递到其它帧图像上,同时在前景轮廓边界区域生成一组局部分类器,将初始前景蒙版以及局部分类器也传播到其它帧图像上,计算其概率图,在前景非边界区域,没有被局部分类器覆盖到的,但有被前景蒙版传播到的区域,其概率值直接取为1.0;在前景边界区域,其概率值根据如下公式:
p boundaryF ( x ) = Σ k p ClassifierF k ( x ) ( | x - c k | + ϵ ) - 1 Σ k ( | x - c k | + ϵ ) - 1
计算得到,其中,
Figure FDA00003230032300021
和SnapCut方法中的公式5的定义一致,k是局部分类器的的编号,对于像素点x来讲,k的取值范围是所有覆盖该像素点的局部分类器,ε是一个小值常量,取为0.1,ck是第k个局部分类器的窗口中心,|x-ck|代表像素点x到该窗口中心的距离,由任意一帧i图像上的形状先验传播到帧j图像上后得到的概率,如下公式所述:
p F i - j ( x ) = p boundaryF ( x ) , if x belongs to foreground boundary area . 1 , if x belongs to foreground but not boundary area . 0 , if x belongs to background area .
如果在该帧图像上有多个形状先验传播过来,那么其最终概率公式为:
p F j ( x ) = Σ i p F i - j ( x ) n ,
其中n为传播到该帧的形状先验的数量,
Figure FDA00003230032300024
为i帧图像传播到该帧j图像上的形状先验,对于前景运动幅度比较小的情况,将第一帧,即有正确前景蒙版的那一帧图像上的形状先验和前一帧图像上的形状先验传递到当前帧图像上来计算当前帧图像上的形状先验概率。
4.根据权利要求1所述的一种基于深度恢复和运动估计的视频分割方法,其特征在于所述步骤3)中基于包括形状先验量度、运动一致性量度、背景相减量度、局部颜色概率统计量度、局部颜色概率统计量度,多量度结合的视频分割方法:
根据图像之间的映射关系,将任意一帧It图像的相邻2l帧图像,也就是{It-l,...,It+l}投射到It帧图像上,利用手持摄像机拍摄视频的运动/深度估计以及分割中的方法求得背景相减量度Lc,局部颜色概率统计量度Llg,运动一致性量度Lm;另外,还计算了全局颜色统计概率统计量度Lgg以及形状先验量度Ls,其中,
1)背景相减量度:将It帧图像的相邻2l帧{It-l,...,It+l}图像投射到It帧图像上来,那么对于It帧图像上的任意一像素点x,得到一系列外观一致性误差和视差一致性误差根据公式:
A ‾ t ( x ) = median { A t - l , t ( x ) , . . . , A t + l , t ( x ) } .
D ‾ t ( x ) = median { D t - l , t ( x ) , . . . , D t + l , t ( x ) } .
利用中值滤波得到滤波后的外观一致性误差
Figure FDA00003230032300029
和视差一致性误差
Figure FDA000032300323000210
基于公式:
L c ( α x t = 0 ) = A ‾ t ( x ) A ‾ t ( x ) + δ c ,
L c ( α x t = 1 ) = δ c A ‾ t ( x ) + δ c ,
计算得到背景相减量度,其中δc是控制其被标记为前景还是背景的标记阀值,当
Figure FDA000032300323000213
时就会有
Figure FDA00003230032300031
这表示x像素点更有可能是动态前景像素点,δc的取值为5~13。
2)局部颜色概率统计量度之背景高斯混合模型建模:通过将相邻帧图像投影过来并采用中值滤波估计出背景图像,并采用快速数字图像补全方法将其补全,用MeanShift算法对其进行分割,在每个分割块Sk上估计得到一个高斯分布
Figure FDA00003230032300032
3)运动一致性量度:利用手持摄像机拍摄视频的运动/深度估计以及分割中方法得到的光流信息,计算得到任意一个像素点的前向跟踪轨迹
Figure FDA00003230032300033
和后向跟踪轨迹另外,利用深度或单应性矩阵信息,同样得到对应的前向跟踪轨迹
Figure FDA00003230032300035
和后向跟踪轨迹
Figure FDA00003230032300036
然后用公式:
Mt(x)=min(f(XF,X′F),f(XB,X′B)}
计算得到前景/背景可信度,其中 f ( X F , X ′ F ) = max t = i + 1 , . . . , r | | x t - x ′ t | | , f ( X B , X ′ B ) = max t = l , . . . , i - 1 | | x t - x ′ t | | , 将运动一致性误差M和视差一致性误差
Figure FDA00003230032300038
结合起来,用公式:
L m ( α x t = 0 ) = max { M t ( x ) M t ( x ) + δ m , D ‾ t ( x ) D ‾ t ( x ) + δ d } ,
L m ( α x t = 1 ) = 1 - L m t ( α x t = 0 ) .
来计算基于运动一致性量度,其中,δd和δm是两个阀值,δd=0.2(Dmax-Dmin),δm=8~10,Dmax和Dmin分别为最大视差值和最小视差值。从以上公式看出,只有当M和
Figure FDA000032300323000312
同时都小的时候,更偏向于将该像素点划分到背景层。
4)全局颜色概率统计量度:假设视频序列中的第一帧图像有正确的前景蒙版,根据第一帧图像提供的前景蒙版,求得第一帧图像背景蒙版,根据第一帧图像的两个蒙版直接求得前景混合高斯模型以及背景高斯混合模型,其中全局前景高斯混合模型跟局部颜色概率统计量度中的前景高斯混合模型一致;
5)基于多量度结合的数据项计算:为了计算各种量度的准确率,以鲁棒地剔除不可靠量度,从中筛选出最可靠的量度进行分割计算。利用各个量度在第一帧图像生成的结果与真实结果进行对比,以此作为各个量度的准确率,在一开始的一些帧的图像上,对于画面运动比较大的序列为10帧,画面基本静止的序列更多一些,选择准确率最高的量度作为数据项,而对于后续帧的图像,则采用投票的方式,即中值滤波,选出最可靠的量度来作为数据项。
6)时空一致性分割优化:根据计算得到的数据项Ed,并结合手持摄像机拍摄视频的运动/深度估计以及分割中提出的空域平滑项Es和时域平滑项G,构造出如下能量函数:
E B ( α ) = Σ t = 1 n Σ x ∈ I t ( E d ( α x t ) + λ S Σ y ∈ N ( x ) E s ( α x t , α y t ) + λ T G ( α x t ) ) ,
其中λs和λT为权重系数,取值为λs=0.5,λT=0.3,用GraphCut方法来求解该能量方程,得到分割结果。
CN201310197108XA 2013-05-22 2013-05-22 基于深度恢复和运动估计的视频分割方法 Pending CN103279961A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201310197108XA CN103279961A (zh) 2013-05-22 2013-05-22 基于深度恢复和运动估计的视频分割方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201310197108XA CN103279961A (zh) 2013-05-22 2013-05-22 基于深度恢复和运动估计的视频分割方法

Publications (1)

Publication Number Publication Date
CN103279961A true CN103279961A (zh) 2013-09-04

Family

ID=49062468

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201310197108XA Pending CN103279961A (zh) 2013-05-22 2013-05-22 基于深度恢复和运动估计的视频分割方法

Country Status (1)

Country Link
CN (1) CN103279961A (zh)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103854299A (zh) * 2014-03-05 2014-06-11 清华大学 一种基于全局能量函数优化的图像层次提取与编辑方法
CN104574311A (zh) * 2015-01-06 2015-04-29 华为技术有限公司 图像处理方法和装置
CN104616286A (zh) * 2014-12-17 2015-05-13 浙江大学 快速的半自动多视图深度修复方法
CN105205786A (zh) * 2014-06-19 2015-12-30 联想(北京)有限公司 一种图像深度恢复方法及电子设备
CN105590294A (zh) * 2014-11-18 2016-05-18 联想(北京)有限公司 一种图像处理方法和电子设备
CN107408303A (zh) * 2015-03-12 2017-11-28 高通股份有限公司 用于对象跟踪的系统和方法
CN108564620A (zh) * 2018-03-27 2018-09-21 中国人民解放军国防科技大学 一种针对光场阵列相机的场景深度估计方法
CN108986136A (zh) * 2018-07-23 2018-12-11 南昌航空大学 一种基于语义分割的双目场景流确定方法及系统
CN108986150A (zh) * 2018-07-17 2018-12-11 南昌航空大学 一种基于非刚性稠密匹配的图像光流估计方法及系统
CN110310222A (zh) * 2019-06-20 2019-10-08 北京奇艺世纪科技有限公司 一种图像风格迁移方法、装置、电子设备及存储介质
CN110532922A (zh) * 2019-08-21 2019-12-03 成都电科慧安科技有限公司 一种在移动设备上进行实时分割深度图视频帧的方法
CN113436119A (zh) * 2021-08-25 2021-09-24 上海海栎创科技股份有限公司 基于光流对齐的双目手机预览实时计算视差图方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
GUOFENG ZHANG ET AL: "Robust Bilayer Segmentation and Motion/Depth Estimation with a Handheld Camera", 《IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE》 *
HANQING JIANG ET AL: "3D Reconstruction of Dynamic Scenes with Multiple Handheld Cameras", 《ECCV 2012》 *
XUE BAI ET AL: "Video SnapCut: Robust Video Object Cutout Using Localized Classifiers", 《ACM TRANSACTIONS ON GRAPHICS》 *
姜翰青 等: "基于多个手持摄像机的动态场景时空一致性深度恢复", 《计算机辅助设计与图形学学报》 *

Cited By (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103854299B (zh) * 2014-03-05 2017-04-19 清华大学 一种基于全局能量函数优化的图像层次提取与编辑方法
CN103854299A (zh) * 2014-03-05 2014-06-11 清华大学 一种基于全局能量函数优化的图像层次提取与编辑方法
CN105205786B (zh) * 2014-06-19 2019-02-05 联想(北京)有限公司 一种图像深度恢复方法及电子设备
CN105205786A (zh) * 2014-06-19 2015-12-30 联想(北京)有限公司 一种图像深度恢复方法及电子设备
CN105590294B (zh) * 2014-11-18 2019-02-05 联想(北京)有限公司 一种图像处理方法和电子设备
CN105590294A (zh) * 2014-11-18 2016-05-18 联想(北京)有限公司 一种图像处理方法和电子设备
CN104616286B (zh) * 2014-12-17 2017-10-31 浙江大学 快速的半自动多视图深度修复方法
CN104616286A (zh) * 2014-12-17 2015-05-13 浙江大学 快速的半自动多视图深度修复方法
CN104574311B (zh) * 2015-01-06 2017-08-11 华为技术有限公司 图像处理方法和装置
US10630956B2 (en) 2015-01-06 2020-04-21 Huawei Technologies Co., Ltd. Image processing method and apparatus
CN104574311A (zh) * 2015-01-06 2015-04-29 华为技术有限公司 图像处理方法和装置
US10382737B2 (en) 2015-01-06 2019-08-13 Huawei Technologies Co., Ltd. Image processing method and apparatus
CN107408303A (zh) * 2015-03-12 2017-11-28 高通股份有限公司 用于对象跟踪的系统和方法
CN108564620A (zh) * 2018-03-27 2018-09-21 中国人民解放军国防科技大学 一种针对光场阵列相机的场景深度估计方法
CN108986150A (zh) * 2018-07-17 2018-12-11 南昌航空大学 一种基于非刚性稠密匹配的图像光流估计方法及系统
CN108986150B (zh) * 2018-07-17 2020-05-22 南昌航空大学 一种基于非刚性稠密匹配的图像光流估计方法及系统
CN108986136A (zh) * 2018-07-23 2018-12-11 南昌航空大学 一种基于语义分割的双目场景流确定方法及系统
CN108986136B (zh) * 2018-07-23 2020-07-24 南昌航空大学 一种基于语义分割的双目场景流确定方法及系统
CN110310222A (zh) * 2019-06-20 2019-10-08 北京奇艺世纪科技有限公司 一种图像风格迁移方法、装置、电子设备及存储介质
CN110532922A (zh) * 2019-08-21 2019-12-03 成都电科慧安科技有限公司 一种在移动设备上进行实时分割深度图视频帧的方法
CN113436119A (zh) * 2021-08-25 2021-09-24 上海海栎创科技股份有限公司 基于光流对齐的双目手机预览实时计算视差图方法
CN113436119B (zh) * 2021-08-25 2021-12-28 上海海栎创科技股份有限公司 基于光流对齐的双目手机预览实时计算视差图方法

Similar Documents

Publication Publication Date Title
CN103279961A (zh) 基于深度恢复和运动估计的视频分割方法
Yücer et al. Efficient 3D object segmentation from densely sampled light fields with applications to 3D reconstruction
Hamzah et al. Stereo matching algorithm based on per pixel difference adjustment, iterative guided filter and graph segmentation
Zhang et al. Robust bilayer segmentation and motion/depth estimation with a handheld camera
Mozerov Constrained optical flow estimation as a matching problem
Dey et al. Detection of independently moving objects in non-planar scenes via multi-frame monocular epipolar constraint
Yang et al. Near Real-time Stereo for Weakly-Textured Scenes.
Wang et al. Obtaining depth map from segment-based stereo matching using graph cuts
Zhang et al. Recovering consistent video depth maps via bundle optimization
Zhang et al. Moving object extraction with a hand-held camera
Ben-Ari et al. Stereo matching with Mumford-Shah regularization and occlusion handling
EP3293700B1 (en) 3d reconstruction for vehicle
Chen et al. Background estimation using graph cuts and inpainting
Zhang et al. Simultaneous multi-body stereo and segmentation
Bebeselea-Sterp et al. A comparative study of stereovision algorithms
Yang et al. 3D multiview basketball players detection and localization based on probabilistic occupancy
Loghman et al. SGM-based dense disparity estimation using adaptive census transform
Zhang et al. Multi-view video based multiple objects segmentation using graph cut and spatiotemporal projections
CN103337082B (zh) 基于统计形状先验的视频分割方法
Wang et al. Vid2Curve: simultaneous camera motion estimation and thin structure reconstruction from an RGB video
Xu et al. Video-object segmentation and 3D-trajectory estimation for monocular video sequences
Gehrig et al. Priors for stereo vision under adverse weather conditions
Chung et al. Video object extraction via MRF-based contour tracking
Chari et al. Augmented reality using over-segmentation
Lei et al. A new multiview spacetime-consistent depth recovery framework for free viewpoint video rendering

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C02 Deemed withdrawal of patent application after publication (patent law 2001)
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20130904