CN101765022A - 一种基于光流与图像分割的深度表示方法 - Google Patents

一种基于光流与图像分割的深度表示方法 Download PDF

Info

Publication number
CN101765022A
CN101765022A CN201010101197A CN201010101197A CN101765022A CN 101765022 A CN101765022 A CN 101765022A CN 201010101197 A CN201010101197 A CN 201010101197A CN 201010101197 A CN201010101197 A CN 201010101197A CN 101765022 A CN101765022 A CN 101765022A
Authority
CN
China
Prior art keywords
light stream
field picture
gradient
image
dimensional video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201010101197A
Other languages
English (en)
Other versions
CN101765022B (zh
Inventor
黄晓军
李东晓
张明
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wan D display technology (Shenzhen) Co., Ltd.
Original Assignee
Zhejiang University ZJU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang University ZJU filed Critical Zhejiang University ZJU
Priority to CN201010101197XA priority Critical patent/CN101765022B/zh
Publication of CN101765022A publication Critical patent/CN101765022A/zh
Application granted granted Critical
Publication of CN101765022B publication Critical patent/CN101765022B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

本发明公开了一种基于光流与图像分割的深度表示方法,包括如下步骤:(1)对原始二维视频中的每一帧图像,参考其在时间方向上相邻的后一帧图像,进行光流分析,得到当前图像的光流图;(2)对原始二维视频中的每一帧图像进行图像分割,得到分割图;(3)结合原始二维视频中每一帧图像对应的光流图与分割图,得到深度图,用于三维视频的表达。本发明利用光流分析的方法提取二维视频中的运动信息,与窗口匹配的方法相比更精确;同时结合图像分割的方法,产生用于三维视频表达的深度图,有效地平滑了噪声,修饰了物体边缘轮廓。

Description

一种基于光流与图像分割的深度表示方法
技术领域
本发明涉及二维视频转换三维视频时深度表示方法,尤其涉及一种基于光流与图像分割的深度表示方法。
背景技术
随着数字电视技术的不断发展,传统的二维画面不能满足人们对视觉享受的要求,而三维电视以其生动逼真的场景给人以身临其境的感觉,越来越成为数字电视未来发展的一种趋势。
三维电视所使用的是一种有别于传统二维电视的片源,它往往需要2路以上的视频用于最终合成显示需要的特殊三维视频。这一片源制作过程大致有两个途径:其一是用立体相机直接产生3D视频,但是这种方法代价高昂。另一种方法是寻找一种合适的算法将原有的2D视频转换为可以用于立体显示的三维视频。而目前由于大量传统2D视频的存在,2D转3D技术的研究有着更为现实的意义,这一技术的研究不仅可以为立体显示提供丰富的素材,而且能大大节省内容制作的成本。
2D转3D过程中的重要一步就是产生合适的深度图。由于单路视频的深度信息不可逆地损失了,所以要从中恢复出深度信息,需要用到生理和心理视觉上的深度线索,例如,物体运动信息、场景空间几何信息、物体表面纹理和形状信息、物体成像阴影、物体边缘信息和拍摄相机的聚焦与散焦情况等。在这些深度线索中,运动信息占了主导地位,因为大多数视频都具有运动的前景物体,通过提取前景物体的运动信息,就能够表示出物体间的深度关系。提取运动信息的方法主要有窗口匹配法和光流法。窗口匹配法尽管简单,但是往往有大量噪声和块效应存在,而光流法能够更精确地得到物体的运动信息。
光流是指当观察者和场景目标之间有相对运动时,图像亮度模式的表观运动。光流表达了图像的变化,它包含了目标运动的信息,可用来确定观察者相对目标的运动情况。光流分析是研究图像灰度在时间上的变化与背景中物体的结构和运动的关系。场景中的目标运动导致图像中的亮度模式运动,而亮度模式的可见运动产生光流,除一些特殊情况,光流场与运动场是对应的。通过分析图像的光流变化,可以达到确定场景三维结构和观察者与运动物体之间相对运动的目的。
一般来说,场景中同一物体具有相似的深度值,而光流法得到的运动信息在物体内部会存在一些深度跳跃不连续的部分,采用图像分割的方法能够有效分割出每个物体所在位置,从而对物体内部深度进行平滑,消除这些深度不连续的部分。
图像分割在图像处理中有着广泛的应用。一个物体通常有着类似的局部特征,例如,亮度、颜色、纹理和位置等,图像分割的基本思想就是通过判断这些局部特征的差异,将一副图像中类似特征的区域聚合在一起,特征差异大的区域相互分开,这样就基本能够将图像中的主要物体分割开来。
采用光流法提取运动信息,再用图像分割修饰的方法,能够有效提高深度图的质量。
发明内容
本发明的目的是克服现有技术的不足,改进运动信息的提取方法,并能够平滑噪声和精确物体边缘轮廓,提供一种基于光流与图像分割的深度表示方法。
基于光流与图像分割的深度表示方法包括如下步骤:
(1)对原始二维视频中的每一帧图像,参考每一帧图像在时间方向上相邻的后一帧图像,进行光流分析,得到当前图像的光流图;
(2)对原始二维视频中的每一帧图像进行图像分割,得到分割图;
(3)结合原始二维视频中每一帧图像对应的光流图与分割图,得到深度图,用于三维视频的表达。
所述的对原始二维视频中的每一帧图像,参考每一帧图像在时间方向上相邻的后一帧图像,进行光流分析,得到当前图像的光流图步骤:
(a)取原始二维视频中的一帧图像及其时间方向上相邻的后一帧图像,对这两幅图像对应的亮度分量Y1、Y2和色度分量U1、V1、U2、V2分别运用图像处理中的Sobel算子计算水平梯度和垂直梯度,得到当前图像三个分量的水平梯度Y1x、U1x、V1x,垂直梯度Y1y、U1y、V1y和后一帧图像的水平梯度Y2x、U2x、V2x,垂直梯度Y2y、U2y、V2y,运用如下公式得到当前图像的整体水平梯度I1x和整体垂直梯度I1y以及后一帧图像的整体水平梯度I2x和整体垂直梯度I2y
Ix=max(|Yx|,|Ux|,|Vx|)
Iy=max(|Yy|,|Uy|,|Vy|);
(b)对当前图像的三个分量Y1、U1、V1分别与其后一帧图像的三个分量Y2、U2、V2做时间上的双向差分运算,综合得到当前图像的前向时间梯度I1t和后向时间梯度I2t,计算公式如下所示:
I1t=max(|Y1-Y2|,|U1-U2|,|V1-V2|)
I2t=max(|Y2-Y1|,|U2-U1|,|V2-V1|);
(c)将步骤(a)和步骤(b)得到的当前图像的水平梯度I1x、垂直梯度I1y和前向时间梯度I1t以及其后一帧图像的水平梯度I2x、垂直梯度I2y和后向时间梯度I2t分别代入光流基本方程和平滑约束方程得到前向光流场(u1,v1)和后向光流场(u2,v2),光流基本方程为:
Ix·u+Iy·v+It=0
平滑约束方程为:
∂ u ∂ t = ▿ 2 u - λ I x ( I x · u + I y · v + I t )
∂ v ∂ t = ▿ 2 v - λ I y ( I x · u + I y · v + I t )
其中,λ为常数;
(d)利用步骤(c)得到的前向光流场(u1,v1)和后向光流场(u2,v2),计算光流一致性度量c(x,y),计算公式如下:
Δu(x,y)=u1(x,y)+u2(x-u1Δt,y-v1Δt)
Δv(x,y)=v1(x,y)+v2(x-u1Δt,y-v1Δt)
c ( x , y ) = 1 1 + Δu ( x , y ) 2 + Δv ( x , y ) 2
其中,Δu(x,y)表示当前图像中一个像素的前向光流场水平分量与在后一帧图像上的参考像素的后向光流场水平分量的差异,而Δv(x,y)表示当前图像中一个像素的前向光流场垂直分量与在后一帧图像上的参考像素的后向光流场垂直分量的差异,在光流一致的情况下,当前像素的前向光流场与对应参考像素的后向光流场是大小相同,方向相反的,即Δu(x,y)=0,Δv(x,y)=0,c(x,y)表示光流一致性的度量,它的取值范围在(0,1)之间,当Δu(x,y)=0,Δv(x,y)=0,即光流一致的情况下,c(x,y)=1,c(x,y)越小,表示前向光流场与后向光流场越不一致;
(e)根据步骤(d)得到的光流一致性度量c(x,y),对步骤(c)得到的前向光流场(u1,v1)进行平滑处理,平滑处理计算公式如下:
u 1 ′ ( x , y ) = Σ j = - 1 1 Σ i = - 1 1 w ( i , j ) · c ( x + i , y + j ) · u 1 ( x + i , y + j ) Σ j = - 1 1 Σ i = - 1 1 w ( i , j ) · c ( x + i , y + j )
v 1 ′ ( x , y ) = Σ j = - 1 1 Σ i = - 1 1 w ( i , j ) · c ( x + i , y + j ) · v 1 ( x + i , y + j ) Σ j = - 1 1 Σ i = - 1 1 w ( i , j ) · c ( x + i , y + j )
其中,c(x,y)是光流一致性度量,加权因子w(i,j)(i,j=-1,0,1)取自模板最终得到平滑后的前向光流场(u′1,v′1),作为当前图像的光流图F(x,y)。
所述的对原始二维视频中的每一帧图像进行图像分割,得到分割图步骤:
(f)建立一个带非负权值的无向图G(V,E)模型,其中V表示无向图中节点集合,即v∈V,E表示无向图中边的集合,即(vi,vj)∈E,每条边对应的权值为w(vi,vj);
(g)以原始二维视频中的每一帧图像作为一个处理单位,将图像中所有像素作为无向图模型中的节点,将所有像素与其八邻域内像素的连接关系作为无向图的边,每条边对应的权值w(vi,vj)按照如下公式计算得到:
w(vi,vj)=0.5×|Y(vi)-Y(vj)|+0.25×|U(vi)-U(vj)|+0.25×|V(vi)-V(vj)|
其中,Y(vi)和Y(vj)分别表示节点vi和节点vj的亮度分量,U(vi)、V(vi)和U(vj)、V(vj)分别表示节点vi和节点vj的两个色度分量;
(h)将图中的所有m条边按照步骤(g)计算得到权值递增排列,表示为(e1,e2,......em),初始分割S0时,每一个像素各自位于不同的分割集合中;
(i)每次从排列(e1,e2,......em)中按顺序取出一条边eq,如果这条边连接的两个节点vi和vj在上一次分割后处于不同的分割集合Ci q-1和Cj q-1,并且这条边的权值w(vi,vj)小于阈值Min(Ci q-1,Cj q-1)时,则将两个节点所在的分割集合在这一次分割中合并,整个过程用公式表示如下:
S q = C i q - 1 + C j q - 1 w ( v i , v j ) ≤ Min ( C i q - 1 , C j q - 1 ) v i ∈ C i q - 1 , v j ∈ C j q - 1 , C i q - 1 ≠ C j q - 1 S q - 1 otherwise
其中,q表示当前是第q次分割,分割结果用Sq表示,判断阈值Min(Ci q-1,Cj q-1)按照下式计算得到:
Min ( C i q - 1 , C j q - 1 ) = min ( Inter ( C i q - 1 ) + τ ( C i q - 1 ) , Inter ( C j q - 1 ) + τ ( C j q - 1 ) )
其中,
Figure GSA00000014431000045
表示一个分割集合中最小生成树的最大权重,
Figure GSA00000014431000051
表示基于分割集合大小的阈值函数,k是一个常数,|C|表示分割集合大小,即其中的节点个数;
(j)重复步骤(i),直到排列(e1,e2,......em)中所有的边都被遍历,标记最后的分割结果,得到分割图S(x,y)。
所述的结合原始二维视频中每一帧图像对应的光流图与分割图,得到深度图步骤:
(k)参考分割图S(x,y),对同一分割区域对应在光流图F(x,y)中的所有像素值累加并取平均值,作为这个分割区域所在图像位置的深度表示,最终得到表示原始二维视频中每一帧图像深度的深度图D(x,y),计算公式表示如下:
D ( x , y ) = Σ ( x , y ) ∈ S i F ( x , y ) | S i | i=1,2,...m
其中,分割图S(x,y)共有m个分割区域组成,可表示为{S1,S2,...Sm},|Si|表示第i个分割区域中覆盖像素的个数。
本发明适用于对具有运动前景的未经压缩的视频文件产生深度图。以往提取物体运动信息的方法,大多是用固定大小的窗口在前后帧图像之间搜索寻找局部特征匹配的像素点或是像素块,这种方法虽然简单,但是精确度不高。基于像素的匹配会产生较大的噪声,基于块的匹配则会产生明显的块效应。本发明提出用光流分析的方法提取视频中的运动信息,提高了运动信息提取的精确度,消除了块效应。另一方面,本发明提出用图像分割的方法对光流图进行物体内部平滑和边缘修饰,提高深度图的主观效果。
附图说明
图1是基于光流与图像分割的深度表示方法的流程图;
图2是一个像素与其八邻域像素之间的连接边关系示意图;
图3是分割集合边缘点权重判断决定分割集合合并的示意图;
图4是Akko&Kayo_p00026视频的截图;
图5是Akko&Kayo_p00026视频截图对应的光流图;
图6是Akko&Kayo_p00026视频截图对应的分割图;
图7是Akko&Kayo_p00026视频截图对应的深度图。
具体实施方式
基于光流与图像分割的深度表示方法包括如下步骤(整体流程图如图1所示):
(1)对原始二维视频中的每一帧图像,参考每一帧图像在时间方向上相邻的后一帧图像,进行光流分析,得到当前图像的光流图;
(2)对原始二维视频中的每一帧图像进行图像分割,得到分割图;
(3)结合原始二维视频中每一帧图像对应的光流图与分割图,得到深度图,用于三维视频的表达。
所述的对原始二维视频中的每一帧图像,参考每一帧图像在时间方向上相邻的后一帧图像,进行光流分析,得到当前图像的光流图步骤:
(a)取原始二维视频中的一帧图像及其时间方向上相邻的后一帧图像,对这两幅图像对应的亮度分量Y1、Y2和色度分量U1、V1、U2、V2分别运用图像处理中的Sobel算子计算水平梯度和垂直梯度,得到当前图像三个分量的水平梯度Y1x、U1x、V1x,垂直梯度Y1y、U1y、V1y和后一帧图像的水平梯度Y2x、U2x、V2x,垂直梯度Y2y、U2y、V2y,运用如下公式得到当前图像的整体水平梯度I1x和整体垂直梯度I1y以及后一帧图像的整体水平梯度I2x和整体垂直梯度I2y
Ix=max(|Yx|,|Ux|,|Vx|)
Iy=max(|Yy|,|Uy|,|Vy|),
(b)对当前图像的三个分量Y1、U1、V1分别与其后一帧图像的三个分量Y2、U2、V2做时间上的双向差分运算,综合得到当前图像的前向时间梯度I1t和后向时间梯度I2t,计算公式如下所示:
I1t=max(|Y1-Y2|,|U1-U2|,|V1-V2|)
I2t=max(|Y2-Y1|,|U2-U1|,|V2-V1|);
(c)将步骤(a)和步骤(b)得到的当前图像的水平梯度I1x、垂直梯度I1y和前向时间梯度I1t以及其后一帧图像的水平梯度I2x、垂直梯度I2y和后向时间梯度I2t分别代入光流基本方程和平滑约束方程得到前向光流场(u1,v1)和后向光流场(u2,v2),光流基本方程为:
Ix·u+Iy·v+It=0
平滑约束方程为:
∂ u ∂ t = ▿ 2 u - λ I x ( I x · u + I y · v + I t )
∂ v ∂ t = ▿ 2 v - λ I y ( I x · u + I y · v + I t )
其中,λ为常数;
(d)利用步骤(c)得到的前向光流场(u1,v1)和后向光流场(u2,v2),计算光流一致性度量c(x,y),计算公式如下:
Δu(x,y)=u1(x,y)+u2(x-u1Δt,y-v1Δt)
Δv(x,y)=v1(x,y)+v2(x-u1Δt,y-v1Δt)
c ( x , y ) = 1 1 + Δu ( x , y ) 2 + Δv ( x , y ) 2
其中,Δu(x,y)表示当前图像中一个像素的前向光流场水平分量与在后一帧图像上的参考像素的后向光流场水平分量的差异,而Δv(x,y)表示当前图像中一个像素的前向光流场垂直分量与在后一帧图像上的参考像素的后向光流场垂直分量的差异,在光流一致的情况下,当前像素的前向光流场与对应参考像素的后向光流场是大小相同,方向相反的,即Δu(x,y)=0,Δv(x,y)=0,c(x,y)表示光流一致性的度量,它的取值范围在(0,1)之间,当Δu(x,y)=0,Δv(x,y)=0,即光流一致的情况下,c(x,y)=1,c(x,y)越小,表示前向光流场与后向光流场越不一致;
(e)根据步骤(d)得到的光流一致性度量c(x,y),对步骤(c)得到的前向光流场(u1,v1)进行平滑处理,平滑处理计算公式如下:
u 1 ′ ( x , y ) = Σ j = - 1 1 Σ i = - 1 1 w ( i , j ) · c ( x + i , y + j ) · u 1 ( x + i , y + j ) Σ j = - 1 1 Σ i = - 1 1 w ( i , j ) · c ( x + i , y + j )
v 1 ′ ( x , y ) = Σ j = - 1 1 Σ i = - 1 1 w ( i , j ) · c ( x + i , y + j ) · v 1 ( x + i , y + j ) Σ j = - 1 1 Σ i = - 1 1 w ( i , j ) · c ( x + i , y + j )
其中,c(x,y)是光流一致性度量,加权因子w(i,j)(i,j=-1,0,1)取自模板
Figure GSA00000014431000074
最终得到平滑后的前向光流场(u′1,v′1),作为当前图像的光流图F(x,y)。
所述的对原始二维视频中的每一帧图像进行图像分割,得到分割图步骤:
(f)建立一个带非负权值的无向图G(V,E)模型,其中V表示无向图中节点集合,即v∈V,E表示无向图中边的集合,即(vi,vj)∈E,每条边对应的权值为w(vi,vj);
(g)以原始二维视频中的每一帧图像作为一个处理单位,将图像中所有像素作为无向图模型中的节点,将所有像素与其八邻域内像素的连接关系作为无向图的边(如图2),每条边对应的权值w(vi,vj)按照如下公式计算得到:
w(vi,vj)=0.5×|Y(vi)-Y(vj)|+0.25×|U(vi)-U(vj)|+0.25×|V(vi)-V(vj)|
其中,Y(vi)和Y(vj)分别表示节点vi和节点vj的亮度分量,U(vi)、V(vi)和U(vj)、V(vj)分别表示节点vi和节点vj的两个色度分量;
(h)将图中的所有m条边按照步骤(g)计算得到权值递增排列,表示为(e1,e2,......em),初始分割S0时,每一个像素各自位于不同的分割集合中;
(i)每次从排列(e1,e2,......em)中按顺序取出一条边eq,如果这条边连接的两个节点vi和vj在上一次分割后处于不同的分割集合Ci q-1和Cj q-1,并且这条边的权值w(vi,vj)小于阈值Min(Ci q-1,Cj q-1)时,则将两个节点所在的分割集合在这一次分割中合并(如图3),整个过程用公式表示如下:
S q = C i q - 1 + C j q - 1 w ( v i , v j ) ≤ Min ( C i q - 1 , C j q - 1 ) v i ∈ C i q - 1 , v j ∈ C j q - 1 , C i q - 1 ≠ C j q - 1 S q - 1 otherwise
其中,q表示当前是第q次分割,分割结果用Sq表示,判断阈值Min(Ci q-1,Cj q-1)按照下式计算得到:
Min ( C i q - 1 , C j q - 1 ) = min ( Inter ( C i q - 1 ) + τ ( C i q - 1 ) , Inter ( C j q - 1 ) + τ ( C j q - 1 ) )
其中,
Figure GSA00000014431000083
表示一个分割集合中最小生成树的最大权重,
Figure GSA00000014431000084
表示基于分割集合大小的阈值函数,k是一个常数,|C|表示分割集合大小,即其中的节点个数;
(j)重复步骤(i),直到排列(e1,e2,......em)中所有的边都被遍历,标记最后的分割结果,得到分割图S(x,y)。
所述的结合原始二维视频中每一帧图像对应的光流图与分割图,得到深度图步骤:
(k)参考分割图S(x,y),对同一分割区域对应在光流图F(x,y)中的所有像素值累加并取平均值,作为这个分割区域所在图像位置的深度表示,最终得到表示原始二维视频中每一帧图像深度的深度图D(x,y),计算公式表示如下:
D ( x , y ) = Σ ( x , y ) ∈ S i F ( x , y ) | S i | i=1,2,...m
其中,分割图S(x,y)共有m个分割区域组成,可表示为{S1,S2,...Sm},|Si|表示第i个分割区域中覆盖像素的个数。
实施例:
(1)将图像分辨率为640×480的Akko&Kayo_p00026测试码流作为待转换的2D视频文件。图4即为Akko&Kayo_p00026视频的截图。
(2)对原始二维视频中的每一帧图像,参考其在时间方向上相邻的后一帧图像,进行光流分析,得到当前图像的光流图。图5即为图4视频截图光流分析得到的光流图。
(3)对原始二维视频中的每一帧图像进行图像分割,得到分割图。图6即为图4视频截图图像分割得到的分割图。
(4)结合原始二维视频中每一帧图像对应的光流图与分割图,得到深度图,用于三维视频的表达。图7即为结合图5光流图和图6分割图得到的深度图。

Claims (4)

1.一种基于光流与图像分割的深度表示方法,其特征在于包括如下步骤:
(1)对原始二维视频中的每一帧图像,参考每一帧图像在时间方向上相邻的后一帧图像,进行光流分析,得到当前图像的光流图;
(2)对原始二维视频中的每一帧图像进行图像分割,得到分割图;
(3)结合原始二维视频中每一帧图像对应的光流图与分割图,得到深度图,用于三维视频的表达。
2.根据权利要求1所述的一种基于光流与图像分割的深度表示方法,其特征在于所述的对原始二维视频中的每一帧图像,参考每一帧图像在时间方向上相邻的后一帧图像,进行光流分析,得到当前图像的光流图步骤为:
(a)取原始二维视频中的一帧图像及其时间方向上相邻的后一帧图像,对这两幅图像对应的亮度分量Y1、Y2和色度分量U1、V1、U2、V2分别运用图像处理中的Sobel算子计算水平梯度和垂直梯度,得到当前图像三个分量的水平梯度Y1x、U1x、V1x,垂直梯度Y1y、U1y、V1y和后一帧图像的水平梯度Y2x、U2x、V2x,垂直梯度Y2y、U2y、V2y,运用如下公式得到当前图像的整体水平梯度I1x和整体垂直梯度I1y以及后一帧图像的整体水平梯度I2x和整体垂直梯度I2y
Ix=max(|Yx|,|Ux|,|Vx|)
Iy=max(|Yy|,|Uy|,|Vy|);
(b)对当前图像的三个分量Y1、U1、V1分别与其后一帧图像的三个分量Y2、U2、V2做时间上的双向差分运算,综合得到当前图像的前向时间梯度I1t和后向时间梯度I2t,计算公式如下所示:
I1t=max(|Y1-Y2|,|U1-U2|,|V1-V2|)
I2t=max(|Y2-Y1|,|U2-U1|,|V2-V1|);
(c)将步骤(a)和步骤(b)得到的当前图像的水平梯度I1x、垂直梯度I1y和前向时间梯度I1t以及其后一帧图像的水平梯度I2x、垂直梯度I2y和后向时间梯度I2t分别代入光流基本方程和平滑约束方程得到前向光流场(u1,v1)和后向光流场(u2,v2),光流基本方程为:
Ix·u+Iy·v+It=0
平滑约束方程为:
∂ u ∂ t = ▿ 2 u - λ I x ( I x · u + I y · v + I t )
∂ v ∂ t = ▿ 2 v - λ I y ( I x · u + I y · v + I t )
其中,λ为常数;
(d)利用步骤(c)得到的前向光流场(u1,v1)和后向光流场(u2,v2),计算光流一致性度量c(x,y),计算公式如下:
Δu(x,y)=u1(x,y)+u2(x-u1Δt,y-v1Δt)
Δv(x,y)=v1(x,y)+v2(x-u1Δt,y-v1Δt)
c ( x , y ) = 1 1 + Δu ( x , y ) 2 + Δv ( x , y ) 2
其中,Δu(x,y)表示当前图像中一个像素的前向光流场水平分量与在后一帧图像上的参考像素的后向光流场水平分量的差异,而Δv(x,y)表示当前图像中一个像素的前向光流场垂直分量与在后一帧图像上的参考像素的后向光流场垂直分量的差异,在光流一致的情况下,当前像素的前向光流场与对应参考像素的后向光流场是大小相同,方向相反的,即Δu(x,y)=0,Δv(x,y)=0,c(x,y)表示光流一致性的度量,它的取值范围在(0,1)之间,当Δu(x,y)=0,Δv(x,y)=0,即光流一致的情况下,c(x,y)=1,c(x,y)越小,表示前向光流场与后向光流场越不一致;
(e)根据步骤(d)得到的光流一致性度量c(x,y),对步骤(c)得到的前向光流场(u1,v1)进行平滑处理,平滑处理计算公式如下:
u 1 ′ ( x , y ) = Σ j = - 1 1 Σ i = - 1 1 w ( i , j ) · c ( x + i , y + j ) · u 1 ( x + i , y + j ) Σ j = - 1 1 Σ i = - 1 1 w ( i , j ) · c ( x + i , y + j )
v 1 ′ ( x , y ) = Σ j = - 1 1 Σ i = - 1 1 w ( i , j ) · c ( x + i , y + j ) · v 1 ( x + i , y + j ) Σ j = - 1 1 Σ i = - 1 1 w ( i , j ) · c ( x + i , y + j )
其中,c(x,y)是光流一致性度量,加权因子w(i,j)(i,j=-1,0,1)取自模板
Figure FSA00000014430900024
最终得到平滑后的前向光流场(u1,v1),作为当前图像的光流图F(x,y)。
3.根据权利要求1所述的一种基于光流与图像分割的深度表示方法,其特征在于所述的对原始二维视频中的每一帧图像进行图像分割,得到分割图步骤为:
(f)建立一个带非负权值的无向图G(V,E)模型,其中V表示无向图中节点集合,即v∈V,E表示无向图中边的集合,即(vi,vj)∈E,每条边对应的权值为w(vi,vj);
(g)以原始二维视频中的每一帧图像作为一个处理单位,将图像中所有像素作为无向图模型中的节点,将所有像素与其八邻域内像素的连接关系作为无向图的边,每条边对应的权值w(vi,vj)按照如下公式计算得到:
w(vi,vj)=0.5×|Y(vi)-Y(vj)|+0.25×|U(vi)-U(vj)|+0.25×|V(vi)-V(vj)|
其中,Y(vi)和Y(vj)分别表示节点vi和节点vj的亮度分量,U(vi)、V(vi)和U(vj)、V(vj)分别表示节点vi和节点vj的两个色度分量;
(h)将图中的所有m条边按照步骤(g)计算得到权值递增排列,表示为(e1,e2,......em),初始分割S0时,每一个像素各自位于不同的分割集合中;
(i)每次从排列(e1,e2,......em)中按顺序取出一条边eq,如果这条边连接的两个节点vi和vj在上一次分割后处于不同的分割集合Ci q-1和Cj q-1,并且这条边的权值w(vi,vj)小于阈值Min(Ci q-1,Cj q-1)时,则将两个节点所在的分割集合在这一次分割中合并,整个过程用公式表示如下:
S q = C i q - 1 + C j q - 1 w ( v i , v j ) ≤ Min ( C i q - 1 , C j q - 1 ) , v i ∈ C i q - 1 , v j ∈ C j q - 1 , C i q - 1 ≠ C j q - 1 S q - 1 otherwise
其中,q表示当前是第q次分割,分割结果用Sq表示,判断阈值Min(Ci q-1,Cj q-1)按照下式计算得到:
Min ( C i q - 1 , C j q - 1 ) = min ( Inter ( C i q - 1 ) + τ ( C i q - 1 ) , Inter ( C j q - 1 ) + τ ( C j q - 1 ) )
其中,表示一个分割集合中最小生成树的最大权重,
Figure FSA00000014430900034
表示基于分割集合大小的阈值函数,k是一个常数,|C|表示分割集合大小,即其中的节点个数;
(j)重复步骤(i),直到排列(e1,e2,......em)中所有的边都被遍历,标记最后的分割结果,得到分割图S(x,y)。
4.根据权利要求1所述的一种基于光流与图像分割的深度表示方法,其特征在于所述的结合原始二维视频中每一帧图像对应的光流图与分割图,得到深度图步骤为:
(k)参考分割图S(x,y),对同一分割区域对应在光流图F(x,y)中的所有像素值累加并取平均值,作为这个分割区域所在图像位置的深度表示,最终得到表示原始二维视频中每一帧图像深度的深度图D(x,y),计算公式表示如下:
D ( x , y ) = Σ ( x , y ) ∈ S i F ( x , y ) | S i | , i = 1,2 , . . . m
其中,分割图S(x,y)共有m个分割区域组成,表示为{S1,S2,...Sm},|Si|表示第i个分割区域中覆盖像素的个数。
CN201010101197XA 2010-01-22 2010-01-22 一种基于光流与图像分割的深度表示方法 Active CN101765022B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201010101197XA CN101765022B (zh) 2010-01-22 2010-01-22 一种基于光流与图像分割的深度表示方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201010101197XA CN101765022B (zh) 2010-01-22 2010-01-22 一种基于光流与图像分割的深度表示方法

Publications (2)

Publication Number Publication Date
CN101765022A true CN101765022A (zh) 2010-06-30
CN101765022B CN101765022B (zh) 2011-08-24

Family

ID=42495988

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201010101197XA Active CN101765022B (zh) 2010-01-22 2010-01-22 一种基于光流与图像分割的深度表示方法

Country Status (1)

Country Link
CN (1) CN101765022B (zh)

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101964911A (zh) * 2010-10-09 2011-02-02 浙江大学 一种基于gpu的视频分层方法
CN102044080A (zh) * 2010-12-16 2011-05-04 北京航空航天大学 一种运动物体检测方法和装置
CN102096919A (zh) * 2010-12-31 2011-06-15 北京航空航天大学 一种基于双向加权聚合的实时立体匹配方法
CN102263979A (zh) * 2011-08-05 2011-11-30 清华大学 一种平面视频立体化的深度图生成方法及装置
CN102368824A (zh) * 2011-09-16 2012-03-07 清华大学 视频立体转换方法
CN102509071A (zh) * 2011-10-14 2012-06-20 江南大学 光流计算系统和方法
CN102790893A (zh) * 2012-07-19 2012-11-21 彩虹集团公司 一种基于加权平均算子算法实现2d转3d的方法
CN102903110A (zh) * 2012-09-29 2013-01-30 宁波大学 对具有深度图像信息的图像的分割方法
CN103237228A (zh) * 2013-04-28 2013-08-07 清华大学 双目立体视频的时空一致性分割方法
CN103945211A (zh) * 2014-03-13 2014-07-23 华中科技大学 一种通过单视角彩色图像序列生成深度图序列的方法
CN105185352A (zh) * 2015-08-28 2015-12-23 厦门天马微电子有限公司 图像的边缘修饰方法和边缘修饰装置
CN105590327A (zh) * 2014-10-24 2016-05-18 华为技术有限公司 运动估计方法及装置
CN106570557A (zh) * 2015-10-13 2017-04-19 富士通株式会社 运动物体的计数装置及方法
CN106909141A (zh) * 2015-12-23 2017-06-30 北京机电工程研究所 障碍物探测定位装置及避障系统
CN103871076B (zh) * 2014-02-27 2017-07-28 西安电子科技大学 基于光流法和超像素分割的运动目标提取方法
CN108881952A (zh) * 2018-07-02 2018-11-23 上海商汤智能科技有限公司 视频生成方法及装置、电子设备和存储介质
CN109447082A (zh) * 2018-08-31 2019-03-08 武汉尺子科技有限公司 一种场景运动目标分割方法、系统、存储介质及设备
CN111915735A (zh) * 2020-06-29 2020-11-10 浙江传媒学院 一种针对视频中三维结构轮廓的深度优化方法
WO2022147698A1 (zh) * 2021-01-06 2022-07-14 华为技术有限公司 三维视频通话方法及电子设备
WO2022193507A1 (zh) * 2021-03-15 2022-09-22 深圳市慧鲤科技有限公司 图像处理方法及装置、设备、存储介质、程序和程序产品

Cited By (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101964911A (zh) * 2010-10-09 2011-02-02 浙江大学 一种基于gpu的视频分层方法
CN102044080B (zh) * 2010-12-16 2014-04-23 北京航空航天大学 一种运动物体检测方法和装置
CN102044080A (zh) * 2010-12-16 2011-05-04 北京航空航天大学 一种运动物体检测方法和装置
CN102096919A (zh) * 2010-12-31 2011-06-15 北京航空航天大学 一种基于双向加权聚合的实时立体匹配方法
CN102096919B (zh) * 2010-12-31 2013-03-20 北京航空航天大学 一种基于双向加权聚合的实时立体匹配方法
CN102263979A (zh) * 2011-08-05 2011-11-30 清华大学 一种平面视频立体化的深度图生成方法及装置
CN102263979B (zh) * 2011-08-05 2013-10-09 清华大学 一种平面视频立体化的深度图生成方法及装置
CN102368824A (zh) * 2011-09-16 2012-03-07 清华大学 视频立体转换方法
CN102509071A (zh) * 2011-10-14 2012-06-20 江南大学 光流计算系统和方法
CN102509071B (zh) * 2011-10-14 2016-04-13 江南大学 光流计算系统和方法
CN102790893A (zh) * 2012-07-19 2012-11-21 彩虹集团公司 一种基于加权平均算子算法实现2d转3d的方法
CN102903110B (zh) * 2012-09-29 2015-11-25 宁波大学 对具有深度图像信息的图像的分割方法
CN102903110A (zh) * 2012-09-29 2013-01-30 宁波大学 对具有深度图像信息的图像的分割方法
CN103237228B (zh) * 2013-04-28 2015-08-12 清华大学 双目立体视频的时空一致性分割方法
CN103237228A (zh) * 2013-04-28 2013-08-07 清华大学 双目立体视频的时空一致性分割方法
CN103871076B (zh) * 2014-02-27 2017-07-28 西安电子科技大学 基于光流法和超像素分割的运动目标提取方法
CN103945211A (zh) * 2014-03-13 2014-07-23 华中科技大学 一种通过单视角彩色图像序列生成深度图序列的方法
CN105590327A (zh) * 2014-10-24 2016-05-18 华为技术有限公司 运动估计方法及装置
CN105185352A (zh) * 2015-08-28 2015-12-23 厦门天马微电子有限公司 图像的边缘修饰方法和边缘修饰装置
CN105185352B (zh) * 2015-08-28 2018-10-30 厦门天马微电子有限公司 图像的边缘修饰方法和边缘修饰装置
CN106570557A (zh) * 2015-10-13 2017-04-19 富士通株式会社 运动物体的计数装置及方法
CN106909141A (zh) * 2015-12-23 2017-06-30 北京机电工程研究所 障碍物探测定位装置及避障系统
CN108881952A (zh) * 2018-07-02 2018-11-23 上海商汤智能科技有限公司 视频生成方法及装置、电子设备和存储介质
CN109447082A (zh) * 2018-08-31 2019-03-08 武汉尺子科技有限公司 一种场景运动目标分割方法、系统、存储介质及设备
CN109447082B (zh) * 2018-08-31 2020-09-15 武汉尺子科技有限公司 一种场景运动目标分割方法、系统、存储介质及设备
CN111915735A (zh) * 2020-06-29 2020-11-10 浙江传媒学院 一种针对视频中三维结构轮廓的深度优化方法
CN111915735B (zh) * 2020-06-29 2023-08-22 浙江传媒学院 一种针对视频中三维结构轮廓的深度优化方法
WO2022147698A1 (zh) * 2021-01-06 2022-07-14 华为技术有限公司 三维视频通话方法及电子设备
WO2022193507A1 (zh) * 2021-03-15 2022-09-22 深圳市慧鲤科技有限公司 图像处理方法及装置、设备、存储介质、程序和程序产品

Also Published As

Publication number Publication date
CN101765022B (zh) 2011-08-24

Similar Documents

Publication Publication Date Title
CN101765022B (zh) 一种基于光流与图像分割的深度表示方法
CN105069808B (zh) 基于图像分割的视频图像深度估计方法
CN101640809B (zh) 一种融合运动信息与几何信息的深度提取方法
CN103996174B (zh) 一种对Kinect深度图像进行空洞修复的方法
CN102903098A (zh) 一种基于图像清晰度差异的深度估计方法
US20130286017A1 (en) Method for generating depth maps for converting moving 2d images to 3d
CN101271578A (zh) 一种平面视频转立体视频技术中的深度序列生成方法
CN102271262B (zh) 用于3d显示的基于多线索的视频处理方法
CN105869178A (zh) 一种基于多尺度组合特征凸优化的复杂目标动态场景无监督分割方法
CN106127799B (zh) 一种对于三维视频的视觉注意力检测方法
CN102420985B (zh) 一种多视点视频对象提取方法
CN101527043B (zh) 基于运动目标轮廓信息的视频对象分割方法
CN101883291A (zh) 感兴趣区域增强的视点绘制方法
CN102034247B (zh) 一种基于背景建模对双目视觉图像的运动捕捉方法
CN102609950A (zh) 一种二维视频深度图的生成方法
CN101312539A (zh) 用于三维电视的分级图像深度提取方法
CN103514608A (zh) 基于运动注意力融合模型的运动目标检测与提取方法
CN106210449A (zh) 一种多信息融合的帧率上变换运动估计方法及系统
US20150195510A1 (en) Method of integrating binocular stereo video scenes with maintaining time consistency
CN103716615B (zh) 基于样本学习和深度图像传播的2d视频立体化方法
CN103077542A (zh) 一种深度图的感兴趣区域压缩方法
CN108154150B (zh) 一种基于背景先验的显著性检测方法
CN106447718A (zh) 一种2d转3d深度估计方法
CN102761765B (zh) 一种用于三维立体视频的深度快速插帧方法
CN102223545B (zh) 一种快速多视点视频颜色校正方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
C41 Transfer of patent application or patent right or utility model
TR01 Transfer of patent right

Effective date of registration: 20160614

Address after: 518000 new energy building, Nanhai Road, Shenzhen, Guangdong, Nanshan District A838

Patentee after: Meng Qi media (Shenzhen) Co. Ltd.

Address before: 310027 Hangzhou, Zhejiang Province, Zhejiang Road, No. 38

Patentee before: Zhejiang University

C41 Transfer of patent application or patent right or utility model
TR01 Transfer of patent right

Effective date of registration: 20160901

Address after: 518000, 101, 2, Fengyun technology building, Fifth Industrial Zone, North Ring Road, Shenzhen, Guangdong, Nanshan District

Patentee after: World wide technology (Shenzhen) Limited

Address before: 518000 new energy building, Nanhai Road, Shenzhen, Guangdong, Nanshan District A838

Patentee before: Meng Qi media (Shenzhen) Co. Ltd.

EE01 Entry into force of recordation of patent licensing contract
EE01 Entry into force of recordation of patent licensing contract

Application publication date: 20100630

Assignee: WANWEI YUNSHI (SHANGHAI) DIGITAL TECHNOLOGY CO., LTD.

Assignor: World wide technology (Shenzhen) Limited

Contract record no.: 2018440020049

Denomination of invention: Depth representing method based on light stream and image segmentation

Granted publication date: 20110824

License type: Exclusive License

Record date: 20180428

TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20180903

Address after: 518000 B unit 101, Fengyun mansion 5, Xili street, Nanshan District, Shenzhen, Guangdong.

Patentee after: Wan D display technology (Shenzhen) Co., Ltd.

Address before: 518000 2 of Fengyun tower, Fifth Industrial Zone, Nanshan District North Ring Road, Shenzhen, Guangdong, 101

Patentee before: World wide technology (Shenzhen) Limited