CN101771893A - 一种基于视频序列背景建模的虚拟视点绘制方法 - Google Patents

一种基于视频序列背景建模的虚拟视点绘制方法 Download PDF

Info

Publication number
CN101771893A
CN101771893A CN201010039539A CN201010039539A CN101771893A CN 101771893 A CN101771893 A CN 101771893A CN 201010039539 A CN201010039539 A CN 201010039539A CN 201010039539 A CN201010039539 A CN 201010039539A CN 101771893 A CN101771893 A CN 101771893A
Authority
CN
China
Prior art keywords
image
pixel
background
value
depth
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201010039539A
Other languages
English (en)
Other versions
CN101771893B (zh
Inventor
薛玖飞
席明
王梁昊
李东晓
张明
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wan D display technology (Shenzhen) Co., Ltd.
Original Assignee
Zhejiang University ZJU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang University ZJU filed Critical Zhejiang University ZJU
Priority to CN201010039539XA priority Critical patent/CN101771893B/zh
Publication of CN101771893A publication Critical patent/CN101771893A/zh
Application granted granted Critical
Publication of CN101771893B publication Critical patent/CN101771893B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

本发明公开了一种基于视频序列背景建模的虚拟视点绘制方法,包括如下步骤:(1)对参考视点二维视频和深度视频建立统计背景模型,得到背景二维图像和背景深度图像;(2)对每帧深度图像做中值滤波;(3)将背景深度图像和参考视点深度图像投射至视差空间,得到背景图像的视差和参考图像的视差;(4)平移背景二维图像像素,得到目标视点背景图像;(5)平移参考视点二维图像像素,得到目标视点初始图像;(6)融合目标视点初始图像和背景图像,填补空洞,得到最终目标视点图像。本发明结合视频序列时间上的相关性,提取出背景信息,将背景图像和当前参考图像同时绘制至虚拟视点,利用背景来填补空洞,提高了虚拟视点图像的质量。

Description

一种基于视频序列背景建模的虚拟视点绘制方法
技术领域
本发明涉及立体显示所需的虚拟视点绘制方法,尤其涉及一种基于视频序列背景建模的虚拟视点绘制方法。
背景技术
从20世纪40年代电视发明以来,经历了从黑白电视到彩色电视的第一次革命和从模拟电视到数字电视的第二次革命,3DTV将是继数字电视后电视技术的第三次革命。3DTV主要特点是立体感,即给用户以3维画面的视觉感受,另一个特点就是交互性,用户可以选择视点。
3D显示意味着需要有两路(stereoscopic)甚至多路视频(multi-view)信息,这对于带宽提出的要求是不可能满足的。荷兰飞利浦开发了二维+深度信息格式,在显示端通过算法重构出其他视点的信息。采用“二维+深度”方式,所需带宽小(只比普通二维节目增加5~10%的带宽),适应于广电系统和网络领域。如何有效地利用深度图产生用于立体显示的虚拟视点图像是当前3DTV的关键一步。
目前的虚拟视点生成方法多基于传统的DIBR(depth-image based rendering)算法,利用相机参数通过反投影和投影完成绘制过程,算法耗时,而且当相机排列呈会聚模型且目标视点离虚拟视点距离加大时,产生的虚拟视点图像存在形变问题。另外,由于DIBR算法从采集端建模,需要准确知道采集时的相机模型参数,对于一般的显示端不通用。
由于前景物体和背景物体之间存在遮挡关系,单纯地将参考视图绘制至虚拟视点会产生空洞,传统方法或利用平滑深度图,或需要有复杂的空洞填补算法来得到可接受的图像质量。深度图平滑会导致图像扭曲,复杂的空洞填补算法又相当耗时。传统的视频压缩方法表明,视频序列在时间方向上有着非常大的相关性,序列的某些帧中被遮挡的背景一般会在其他帧中出现,利用算法把序列背景提取出来,是一种空洞填补的有效方法。利用视频序列时间上的相关性产生虚拟视点图像将有效提高绘制速度和质量。
发明内容
本发明目的是克服现有技术的不足,结合视频序列时间上的相关性,提供一种基于视频序列背景建模的虚拟视点绘制方法。
基于视频序列背景建模的虚拟视点绘制方法包括如下步骤:
(1)对参考视点二维视频建立统计背景模型,得到背景二维图像,对参考视点深度视频建立统计背景模型,得到背景深度图像;
(2)对参考视点每一帧深度图像做中值滤波处理;
(3)将统计建模得到的背景深度图像投射至视差空间,得到背景图像各像素点的视差值,将每一帧中值滤波之后的深度图投射至视差空间,得到参考图像各像素点的视差值;
(4)根据背景图像各像素点的视差值,平移统计建模得到的背景二维图像的各个通道的像素,得到目标视点背景图像;
(5)根据参考图像各像素点的视差值,平移参考视点二维图像的各个通道的像素,得到目标视点初始图像;
(6)融合目标视点初始图像和目标视点背景图像,并用均值滤波器插值填补空洞,得到最终目标视点图像。
所述的对参考视点二维视频建立统计背景模型,得到背景二维图像,对参考视点深度视频建立统计背景模型,得到背景深度图像步骤为:
(a)对参考视点的二维视频截取连续N帧图像If,f为帧号,取值为1,2,…,N,对这N帧二维图像中对应每个像素坐标位置(x,y)的N个像素值进行升序排序,取中间位置的值即这N个像素值的中值作为背景二维图像B(x,y)在对应位置(x,y)的像素值;
(b)对参考视点的深度视频截取与步骤(a)截取二维视频时时间维度上相同位置的连续N帧深度图像Df,f为帧号,取值为1,2,…,N,对这N帧深度图像中对应每个像素坐标位置(x,y)的N个像素值进行升序排序,取中间位置的值即这N个像素值的中值作为背景深度图像BD(x,y)在对应位置(x,y)的像素值。
所述的对参考视点每一帧深度图像做中值滤波处理步骤为:
(c)对参考视点深度视频序列的每一帧Df做7×7的中值滤波,得到滤波之后的深度图像Df′(x,y)。
所述的将统计建模得到的背景深度图像投射至视差空间,得到背景图像各像素点的视差值,将每一帧中值滤波之后的深度图投射至视差空间,得到参考图像各像素点的视差值步骤为:
(d)根据设定的聚焦层灰度级dF,相邻视点间最大视差值maxD,以及目标视点离参考视点的相对距离,  ,计算所有的灰度级所对应的视差值Disparity(d),其中计算公式如下:
Disparity ( d ) = n &CenterDot; max D 255 - d F &CenterDot; ( d F - d ) 0 &le; d F &le; 128 n &CenterDot; max D d F &CenterDot; ( d F - d ) 128 < d F < 255
d是深度图中表征深度的灰度级,d=0,1,…,255,d越大,表示深度越大,即物体离观察者越远,d越小,深度越小,物体离观察者越近;
(e)根据步骤(d)计算得到的各灰度级所对应的视差值Disparity(d),将统计建模得到的背景深度图像BD(x,y)映射至视差空间,得到背景图像各像素点的视差值dispB(x,y),表示如下:
dispB(x,y)=Disparity(BD(x,y));
(f)根据步骤(d)计算得到的各灰度级所对应的视差值Disparity(d),将每一帧中值滤波后的深度图Df′(x,y)投射至视差空间,得到参考图像各像素点的视差值dispf(x,y),表示如下:
dispf(x,y)=Disparity(Df′(x,y))。
所述的根据背景图像各像素点的视差值,平移统计建模得到的背景二维图像的各个通道的像素,得到目标视点背景图像步骤为:
(g)将目标视点背景图像每个像素点的参考像素点个数refNumB(x,y)初始化为0,扫描背景二维图像B(x,y)和背景深度图像BD(x,y),将每个像素坐标(x,y)根据步骤(e)得到的背景图像视差dispB(x,y)绘制至目标视点背景图像上的非整数像素点(x+dispB(x,y),y),并求得水平方向上距离该非整数像素点最近的左右参考像素点坐标(xBleft,y)、(xBright,y),把(xBleft,y)的参考像素点个数refNumB(xBleft,y)和(xBright,y)的参考像素点个数refNumB(xBright,y)分别加1,并将这两个参考像素点(xBleft,y)、(xBright,y)的像素值
Figure G201010039539XD00032
都赋为背景二维图像上源像素坐标位置(x,y)的像素值B(x,y),将这两个参考像素点(xBleft,y)、(xBright,y)的深度值
Figure G201010039539XD00033
都赋为背景深度图像上源像素坐标位置(x,y)的灰度值BD(x,y),计算该非整像素点(x+dispB(x,y),y)对(xBleft,y)的权重
Figure G201010039539XD00034
对(xBright,y)的权重
Figure G201010039539XD00035
计算公式表示如下:
Figure G201010039539XD00036
Figure G201010039539XD00037
B refNum B ( x i , y ) ( x i , y ) = B ( x , y )
BD refNum B ( x i , y ) ( x i , y ) = BD ( x , y ) i = Bleft , Bright
Figure G201010039539XD000310
Figure G201010039539XD00041
表示取小于等于·的最大整数;
(h)由步骤(g)得到目标视点背景图像每个整像素坐标(x,y)的参考像素点个数refNumB(x,y),这些参考像素点各自的像素值Bi(x,y),i≤refNumB(x,y)i∈Z+,深度BDi(x,y),i≤refNumB(x,y)i∈Z+,以及权重
Figure G201010039539XD00042
i≤refNumB(x,y)i∈Z+,把深度值最小像素的像素值的反距离权重加权平均值作为目标视点背景图像Bvir(x,y)在坐标(x,y)的像素值,计算公式如下:
Figure G201010039539XD00043
其中HOLE表示空洞,λB i表示第i个参考点是否属于深度最小的像素点,若是,
Figure G201010039539XD00044
否则,
Figure G201010039539XD00045
定义如下
&lambda; B i = 1 if BD i ( x , y ) = min ( BD 1 ( x , y ) , BD 2 ( x , y ) , . . . , BD refNum ( x , y ) ( x , y ) ) 0 otherwis ;
(i)根据步骤(h)得到的目标视点背景图像Bvir(x,y),对目标视点背景图像每个像素建立一个标志位FlagB(x,y),表示如下:
Flag B ( x , y ) = 0 if B vir ( x , y ) = HOLE 1 otherwise .
所述的根据参考图像各像素点的视差值,平移参考视点二维图像的各个通道的像素,得到目标视点初始图像步骤为:
(j)将目标视点初始图像每个像素点的参考像素点个数refNum(x,y)初始化为0,扫描参考二维图像If(x,y)和中值滤波之后的参考深度图像Df′(x,y),将每个像素坐标(x,y)通过步骤(f)得到的参考图像的视差值dispf(x,y)绘制至目标视点初始图像上的非整数像素点(x+dispf(x,y),y),并求得水平方向上距离该非整数像素点最近的左右参考像素点(xleft,y)、(xright,y),把(xleft,y)的参考像素点个数refNum(xleft,y)和(xright,y)的参考像素点个数refNum(xright,y)分别加1,并将这两个参考像素点(xleft,y)、(xright,y)的像素值
Figure G201010039539XD00048
都赋为参考二维图像上源像素坐标(x,y)位置的像素值If(x,y),将这两个像素点的深度值
Figure G201010039539XD00049
都赋为参考深度图像上源像素坐标位置(x,y)的深度值Df′(x,y),计算该非整像素点(x+dispf(x,y),y)对(xleft,y)的权重对(xright,y)的权重表示如下:
Figure G201010039539XD00051
Figure G201010039539XD00052
I f refNum ( x i , y ) ( x i , y ) = I f ( x , y )
D f refNum ( x i , y ) ( x i , y ) = D f &prime; ( x , y ) i = left , right
Figure G201010039539XD00055
Figure G201010039539XD00056
表示取小于等于·的最大整数;
(k)由步骤(j)得到目标视点初始图像每个整像素点(x,y)的参考像素点个数refNum(x,y),这些参考像素点各自的像素值If i(x,y),i ≤ refNum(x,y)i∈Z+,深度Df i(x,y),i≤refNum(x,y)i∈Z+,以及权重
Figure G201010039539XD00057
i≤refNum(x,y)i∈Z+,把深度值最小的像素点的反距离权重加权平均值作为目标视点初始图像Hvir(x,y)在坐标(x,y)的像素值,计算公式如下:
Figure G201010039539XD00058
其中HOLE表示空洞,λi表示第i个参考点是否属于深度最小的像素点,若是,λi=1,否则,λi=0,定义如下:
&lambda; i = 1 if D f i ( x , y ) = min ( D f 1 ( x , y ) , D f 2 ( x , y ) , . . . D f refNum ( x , y ) ( x , y ) ) 0 otherwise ;
(l)根据步骤(k)得到的目标视点图像Hvir(x,y),对目标视点初始图像每个像素建立一个标志位FlagH(x,y),表示如下:
Flag H ( x , y ) = 0 if H vir ( x , y ) = HOLE 1 otherwise .
所述的融合目标视点初始图像和目标视点背景图像,用均值滤波器插值填补小空洞,得到最终目标视点图像步骤为:
(m)根据步骤(i)得到的目标视点背景图像每个像素的标志位FlagB(x,y)和步骤(l)得到的目标视点初始图像每个像素的标志位FlagH(x,y),将步骤(h)得到的目标视点背景图像Bvir(x,y)和步骤(k)得到的目标视点初始图像Hvir(x,y)进行融合,得到有小空洞的目标视点图像I′vir(x,y),并对I′vir(x,y)的每个像素建立一个标志位Flag(x,y),融合公式定义如下:
I &prime; vir ( x , y ) = H vir ( x , y ) Flag H ( x , y ) = 1 B vir ( x , y ) Flag H ( x , y ) = 0 and Flag B ( x , y ) HOLE otherwise
Flag ( x , y ) = 1 Flag H ( x , y ) = 1 or Flag B ( x , y ) = 1 0 otherwise
其中HOLE表示空洞;
(n)根据步骤(m)得到的带有小空洞的目标视点图像每个像素的标志位Flag(x,y),用均值滤波器插值填补步骤(m)得到的带有小空洞的目标视点图像I′vir(x,y),得到最终目标视点图像Ivir(x,y),填补空洞公式定义如下:
I vir ( x , y ) = &Sigma; v = - w w I vir &prime; ( x - v , y ) &CenterDot; Flag ( x - v , y ) &Sigma; v = - w w Flag ( x - v , y )
其中w为水平窗的窗口大小,取空洞水平方向上的最大宽度。
本发明适用于对已有一路二维视频序列加一路深度序列的数据产生虚拟视点。以往利用深度图生成虚拟视点的方法都是只考虑视点间相关性,基于深度图将参考视点的图像绘制至目标视点,或利用平滑深度图,或需要有复杂的空洞填补算法来得到可接受的图像质量。深度图平滑会导致图像扭曲,复杂的空洞填补算法又相当耗时。本发明结合了视频序列时间上的相关性,提取出视频的背景信息,将背景图像和当前帧参考图像同时绘制至虚拟视点,利用背景图像来填补空洞。另外,在视点绘制过程中,以往方法都利用相机参数通过反投影和投影完成绘制过程,产生的虚拟视点图像存在形变问题,而且算法耗时。本发明在深度图基础上通过平移参考视点像素来得到虚拟视点图像,克服了这些不足。本发明算法耗时不多,且不需要相机模型参数,并且由于利用了视频序列时间上的相关性,大大提高了绘制出来的虚拟视点的图像质量。
附图说明
图1是基于视频序列背景建模的虚拟视点绘制方法的流程框图;
图2是参考视点二维图像像素根据视差值平移得到目标视点初始图像的示意图;
图3(a)是Dice二维视频的截图;
图3(b)是Dice深度视频的截图;
图4(a)是Dice二维视频建模得到的背景二维图像;
图4(b)是Dice深度视频建模得到的背景深度图像;
图5是通过平移背景二维图像的各个通道的像素得到的目标视点背景图像;
图6是图3截图对应的目标视点初始图像;
图7是图5目标视点背景图像和图6目标视点初始图像融合之后的图像。
图8是图7融合之后的图像用均值滤波器插值填补空洞之后的目标视点最终图像。
具体实施方式
基于视频序列背景建模的虚拟视点绘制方法包括如下步骤(整体流程图如图1所示):
(1)对参考视点二维视频建立统计背景模型,得到背景二维图像,对参考视点深度视频建立统计背景模型,得到背景深度图像;
(2)对参考视点每一帧深度图像做中值滤波处理;
(3)将统计建模得到的背景深度图像投射至视差空间,得到背景图像各像素点的视差值,将每一帧中值滤波之后的深度图投射至视差空间,得到参考图像各像素点的视差值;
(4)根据背景图像各像素点的视差值,平移统计建模得到的背景二维图像的各个通道的像素,得到目标视点背景图像;
(5)根据参考图像各像素点的视差值,平移参考视点二维图像的各个通道的像素,得到目标视点初始图像;
(6)融合目标视点初始图像和目标视点背景图像,并用均值滤波器插值填补空洞,得到最终目标视点图像。
所述的对参考视点二维视频建立统计背景模型,得到背景二维图像,对参考视点深度视频建立统计背景模型,得到背景深度图像步骤:
(a)对参考视点的二维视频截取连续N帧图像If,f为帧号,取值为1,2,…,N,对这N帧二维图像中对应每个像素坐标位置(x,y)的N个像素值进行升序排序,取中间位置的值即这N个像素值的中值作为背景二维图像B(x,y)在对应位置(x,y)的像素值;
(b)对参考视点的深度视频截取与步骤(a)截取二维视频时时间维度上相同位置的连续N帧深度图像Df,f为帧号,取值为1,2,…,N,对这N帧深度图像中对应每个像素坐标位置(x,y)的N个像素值进行升序排序,取中间位置的值即这N个像素值的中值作为背景深度图像BD(x,y)在对应位置(x,y)的像素值。
所述的对参考视点每一帧深度图像做中值滤波处理步骤为:
(c)对参考视点深度视频序列的每一帧Df做7×7的中值滤波,得到滤波之后的深度图像Df′(x,y)。
深度图中的噪声会严重降低生成的虚拟视点图像的质量,中值滤波是用窗口中各点灰度值的中值来代替窗口中各点的值,能有效的滤除噪声,窗口越大,对灰度图的平滑效果越好,但丢失的细节也越多。
所述的将统计建模得到的背景深度图像投射至视差空间,得到背景图像各像素点的视差值,将每一帧中值滤波之后的深度图投射至视差空间,得到参考图像各像素点的视差值步骤为:
(d)根据设定的聚焦层灰度级dF,相邻视点间最大视差值maxD,以及目标视点离参考视点的相对距离n,n=…,-1,0,1,…,计算所有的灰度级d所对应的视差值Disparity(d),其中计算公式如下:
Disparity ( d ) = n &CenterDot; max D 255 - d F &CenterDot; ( d F - d ) 0 &le; d F &le; 128 n &CenterDot; max D d F &CenterDot; ( d F - d ) 128 < d F < 255
d是深度图中表征深度的灰度级,d=0,1,…,255,d越大,表示深度越大,即物体离观察者越远,d越小,深度越小,物体离观察者越近;
设定的聚焦层灰度值dF为0~255的值,指恰好成像在屏幕上的灰度级,dF越小,聚焦层越靠近观察者,相邻视点间最大视差值maxD为正整数,maxD越大,相邻视点间视差值越大,立体效果越明显,但当视差值大到超过人眼能融合的范围时,人的双眼会看到两个分开的二维图像,而不是一个融合的立体图像。
(e)根据步骤(d)计算得到的各灰度级所对应的视差值Disparity(d),将统计建模得到的背景深度图像BD(x,y)映射至视差空间,得到背景图像各像素点的视差值dispB(x,y),表示如下:
dispB(x,y)=Disparity(BD(x,y));
(f)根据步骤(d)计算得到的各灰度级所对应的视差值Disparity(d),将每一帧中值滤波后的深度图Df′(x,y)投射至视差空间,得到参考图像各像素点的视差值dispf(x,y),表示如下:
dispf(x,y)=Disparity(Df′(x,y))。
所述的根据背景图像各像素点的视差值,平移统计建模得到的背景二维图像的各个通道的像素,得到目标视点背景图像步骤为:
(g)将目标视点背景图像每个像素点的参考像素点个数refNumB(x,y)初始化为0,扫描背景二维图像B(x,y)和背景深度图像BD(x,y),将每个像素坐标(x,y)根据步骤(e)得到的背景图像视差dispB(x,y)绘制至目标视点背景图像上的非整数像素点(x+dispB(x,y),y),并求得水平方向上距离该非整数像素点最近的左右参考像素点坐标(xBleft,y)、(xBright,y),把(xBleft,y)的参考像素点个数refNumB(xBleft,y)和(xBright,y)的参考像素点个数refNumB(xBright,y)分别加1,并将这两个参考像素点(xBleft,y)、(xBright,y)的像素值都赋为背景二维图像上源像素坐标位置(x,y)的像素值B(x,y),将这两个参考像素点(xBleft,y)、(xBright,y)的深度值
Figure G201010039539XD00092
都赋为背景深度图像上源像素坐标位置(x,y)的灰度值BD(x,y),计算该非整像素点(x+dispB(x,y),y)对(xBleft,y)的权重对(xBright,y)的权重
Figure G201010039539XD00094
计算公式表示如下:
Figure G201010039539XD00095
Figure G201010039539XD00096
B refNum B ( x i , y ) ( x i , y ) = B ( x , y )
BD refNum B ( x i , y ) ( x i , y ) = BD ( x , y ) i = Bleft , Bright
Figure G201010039539XD000910
表示取小于等于·的最大整数;
(h)由步骤(g)得到目标视点背景图像每个整像素坐标(x,y)的参考像素点个数refNumB(x,y),这些参考像素点各自的像素值Bi(x,y),i≤refNumB(x,y)i∈Z+,深度BDi(x,y),i≤refNumB(x,y)i∈Z+,以及权重
Figure G201010039539XD000911
i≤refNumB(x,y)i∈Z+,把深度值最小像素的像素值的反距离权重加权平均值作为目标视点背景图像Bvir(x,y)在坐标(x,y)的像素值,计算公式如下:
其中HOLE表示空洞,λB i表示第i个参考点是否属于深度最小的像素点,若是,
Figure G201010039539XD000913
否则,
Figure G201010039539XD000914
定义如下:
&lambda; B i = 1 if BD i ( x , y ) = min ( BD 1 ( x , y ) , BD 2 ( x , y ) , . . . , BD refNum ( x , y ) ( x , y ) ) 0 otherwis ;
(i)根据步骤(h)得到的目标视点背景图像Bvir(x,y),对目标视点背景图像每个像素建立一个标志位FlagB(x,y),表示如下:
Flag B ( x , y ) = 0 if B vir ( x , y ) = HOLE 1 otherwise .
所述的根据参考图像各像素点的视差值,平移参考视点二维图像的各个通道的像素,得到目标视点初始图像步骤为:
(j)将目标视点初始图像每个像素点的参考像素点个数refNum(x,y)初始化为0,扫描参考二维图像If(x,y)和中值滤波之后的参考深度图像Df′(x,y),将每个像素坐标(x,y)通过步骤(f)得到的参考图像的视差值dispf(x,y)绘制至目标视点初始图像上的非整数像素点(x+dispf(x,y),y),并求得水平方向上距离该非整数像素点最近的左右参考像素点(xleft,y)、(xright,y),把(xleft,y)的参考像素点个数refNum(xleft,y)和(xright,y)的参考像素点个数refNum(xright,y)分别加1,并将这两个参考像素点(xleft,y)、(xright,y)的像素值
Figure G201010039539XD00102
都赋为参考二维图像上源像素坐标位置(x,y)的像素值If(x,y),将这两个像素点的深度值
Figure G201010039539XD00103
都赋为参考深度图像上源像素坐标位置(x,y)的深度值Df′(x,y),  计算该非整像素点(x+dispf(x,y),y)对(xleft,y)的权重对(xright,y)的权重表示如下:
Figure G201010039539XD00106
Figure G201010039539XD00107
I f refNum ( x i , y ) ( x i , y ) = I f ( x , y )
D f refNum ( x i , y ) ( x i , y ) = D f &prime; ( x , y ) i = left , right
Figure G201010039539XD001010
Figure G201010039539XD001011
表示取小于等于·的最大整数;
(k)由步骤(j)得到目标视点初始图像每个整像素点(x,y)的参考像素点个数refNum(x,y),这些参考像素点各自的像素值If i(x,y),i≤refNum(x,y)i∈Z+,深度Df i(x,y),i ≤ refNum(x,y)i∈Z+,以及权重
Figure G201010039539XD001012
i≤ refNum(x,y)i∈Z+,把深度值最小的像素点的反距离权重加权平均值作为目标视点初始图像Hvir(x,y)在坐标(x,y)的像素值,计算公式如下:
Figure G201010039539XD001013
其中HOLE表示空洞,λi表示第i个参考点是否属于深度最小的像素点,若是,λi=1,否则,λi=0,定义如下:
&lambda; i = 1 if D f i ( x , y ) = min ( D f 1 ( x , y ) , D f 2 ( x , y ) , . . . D f refNum ( x , y ) ( x , y ) ) 0 otherwise ;
(l)根据步骤(k)得到的目标视点图像Hvir(x,y),对目标视点初始图像每个像素建立一个标志位FlagH(x,y),表示如下:
Flag H ( x , y ) = 0 if H vir ( x , y ) = HOLE 1 otherwise .
所述的融合目标视点初始图像和目标视点背景图像,用均值滤波器插值填补小空洞,得到最终目标视点图像步骤为:
(m)根据步骤(i)得到的目标视点背景图像每个像素的标志位FlagB(x,y)和步骤(l)得到的目标视点初始图像每个像素的标志位FlagH(x,y),将步骤(h)得到的目标视点背景图像Bvir(x,y)和步骤(k)得到的目标视点初始图像Hvir(x,y)进行融合,得到有小空洞的目标视点图像I′vir(x,y),并对I′vir(x,y)的每个像素建立一个标志位Flag(x,y),融合公式定义如下:
I &prime; vir ( x , y ) = H vir ( x , y ) Flag H ( x , y ) = 1 B vir ( x , y ) Flag H ( x , y ) = 0 and Flag B ( x , y ) HOLE otherwise
Flag ( x , y ) = 1 Flag H ( x , y ) = 1 or Flag B ( x , y ) = 1 0 otherwise
其中HOLE表示空洞;
(n)根据步骤(m)得到的带有小空洞的目标视点图像每个像素的标志位Flag(x,y),用均值滤波器插值填补步骤(m)得到的带有小空洞的目标视点图像I′vir(x,y),得到最终目标视点图像Ivir(x,y),填补空洞公式定义如下:
I vir ( x , y ) = &Sigma; v = - w w I vir &prime; ( x - v , y ) &CenterDot; Flag ( x - v , y ) &Sigma; v = - w w Flag ( x - v , y )
其中w为水平窗的窗口大小,取空洞水平方向上的最大宽度。
融合目标视点背景图像和目标视点初始图像产生的目标视点图像可能还会存在小的空洞,用水平方向上均值滤波器插值可以填补这些小的空洞。
实施例:
(1)将图像分辨率为800×450的Dice二维+深度序列作为虚拟视点产生的视频文件。图3(a)(b)分别为Dice序列某一帧的二维图像截图和深度图像截图。
(2)建立统计背景模型,产生背景二维图像和背景深度图像。图4(a)为Dice二维视频建模得到的背景二维图像,图4(b)为Dice深度视频建模得到的背景深度图像。
(3)将Dice背景深度图像换算成视差值,平移背景二维图像的各个通道的像素,得到目标视点背景图像。图5即为Dice视频对应的目标视点背景图像。
(4)对参考视频深度图进行中值滤波,并换算成视差值,平移参考视点二维图像的各个通道的像素,得到目标视点初始图像。图6即为Dice视频图3截图对应的目标视点初始图像。
(5)融合目标视点背景图像和目标视点初始图像,得到目标视点最终图像,用于立体图像的合成。图7即为图5目标视点背景图像和图6目标视点初始图像融合之后的图像。
(6)用均值滤波器插值填补融合之后的空洞。图8即为空洞填补之后的目标视点最终图像。

Claims (7)

1.一种基于视频序列背景建模的虚拟视点绘制方法,其特征在于包括如下步骤:
(1)对参考视点二维视频建立统计背景模型,得到背景二维图像,对参考视点深度视频建立统计背景模型,得到背景深度图像;
(2)对参考视点每一帧深度图像做中值滤波处理;
(3)将统计建模得到的背景深度图像投射至视差空间,得到背景图像各像素点的视差值,将每一帧中值滤波之后的深度图投射至视差空间,得到参考图像各像素点的视差值;
(4)根据背景图像各像素点的视差值,平移统计建模得到的背景二维图像的各个通道的像素,得到目标视点背景图像;
(5)根据参考图像各像素点的视差值,平移参考视点二维图像的各个通道的像素,得到目标视点初始图像;
(6)融合目标视点初始图像和目标视点背景图像,并用均值滤波器插值填补空洞,得到最终目标视点图像。
2.根据权利要求1所述的一种基于视频序列背景建模的虚拟视点绘制方法,其特征在于所述的对参考视点二维视频建立统计背景模型,得到背景二维图像,对参考视点深度视频建立统计背景模型,得到背景深度图像步骤为:
(a)对参考视点的二维视频截取连续N帧图像If,f为帧号,取值为1,2,…,N,对这N帧二维图像中对应每个像素坐标位置(x,y)的N个像素值进行升序排序,取中间位置的值即这N个像素值的中值作为背景二维图像B(x,y)在对应位置(x,y)的像素值;
(b)对参考视点的深度视频截取与步骤(a)截取二维视频时时间维度上相同位置的连续N帧深度图像Df,f为帧号,取值为1,2,…,N,对这N帧深度图像中对应每个像素坐标位置(x,y)的N个像素值进行升序排序,取中间位置的值即这N个像素值的中值作为背景深度图像BD(x,y)在对应位置(x,y)的像素值。
3.根据权利要求1所述的一种基于视频序列背景建模的虚拟视点绘制方法,其特征在于所述的对参考视点每一帧深度图像做中值滤波处理步骤为:
(c)对参考视点深度视频序列的每一帧Df做7×7的中值滤波,得到滤波之后的深度图像Df′(x,y)。
4.根据权利要求1所述的一种基于视频序列背景建模的虚拟视点绘制方法,其特征在于所述的将统计建模得到的背景深度图像投射至视差空间,得到背景图像各像素点的视差值,将每一帧中值滤波之后的深度图投射至视差空间,得到参考图像各像素点的视差值步骤为:
(d)根据设定的聚焦层灰度级dF,相邻视点间最大视差值maxD,以及目标视点离参考视点的相对距离n,n=…,-1,0,1,…,计算所有的灰度级d所对应的视差值Disparity(d),其中计算公式如下:
Disparity ( d ) = n &CenterDot; max D 255 - d F &CenterDot; ( d F - d ) 0 &le; d F &le; 128 n &CenterDot; max D d F &CenterDot; ( d F - d ) 128 < d F < 255
d是深度图中表征深度的灰度级,d=0,1,…,255,d越大,表示深度越大,即物体离观察者越远,d越小,深度越小,物体离观察者越近;
(e)根据步骤(d)计算得到的各灰度级所对应的视差值Disparity(d),将统计建模得到的背景深度图像BD(x,y)映射至视差空间,得到背景图像各像素点的视差值dispB(x,y),表示如下:
dispB(x,y)=Disparity(BD(x,y));
(f)根据步骤(d)计算得到的各灰度级所对应的视差值Disparity(d),将每一帧中值滤波后的深度图Df′(x,y)投射至视差空间,得到参考图像各像素点的视差值dispf(x,y),表示如下:
dispf(x,y)=Disparity(Df′(x,y))。
5.根据权利要求1所述的一种基于视频序列背景建模的虚拟视点绘制方法,其特征在于所述的根据背景图像各像素点的视差值,平移统计建模得到的背景二维图像的各个通道的像素,得到目标视点背景图像步骤为:
(g)将目标视点背景图像每个像素点的参考像素点个数refNumB(x,y)初始化为0,扫描背景二维图像B(x,y)和背景深度图像BD(x,y),将每个像素坐标(x,y)根据步骤(e)得到的背景图像视差dispB(x,y)绘制至目标视点背景图像上的非整数像素点(x+dispB(x,y),y),并求得水平方向上距离该非整数像素点最近的左右参考像素点坐标(xBleft,y)、(xBright,y),把(xBleft,y)的参考像素点个数refNumB(xBleft,y)和(xBright,y)的参考像素点个数refNumB(xBright,y)分别加1,并将这两个参考像素点(xBleft,y)、(xBright,y)的像素值都赋为背景二维图像上源像素坐标位置(x,y)的像素值B(x,y),将这两个参考像素点(xBlefi,y)、(xBright,y)的深度值
Figure F201010039539XC00023
都赋为背景深度图像上源像素坐标位置(x,y)的灰度值BD(x,y),计算该非整像素点(x+dispB(x,y),y)对(xBleft,y)的权重,对(xBright,y)的权重,计算公式表示如下:
Figure F201010039539XC00034
B refNum B ( x i , y ) ( x i , y ) = B ( x , y )
BD refNum B ( x i , y ) ( x i , y ) = BD ( x , y ) , i = Bleft , Bright
Figure F201010039539XC00037
Figure F201010039539XC00038
表示取小于等于·的最大整数;
(h)由步骤(g)得到目标视点背景图像每个整像素坐标(x,y)的参考像素点个数refNumB(x,y),这些参考像素点各自的像素值Bi(x,y),i≤refNumB(x,y)i∈Z+,深度BDi(x,y),i≤refNumB(x,y)i∈Z+,以及权重,i≤refNumB(x,y)i∈Z+,把深度值最小像素的像素值的反距离权重加权平均值作为目标视点背景图像Bvir(x,y)在坐标(x,y)的像素值,计算公式如下:
Figure F201010039539XC000310
其中HOLE表示空洞,λB i表示第i个参考点是否属于深度最小的像素点,若是, &lambda; B i = 1 , 否则, &lambda; B i = 0 , 定义如下:
&lambda; B i = 1 if BD i ( x , y ) = min ( BD 1 ( x , y ) , BD 2 ( x , y ) , &CenterDot; &CenterDot; &CenterDot; , BD refNum ( x , y ) ( x , y ) ) 0 otherwise ;
(i)根据步骤(h)得到的目标视点背景图像Bvir(x,y),对目标视点背景图像每个像素建立一个标志位FlagB(x,y),表示如下:
Flag B ( x , y ) = 0 if B vir ( x , y ) = HOLE 1 otherwise .
6.根据权利要求1所述的一种基于视频序列背景建模的虚拟视点绘制方法,其特征在于所述的根据参考图像各像素点的视差值,平移参考视点二维图像的各个通道的像素,得到目标视点初始图像步骤为:
(j)将目标视点初始图像每个像素点的参考像素点个数refNum(x,y)初始化为0,扫描参考二维图像If(x,y)和中值滤波之后的参考深度图像Df′(x,y),将每个像素坐标(x,y)通过步骤(f)得到的参考图像的视差值dispf(x,y)绘制至目标视点初始图像上的非整数像素点(x+dispf(x,y),y),并求得水平方向上距离该非整数像素点最近的左右参考像素点(xleft,y)、xright,y),把(xleft,y)的参考像素点个数refNum(xleft,y)和xright,y)的参考像素点个数refNum(xright,y)分别加1,并将这两个参考像素点(xleft,y)、xright,y)的像素值
Figure F201010039539XC00041
都赋为参考二维图像上源像素坐标位置(x,y)的像素值If(x,y),将这两个像素点的深度值
Figure F201010039539XC00042
都赋为参考深度图像上源像素坐标位置(x,y)的深度值Df′(x,y),计算该非整像素点(x+dispf(x,y),y)对(xleft,y)的权重
Figure F201010039539XC00043
,对xright,y)的权重
Figure F201010039539XC00044
,表示如下:
Figure F201010039539XC00045
Figure F201010039539XC00046
I f refNum ( x i , y ) ( x i , y ) = I f ( x , y )
D f refNum ( x i , y ) ( x i , y ) = D f &prime; ( x , y ) , i = left , right
Figure F201010039539XC00049
Figure F201010039539XC000410
表示取小于等于·的最大整数;
(k)由步骤(j)得到目标视点初始图像每个整像素点(x,y)的参考像素点个数refNum(x,y),这些参考像素点各自的像素值If i(x,y),i ≤ refNum(x,y)i∈Z+,深度Df i(x,y),i≤refNum(x,y)i∈Z+,以及权重
Figure F201010039539XC000411
,i ≤ refNum(x,y)i∈Z+,把深度值最小的像素点的反距离权重加权平均值作为目标视点初始图像Hvir(x,y)在坐标(x,y)的像素值,计算公式如下:
Figure F201010039539XC000412
其中HOLE表示空洞,λi表示第i个参考点是否属于深度最小的像素点,若是,λi=1,否则,λi=0,定义如下:
&lambda; i = 1 if D f i ( x , y ) = min ( D f 1 ( x , y ) , D f 2 ( x , y ) , &CenterDot; &CenterDot; &CenterDot; D f refNum ( x , y ) ( x , y ) ) 0 otherwise ;
(l)根据步骤(k)得到的目标视点图像Hvir(x,y),对目标视点初始图像每个像素建立一个标志位FlagH(x,y),表示如下:
Flag H ( x , y ) = 0 if H vir ( x , y ) = HOLE 1 otherwise .
7.根据权利要求1所述的一种基于视频序列背景建模的虚拟视点绘制方法,其特征在于所述的融合目标视点初始图像和目标视点背景图像,用均值滤波器插值填补小空洞,得到最终目标视点图像步骤为:
(m)根据步骤(i)得到的目标视点背景图像每个像素的标志位FlagB(x,y)和步骤(1)得到的目标视点初始图像每个像素的标志位FlagH(x,y),将步骤(h)得到的目标视点背景图像Bvir(x,y)和步骤(k)得到的目标视点初始图像Hvir(x,y)进行融合,得到有小空洞的目标视点图像I′vir(x,y),并对I′vir(x,y)的每个像素建立一个标志位Flag(x,y),融合公式定义如下:
I &prime; vir ( x , y ) = H vir ( x , y ) Flag H ( x , y ) = 1 B vir ( x , y ) Flag H ( x , y ) = 0 and Flag B ( x , y ) = 1 HOLE otherwise
Flag ( x , y ) = 1 Fl ag H ( x , y ) = 1 or Flag B ( x , y ) = 1 0 otherwise
其中HOLE表示空洞;
(n)根据步骤(m)得到的带有小空洞的目标视点图像每个像素的标志位Flag(x,y),用均值滤波器插值填补步骤(m)得到的带有小空洞的目标视点图像I′vir(x,y),得到最终目标视点图像Ivir(x,y),填补空洞公式定义如下:
I vir ( x , y ) = &Sigma; v = - w w I vir &prime; ( x - v , y ) &CenterDot; Flag ( x - v , y ) &Sigma; v = - w w Flag ( x - v , y )
其中w为水平窗的窗口大小,取空洞水平方向上的最大宽度。
CN201010039539XA 2010-01-05 2010-01-05 一种基于视频序列背景建模的虚拟视点绘制方法 Active CN101771893B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201010039539XA CN101771893B (zh) 2010-01-05 2010-01-05 一种基于视频序列背景建模的虚拟视点绘制方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201010039539XA CN101771893B (zh) 2010-01-05 2010-01-05 一种基于视频序列背景建模的虚拟视点绘制方法

Publications (2)

Publication Number Publication Date
CN101771893A true CN101771893A (zh) 2010-07-07
CN101771893B CN101771893B (zh) 2012-08-08

Family

ID=42504433

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201010039539XA Active CN101771893B (zh) 2010-01-05 2010-01-05 一种基于视频序列背景建模的虚拟视点绘制方法

Country Status (1)

Country Link
CN (1) CN101771893B (zh)

Cited By (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102271254A (zh) * 2011-07-22 2011-12-07 宁波大学 一种深度图像的预处理方法
WO2012027896A1 (zh) * 2010-09-02 2012-03-08 青岛海信信芯科技有限公司 一种景深调整装置、方法及3d电视机
CN102413347A (zh) * 2011-11-04 2012-04-11 四川虹微技术有限公司 一种基于dibr的匹配误差校正方法
CN102447925A (zh) * 2011-09-09 2012-05-09 青岛海信数字多媒体技术国家重点实验室有限公司 一种虚拟视点图像合成方法及装置
CN102768761A (zh) * 2012-06-06 2012-11-07 清华大学 一种基于透视变换的立体视频绘制方法
CN102855465A (zh) * 2012-04-12 2013-01-02 无锡慧眼电子科技有限公司 一种移动物体的跟踪方法
CN103269435A (zh) * 2013-04-19 2013-08-28 四川长虹电器股份有限公司 双目转多目虚拟视点合成方法
CN103634584A (zh) * 2012-08-29 2014-03-12 广州市朗辰电子科技有限公司 一种多视点3d视频合成方法
CN103647960A (zh) * 2013-12-24 2014-03-19 北京邮电大学 一种合成三维图像的方法
CN104052985A (zh) * 2014-04-30 2014-09-17 友达光电股份有限公司 三维影像校正装置及三维影像校正方法
CN104378618A (zh) * 2014-11-11 2015-02-25 清华大学深圳研究生院 一种基于深度图的并行视点合成负载均衡方法
CN104504671A (zh) * 2014-12-12 2015-04-08 浙江大学 一种用于立体显示的虚实融合图像生成方法
CN104683788A (zh) * 2015-03-16 2015-06-03 四川虹微技术有限公司 基于图像重投影的空洞填充方法
CN104822059A (zh) * 2015-04-23 2015-08-05 东南大学 一种基于gpu加速的虚拟视点合成方法
CN105005992A (zh) * 2015-07-07 2015-10-28 南京华捷艾米软件科技有限公司 一种基于深度图的背景建模和前景提取的方法
CN105096263A (zh) * 2014-05-22 2015-11-25 安凯(广州)微电子技术有限公司 图像滤波方法和装置
US9462251B2 (en) 2014-01-02 2016-10-04 Industrial Technology Research Institute Depth map aligning method and system
CN106028020A (zh) * 2016-06-21 2016-10-12 电子科技大学 一种基于多方向预测的虚拟视角图像空洞填补方法
CN104813217B (zh) * 2012-10-17 2017-12-19 国家航空航天研究办公室 用于设计能够估计景深的无源单通道成像器的方法
CN107511830A (zh) * 2017-09-22 2017-12-26 天津大学 一种五自由度混联机器人控制器参数自适应调整实现方法
CN108833879A (zh) * 2018-06-29 2018-11-16 东南大学 具有时空连续性的虚拟视点合成方法
CN109874000A (zh) * 2017-12-04 2019-06-11 佳能株式会社 图像处理装置、信息处理方法和存储介质
CN110035206A (zh) * 2019-03-26 2019-07-19 Oppo广东移动通信有限公司 图像处理方法和装置、电子设备、计算机可读存储介质
CN110660131A (zh) * 2019-09-24 2020-01-07 宁波大学 一种基于深度背景建模的虚拟视点空洞填补方法
CN111988597A (zh) * 2020-08-23 2020-11-24 咪咕视讯科技有限公司 虚拟视点合成方法、装置、电子设备及可读存储介质
CN114007058A (zh) * 2020-07-28 2022-02-01 阿里巴巴集团控股有限公司 深度图校正、视频处理、视频重建方法及相关装置
WO2022022548A1 (zh) * 2020-07-31 2022-02-03 阿里巴巴集团控股有限公司 自由视点视频重建及播放处理方法、设备及存储介质
CN117788475A (zh) * 2024-02-27 2024-03-29 中国铁路北京局集团有限公司天津供电段 一种基于单目深度估计的铁路危树检测方法、系统及设备

Cited By (44)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012027896A1 (zh) * 2010-09-02 2012-03-08 青岛海信信芯科技有限公司 一种景深调整装置、方法及3d电视机
CN102792702A (zh) * 2010-09-02 2012-11-21 青岛海信电器股份有限公司 一种景深调整装置、方法及3d电视机
CN102271254A (zh) * 2011-07-22 2011-12-07 宁波大学 一种深度图像的预处理方法
CN102447925B (zh) * 2011-09-09 2014-09-10 海信集团有限公司 一种虚拟视点图像合成方法及装置
CN102447925A (zh) * 2011-09-09 2012-05-09 青岛海信数字多媒体技术国家重点实验室有限公司 一种虚拟视点图像合成方法及装置
CN102413347A (zh) * 2011-11-04 2012-04-11 四川虹微技术有限公司 一种基于dibr的匹配误差校正方法
CN102413347B (zh) * 2011-11-04 2014-03-19 四川虹微技术有限公司 一种基于dibr的匹配误差校正方法
CN102855465A (zh) * 2012-04-12 2013-01-02 无锡慧眼电子科技有限公司 一种移动物体的跟踪方法
CN102768761A (zh) * 2012-06-06 2012-11-07 清华大学 一种基于透视变换的立体视频绘制方法
CN102768761B (zh) * 2012-06-06 2015-01-14 清华大学 一种基于透视变换的立体视频绘制方法
CN103634584A (zh) * 2012-08-29 2014-03-12 广州市朗辰电子科技有限公司 一种多视点3d视频合成方法
US10096113B2 (en) 2012-10-17 2018-10-09 Office National D'etudes Et De Recherches Aerospatiales (Onera) Method for designing a passive single-channel imager capable of estimating depth of field
CN104813217B (zh) * 2012-10-17 2017-12-19 国家航空航天研究办公室 用于设计能够估计景深的无源单通道成像器的方法
CN103269435A (zh) * 2013-04-19 2013-08-28 四川长虹电器股份有限公司 双目转多目虚拟视点合成方法
CN103647960A (zh) * 2013-12-24 2014-03-19 北京邮电大学 一种合成三维图像的方法
CN103647960B (zh) * 2013-12-24 2016-01-20 北京邮电大学 一种合成三维图像的方法
US9462251B2 (en) 2014-01-02 2016-10-04 Industrial Technology Research Institute Depth map aligning method and system
CN104052985B (zh) * 2014-04-30 2016-08-10 友达光电股份有限公司 三维影像校正装置及三维影像校正方法
CN104052985A (zh) * 2014-04-30 2014-09-17 友达光电股份有限公司 三维影像校正装置及三维影像校正方法
CN105096263A (zh) * 2014-05-22 2015-11-25 安凯(广州)微电子技术有限公司 图像滤波方法和装置
CN104378618A (zh) * 2014-11-11 2015-02-25 清华大学深圳研究生院 一种基于深度图的并行视点合成负载均衡方法
CN104504671A (zh) * 2014-12-12 2015-04-08 浙江大学 一种用于立体显示的虚实融合图像生成方法
CN104504671B (zh) * 2014-12-12 2017-04-19 浙江大学 一种用于立体显示的虚实融合图像生成方法
CN104683788A (zh) * 2015-03-16 2015-06-03 四川虹微技术有限公司 基于图像重投影的空洞填充方法
CN104683788B (zh) * 2015-03-16 2017-01-04 四川虹微技术有限公司 基于图像重投影的空洞填充方法
CN104822059A (zh) * 2015-04-23 2015-08-05 东南大学 一种基于gpu加速的虚拟视点合成方法
CN105005992B (zh) * 2015-07-07 2016-03-30 南京华捷艾米软件科技有限公司 一种基于深度图的背景建模和前景提取的方法
CN105005992A (zh) * 2015-07-07 2015-10-28 南京华捷艾米软件科技有限公司 一种基于深度图的背景建模和前景提取的方法
CN106028020A (zh) * 2016-06-21 2016-10-12 电子科技大学 一种基于多方向预测的虚拟视角图像空洞填补方法
CN107511830B (zh) * 2017-09-22 2020-06-19 天津大学 一种五自由度混联机器人控制器参数自适应调整实现方法
CN107511830A (zh) * 2017-09-22 2017-12-26 天津大学 一种五自由度混联机器人控制器参数自适应调整实现方法
CN109874000A (zh) * 2017-12-04 2019-06-11 佳能株式会社 图像处理装置、信息处理方法和存储介质
CN109874000B (zh) * 2017-12-04 2021-08-24 佳能株式会社 图像处理装置、信息处理方法和存储介质
US10979684B2 (en) 2017-12-04 2021-04-13 Canon Kabushiki Kaisha Image processing apparatus, information processing method, and program for associating an element in a background shape model with an image capturing apparatus
CN108833879A (zh) * 2018-06-29 2018-11-16 东南大学 具有时空连续性的虚拟视点合成方法
CN110035206B (zh) * 2019-03-26 2020-12-11 Oppo广东移动通信有限公司 图像处理方法和装置、电子设备、计算机可读存储介质
CN110035206A (zh) * 2019-03-26 2019-07-19 Oppo广东移动通信有限公司 图像处理方法和装置、电子设备、计算机可读存储介质
CN110660131A (zh) * 2019-09-24 2020-01-07 宁波大学 一种基于深度背景建模的虚拟视点空洞填补方法
CN110660131B (zh) * 2019-09-24 2022-12-27 宁波大学 一种基于深度背景建模的虚拟视点空洞填补方法
CN114007058A (zh) * 2020-07-28 2022-02-01 阿里巴巴集团控股有限公司 深度图校正、视频处理、视频重建方法及相关装置
WO2022022548A1 (zh) * 2020-07-31 2022-02-03 阿里巴巴集团控股有限公司 自由视点视频重建及播放处理方法、设备及存储介质
CN111988597A (zh) * 2020-08-23 2020-11-24 咪咕视讯科技有限公司 虚拟视点合成方法、装置、电子设备及可读存储介质
CN111988597B (zh) * 2020-08-23 2022-06-14 咪咕视讯科技有限公司 虚拟视点合成方法、装置、电子设备及可读存储介质
CN117788475A (zh) * 2024-02-27 2024-03-29 中国铁路北京局集团有限公司天津供电段 一种基于单目深度估计的铁路危树检测方法、系统及设备

Also Published As

Publication number Publication date
CN101771893B (zh) 2012-08-08

Similar Documents

Publication Publication Date Title
CN101771893B (zh) 一种基于视频序列背景建模的虚拟视点绘制方法
CN101902657B (zh) 一种基于深度图分层的虚拟多视点图像的生成方法
JP5858381B2 (ja) 多視点画像合成方法及び多視点画像合成システム
EP2299726B1 (en) Video communication method, apparatus and system
CN100576934C (zh) 基于深度和遮挡信息的虚拟视点合成方法
CN102325259A (zh) 多视点视频中虚拟视点合成方法及装置
Lei et al. Depth sensation enhancement for multiple virtual view rendering
CN102609974B (zh) 一种基于深度图分割渲染的虚拟视点图像的生成方法
CN103581648B (zh) 绘制新视点中的空洞填补方法
CN102447925B (zh) 一种虚拟视点图像合成方法及装置
CN103828359A (zh) 使用织锦编码的多视图图像的表现和代码化
CN102930593B (zh) 一种双目系统中基于gpu的实时绘制方法
Sun et al. An overview of free view-point depth-image-based rendering (DIBR)
CN104506872B (zh) 一种平面视频转立体视频的方法及装置
CN107809630B (zh) 基于改进虚拟视点合成的多视点视频超分辨率重建算法
CN112019828B (zh) 一种视频的2d到3d的转换方法
CN102368826A (zh) 双视点视频到多视点视频的实时自适应生成方法
CN107147894B (zh) 一种自由立体显示中的虚拟视点图像生成方法
CN103067705B (zh) 一种多视点深度视频预处理方法
CN103402097A (zh) 一种自由视点视频深度图编码方法及其失真预测方法
CN101557534B (zh) 一种从视频相近帧中生成视差图的方法
JP2012231405A (ja) 奥行調整が可能な立体映像表示装置
CN106028020A (zh) 一种基于多方向预测的虚拟视角图像空洞填补方法
US20120121163A1 (en) 3d display apparatus and method for extracting depth of 3d image thereof
CN110149508A (zh) 一种基于一维集成成像系统的阵列图生成及填补方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
C41 Transfer of patent application or patent right or utility model
TR01 Transfer of patent right

Effective date of registration: 20160614

Address after: 518000 new energy building, Nanhai Road, Shenzhen, Guangdong, Nanshan District A838

Patentee after: Meng Qi media (Shenzhen) Co. Ltd.

Address before: 310027 Hangzhou, Zhejiang Province, Zhejiang Road, No. 38

Patentee before: Zhejiang University

C41 Transfer of patent application or patent right or utility model
TR01 Transfer of patent right

Effective date of registration: 20160901

Address after: 518000, 101, 2, Fengyun technology building, Fifth Industrial Zone, North Ring Road, Shenzhen, Guangdong, Nanshan District

Patentee after: World wide technology (Shenzhen) Limited

Address before: 518000 new energy building, Nanhai Road, Shenzhen, Guangdong, Nanshan District A838

Patentee before: Meng Qi media (Shenzhen) Co. Ltd.

TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20180903

Address after: 518000 B unit 101, Fengyun mansion 5, Xili street, Nanshan District, Shenzhen, Guangdong.

Patentee after: Wan D display technology (Shenzhen) Co., Ltd.

Address before: 518000 2 of Fengyun tower, Fifth Industrial Zone, Nanshan District North Ring Road, Shenzhen, Guangdong, 101

Patentee before: World wide technology (Shenzhen) Limited