CN103945209B - 一种基于分块投影的dibr方法 - Google Patents

一种基于分块投影的dibr方法 Download PDF

Info

Publication number
CN103945209B
CN103945209B CN201410175458.0A CN201410175458A CN103945209B CN 103945209 B CN103945209 B CN 103945209B CN 201410175458 A CN201410175458 A CN 201410175458A CN 103945209 B CN103945209 B CN 103945209B
Authority
CN
China
Prior art keywords
segmented areas
prime
image
target view
matrix
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN201410175458.0A
Other languages
English (en)
Other versions
CN103945209A (zh
Inventor
吴军政
孙季丰
李万益
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
South China University of Technology SCUT
Original Assignee
South China University of Technology SCUT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by South China University of Technology SCUT filed Critical South China University of Technology SCUT
Priority to CN201410175458.0A priority Critical patent/CN103945209B/zh
Publication of CN103945209A publication Critical patent/CN103945209A/zh
Application granted granted Critical
Publication of CN103945209B publication Critical patent/CN103945209B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Processing (AREA)

Abstract

本发明公开了一种基于分块投影的DIBR方法,首先,获取参考视点的彩色图像、深度图和两个视点的摄像机几何参数;其次,将参考图像分成若干的分块区域,并对每个分块区域进行投影变换;最后,将目标视点图像中各分块区域整合,并修复空洞,以得到最终的目标视点图像。不难发现,该方法并没有直接利用逐点进行视点变换来生成新视点,因而有效避免了目标视点图像受深度图连续性的影响。利用仿真实验和实际数据比较了传统方法和基于分块投影的DIBR方法之间的性能,验证了该方法的有效性,提高了目标视点绘制的质量,并降低了传输带宽。

Description

一种基于分块投影的DIBR方法
技术领域
本发明涉及3D视频技术、自由视点视频技术及基于深度图绘制技术的领域,尤其是指一种基于分块投影的DIBR方法。
背景技术
基于深度图的绘制(DIBR)技术(参见文献“郁理.基于深度图像绘制的自由视点视频关键技术研究[D].[博士论文].中国科学技术大学,2010”),以摄像机投影理论为视点绘制的理论基础,在已知摄像机内、外参数和参考图像深度信息的条件下,将参考视点中的像素点变换到目标视点下的图像平面中。理论上,可以实现任意位置的视点绘制,具有绘制速度快,带宽需求小的优点,是各种高级视频应用,如3D电视、自由视点电视的关键技术之一。
然而,DIBR技术也存在自身的局限性,1)目标视点图像不可避免的会产生空洞,一类空洞是由于计算中坐标取整时的近似处理造成的;另一类是由于参考视点位置的改变以及深度图不连续而产生的,这是最主要的问题。2)可视化问题,正常情况下应该是前景图像覆盖在背景之上,而实际中可能出现相反的情形,当两个不同的深度值投影到同一像素点时,会发生此种问题.3)边缘重影,由于深度信息及相机参数的精度等原因,在背景中出现了前景图像边缘区域的假象。
上述几个问题的出现,究其原因是深度信息不够理想,国内外许多学者对此进行了研究。一种方案是采用层次化深度图(LDI)技术(参见文献“ShadeJ,GortlerS,HeLW,etal.Layereddepthimages.Proceedingsofthe25thAnnualConferenceonComputerGraphicsandInteractiveTechnique.NewYork,1998:231-242”),然而其传输带宽大、计算复杂度高的问题,使其不具有实际应用的价值.深度图预处理技术是另一个有效的途径,对应有各种滤波策略,如高斯滤波(参见文献“ZhangL,TamWJ.Stereoscopicimagegenerationbasedondepthimagesfor3DTV.IEEETransactionsonBroadcasting,2005,51(2):191-199”)、基于边缘独立的深度滤波(参见文献“Wan-YuChen,Yu-LinChang,Shyh-FengLin,etal.EfficientDepthImageBasedRenderingwithEdgeDependentDepthFilterandInterpolation.ProceedingsofIEEEConferenceonMultimediaandExpo,Amsterdam,2005:1314-1317”)、基于SIFT配准的深度图预处理(参见文献“Hao-PengLi,MarkusFlierl.Sift-basedimprovementofdepthimagery.ProceedingsofIEEEConferenceonMultimediaandExpo,Barcelona,2011:1-6”以及文献“HuDong,SunJianfei,XuPing.Improvementofvirtualviewrenderingbasedondepthimage.ProceedingsofIEEEConferenceonImageandGraphics,Hefei,2011:254-257”)、视差域处理(参见文献“Ting-ChingLin,Hsien-ChaoHuang,Yueh-MinHuang.PreservingDepthResolutionofSynthesizedImagesUsingParallax-Map-BasedDIBRfor3DTV.IEEETransactionsonConsumerElectronics,2010,56(2):720-727”)、形态学处理(参见文献“骆凯,李东晓,冯雅美等.基于DIBR和图像修复的任意视点绘制.中国图像图形学报,2010,15(3):443-449.”)等方法.这些方法都有效地缩小了空洞的尺寸、减少了空洞的数量,但对应深度图的精度也随之降低了,致使目标视点产生部分几何失真.还有一个思路是与图像修复技术(参见文献“骆凯,李东晓,冯雅美等.基于DIBR和图像修复的任意视点绘制.中国图像图形学报,2010,15(3):443-449”以及文献“TauberZ,LiZN,DrewMS.Reviewandpreview:DisocclusionbyInpaintingforimage-basedrendering.IEEETransactionsonSystemsManandCybernetics,PartC:ApplicationsandReviews,2007,37(4):527–540”)相结合的空洞修补策略,但是增加了计算复杂度.另外一些方法(参见文献“GangSong,JinbaoXue,HuaLi.Anewdouble-sidedDIBRmethodforvirtualviewgenerationin3DTV.ProceedingsofIEEEConferenceonCommunicationTechnology,Jinan,2011:1099-1102”以及文献“Ndjiki-NyaPatrick,KoppelMartin,DoshkovDimitar,etal.DepthImage-BasedRenderingwithadvancedtexturesynthesisfor3-Dvideo.IEEETransactionsonMultimedia,2011,13(3):453-465”)采用双边同时做视点变换,通过图像融合来绘制视点的策略,然而,当深度信息误差较大时,目标图像中易产生明显的重影。
发明内容
本发明的目的在于克服现有技术的不足与缺点,为有效解决当前方法的计算复杂度高,且视点质量易受深度图精度制约的问题,提供一种优化的基于分块投影的DIBR方法,其针对目标视点的空洞区域主要出现在深度不连续区域的特点,背景图像的深度变化相对平缓,可将其局部区域分块近似为平面区域,从而得以采用单应变换的方法进行绘制,较好地避免了传统方法中所有的像素点都依赖于深度信息的缺点,减少了目标视点图像的空洞和伪影,提高了主客观质量。
为实现上述目的,本发明所提供的技术方案为:一种基于分块投影的DIBR方法,首先,获取参考视点的彩色图像、深度图和两个视点的摄像机几何参数;其次,将参考图像分成若干的分块区域,并对每个分块区域进行投影变换;最后,将目标视点图像中各分块区域整合,并修复空洞,以得到最终的目标视点图像。
本发明所述基于分块投影的DIBR方法,包括以下步骤:
1)获取参考视点图像及对应的深度图,以及目标视点的深度图;
2)将参考图像分成若干分块区域,并近似作平面处理,以用于单应变换模型;
3)针对各分块区域,利用视点变换方程求取对应点对;
4)计算出各分块区域的单应矩阵,然后作单应变换,最后将各分块投影区域进行整合,并进行空洞修补得到最终的目标视点图像。
在步骤2)中,一个视点图像可经由单应矩阵映射到对应的另一个视点图像,前提是这两个图像在3D空间中的原像是一个空间平面,因此不能简单地将这个模型作用于整幅图像上;而就图像中的某一小块区域而言,由于在极小的范围内任何物体的表面都可近似为平面,此时对于单应变换模型成立;而分块区域的标准差描述如下:
σ ij = 1 NM Σ n = 1 N Σ m = 1 M [ d ( n , m ) - μ ] 2
其中,分块区域的大小为N×M,d(n,m)表示该区域像素点对应的深度值,μ为区域内的平均深度值,σij为标准差,它反映了整个第i行、第j列的分块区域的平均深度值的分散程度;我们用σij来描述分块区域采用单应变换模型的近似误差,显然,σij越小,则误差越小。
在步骤3)中,所述视点变换方程为:m=PM,式中m和M分别表示像素点的相机空间和世界空间坐标,矩阵P表示摄像机矩阵;分块处理的方式为:将参考图像分成若干合适的分块区域,由于分块区域至少需要4个对应点对,因此规定分块区域的大小为M×N,5≤N,M≤15,分块不宜过大,这样会增大单应变换模型的近似误差,也不宜过小,这会增加计算复杂度,通常取N=M=8;然后,对分块区域进行单应变换:m′=Hijm,式中矩阵Hij描述了参考视点图像的分块区域到目标视点图像的一一映射,称为单应矩阵,通过特征点求得;对应点对的定义:参考视点图像中分块区域的一个点m,经过视点变换能映射到目标视点图像的点m′,则称顶点m与m′是一个对应点对。
在步骤4)中,所述单应变换的原理为:空间平面在两个摄像机下的图像点具有一一对应的关系,且这种对应关系是齐次线性的,可由一个三阶矩阵即单应矩阵来描述:m′=Hijm;矩阵Hij称为单应矩阵,它是齐次的,有8个自由度,如下所示:
H ij = a ij b ij c ij d ij e ij f ij g ij h ij 1 ;
记参考视点图像中的一个像素点的齐次坐标为m=[u,v,1]T,虚拟视点图像中的一个像素点的齐次坐标为m′=[u′,v′,1]T,则可推导出:
ua ij + vb ij + c ij - u ′ ug ij - u ′ vh ij = u ′ ud ij + ve ij + f ij - u ′ vg ij - v ′ vh ij = v ′
由于矩阵Hij有8个自由度,而一个对应点对只能建立如上两个方程,因此要求解含8个未知数的方程组至少需要8个方程,也就是至少要有4个对应点对,而这些对应点对可以利用相应的深度信息进行视点变换来获得;在某分块区域内不妨取4个对应点对mk、m′k(k=1,2,3,4),则由上式可以推导出一个非齐次线性方程组:
AijXij=Yij
其中,i、j分别表示分块区域所在的行、列下标,常数项向量Yij=[u1′,v1′,...,u4′,v4′]T,未知数向量Xij=[aij,bij,...,gij,hij]T,系数矩阵A(8×8)如下所示:
A ij = u 1 v 1 1 0 0 0 - u 1 u 1 ′ - u 1 ′ v 1 0 0 0 u 1 v 1 1 - u 1 v 1 ′ - v 1 v 1 ′ . . . . . . . . . . . . u 4 v 4 1 0 0 0 - u 4 u 4 ′ - u 4 ′ v 4 0 0 0 u 4 v 4 1 - u 4 v 4 ′ - v 4 v 4 ′
由非齐次线性方程组的解理论可知,上式具有唯一解,当且仅当系数矩阵的秩满足具体操作时,可分别在各分块区域取顶点位置附近的像素点,另外,也可通过多取几个对应点对来减小计算误差;
若成功求得单应矩阵Hij,则直接对分块区域中的每个像素点做单应变换,即可一一映射到目标视点的图像平面坐标系中,初步绘制出目标视点图像的对应区域;
若无法计算单应矩阵,则取与之相邻的分块区域的单应矩阵Hij,然后对分块区域进行单应变换,其依据是:目标视点的空洞区域往往出现在从背景对象到前景对象深度剧烈变化的过度区域,而实际上过度区域同属于平坦的背景区域,因此可视为具有相近深度的同一平面,其效果就是将参考视点中的背景像素点填充到了目标视点中的空洞区域,平滑的具体原则:考虑用一个右眼视点及其深度图来绘制一个左眼视点图像,显然,空洞会出现在前景对象的左侧区域,即在水平方向上深度值由低到高剧变的区域:
L ( x , y ) = 1 , d ( x + 1 , y ) - d ( x , y ) ≥ θ 0 , else
因此,在这种情况下应选择与之左邻的分块区域来平滑;同理,当以左眼视点来绘制右眼视点时,应选择与之右邻的分块区域来平滑;
将上述步骤绘制出的各目标视点图像区域进行简单的融合,并采用邻域插值法修复残留的空洞区域,获得最终的目标视点图像。
本发明与现有技术相比,具有如下优点与有益效果:
针对目标视点图像的空洞主要出现在深度不连续区域的特点,而相邻的背景区域的深度变化相对平缓,可近似为平面区域,并通过进一步的分层、分块来降低误差,从而得以采用单应变换的方法进行绘制,较好地避免了传统方法中所有的像素点都依赖于深度信息的缺点,减少了目标视点图像的空洞和伪影,提高了主客观质量,而且降低了传输带宽。
附图说明
图1为本发明所述基于分块投影的DIBR方法的流程图。
图2为本发明实施例中的参考视点图像。
图3为本发明实施例中的参考视点深度图。
图4为本发明实施例中的目标视点深度图。
图5为本发明实施例中的目标视点图像的空洞现象。
图6为本发明实施例中采用本发明方法所绘制的目标视点图像。
图7为本发明实施例中采用基于高斯滤波法所绘制的目标视点图像。
图8为本发明实施例中采用基于图像修复法所绘制的目标视点图像。
图9为本发明实施例中采用基于双边视点变换的目标视点图像。
具体实施方式
下面结合具体实施例对本发明作进一步说明。
本实施例所述的基于分块投影的DIBR方法,其情况如下:首先,获取参考视点的彩色图像、深度图和两个视点的摄像机几何参数;其次,将参考图像分成若干的分块区域,并对每个分块区域进行投影变换;最后,将目标视点图像中各分块区域整合,并修复细小空洞,以得到最终的目标视点图像。不难发现,该方法并没有直接利用逐点进行视点变换来生成新视点,因而能有效避免了目标视点图像受深度图连续性的影响。利用仿真实验和实际数据比较了传统方法和基于分块投影的DIBR方法之间的性能,验证了该方法的有效性。该方法的处理流程如图1所示,具体包括以下步骤:
1)获取参考视点图像及对应的深度图,以及目标视点的深度图,分别如图2、图3、图4所示。
2)将参考图像分成若干分块区域,并近似作平面处理,以用于单应变换模型;一个视点图像可以经由单应矩阵映射到对应的另一个视点图像,前提是这两个图像在3D空间中的原像是一个空间平面,因此不能简单地将这个模型作用于整幅图像上。而就图像中的某一小块区域而言,由于在极小的范围内任何物体的表面都可近似为平面,此时对于单应变换模型成立。分块区域的标准差描述如下:
σ ij = 1 NM Σ n = 1 N Σ m = 1 M [ d ( n , m ) - μ ] 2
其中,分块区域的大小为N×M,d(n,m)表示该区域像素点对应的深度值,μ为区域内的平均深度值,σij为标准差,它反映了整个第i行、第j列的分块区域的平均深度值的分散程度。我们用σij来描述分块区域采用单应变换模型的近似误差,显然,σij越小,则误差越小。基于这一点,本发明方法在每个目标视点图像中的分块区域内的像素点仅与相应的单应矩阵相关,而与该点的深度信息没有直接关联,所以一方面避免了因深度图不连续而产生的空洞,另一方面也避免了因深度信息或摄像机几何参数精度而导致的几何失真。
3)针对各分块区域,利用视点变换方程求取对应点对;视点变换原理:对所选参考视点中的像素点,①根据其深度信息,将其从参考图像坐标空间投影到世界坐标空间;②将空间点投影到目标视点图像的坐标空间。由摄像机投影理论可知,空间点M通过摄像机P被投影到图像平面的点m,则有任意视点变换方程:m=PM,式中m和M分别表示像素点的相机空间和世界空间坐标,P表示摄像机矩阵,由内、外参数矩阵求出。具体操作中,步骤①中,已知参考点的深度值Z和摄像机矩阵Pref,另外参考视点的图像空间坐标已知:mref=(uref,vref),通过求解变换方程,可获得该点的世界空间坐标M=(X,Y,Z),在步骤②中已知Ptarget和M,做矩阵乘法,可直接求出目标视点的坐标:mtarget=PtargetM。
4)计算出各分块区域的单应矩阵,然后作单应变换,最后将各分块投影区域进行整合,并进行空洞修补得到最终的目标视点图像。对于各分块区域,分块区域的大小为M×N,5≤N,M≤15,分块不宜过大,这样会增大单应变换模型的近似误差,也不宜过小,这会增加计算复杂度,本发明中取N=M=8,从左至右,从上往下对各分块依次进行处理,如下:
4.1)取出分块区域的四个顶点,依据上述步骤3)所描述的视点变换原理,判断是否为对应点对。对应点对的定义:参考视点图像中分块区域的一个顶点m,经过视点变换能映射到目标视点图像的点m′,则称顶点m与m′是一个对应点对。
4.2)依据射影几何的相关原理(参见文献“吴福朝.计算机视觉中的数学方法[M].北京:科学出版社.2008:13-70.”),空间平面在两个摄像机下的图像点具有一一对应的关系,且这种对应关系是齐次线性的,可由一个三阶矩阵即所谓的单应矩阵来描述:m′=Hijm。矩阵H称为单应矩阵,它是齐次的,有8个自由度,如下所示:
H ij = a ij b ij c ij d ij e ij f ij g ij h ij 1
记参考视点图像中的一个像素点的齐次坐标为m=[u,v,1]T,虚拟视点图像中的一个像素点的齐次坐标为m′=[u′,v′,1]T,则可推导出:
ua ij + vb ij + c ij - u ′ ug ij - u ′ vh ij = u ′ ud ij + ve ij + f ij - u ′ vg ij - v ′ vh ij = v ′
由于矩阵Hij有8个自由度,而一个对应点对只能建立如上两个方程,因此要求解含8个未知数的方程组至少需要8个方程,也就是至少要有4个对应点对,而这些对应点对可以利用相应的深度信息进行视点变换来获得。在某分块区域内不妨取4个对应点对mk、m′k(k=1,2,3,4),则由上式可以推导出一个非齐次线性方程组:
AijXij=Yij
其中,i、j分别表示分块区域所在的行、列下标,常数项向量Yij=[u1′,v1′,...,u4′,v4′]T,未知数向量Xij=[aij,bij,...,gij,hij]T,系数矩阵A(8×8)如下所示:
A ij = u 1 v 1 1 0 0 0 - u 1 u 1 ′ - u 1 ′ v 1 0 0 0 u 1 v 1 1 - u 1 v 1 ′ - v 1 v 1 ′ . . . . . . . . . . . . u 4 v 4 1 0 0 0 - u 4 u 4 ′ - u 4 ′ v 4 0 0 0 u 4 v 4 1 - u 4 v 4 ′ - v 4 v 4 ′
由非齐次线性方程组的解理论可知,上式具有唯一解,当且仅当系数矩阵的秩满足具体操作时,可分别在各分块区域取顶点位置附近的像素点,另外,也可通过多取几个对应点对来减小计算误差。
4.3)倘如成功求得单应矩阵Hij,则直接对分块区域中的每个像素点做单应变换,即可一一映射到目标视点的图像平面坐标系中,初步绘制出目标视点图像的对应区域。
4.4)倘如无法计算单应矩阵,则取与之相邻的分块区域的单应矩阵Hij,然后对分块区域进行单应变换.其依据是:目标视点的空洞区域往往出现在从背景对象到前景对象深度剧烈变化的过度区域,而实际上过度区域同属于平坦的背景区域,因此可视为具有相近深度的同一平面,其效果就是将参考视点中的背景像素点填充到了目标视点中的空洞区域,相比于用前景对象填充易产生边缘重影和假象,更自然、合理。平滑的具体原则:考虑用一个右眼视点及其深度图来绘制一个左眼视点图像,显然,空洞会出现在前景对象的左侧区域,即在水平方向上深度值由低到高剧变的区域:
L ( x , y ) = 1 , d ( x + 1 , y ) - d ( x , y ) ≥ θ 0 , else
因此,在这种情况下应选择与之左邻的分块区域来平滑;同理,当以左眼视点来绘制右眼视点时,应选择与之右邻的分块区域来平滑。
4.5)将上述步骤绘制出的各目标视点图像区域进行简单的融合,并采用邻域插值法修复残留的细小空洞区域,获得最终的目标视点图像。
在本实施例中,通过仿真实验,对基于高斯滤波法的DIBR(即文献“ZhangL,TamWJ.Stereoscopicimagegenerationbasedondepthimagesfor3DTV.IEEETransactionsonBroadcasting,2005,51(2):191-199”)、基于图像修复理论的DIBR(即文献“骆凯,李东晓,冯雅美等.基于DIBR和图像修复的任意视点绘制.中国图像图形学报,2010,15(3):443-449.”以及文献“Kwan-JungOh,SehoonYea,Yo-SungHo.Hole-fillingmethodusingdepthbasedin-paintingforviewsynthesisinfreeviewpointtelevision(FTV)and3Dvideo.ProceedingsofPictureCodingSymposium,Chicago,2009:1-4.”)、基于双视点变换的DIBR(即“GangSong,JinbaoXue,HuaLi.Anewdouble-sidedDIBRmethodforvirtualviewgenerationin3DTV.ProceedingsofIEEEConferenceonCommunicationTechnology,Jinan,2011:1099-1102.”)以及本发明基于分块投影的DIBR方法这四种不同方法的绘制效果进行了对比,如图5至图9所示,其对比结果如下表1所示。
表1
在本实验中,采用微软研究院提供的视频测试序列breakdancers进行仿真实验。该序列包含8个两两水平相距约20cm的视点,且基于点的深度图像同彩色图像的分辨率一致,为1024×768。在视点绘制中,以4号相机为参考视点,5号相机为目标视点。
以上所述之实施例子只为本发明之较佳实施例,并非以此限制本发明的实施范围,故凡依本发明之形状、原理所作的变化,均应涵盖在本发明的保护范围内。

Claims (3)

1.一种基于分块投影的DIBR方法,其特征在于:首先,获取参考视点的彩色图像、深度图和两个视点的摄像机几何参数;其次,将参考图像分成若干的分块区域,并对每个分块区域进行投影变换;最后,将目标视点图像中各分块区域整合,并修复空洞,以得到最终的目标视点图像;其包括以下步骤:
1)获取参考视点图像及对应的深度图,以及目标视点的深度图;
2)将参考图像分成若干分块区域,并近似作平面处理,以用于单应变换模型;
3)针对各分块区域,利用视点变换方程求取对应点对;
4)计算出各分块区域的单应矩阵,然后作单应变换,最后将各分块投影区域进行整合,并进行空洞修补得到最终的目标视点图像;其中,所述单应变换的原理为:空间平面在两个摄像机下的图像点具有一一对应的关系,且这种对应关系是齐次线性的,可由一个三阶矩阵即单应矩阵来描述:m′=Hijm;矩阵Hij称为单应矩阵,它是齐次的,有8个自由度,如下所示:
H i j = a i j b i j c i j d i j e i j f i j g i j h i j 1 ;
记参考视点图像中的一个像素点的齐次坐标为m=[u,v,1]T,虚拟视点图像中的一个像素点的齐次坐标为m′=[u′,v′,1]T,则可推导出:
ua i j + vb i j + c i j - u ′ ug i j - u ′ vh i j = u ′ ud i j + ve i j + f i j - u ′ vg i j - v ′ vh i j = v ′
由于矩阵Hij有8个自由度,而一个对应点对只能建立如上两个方程,因此要求解含8个未知数的方程组至少需要8个方程,也就是至少要有4个对应点对,而这些对应点对可以利用相应的深度信息进行视点变换来获得;在某分块区域内不妨取4个对应点对mk、m′k(k=1,2,3,4),则由上式可以推导出一个非齐次线性方程组:
AijXij=Yij
其中,i、j分别表示分块区域所在的行、列下标,常数项向量Yij=[u′1,v′1,...,u′4,v′4]T,未知数向量Xij=[aij,bij,...,gij,hij]T,系数矩阵A(8×8)如下所示:
A i j = u 1 v 1 1 0 0 0 - u 1 u 1 ′ - u 1 ′ v 1 0 0 0 u 1 v 1 1 - u 1 v 1 ′ - v 1 v 1 ′ ... ... ... ... u 4 v 4 1 0 0 0 - u 4 u 4 ′ - u 4 ′ v 4 0 0 0 u 4 v 4 1 - u 4 v 4 ′ - v 4 v 4 ′
由非齐次线性方程组的解理论可知,上式具有唯一解,当且仅当系数矩阵的秩满足具体操作时,可分别在各分块区域取顶点位置附近的像素点,另外,也可通过多取几个对应点对来减小计算误差;
若成功求得单应矩阵Hij,则直接对分块区域中的每个像素点做单应变换,即可一一映射到目标视点的图像平面坐标系中,初步绘制出目标视点图像的对应区域;
若无法计算单应矩阵,则取与之相邻的分块区域的单应矩阵Hij,然后对分块区域进行单应变换,其依据是:目标视点的空洞区域往往出现在从背景对象到前景对象深度剧烈变化的过度区域,而实际上过度区域同属于平坦的背景区域,因此可视为具有相近深度的同一平面,其效果就是将参考视点中的背景像素点填充到了目标视点中的空洞区域,平滑的具体原则:考虑用一个右眼视点及其深度图来绘制一个左眼视点图像,显然,空洞会出现在前景对象的左侧区域,即在水平方向上深度值由低到高剧变的区域:
L ( x , y ) = 1 , d ( x + 1 , y ) - d ( x , y ) ≥ θ 0 , e l s e
因此,在这种情况下应选择与之左邻的分块区域来平滑;同理,当以左眼视点来绘制右眼视点时,应选择与之右邻的分块区域来平滑;
将上述步骤绘制出的各目标视点图像区域进行简单的融合,并采用邻域插值法修复残留的空洞区域,获得最终的目标视点图像。
2.根据权利要求1所述的一种基于分块投影的DIBR方法,其特征在于:在步骤2)中,一个视点图像可经由单应矩阵映射到对应的另一个视点图像,前提是这两个图像在3D空间中的原像是一个空间平面,因此不能简单地将这个模型作用于整幅图像上;而就图像中的某一小块区域而言,由于在极小的范围内任何物体的表面都可近似为平面,此时对于单应变换模型成立;而分块区域的标准差描述如下:
σ i j = 1 N M Σ n = 1 N Σ m = 1 M [ d ( n , m ) - μ ] 2
其中,分块区域的大小为N×M,d(n,m)表示该区域像素点对应的深度值,μ为区域内的平均深度值,σij为标准差,它反映了整个第i行、第j列的分块区域的平均深度值的分散程度;我们用σij来描述分块区域采用单应变换模型的近似误差,显然,σij越小,则误差越小。
3.根据权利要求1所述的一种基于分块投影的DIBR方法,其特征在于:在步骤3)中,所述视点变换方程为:m=PM,式中m和M分别表示像素点的相机空间和世界空间坐标,矩阵P表示摄像机矩阵;分块处理的方式为:将参考图像分成若干合适的分块区域,由于分块区域至少需要4个对应点对,因此规定分块区域的大小为M×N,5≤N,M≤15,分块不宜过大,这样会增大单应变换模型的近似误差,也不宜过小,这会增加计算复杂度,通常取N=M=8;然后,对分块区域进行单应变换:m′=Hijm,式中矩阵Hij描述了参考视点图像的分块区域到目标视点图像的一一映射,称为单应矩阵,通过特征点求得;对应点对的定义:参考视点图像中分块区域的一个点m,经过视点变换能映射到目标视点图像的点m′,则称顶点m与m′是一个对应点对。
CN201410175458.0A 2014-04-28 2014-04-28 一种基于分块投影的dibr方法 Expired - Fee Related CN103945209B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201410175458.0A CN103945209B (zh) 2014-04-28 2014-04-28 一种基于分块投影的dibr方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201410175458.0A CN103945209B (zh) 2014-04-28 2014-04-28 一种基于分块投影的dibr方法

Publications (2)

Publication Number Publication Date
CN103945209A CN103945209A (zh) 2014-07-23
CN103945209B true CN103945209B (zh) 2016-01-06

Family

ID=51192657

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201410175458.0A Expired - Fee Related CN103945209B (zh) 2014-04-28 2014-04-28 一种基于分块投影的dibr方法

Country Status (1)

Country Link
CN (1) CN103945209B (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10102668B2 (en) * 2016-05-05 2018-10-16 Nvidia Corporation System, method, and computer program product for rendering at variable sampling rates using projective geometric distortion
CN106648109A (zh) * 2016-12-30 2017-05-10 南京大学 一种基于三视角变换的真实场景实时虚拟漫游系统
CN107018401B (zh) * 2017-05-03 2019-01-22 曲阜师范大学 基于逆映射的虚拟视点空洞填补方法
CN117730530A (zh) * 2021-06-29 2024-03-19 Oppo广东移动通信有限公司 图像处理方法及装置、设备、存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101556700A (zh) * 2009-05-15 2009-10-14 宁波大学 一种虚拟视点图像绘制方法
CN101695139A (zh) * 2009-10-14 2010-04-14 宁波大学 一种基于可分级块的虚拟视点图像绘制方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101556700A (zh) * 2009-05-15 2009-10-14 宁波大学 一种虚拟视点图像绘制方法
CN101695139A (zh) * 2009-10-14 2010-04-14 宁波大学 一种基于可分级块的虚拟视点图像绘制方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
基于NSCT和图像融合的中间视点合成算法研究;代超等;《科学技术与工程》;20120228;第12卷(第6期);第1281-1284页 *

Also Published As

Publication number Publication date
CN103945209A (zh) 2014-07-23

Similar Documents

Publication Publication Date Title
CN102625127B (zh) 一种适于3d电视虚拟视点生成的优化方法
CN102592275B (zh) 虚拟视点绘制方法
CN104574432B (zh) 一种自动多视角人脸自拍图像的三维人脸重建方法及系统
CN108335352B (zh) 一种面向多视图大规模三维重建场景的纹理映射方法
CN103400409A (zh) 一种基于摄像头姿态快速估计的覆盖范围3d可视化方法
CN107833253A (zh) 一种面向rgbd三维重建纹理生成的相机姿态优化方法
CN107679537A (zh) 一种基于轮廓点orb特征匹配的无纹理空间目标姿态估计算法
CN104183016B (zh) 一种快速的2.5维建筑物模型的构建方法
CN106780592A (zh) 基于相机运动和图像明暗的Kinect深度重建算法
CN103810685A (zh) 一种深度图的超分辨率处理方法
CN102930593B (zh) 一种双目系统中基于gpu的实时绘制方法
CN103345771A (zh) 一种基于建模的图像高效渲染方法
CN103945209B (zh) 一种基于分块投影的dibr方法
CN102325259A (zh) 多视点视频中虚拟视点合成方法及装置
CN109410133B (zh) 一种基于3dmm的人脸纹理修复方法
CN103826032A (zh) 深度图后期处理方法
CN105006021A (zh) 一种适用于快速点云三维重建的颜色映射方法及装置
CN103854301A (zh) 基于复杂背景下可见外壳的三维重建方法
CN104954780A (zh) 一种适用于高清2d/3d转换的dibr虚拟图像修复方法
CN106875437A (zh) 一种面向rgbd三维重建的关键帧提取方法
CN104599284A (zh) 基于多视角手机自拍图像的三维人脸重建方法
CN102034265A (zh) 一种三维视图获取方法
CN102609977A (zh) 基于深度融合和曲面演变的多视点三维重建方法
CN103761765A (zh) 基于映射边界优化的三维物体模型纹理映射算法
CN111047709A (zh) 一种双目视觉裸眼3d图像生成方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20160106

Termination date: 20210428