CN102625127B - 一种适于3d电视虚拟视点生成的优化方法 - Google Patents
一种适于3d电视虚拟视点生成的优化方法 Download PDFInfo
- Publication number
- CN102625127B CN102625127B CN201210080739.9A CN201210080739A CN102625127B CN 102625127 B CN102625127 B CN 102625127B CN 201210080739 A CN201210080739 A CN 201210080739A CN 102625127 B CN102625127 B CN 102625127B
- Authority
- CN
- China
- Prior art keywords
- pixel
- image
- view
- target
- visual point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Landscapes
- Processing Or Creating Images (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Image Generation (AREA)
Abstract
本发明公开了一种适于3D电视虚拟视点生成的优化方法;它包括预处理深度图、三维图像变换、基于欧式距离和深度值的像素分配算法和逆三维图像变换四部分,步骤如下:首先获取参考视点图像及其深度图和获取辅助参考视点图像,对深度图进行闭运算预处理;对参考视点图像进行三维图像变换获取虚拟视点图像;利用基于欧式距离和深度值的像素分配算法解决虚拟视点图像中的遮挡和细纹空洞问题;利用逆三维图像变换解决虚拟视点图像大面积空洞问题。本发明与原有的DIBR技术相比,生成的虚拟视点图像质量明显提高。
Description
技术领域
本发明涉及一种适于3D电视虚拟视点生成的优化方法。
背景技术
相较于普通的二维电视,三维电视(3DTV)由于其提供了场景的深度信息而能够给用户带来身临其境的感受,同时由于其多角度的立体视觉使用户与电视场景信息更具交互性,被认为是继高清平板电视之后又一个新的电视发展方向。3D电视多角度立体效果的实现需要多个视点的视频图像流,基于深度图的虚拟视点绘制(DIBR)技术作为3D电视产生虚拟视点图像实现多视角立体感受的一项关键技术,其能够利用二维彩色图像和对应的深度图像完成对任意虚拟视点彩色图像的绘制。但是利用DIBR技术生成的虚拟视点图像质量不高,主要存在的问题有重叠、重采样和空洞问题。
发明内容
本发明的目的是为了克服上述现有技术的不足,提供一种优化的虚拟视点生成方法,解决DIBR技术过程中出现的重叠、重采样和空洞问题,提高生成的虚拟视点图像质量,保证后期的立体视觉效果。
为实现上述目的,本发明采用下述技术方案
一种适于3D电视虚拟视点生成的优化方法,该方法的优化步骤如下:
步骤1:利用摄像系统首先获取参考视点图像及其深度图,同时获取辅助参考视点图像;
步骤2:利用闭运算对参考视点图像的深度图进行预处理;
步骤3:对参考视点图像和经过闭运算处理后的深度图,进行三维图像变换,得到虚拟视点图像;
步骤4:对生成的虚拟视点图像利用基于欧式距离和深度值的像素分配算法解决虚拟视点图像中的重叠和细纹空洞问题,处理过程如下:
(a)设虚拟视点图像中的目标整像素点为O(i,j),首先判断投影在O(i,j)上的像素点的个数,如果为1,则不进行任何处理;如果大于1,则比较对应的深度值,取深度值最大也就是最靠前的像素进行赋值;如果为0,则检测以O(i,j)为中心的2×2像素格内的非整像素点的个数;
(b)如果在2×2这个范围内的非整像素点的个数为零,那么判定O(i,j)为空洞点,不进行赋值;如果在2×2这个范围内非整像素点的个数不为零,则比较这些非整像素点的深度值,求出深度值最大的像素点;
(c)判断深度值最大的像素点是否唯一,如果深度值最大的像素点唯一,将此点的像素值赋给目标整像素点,并转入步骤(d)继续执行;如果深度值最大的像素点不唯一,就分别计算剩余非整数像素点到目标整像素点的欧氏距离,这些欧氏距离中,与目标整像素点距离最小的非整数像素点即为最佳匹配点,将该非整数像素点的值赋给目标整像素点,并转入步骤(d)继续执行;如果欧氏距离仍存在相等的情况,那么就将剩余非整数像素点的平均值赋给目标整像素点,并转入步骤(d)继续执行;无论以上哪种情况,都是将深度值最大的非整像素点赋值,这保证了虚拟视点观看者看到的是前景物体,不会出现重叠问题;
(d)继续寻找下一个目标整像素点,重复步骤(a)-(c),直至整个目标整像素点处理完毕;
步骤5:经过步骤4的处理,虚拟视点图像的细纹空洞已经处理完毕,但仍存在由于遮挡造成的空洞,通过对生成的虚拟视点图像进行逆三维图像变换来填补大面积空洞,得到了高质量的虚拟视点图像。
所述步骤3中三维图像变换的过程如下:
(A)将参考视点图像上所有的像素点的深度图信息,投影到它们对应的三维空间中;
(B)将三维空间上的点,根据目标虚拟视点与参考视点之间的角度,投影到目标图像上,以上为一个二维转换为三维再重新转换为二维的过程;其中,三维图像变换公式为:
其中,P为空间任意一个三维点;P1=(u1,v1,1)T、P2=(u2,v2,1)T为P点在两个视点图像上的投影;R为一个3×3的旋转矩阵,t为一个3×1的平移矩阵;k1和k2分别表示第一个和第二个摄像机的内参数矩阵;Z1和Z2分别表示两个摄像机坐标系的场景深度。
所述步骤5中,所述的逆三维图像变换包含如下步骤:
(A)利用三维图像变换公式进行变换,不同的是,这次是结合深度信息将生成的目标虚拟视点图像的空洞像素投影至辅助参考视点的图像平面,并且标记这些空洞像素的位置信息,然后与已知的辅助参考视点图像像素位置进行对照;
(B)利用相对位置的辅助参考视点图像像素信息对空洞进行填充。
所述欧氏距离的计算公式为:
其中,xs1表示第一个点的第s维坐标,xs2表示第二个点的第s维坐标;此时的图像坐标为二维坐标,即n=2。
本发明的有益效果是,与原有的DIBR技术相比,本发明提出的优化方法所生成的虚拟视点图像质量明显提高,有效的消除了虚拟视点图像中的细纹空洞和由于遮挡产生的空洞,同时也解决了重叠问题。另外,相对于双视点融合生成虚拟视点技术来说,这种方法不需要传输辅助参考视点图像的深度信息,明显地减少了传输数据量。本发明的虚拟视点生成的优化方法主要适用于3D电视以及其他3D显示设备的虚拟视点生成,解决了3D电视传输多视点图像数据量大的问题。
附图说明
图1a是某图像原始深度图的部分截图;
图1b是图1a经过闭运算后的深度图;
图1c是图1a利用原始深度图生成虚拟视点图像;
图1d是图1b闭运算后生成的虚拟视点图像;
图2是本发明基于欧式距离和深度值的像素分配算法流程图;
图3a是未经过算法处理的图像;
图3b是图3a经过本发明的基于欧式距离和深度值的像素分配算法处理后的图像;
图4a是真实目标视点图像;
图4b是图4a利用本发明算法生成的虚拟目标视点效果图;
图5是摄像系统示意图。
具体实施方式
下面结合附图与实施例对本发明作进一步说明。
一种适于3D电视虚拟视点生成的优化方法,包括预处理深度图、三维图像变换、基于欧式距离和深度值的像素分配算法和逆三维图像变换四部分,其特征如下:
所述的预处理深度图部分包含如下步骤:
由于空洞产生的直接原因是由于深度图的不连续,以往的预处理深度图的方法主要有中值滤波、高斯滤波等。这些方法虽然能够使空洞减小,但是由于改变了深度图,就会造成生成的虚拟视点几何失真。本发明只采用闭运算对深度图进行预处理,这样就能够在不改变前景和背景深度值的前提下,使较为粗糙的深度图边缘变的平滑,不会在三维图像变换的过程中引入几何失真的元素,从图1a和图1b可以看出,闭运算只会使原本粗糙的深度图边缘变得平滑,对前景和背景的深度值基本无影响。而空洞问题,我们通过后处理的方法解决。
所述的三维图像变换部分包含如下步骤:
三维图像变换首先将参考图像上所有的像素点,结合深度图信息,投影到它们对应的三维空间中,然后再将三维空间上的点,根据目标虚拟视点与参考视点之间的角度,投影到目标图像上,这也就是一个2D转换为3D再重新转换为2D的过程。公式如下:
其中,P为空间任意一个三维点;P1=(u1,v1,1)T、P2=(u2,v2,1)T为P点在两个视点图像上的投影,u1,v1,u2,v2分别为P1、P2在视点图像上的坐标值;R为一个3×3的旋转矩阵,t为一个3×1的平移矩阵;k1和k2分别表示第一个和第二个摄像机的内参数矩阵;Z1和Z2分别表示两个摄像机坐标系的场景深度。经过三维图像变换后得到的虚拟视点效果图如图3a所示。三维图像变换是将参考视点投影至目标视点,是从已知到未知,本发明所说的逆三维图像变换是将目标视点投影至辅助视点,也就是从未知到已知的过程,用的基本公式和方法都是一样的。
所述的基于欧式距离和深度值的像素分配算法,算法流程如图2所示,包含如下步骤:
(1)依次对生成的虚拟视点图像进行像素点检索,设目标整像素点坐标为O(i,j),其中i,j为图像像素坐标,取值范围分别为0到图像水平、垂直像素点个数最大值,首先判断投影在O(i,j)上的像素点的个数,如果为1,则不进行任何处理;如果大于1,比较对应的深度值,取深度值最大也就是最靠前的像素进行赋值;如果为0,检测以O(i,j)为中心的2×2像素格内的非整像素点(即因为没有投影到整像素点而无法显示造成细纹黑洞的像素)的个数;
(2)如果这个范围内的非整像素点的个数为零,那么O(i,j)仍为空洞点,不赋值(这样的情况一般发生在由于遮挡而产生的大范围空洞处)如果存在非整像素点,那么利用保留的深度信息,比较这些点的深度值,保留深度值最大的,也就是位置相对靠前的像素点进行下一步计算;
(3)如果深度值最大的像素点不唯一,就分别计算剩余非整数像素点到目标整像素点的欧氏距离,欧氏距离为像素点的真实距离,它的计算公式为:
其中,xs1表示第一个点的第s维坐标,xs2表示第二个点的第s维坐标;此时的图像坐标为二维坐标,即n=2。得到剩余非整像素点的欧氏距离后进行比较,距离最小的就是我们筛选出的最匹配点,将它的值赋给目标整像素点。如果仍存在相等的情况,就将他们的平均值赋给目标整像素点,效果如图3b所示。
所述的逆三维图像变换算法包含如下步骤:
(1)在DIBR技术的3D warping过程中同时生成目标虚拟视点的深度图,由于深度图纹理简单,所以简单的水平填充就能够得到质量较高的深度图;
(2)结合新生成的深度信息,再次利用之前所说的三维图像变换公式,将空洞像素投影至辅助参考视点的图像平面,与已知的辅助参考视点图像像素进行对照;
(3)利用相对位置的辅助参考视点图像像素信息对空洞进行填充。通过对生成的虚拟视点图像进行逆三维图像变换来填补大面积空洞,得到了高质量的虚拟视点图像。生成效果如图4b所示,而图4a为目标视点的真实图像。
上述虽然结合附图对本发明的具体实施方式进行了描述,但并非对本发明保护范围的限制,所属领域技术人员应该明白,在本发明的技术方案的基础上,本领域技术人员不需要付出创造性劳动即可做出的各种修改或变形仍在本发明的保护范围以内。
Claims (3)
1.一种适于3D电视虚拟视点生成的优化方法,其特征是,该方法的优化步骤如下:
步骤1:利用摄像系统首先获取参考视点图像及其深度图,同时获取辅助参考视点图像;
步骤2:利用闭运算对参考视点图像的深度图进行预处理;
步骤3:对参考视点图像和经过闭运算处理后的深度图,进行三维图像变换,得到虚拟视点图像;所述三维图像变换的过程如下:
(A)将参考视点图像上所有的像素点的深度图信息,投影到它们对应的三维空间中;
(B)将三维空间上的点,根据目标虚拟视点与参考视点之间的角度,投影到目标图像上,以上为一个二维转换为三维再重新转换为二维的过程;其中,三维图像变换公式为:
其中,P为空间任意一个三维点;P1=(u1,v1,1)T、P2=(u2,v2,1)T为P点在两个视点图像上的投影;R为一个3×3的旋转矩阵,t为一个3×1的平移矩阵;k1和k2分别表示第一个和第二个摄像机的内参数矩阵;Z1和Z2分别表示两个摄像机坐标系的场景深度;
步骤4:对生成的虚拟视点图像利用基于欧式距离和深度值的像素分配算法解决虚拟视点图像中的重叠和细纹空洞问题,处理过程如下:(a)设虚拟视点图像中的目标整像素点为O(i,j),首先判断投影在O(i,j)上的像素点的个数,如果为1,则不进行任何处理;如果大于1,则比较对应的深度值,取深度值最大也就是最靠前的像素进行赋值;如果为0,则检测以O(i,j)为中心的2×2像素格内的非整像素点的个数;
(b)如果在2×2这个范围内的非整像素点的个数为零,那么判定O(i,j)为空洞点,不进行赋值;如果在2×2这个范围内非整像素点的个数不为零,则比较这些非整像素点的深度值,求出深度值最大的像素点;
(c)判断深度值最大的像素点是否唯一,如果深度值最大的像素点唯一,将此点的像素值赋给目标整像素点,并转入步骤(d)继续执行;如果深度值最大的像素点不唯一,就分别计算剩余非整数像素点到目标整像素点的欧氏距离,这些欧氏距离中,与目标整像素点距离最小的非整数像素点即为最佳匹配点,将该非整数像素点的值赋给目标整像素点,并转入步骤(d)继续执行;如果欧氏距离仍存在相等的情况,那么就将剩余非整数像素点的平均值赋给目标整像素点,并转入步骤(d)继续执行;无论以上哪种情况,都是将深度值最大的非整像素点赋值,这保证了虚拟视点观看者看到的是前景物体,不会出现重叠问题;
(d)继续寻找下一个目标整像素点,重复步骤(a)-(c),直至整个目标整像素点处理完毕;
步骤5:经过步骤4的处理,虚拟视点图像的细纹空洞已经处理完毕,但仍存在由于遮挡造成的空洞,通过对生成的虚拟视点图像进行逆三维图像变换来填补大面积空洞,得到了高质量的虚拟视点图像。
2.如权利要求1所述的一种适于3D电视虚拟视点生成的优化方法,其特征是,所述步骤5中,所述的逆三维图像变换包含如下步骤:
(A)利用三维图像变换公式:进行变换,其中,P为空间任意一个三维点;P1=(u1,v1,1)T、P2=(u2,v2,1)T为P点在两个视点图像上的投影;R为一个3×3的旋转矩阵,t为一个3×1的平移矩阵;k1和k2分别表示第一个和第二个摄像机的内参数矩阵;Z1和Z2分别表示两个摄像机坐标系的场景深度;不同的是,这次是结合深度信息将生成的目标虚拟视点图像的空洞像素投影至辅助参考视点的图像平面,并且标记这些空洞像素的位置信息,然后与已知的辅助参考视点图像像素位置进行对照;
(B)利用相对位置的辅助参考视点图像像素信息对空洞进行填充。
3.如权利要求1所述的一种适于3D电视虚拟视点生成的优化方法,其特征是,所述欧氏距离的计算公式为:
其中,xs1表示第一个点的第s维坐标,xs2表示第二个点的第s维坐标;此时的图像坐标为二维坐标,即n=2。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201210080739.9A CN102625127B (zh) | 2012-03-24 | 2012-03-24 | 一种适于3d电视虚拟视点生成的优化方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201210080739.9A CN102625127B (zh) | 2012-03-24 | 2012-03-24 | 一种适于3d电视虚拟视点生成的优化方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN102625127A CN102625127A (zh) | 2012-08-01 |
CN102625127B true CN102625127B (zh) | 2014-07-23 |
Family
ID=46564784
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201210080739.9A Expired - Fee Related CN102625127B (zh) | 2012-03-24 | 2012-03-24 | 一种适于3d电视虚拟视点生成的优化方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN102625127B (zh) |
Families Citing this family (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103634584B (zh) * | 2012-08-29 | 2015-10-21 | 广州市朗辰电子科技有限公司 | 一种多视点3d视频合成方法 |
CN102892021B (zh) * | 2012-10-15 | 2014-11-19 | 浙江大学 | 一种合成虚拟视点图像的新方法 |
CN103024421B (zh) * | 2013-01-18 | 2015-03-04 | 山东大学 | 自由视点电视中的虚拟视点合成方法 |
TW201528775A (zh) | 2014-01-02 | 2015-07-16 | Ind Tech Res Inst | 景深圖校正方法及系統 |
CN103873867B (zh) * | 2014-03-31 | 2017-01-25 | 清华大学深圳研究生院 | 自由视点视频深度图失真预测方法和编码方法 |
CN104902257B (zh) * | 2015-05-29 | 2016-08-31 | 冠捷显示科技(厦门)有限公司 | 一种快速多视角影像合成方法 |
CN105611271A (zh) * | 2015-12-18 | 2016-05-25 | 华中科技大学 | 一种实时立体图像生成系统 |
CN105847782A (zh) * | 2016-04-15 | 2016-08-10 | 乐视控股(北京)有限公司 | 一种三维图像生成方法和装置 |
CN106254854B (zh) * | 2016-08-19 | 2018-12-25 | 深圳奥比中光科技有限公司 | 三维图像的获得方法、装置及系统 |
CN106331672B (zh) * | 2016-08-19 | 2018-12-25 | 深圳奥比中光科技有限公司 | 视点图像的获得方法、装置及系统 |
CN106548489B (zh) * | 2016-09-20 | 2019-05-10 | 深圳奥比中光科技有限公司 | 一种深度图像与彩色图像的配准方法、三维图像采集装置 |
CN106791773B (zh) * | 2016-12-30 | 2018-06-01 | 浙江工业大学 | 一种基于深度图像的新视点合成方法 |
US20180192033A1 (en) * | 2016-12-30 | 2018-07-05 | Google Inc. | Multi-view scene flow stitching |
JP6824579B2 (ja) * | 2017-02-17 | 2021-02-03 | 株式会社ソニー・インタラクティブエンタテインメント | 画像生成装置および画像生成方法 |
US10867414B2 (en) | 2018-04-10 | 2020-12-15 | Apple Inc. | Point cloud attribute transfer algorithm |
US11430155B2 (en) | 2018-10-05 | 2022-08-30 | Apple Inc. | Quantized depths for projection point cloud compression |
CN110062220B (zh) * | 2019-04-10 | 2021-02-19 | 长春理工大学 | 视差层次最大化的虚拟视点图像生成方法 |
CN110334769A (zh) * | 2019-07-09 | 2019-10-15 | 北京华捷艾米科技有限公司 | 目标识别方法及装置 |
US11627314B2 (en) * | 2019-09-27 | 2023-04-11 | Apple Inc. | Video-based point cloud compression with non-normative smoothing |
CN111325693B (zh) * | 2020-02-24 | 2022-07-12 | 西安交通大学 | 一种基于单视点rgb-d图像的大尺度全景视点合成方法 |
CN115176459B (zh) * | 2021-01-25 | 2024-09-17 | 京东方科技集团股份有限公司 | 虚拟视点合成方法、电子设备和计算机可读介质 |
CN115908162B (zh) * | 2022-10-28 | 2023-07-04 | 中山职业技术学院 | 一种基于背景纹理识别的虚拟视点生成方法及系统 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102325259A (zh) * | 2011-09-09 | 2012-01-18 | 青岛海信数字多媒体技术国家重点实验室有限公司 | 多视点视频中虚拟视点合成方法及装置 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2005029871A2 (de) * | 2003-09-15 | 2005-03-31 | Armin Grasnick | Verfahren zum erstellen einer raumbildvorlage für abbildungsverfahren mit räumlichen tiefenwirkungen und vorrichtung zum anzeigen einer raumbildvorlage |
-
2012
- 2012-03-24 CN CN201210080739.9A patent/CN102625127B/zh not_active Expired - Fee Related
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102325259A (zh) * | 2011-09-09 | 2012-01-18 | 青岛海信数字多媒体技术国家重点实验室有限公司 | 多视点视频中虚拟视点合成方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
CN102625127A (zh) | 2012-08-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN102625127B (zh) | 一种适于3d电视虚拟视点生成的优化方法 | |
CN101902657B (zh) | 一种基于深度图分层的虚拟多视点图像的生成方法 | |
CN103400409B (zh) | 一种基于摄像头姿态快速估计的覆盖范围3d可视化方法 | |
CN102325259A (zh) | 多视点视频中虚拟视点合成方法及装置 | |
CN102592275B (zh) | 虚拟视点绘制方法 | |
CN106408513B (zh) | 深度图超分辨率重建方法 | |
CN102930593B (zh) | 一种双目系统中基于gpu的实时绘制方法 | |
CN108234985B (zh) | 用于反向深度图渲染处理的维度变换空间下的滤波方法 | |
CN103150729B (zh) | 一种虚拟视图渲染方法 | |
CN102509348A (zh) | 一种共享增强现实场景的真实物体多方位表示方法 | |
CN106060509B (zh) | 引入颜色校正的自由视点图像合成方法 | |
CN106341676A (zh) | 基于超像素的深度图像预处理和深度空洞填充方法 | |
CN104506872B (zh) | 一种平面视频转立体视频的方法及装置 | |
CN102368826A (zh) | 双视点视频到多视点视频的实时自适应生成方法 | |
CN111047709A (zh) | 一种双目视觉裸眼3d图像生成方法 | |
CN103945209B (zh) | 一种基于分块投影的dibr方法 | |
CN104837000A (zh) | 一种利用轮廓感知的虚拟视点合成方法 | |
CN103679739A (zh) | 基于遮挡区域检测的虚拟视图生成方法 | |
Pan et al. | Accurate depth extraction method for multiple light-coding-based depth cameras | |
CN102750694B (zh) | 基于局部最优置信传播算法的双目视频深度图求取方法 | |
CN104284177A (zh) | 会聚立体图像视差控制方法 | |
Lin et al. | Fast multi-view image rendering method based on reverse search for matching | |
CN105791798B (zh) | 一种基于gpu的4k超多视点3d视频实时转化方法及装置 | |
CN105163104B (zh) | 一种不产生空洞的中间视图合成方法 | |
CN114935316B (zh) | 基于光学跟踪与单目视觉的标准深度图像生成方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20140723 Termination date: 20150324 |
|
EXPY | Termination of patent right or utility model |