CN103581648A - 绘制新视点中的空洞填补方法 - Google Patents
绘制新视点中的空洞填补方法 Download PDFInfo
- Publication number
- CN103581648A CN103581648A CN201310489437.1A CN201310489437A CN103581648A CN 103581648 A CN103581648 A CN 103581648A CN 201310489437 A CN201310489437 A CN 201310489437A CN 103581648 A CN103581648 A CN 103581648A
- Authority
- CN
- China
- Prior art keywords
- depth
- hole
- region
- point
- blocked
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 60
- 238000013507 mapping Methods 0.000 claims abstract description 42
- 238000001914 filtration Methods 0.000 claims abstract description 28
- 238000004458 analytical method Methods 0.000 claims abstract description 12
- 238000012937 correction Methods 0.000 claims description 6
- 230000003760 hair shine Effects 0.000 claims description 6
- 238000009499 grossing Methods 0.000 abstract description 3
- 230000000694 effects Effects 0.000 abstract description 2
- 238000007781 pre-processing Methods 0.000 abstract description 2
- 238000009877 rendering Methods 0.000 description 5
- 238000012545 processing Methods 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 230000003044 adaptive effect Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 230000007547 defect Effects 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 238000005429 filling process Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Landscapes
- Image Generation (AREA)
- Processing Or Creating Images (AREA)
Abstract
本发明涉及一种绘制新视点中的空洞填补方法,该方法包括以下步骤:在三维映射前,对深度图预处理,包括:检测深度图边缘;进行深度不连续分析,获取主要深度不连续区域;对主要深度不连续区域进行非对称高斯滤波;在三维映射后,检查新视点图像是否仍有空洞,如果有,则基于深度信息对空洞填补。本发明在三维映射前只对主要深度不连续区域进行平滑,在三维映射后基于深度信息对空洞填补,不但有效避免了对不出现空洞或只有小空洞区域的平滑而造成的额外扭曲现象,而且能够实现更合理的填补结果。
Description
技术领域
本发明涉及一种绘制新视点中的空洞填补方法,基于现有的绘制新视点方法,用于减少并填补绘制过程中出现的空洞,以提高新视点的绘制质量。属于计算机视觉、图像处理、虚拟现实技术领域。
背景技术
自1936年,第一项电视服务由英国广播公司(BBC)推出以来,随着视频技术的发展(例如内容获取,编码,通信和显示),电视播放经历了从黑白到彩色,模拟到数字,阴极射线管显示到液晶屏显示,从被动的欣赏电视节目到交互式视频点播(VOD)服务。而如今,为实现身临其境的体验,电视业向着三维电视(3D-TV)发展着。三维电视将传统的二维视频生动的拓展为三维,使用户感觉他们正通过窗口看真实的对象而不是平面图像。当前三维电视的发展主要受限于立体视频内容的制作和传输,尤其是以下两个方面:不同接收端的自适应能力(视点的数量和大小)和对现有的二维显示的向后兼容性。
传统的立体视频制作方法主要是通过一组平行、会聚或者任意角度的相机阵列拍摄场景中不同角度的信息,所得的多个视频经几何参数校正、亮度/色度补偿等预处理后,再经多视视频编码(multiview video coding,MVC)压缩成视频流。由于编码后重构的多个视不一定符合某个观众在显示屏前所在位置的观看要求,故解码后需通过选择一些合适的视绘制成符合需要的两个虚拟视(虚拟摄像机)后,再合成为“立体对”视。但是这种方法对于视频编码和传输都有较高的要求,且传输过程中数据量较大,不便于实现。因此,只须通过一路二维视频和它相应的每点深度信息的立体视频制作方法颇受青睐。方法中,利用基于深度图像绘制技术(DIBR)在接收端合成一个或多个虚拟视点,减少了数据传输中总的带宽,而且通过绘制所有需要的虚拟视点使用户端拥有了对不同接收端的自适应能力。
然而基于深度图像绘制技术,也称为三维映射(3D image warping)过程中出现的空洞是一路二维视频加深度信息方法最大的问题。三维映射方程首先将二维参考图像某个像素坐标映射到一个三维空间坐标点,然后再将该三维空间坐标点反映射为目标图像一个图像坐标,最后将参考图像坐标像素值赋给目标图像映射坐标。由于空间点在图像不同视图中遮挡关系即体现在深度图中水平方向的较大不连续区域,图像映射会暴露出在原视点下被遮挡,而在新视点中可见的区域,这也就是新视点下的空洞区域。
空洞的出现对新视点的绘制质量有较大的影响,如今常用的有两类空洞填补的方法:一种是对深度图通过均值滤波、高斯滤波等预处理,能够平滑深度图的不连续区域,消除空洞。但是这种方法会使映射后的新视点下的物体出现明显的几何失真,尤其是垂直边界扭曲的物体对视觉影响更大。另一种是对映射后出现的空洞利用图像修补的算法进行填补。由于空洞一般都是来自于原视点下被遮挡的背景像素,故如果填补时没有考虑到空洞更倾向于背景像素来填补的话,填补后的图像也会明显失真。
发明内容
针对上述的现有空洞填补方法存在的问题,本发明提出了绘制新视点中的空洞填补方法。
本发明采用的技术方案如下:
一种绘制新视点中的空洞填补方法,其包括以下步骤:
在三维映射前,对深度图预处理,包括:检测深度图边缘;进行深度不连续分析,获取主要深度不连续区域;对主要深度不连续区域进行非对称高斯滤波;
在三维映射后,检查新视点图像是否仍有空洞,如果有,则基于深度信息对空洞填补。
在上述的绘制新视点中的空洞填补方法中,优选地,对深度图预处理还包括对主要深度不连续区域附近的深度图区域进行非对称高斯滤波和三边滤波。
在上述的绘制新视点中的空洞填补方法中,优选地,对深度图预处理还包括对其余深度图区域进行三边滤波。
在上述的绘制新视点中的空洞填补方法中,优选地,对深度图预处理还包括对滤波后区域物体边界附近的垂直边缘进行深度值校正。
在上述的绘制新视点中的空洞填补方法中,优选地,深度不连续分析包括:
判断边缘点水平方向附近的深度值是由低到高变化还是由高到低变化,据此确定边缘点映射后会产生空洞或会被遮挡;
对于会产生空洞的边缘点,计算映射后的空洞区域的水平长度;
将空洞区域的水平长度与阈值比较,大于阈值则判定该空洞区域为主要深度不连续区域。
在上述的绘制新视点中的空洞填补方法中,优选地,深度不连续分析还包括:对于会被遮挡的边缘点,计算映射后被遮挡区域的水平长度;三维映射中包括:判断当前映射点映射后是否会被遮挡,如果是,则用深度不连续分析步骤中计算的被遮挡区域的水平长度确定被遮挡区域边界点,不映射被遮挡区域,直接跳至被遮挡区域边界点进行映射。
在上述的绘制新视点中的空洞填补方法中,优选地,三维映射中包括判断当前映射点映射后是否超过图像边界,如果是,则不对当前点进行映射。
在上述的绘制新视点中的空洞填补方法中,优选地,基于深度信息对空洞填补的步骤包括:
分别计算以空洞边界上的各个点为中心的各个块的可信度和深度信息,基于可信度和深度信息计算各个块的优先级;
取优先级最高的块作为当前待修补块;
在已知区域搜索当前待修补块的最匹配块;
用最匹配块内的像素填补当前待修补块内对应位置的像素,以及分别用当前待修补块的平均深度值和可信度值更新填补像素的深度值和可信度值。
在上述的绘制新视点中的空洞填补方法中,优选地,通过公式
本发明具有以下优点:
1)在平滑深度图的不连续深度值时,只对主要深度不连续区域进行平滑,从而避免了对不出现空洞或只有小空洞区域的平滑而造成的额外扭曲现象。
2)对主要深度不连续区域以外的深度图区域使用三边滤波,在去噪声的同时考虑了邻域的深度信息之间和对应的彩色信息之间的联系,能够更好的保持边界信息。同时对主要深度不连续区域附近使用非对称高斯滤波和三边滤波,一方面保证了能够尽量完全平滑深度不连续区域,另一方面能够尽量减少对其他区域的影响。
3)对平滑后区域物体边界附近的垂直边缘进行了深度值校正,能够尽可能的保持好的视觉效果。
4)在映射过程中采用了越界和/或遮挡情况判定,能够简化映射的冗余操作。
5)在空洞填补过程中优先考虑了背景像素点,能够实现更合理的填补结果。
附图说明
图1是实施例绘制新视点中的空洞填补方法流程图;
图2是其中深度图预处理的流程图;
图3是其中基于深度图绘制新视点的流程图;
图4是其中由被遮挡区域的水平长度确定被遮挡区域边界点的流程图;
图5是其中基于深度信息对空洞填补的流程图。
具体实施方式
本发明涉及绘制新视点中的空洞填补方法,用于减少并填补绘制过程中出现的空洞,以提高新视点的绘制质量。采用的主要技术包括基于三边滤波的深度图预处理,根据深度不连续强度确定主要平滑区域,利用加权的非对称高斯滤波平滑主要区域,对平滑后区域物体边界附近的垂直边缘进行深度值校正,基于对映射后遮挡区域的估计减少映射过程中的冗余操作,基于深度信息的空洞填补。
下面结合附图和实施例对本发明做进一步的说明。
如图1所示,本绘制新视点中的空洞填补方法包括以下步骤:
步骤1,在三维映射前,对深度图预处理;
步骤2,在三维映射后,检查新视点图像是否仍有空洞,如果有,则基于深度信息对空洞填补。
图2示出了深度图预处理的流程。如图2所示,深度图预处理过程包括以下步骤:
步骤1-1,深度图边缘检测:从读入的深度图中提取深度图边缘信息,即深度不连续区域。
步骤1-2,进行深度不连续分析,获取主要深度不连续区域。
在一种实施例中,通过以下方法进行深度不连续分析,该方法包括:
判断边缘点水平方向附近的深度值是由低到高变化还是由高到低变化,据此确定边缘点映射后会产生空洞或会被遮挡。以参考图像为右视点绘制平行相机配置下的左视点为例,只有深度值由低到高变化的区域会产生空洞,用Iocclusion记录映射后会被遮挡的边缘点,用Idisocclusion记录映射后会产生空洞的边缘点。
对于会产生空洞的边缘点,即Idisocclusion中的边缘点,计算映射后的空洞区域的水平长度Ddisoc:
Ddisoc=xl2-xl1
xl1和xl2分别为左视点下相邻两点x轴坐标,由平行相机配置下的左右视点坐标对应关系
得出,
将空洞区域的水平长度Ddisoc与阈值D'比较,大于阈值D'则判定该空洞区域为主要深度不连续区域CI。
此外,对于会被遮挡的边缘点,同样用上述方法计算映射后被遮挡区域的水平长度Docc,即计算新视点下被遮挡区域的水平长度Docc,记录信息,以便后续映射过程利用Docc来简化遮挡部分的操作。具体地,可以通过公式
步骤1-3,对主要深度不连续区域CI进行加权的非对称高斯滤波,使区域内深度值连续,对主要深度不连续区域CI附近的深度图区域进行加权的非对称高斯滤波和三边滤波。一种具体方式如下:
Zfiltered(x,y)=α(x,y)·ZTrilateral+(1-α(x,y))·ZGaussian
p1(x1,y1),p2(x2,y2)分别是当前点和主要平滑区域(即主要深度不连续区域CI)边缘点坐标。dmax是高斯平滑区域的阈值。
对于p(x,y):
Ω是卷积核下p的邻域,k(p)是正则项。σd、σz和σi分别是空间滤波fD(p-s)、深度范围滤波fz(Zs-Zp)、颜色范围滤波fI(Is-Ip)的标准偏差,Zs为s点深度值,Is为s点颜色值,三边滤波的强度由这三个输入参数决定。
w是滤波块水平宽度,非对称高斯滤波定义块的长为宽的三倍,且在水平和垂直方向的标准偏差不相同。为水平高斯滤波范围,为垂直高斯滤波范围。σu和σv分别是水平方向和垂直方向高斯滤波的标准偏差。Z(x-u,y-v)是u,v在这个以(x,y)为中心的矩形框内变换时,在(x-u,y-v)坐标上点的深度值。
步骤1-4,对其余深度图区域进行三边滤波。
步骤1-5,对滤波后区域物体边界附近的垂直边缘进行深度值校正。由于对深度图平滑处理后所绘制的新视点下,物体会有不同程度的几何扭曲现象,尤其是物体边界附近的垂直边缘若出现扭曲则会极大的影响视觉效果,故平滑后检测物体边界附近的垂直边缘深度,若有不连续的值则调整为连续值。
图3示出了基于深度图绘制新视点的流程。该过程是将预处理后的深度图和彩色参考图像利用三维映射方程(3D image warping)将参考图像中的点坐标及像素映射到新视点,同时保存对应点的深度值以方便后续处理。该部分的整体思路与现有技术相同。但由于现有技术存在已下两点缺陷:1、在映射过程中有一部分点由于超过图像边界而不显示在新视点中,这些点的处理会造成冗余的操作。2、新视点下有部分背景像素由于视点变化被前景像素遮挡而不显示在新视点中,现有方法是通过比较映射到同一位置的两个点的深度值,取深度值小的显示,该方法操作比较复杂,而且没有考虑到被遮挡像素都是呈区域分布。鉴于现有技术存在的该两个缺陷,本发明方法在三维映射过程中增加了两个简化操作。具体如下,如图3所示,在用预处理后的深度图和彩色参考图像绘制新视点的三维映射中包括以下步骤:
步骤3-1,判断当前映射点映射后是否超过图像边界,如果是,则不对当前点进行映射。
步骤3-2,判断当前映射点映射后是否会被遮挡,如果是,则用深度不连续分析步骤中计算的被遮挡区域的水平长度Docc确定被遮挡区域边界点,不映射被遮挡区域,直接跳至被遮挡区域边界点进行映射。
图4示出了由被遮挡区域的水平长度Docc确定被遮挡区域边界点的流程。如图4所示,该方法包括以下步骤:
图5示出了基于深度信息对空洞填补的流程。如图5所示,基于深度信息对空洞填补包括以下步骤:
步骤2-1,分别计算以空洞边界上的各个点为中心的各个块的可信度和深度信息,基于可信度和深度信息计算各个块的优先级。
由于空洞区域产生于参考视点下被遮挡的背景像素,所以在填补过程中应该优先考虑背景像素点。一些实施例中,为了保证更合理的修复仍然存在的空洞,赋予背景像素更高的优先级以完成对空洞的填补。具体地,通过以下公式计算块可信度C(p)
其中,ψp表示以点p为中心的块,I表示输入图像,Ω表示空洞区域,I-Ω表示已知区域,|ψp|表示块ψp的面积即像素点个数,q表示块ψp内的已知像素点。
对C(p)初始化:
通过以下公式计算块深度信息L(p)
通过以下公式计算块优先级P(p)
P(p)=βC(p)+(1-β)L(p)
β介于0和1之间,可根据实际情况进行调整以更好的填补空洞。
步骤2-2,取优先级最高的块作为当前待修补块。
d(ψp,ψq)表示块ψp和ψq已知像素差的平方和(SSD),d(Zp,Zq)表示块ψp和ψq已知像素点深度值差的平方和,χ介于0和1之间,可根据实际情况进行调整以达到更好的匹配效果。
即更新填补像素可信度为当前块的可信度值;
即更新填补像素深度值为当前块的平均深度值。
Claims (9)
1.一种绘制新视点中的空洞填补方法,其特征在于,包括以下步骤:
在三维映射前,对深度图预处理,包括:检测深度图边缘;进行深度不连续分析,获取主要深度不连续区域;对主要深度不连续区域进行非对称高斯滤波;
在三维映射后,检查新视点图像是否仍有空洞,如果有,则基于深度信息对空洞填补。
2.根据权利要求1所述的空洞填补方法,其特征在于,对深度图预处理还包括对主要深度不连续区域附近的深度图区域进行非对称高斯滤波和三边滤波。
3.根据权利要求1或2所述的空洞填补方法,其特征在于,对深度图预处理还包括对其余深度图区域进行三边滤波。
4.根据权利要求1所述的空洞填补方法,其特征在于,对深度图预处理还包括对滤波后区域物体边界附近的垂直边缘进行深度值校正。
5.根据权利要求1所述的空洞填补方法,其特征在于,深度不连续分析包括:
判断边缘点水平方向附近的深度值是由低到高变化还是由高到低变化,据此确定边缘点映射后会产生空洞或会被遮挡;
对于会产生空洞的边缘点,计算映射后的空洞区域的水平长度;
将空洞区域的水平长度与阈值比较,大于阈值则判定该空洞区域为主要深度不连续区域。
6.根据权利要求5所述的空洞填补方法,其特征在于,
深度不连续分析还包括:对于会被遮挡的边缘点,计算映射后被遮挡区域的水平长度;
三维映射中包括:判断当前映射点映射后是否会被遮挡,如果是,则用深度不连续分析步骤中计算的被遮挡区域的水平长度确定被遮挡区域边界点,不映射被遮挡区域,直接跳至被遮挡区域边界点进行映射。
7.根据权利要求1所述的空洞填补方法,其特征在于,三维映射中包括判断当前映射点映射后是否超过图像边界,如果是,则不对当前点进行映射。
8.根据权利要求1所述的空洞填补方法,其特征在于,基于深度信息对空洞填补的步骤包括:
分别计算以空洞边界上的各个点为中心的各个块的可信度和深度信息,基于可信度和深度信息计算各个块的优先级;
取优先级最高的块作为当前待修补块;
在已知区域搜索当前待修补块的最匹配块;
用最匹配块内的像素填补当前待修补块内对应位置的像素,以及分别用当前待修补块的平均深度值和可信度值更新填补像素的深度值和可信度值。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310489437.1A CN103581648B (zh) | 2013-10-18 | 2013-10-18 | 绘制新视点中的空洞填补方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310489437.1A CN103581648B (zh) | 2013-10-18 | 2013-10-18 | 绘制新视点中的空洞填补方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN103581648A true CN103581648A (zh) | 2014-02-12 |
CN103581648B CN103581648B (zh) | 2015-08-26 |
Family
ID=50052430
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201310489437.1A Active CN103581648B (zh) | 2013-10-18 | 2013-10-18 | 绘制新视点中的空洞填补方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN103581648B (zh) |
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104601972A (zh) * | 2014-12-17 | 2015-05-06 | 清华大学深圳研究生院 | 一种利用图像修补的自由视点合成方法 |
CN104822059A (zh) * | 2015-04-23 | 2015-08-05 | 东南大学 | 一种基于gpu加速的虚拟视点合成方法 |
CN105184834A (zh) * | 2015-09-11 | 2015-12-23 | 天津大学 | 一种面向单视点绘制的空洞填补方法 |
CN105374019A (zh) * | 2015-09-30 | 2016-03-02 | 华为技术有限公司 | 一种多深度图融合方法及装置 |
CN105809667A (zh) * | 2015-01-21 | 2016-07-27 | 瞿志行 | 扩充实境中基于深度摄影机的遮蔽效果优化方法 |
CN106028020A (zh) * | 2016-06-21 | 2016-10-12 | 电子科技大学 | 一种基于多方向预测的虚拟视角图像空洞填补方法 |
CN106412560A (zh) * | 2016-09-28 | 2017-02-15 | 湖南优象科技有限公司 | 一种基于深度图的立体图像生成方法 |
CN106791773A (zh) * | 2016-12-30 | 2017-05-31 | 浙江工业大学 | 一种基于深度图像的新视点合成方法 |
CN109194888A (zh) * | 2018-11-12 | 2019-01-11 | 北京大学深圳研究生院 | 一种针对低质量深度图的dibr自由视点合成方法 |
WO2019011027A1 (zh) * | 2017-07-11 | 2019-01-17 | 深圳市道通智能航空技术有限公司 | 应用于三维相机的图像校准方法和装置 |
CN109801223A (zh) * | 2017-11-17 | 2019-05-24 | 宁波盈芯信息科技有限公司 | 一种点云去噪及空洞修补方法 |
CN109961406A (zh) * | 2017-12-25 | 2019-07-02 | 深圳市优必选科技有限公司 | 一种图像处理的方法、装置及终端设备 |
CN109982064A (zh) * | 2019-03-18 | 2019-07-05 | 深圳岚锋创视网络科技有限公司 | 一种裸眼3d的虚拟视点图像生成方法和便携式终端 |
CN111316650A (zh) * | 2017-10-27 | 2020-06-19 | 松下电器(美国)知识产权公司 | 三维模型编码装置、三维模型解码装置、三维模型编码方法、以及三维模型解码方法 |
WO2020164044A1 (zh) * | 2019-02-14 | 2020-08-20 | 北京大学深圳研究生院 | 一种自由视点的图像合成方法、装置及设备 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101404777A (zh) * | 2008-11-06 | 2009-04-08 | 四川虹微技术有限公司 | 一种基于深度图像的绘制的视图合成方法 |
CN101937578A (zh) * | 2010-09-08 | 2011-01-05 | 宁波大学 | 一种虚拟视点彩色图像绘制方法 |
CN102307312A (zh) * | 2011-08-31 | 2012-01-04 | 四川虹微技术有限公司 | 一种对dibr技术生成的目标图像进行空洞填充的方法 |
CN102436671A (zh) * | 2011-08-16 | 2012-05-02 | 上海交通大学 | 一种基于深度值非线性变换的虚拟视点绘制方法 |
CN103248911A (zh) * | 2013-05-20 | 2013-08-14 | 山东大学 | 多视点视频中基于空时结合的虚拟视点绘制方法 |
CN103337081A (zh) * | 2013-07-12 | 2013-10-02 | 南京大学 | 一种基于深度层的遮挡判断方法及装置 |
-
2013
- 2013-10-18 CN CN201310489437.1A patent/CN103581648B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101404777A (zh) * | 2008-11-06 | 2009-04-08 | 四川虹微技术有限公司 | 一种基于深度图像的绘制的视图合成方法 |
CN101937578A (zh) * | 2010-09-08 | 2011-01-05 | 宁波大学 | 一种虚拟视点彩色图像绘制方法 |
CN102436671A (zh) * | 2011-08-16 | 2012-05-02 | 上海交通大学 | 一种基于深度值非线性变换的虚拟视点绘制方法 |
CN102307312A (zh) * | 2011-08-31 | 2012-01-04 | 四川虹微技术有限公司 | 一种对dibr技术生成的目标图像进行空洞填充的方法 |
CN103248911A (zh) * | 2013-05-20 | 2013-08-14 | 山东大学 | 多视点视频中基于空时结合的虚拟视点绘制方法 |
CN103337081A (zh) * | 2013-07-12 | 2013-10-02 | 南京大学 | 一种基于深度层的遮挡判断方法及装置 |
Non-Patent Citations (2)
Title |
---|
LIANG ZHANG,等: "stereoscopic image generation based on depth images for 3D TV", 《IEEE TRANSACTIONS ON BROADCASTING》 * |
WAN-YU CHEN,等: "Efficient depth image based rendering with edge dependent depth filter and interpolation", 《PROCEEDINGS OF IEEE INTERNATIONAL CONFERENCE,MULTIMEDIA AND EXPO》 * |
Cited By (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104601972B (zh) * | 2014-12-17 | 2016-09-21 | 清华大学深圳研究生院 | 一种利用图像修补的自由视点合成方法 |
CN104601972A (zh) * | 2014-12-17 | 2015-05-06 | 清华大学深圳研究生院 | 一种利用图像修补的自由视点合成方法 |
CN105809667A (zh) * | 2015-01-21 | 2016-07-27 | 瞿志行 | 扩充实境中基于深度摄影机的遮蔽效果优化方法 |
CN105809667B (zh) * | 2015-01-21 | 2018-09-07 | 瞿志行 | 扩充实境中基于深度摄影机的遮蔽效果优化方法 |
CN104822059A (zh) * | 2015-04-23 | 2015-08-05 | 东南大学 | 一种基于gpu加速的虚拟视点合成方法 |
CN105184834A (zh) * | 2015-09-11 | 2015-12-23 | 天津大学 | 一种面向单视点绘制的空洞填补方法 |
CN105374019B (zh) * | 2015-09-30 | 2018-06-19 | 华为技术有限公司 | 一种多深度图融合方法及装置 |
CN105374019A (zh) * | 2015-09-30 | 2016-03-02 | 华为技术有限公司 | 一种多深度图融合方法及装置 |
WO2017054589A1 (zh) * | 2015-09-30 | 2017-04-06 | 华为技术有限公司 | 一种多深度图融合方法及装置 |
CN106028020A (zh) * | 2016-06-21 | 2016-10-12 | 电子科技大学 | 一种基于多方向预测的虚拟视角图像空洞填补方法 |
CN106412560A (zh) * | 2016-09-28 | 2017-02-15 | 湖南优象科技有限公司 | 一种基于深度图的立体图像生成方法 |
CN106791773A (zh) * | 2016-12-30 | 2017-05-31 | 浙江工业大学 | 一种基于深度图像的新视点合成方法 |
CN106791773B (zh) * | 2016-12-30 | 2018-06-01 | 浙江工业大学 | 一种基于深度图像的新视点合成方法 |
US10944956B2 (en) | 2017-07-11 | 2021-03-09 | Autel Robotics Co., Ltd. | Image calibration method and apparatus applied to three-dimensional camera |
WO2019011027A1 (zh) * | 2017-07-11 | 2019-01-17 | 深圳市道通智能航空技术有限公司 | 应用于三维相机的图像校准方法和装置 |
CN111316650A (zh) * | 2017-10-27 | 2020-06-19 | 松下电器(美国)知识产权公司 | 三维模型编码装置、三维模型解码装置、三维模型编码方法、以及三维模型解码方法 |
CN109801223A (zh) * | 2017-11-17 | 2019-05-24 | 宁波盈芯信息科技有限公司 | 一种点云去噪及空洞修补方法 |
CN109961406A (zh) * | 2017-12-25 | 2019-07-02 | 深圳市优必选科技有限公司 | 一种图像处理的方法、装置及终端设备 |
CN109961406B (zh) * | 2017-12-25 | 2021-06-25 | 深圳市优必选科技有限公司 | 一种图像处理的方法、装置及终端设备 |
CN109194888A (zh) * | 2018-11-12 | 2019-01-11 | 北京大学深圳研究生院 | 一种针对低质量深度图的dibr自由视点合成方法 |
CN109194888B (zh) * | 2018-11-12 | 2020-11-27 | 北京大学深圳研究生院 | 一种针对低质量深度图的dibr自由视点合成方法 |
WO2020164044A1 (zh) * | 2019-02-14 | 2020-08-20 | 北京大学深圳研究生院 | 一种自由视点的图像合成方法、装置及设备 |
US11368661B2 (en) | 2019-02-14 | 2022-06-21 | Peking University Shenzhen Graduate School | Image synthesis method, apparatus and device for free-viewpoint |
CN109982064B (zh) * | 2019-03-18 | 2021-04-27 | 影石创新科技股份有限公司 | 一种裸眼3d的虚拟视点图像生成方法和便携式终端 |
CN109982064A (zh) * | 2019-03-18 | 2019-07-05 | 深圳岚锋创视网络科技有限公司 | 一种裸眼3d的虚拟视点图像生成方法和便携式终端 |
Also Published As
Publication number | Publication date |
---|---|
CN103581648B (zh) | 2015-08-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103581648B (zh) | 绘制新视点中的空洞填补方法 | |
US10070115B2 (en) | Methods for full parallax compressed light field synthesis utilizing depth information | |
US8780172B2 (en) | Depth and video co-processing | |
Daribo et al. | A novel inpainting-based layered depth video for 3DTV | |
US9445072B2 (en) | Synthesizing views based on image domain warping | |
US9401041B2 (en) | Multi view synthesis method and display devices with spatial and inter-view consistency | |
CN103250184B (zh) | 基于全局运动的深度估计 | |
US9525858B2 (en) | Depth or disparity map upscaling | |
CN102592275B (zh) | 虚拟视点绘制方法 | |
US9578312B2 (en) | Method of integrating binocular stereo video scenes with maintaining time consistency | |
US20130069942A1 (en) | Method and device for converting three-dimensional image using depth map information | |
CN102325259A (zh) | 多视点视频中虚拟视点合成方法及装置 | |
CN101883291A (zh) | 感兴趣区域增强的视点绘制方法 | |
Lee et al. | Discontinuity-adaptive depth map filtering for 3D view generation | |
CN111047709B (zh) | 一种双目视觉裸眼3d图像生成方法 | |
TWI531212B (zh) | 呈現立體影像之系統及方法 | |
CN102368826A (zh) | 双视点视频到多视点视频的实时自适应生成方法 | |
Muddala et al. | Virtual view synthesis using layered depth image generation and depth-based inpainting for filling disocclusions and translucent disocclusions | |
CN104869386A (zh) | 一种基于分层处理虚拟视点合成方法 | |
Bleyer et al. | Temporally consistent disparity maps from uncalibrated stereo videos | |
CN104010180A (zh) | 三维视频滤波方法和装置 | |
Lee et al. | Real-time stereo view generation using kinect depth camera | |
US9787980B2 (en) | Auxiliary information map upsampling | |
CN108833879A (zh) | 具有时空连续性的虚拟视点合成方法 | |
Sun et al. | Seamless view synthesis through texture optimization |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
CP01 | Change in the name or title of a patent holder |
Address after: 518055 Guangdong city of Shenzhen province Nanshan District Xili of Tsinghua Patentee after: Tsinghua Shenzhen International Graduate School Address before: 518055 Guangdong city of Shenzhen province Nanshan District Xili of Tsinghua Patentee before: GRADUATE SCHOOL AT SHENZHEN, TSINGHUA University |
|
CP01 | Change in the name or title of a patent holder |