CN103024421B - 自由视点电视中的虚拟视点合成方法 - Google Patents

自由视点电视中的虚拟视点合成方法 Download PDF

Info

Publication number
CN103024421B
CN103024421B CN201310017391.3A CN201310017391A CN103024421B CN 103024421 B CN103024421 B CN 103024421B CN 201310017391 A CN201310017391 A CN 201310017391A CN 103024421 B CN103024421 B CN 103024421B
Authority
CN
China
Prior art keywords
image
pixel
psi
virtual
depth
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN201310017391.3A
Other languages
English (en)
Other versions
CN103024421A (zh
Inventor
刘琚
成聪
元辉
杨晓辉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shandong University
Original Assignee
Shandong University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shandong University filed Critical Shandong University
Priority to CN201310017391.3A priority Critical patent/CN103024421B/zh
Publication of CN103024421A publication Critical patent/CN103024421A/zh
Application granted granted Critical
Publication of CN103024421B publication Critical patent/CN103024421B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Generation (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本发明提出一种新的基于深度图渲染技术的虚拟视点合成的方法。首先,通过3D图像变换获得虚拟视点深度图像,对该深度图像进行优化处理;然后根据优化处理得到的深度图进行逆向3D图像变换,获得虚拟视点彩色图像;最后通过基于深度信息的图像修复算法进行空洞填充。通过逆向3D图像变换,可以避免虚拟视点彩色图像上出现裂纹,提高虚拟视点图像的质量;另外,针对虚拟视点图像中的非遮挡空洞区域,采用本发明提出的图像修复的方法进行填充,可以保证渲染出的图像产生最佳的显示效果。

Description

自由视点电视中的虚拟视点合成方法
技术领域
本发明涉及一种基于深度图像的虚拟视点合成方法,属于视频、多媒体信号处理技术领域。
背景技术
继彩色电视、高清电视之后,三维立体电视成为多媒体领域的研究热点。它的最大的优势主要体现在,它可以为观看者提供一种生动逼真的视觉体验。而自由视点电视是立体电视更进一步的产物,凭借强大的互动性,它可以让观看者自由选择观看角度,并且可以随着观看者位置的变化进行流畅的视点转换,从而使观看者达到身临其境的感觉。
自由视点电视需要多个视频同时在播放端播放。假设多个视频源同时从视频采集端发出,这无疑对网络负荷、编解码效率都提出了很大的挑战;另外,高额的视频采集成本也大大降低了自由视点视频的实用性与可行性。因此,虚拟视点合成成为自由视点电视中的关键技术。该技术只要求在视频采集端采集若干视频,通过视点合成在播放端产生其他视点的视频,从而大大地降低网络负荷,节省成本。其中,基于深度图像的视点合成是一种典型的方法。它可以利用一路视频的彩色图像与深度图像,合成任意视点的视频信息。
在传统的基于深度图像的视点合成方法中,主要分为三个基本步骤:参考视点深度图像的平滑处理、通过3D图像变换获得虚拟视点深度图像与彩色图像、空洞填充。这类方法得到的虚拟视点彩色图像中会出现一些小的裂纹和大片的空洞区域。这两类缺陷即便经过图像后处理,比如邻域赋值、线性插值,也会让图像留下被处理过的痕迹,影响视觉效果。
发明内容
为解决传统的基于深度图像的视点合成方法中,图像后处理所带来的不连贯的视觉效果,本发明提出一种新的基于深度图的视点合成方法。首先,通过3D图像变换获得虚拟视点深度图像,对该深度图像进行优化处理;然后根据优化处理得到的深度图进行逆向3D图像变换,获得虚拟视点彩色图像;最后通过加入深度信息的基于样本的图像修复算法进行空洞填充。本方法中,通过逆向3D图像变换,可以避免虚拟视点彩色图像上出现裂纹,提高虚拟视点图像的质量;另外,针对虚拟视点图像中的非遮挡空洞区域,本发明对传统的基于样本的图像修复算法中优先级的计算以及搜索匹配块的匹配原则进行改进,提高了空洞修复的准确性,从而使渲染出的图像产生最佳的显示效果。
本发明采用的技术方案为:
一种基于深度图的视点合成方法,其具体步骤如下:
(1)3D图像变换:根据摄像机投影原理,通过3D图像变换,将参考视点的深度图投影到虚拟视点上,获得虚拟视点深度图像;
(2)虚拟视点深度图像的优化处理:通过形态学图像处理,优化虚拟视点深度图像;
(3)逆向3D图像变换:根据优化后的虚拟视点深度图像,进行逆向3D图像变换,对于虚拟视点图像中的所有像素,找到其在参考视点图像中的对应点,并进行像素彩色信息的赋值,从而获得虚拟视点彩色图像;
(4)空洞填充:利用图像修复技术对上述步骤得到的虚拟视点彩色图像中的空洞进行填充。
所述步骤(1)的具体步骤为:
a.根据参考视点的深度信息,实现从参考视点平面到三维空间,再从三维空间到虚拟视点平面的坐标变换;
b.根据坐标变换的结果,将参考视点深度图中的像素点投影到虚拟视点平面内,从而获得虚拟视点深度图像。
所述步骤(2)的具体实现步骤如下:
a.对虚拟视点深度图像进行一次膨胀处理,消除深度图像中的裂纹;
b.再对膨胀处理后的深度图像进行两次腐蚀处理,消除由膨胀处理带来的边缘像素的不准确性。
所述步骤(3)的具体实现步骤如下:
a.根据步骤(2)中得到的虚拟视点深度图像,实现从虚拟视点平面到三维空间,再从三维空间到参考视点平面的坐标变换;
b.根据坐标变换结果,将参考视点平面内像素的彩色信息复制到虚拟视点平面内,从而获取虚拟视点彩色图像。
所述步骤(4)的具体实现步骤如下:
a.检测空洞区域的边缘,计算边缘上各像素的优先级,决定修复顺序;
b.以边缘像素为中心,获取特定尺寸的样本块,以样本块为单位,根据其中的颜色信息和深度信息,从源图像中搜索最佳匹配块;
c.找到最佳匹配块之后,将最佳匹配块中的像素信息复制到样本块中的空洞处,实现填充。
所述步骤(4)的子步骤a中,计算边缘上各像素修复优先级的公式为:
P(p)=C(p)β·D(p)
其中,C(p)为置信度项,D(p)为数据项,C(p)中的分子表示样本块中非空洞像素的数量,分母|Ψp|表示样本块中总的像素数量;D(p)中,np分别表示空洞边缘上p点处的等照度线的方向与法向量;α为归一化因子,值为255,β为权重因子,它的值大于1。
所述步骤(4)的子步骤b中,搜索匹配块的过程为:首先按照公式 SSD ( &Psi; p ^ , &Psi; q ) = &Sigma; p &Element; &Psi; p &cap; &Phi; ( ( R p ^ ( p ) - R q ( p ) ) 2 + ( G p ^ ( p ) - G q ( p ) ) 2 + ( B q ^ ( p ) - B q ( p ) ) 2 ) , 以误差平方和(SSD)计算样本块中非空洞像素与匹配块中的相应位置的像素之间的彩色信息R、G、B的差异,然后根据公式 De = | &Sigma; p 0 &Element; &psi; h depth ( p 0 ) - &Sigma; q 0 &Element; &psi; m depth ( q 0 ) | , 计算样本块中空洞处像素与匹配块中的相应位置的像素之间的深度信息的差值De,并将该差值与门限值th进行比较,根据比较结果,按照公式 E = SSD ( &Psi; p ^ , &Psi; q ) * De , SSD ( &Psi; p ^ , &Psi; q ) &NotEqual; 0 andDe > th Q , SSD ( &Psi; p ^ , &Psi; q ) = 0 andDe > th SSD ( &Psi; p ^ , &Psi; q ) , De < th 进一步修正匹配块的匹配程度,最终根据公式确定最佳匹配块Ψq_best
附图说明
图1:本发明的流程图。
图2:参考视点的彩色图像及深度图像。
图3:优化之前的虚拟视点深度图像。
图4:膨胀处理之后的虚拟视点深度图像。
图5:腐蚀处理之后的虚拟视点深度图像。
图6:带空洞的虚拟视点彩色图像及其mask图。
图7:作为空洞标示的二值图。
图8:图像修复示意图。
图9:修复之后的虚拟视点彩色图像。
具体实施方式
该发明采用了由微软公司提供的测试视频序列“Breakdancer”进行实验。该视频序列采集了一个场景的8个视点的视频,并提供了相应的深度信息以及各摄像机的内、外部参数。实验中,我们选取4号视点作为参考视点,3号视点作为虚拟视点。
图1所示为本发明的流程图,根据流程图,我们对其具体实施方式进行介绍。
(1)3D图像变换。所谓的3D图像变换,就是根据摄像机投影原理,将参考视点中的像素点投影到虚拟视点平面内。这一过程主要分为两个部分,首先是将参考视点中的像素投影到三维空间中,然后再由三维空间投影到虚拟视点平面内。图2为参考视点的彩色图像与深度图像。假设摄像机i的内参矩阵为Ai,外参矩阵中的平移矩阵与旋转矩阵分别为Ri、ti,映射方程可以表示为:
sm=Ai[Ri|ti]M    (1)
其中s为一标量,m=[u,v,1]T为图像像素点在图像坐标系下的齐次坐标,M=[X,Y,Z,1]T为相应空间点在世界坐标系下的齐次坐标。
利用方程(1),可以实现参考视点到三维空间的映射以及三维空间到虚拟视点的映射。图3为通过传统的3D图像变换获得的虚拟视点深度图像。
(2)虚拟视点深度图像的优化处理。从图3可以看出,通过步骤(1)获得的虚拟视点深度图像上,存在大量小的裂纹。为了优化深度图像,我们首先对图像进行膨胀处理,消除小的裂纹,但与此同时,前景、背景交界处像素的膨胀会导致两部分像素的混淆,如图4所示。为了纠正这种错误,我们再对图像进行两次腐蚀处理。最终优化后的深度图像如图5所示。
(3)逆向3D图像变换。所谓逆向3D图像变换,就是传统的3D图像变换的逆过程。先将虚拟视点中的像素投影到三维空间中,映射方程如等式(2)所示,再由三维空间映射到参考视点平面内,映射方程如等式(3)所示。这样,虚拟视点中的所有像素,在参考视点平面内都会找到其对应点,然后进行赋值渲染,获得虚拟视点彩色图像。
M = X 2 w Y 2 w Z 2 w = C v + &lambda; R v - 1 K v - 1 d v - - - ( 2 )
&lambda; d o = [ K o | 0 3 ] R o t o 0 3 T 1 M - - - ( 3 )
其中, &lambda; = Z 2 w - C 2 z r 3 , r 1 r 2 r 3 = R v - 1 K v - 1 d v , C v = C 2 x C 2 y C 2 z = - R v - 1 &CenterDot; t v .
在等式(2)与等式(3)中,Kv,Rv,tv分别代表虚拟视点摄像机的内参矩阵、旋转矩阵与平移矩阵;Ko,Ro,to分别代表参考视点摄像机的内参矩阵、旋转矩阵与平移矩阵。dv,do,M分别代表虚拟视点中某像素的图像坐标、参考视点中相应像素的图像坐标以及该像素在空间中的三维坐标。Cv代表虚拟视点摄像机的相机中心在世界坐标系中的位置。
(4)空洞填充。补洞是虚拟视点合成技术中的关键技术。本发明选用了改进的基于样本的图像修复技术进行补洞。图8为图像修复示意图。图中,Φ为源图像区域,Ω为空洞区域,即待修复区域,δΩ表示二者的边界。p为边界上的一点,ψp表示以点p为中心的样本块。
图6为待修复的彩色图像及其mask图。首先,我们通过mask图获得图7所示的二值图,将其作为空洞区域的标志图。图中非空洞区域用0表示,空洞区域用1表示。根据该图,我们进行空洞区域的边缘检测。
检测出边缘上的所有像素点后,我们再进行优先级的计算,以决定修复顺序。传统的优先级的计算公式如(4)所示。
P(p)=C(p)·D(p)    (4)
其中,C(p)为置信度项,D(p)为数据项,定义如下:
C ( p ) = &Sigma; q &Element; &Psi; p &cap; &Phi; C ( q ) | &Psi; p | - - - ( 5 )
D ( p ) = | &dtri; I p &perp; &CenterDot; n p | &alpha; - - - ( 6 )
C(p)中的分子表示样本块中非空洞像素的数量,分母|Ψp|表示样本块中总的像素数量。D(p)中,np分别表示空洞边缘上p点处的等照度线的方向与法向量。α为归一化因子,值为255。通过C(p)与D(p),基于样本的图像修复技术可以在保持图像的线性结构的情况下进行纹理的填充。
大量的实验表明,基于样本的图像修复结果与修复顺序有很大的关系,并且实验中往往会出现填充过程沿着某一个方向连续进行的情况,难以保持图像纹理方向的延伸与视觉的连续性。鉴于这一缺陷,本发明将优先级的计算公式进行了修改,如等式(7)所示。
P(p)=C(p)β·D(p)    (7)
β为权重因子,它的值大于1,由于C(p)是小于1的,所以C(p)β小于C(p),从而在减少C(p)的权重的同时提高D(p)的影响力,以保持图像的线性结构。
待修复顺序确定之后,我们以优先级最高的块作为样本块,从源图像中搜索最佳匹配块。在传统的基于样本的图像修复中,搜索匹配块的原则如等式(8),(9)所示,仅仅以像素的彩色信息的误差平方和(SSD)作为匹配原则。这是因为传统的图像修复技术主要用于平面图像,不需要考虑深度信息。但是在虚拟视点合成过程中,空洞的产生是由于参考视点中被遮挡的区域在虚拟视点中暴露出来,所以用背景信息填充空洞才能实现准确的修复。鉴于这一考虑,本发明在原始算法的搜索匹配块的匹配原则中加入深度信息,如等式(10)、(11)所示。
&Psi; q _ best = arg min &Psi; q &Element; &Phi; E = arg min &Psi; q &Element; &Phi; SSD ( &Psi; p ^ , &Psi; q ) - - - ( 8 )
SSD ( &Psi; p ^ , &Psi; q ) = &Sigma; p &Element; &Psi; p &cap; &Phi; ( ( R p ^ ( p ) - R q ( p ) ) 2 + ( G p ^ ( p ) - G q ( p ) ) 2 + ( B q ^ ( p ) - B q ( p ) ) 2 ) - - - ( 9 )
E = SSD ( &Psi; p ^ , &Psi; q ) * De , SSD ( &Psi; p ^ , &Psi; q ) &NotEqual; 0 andDe > th Q , SSD ( &Psi; p ^ , &Psi; q ) = 0 andDe > th SSD ( &Psi; p ^ , &Psi; q ) , De < th - - - ( 10 )
De = | &Sigma; p 0 &Element; &psi; h depth ( p 0 ) - &Sigma; q 0 &Element; &psi; m depth ( q 0 ) | - - - ( 11 )
等式(9)定义了误差平方和(SSD)的计算方法,对于两个像素块中的每一对像素点,先计算它们之间R、G、B分量差值的平方之和;再将所有像素点对的计算结果相加,即为两个像素块的误差平方和(SSD)。
在匹配过程中,首先以误差平方和(SSD)计算样本块中非空洞像素与匹配块中的相应位置的像素之间的彩色信息的差异,初步计算二者的匹配程度;然后通过计算样本块中空洞处像素与匹配块中的相应位置的像素之间的深度信息的差值(De),并将其与门限值(th)进行比较,根据比较结果进一步修正匹配块的匹配程度,最终确定最佳匹配块Ψq_best
找到最佳匹配块之后,利用最佳匹配块中的像素对样本块中的空洞像素点进行填充。然后再进行置信度的更新,公式如下所示:
C ( p ) = C ( p ^ ) &ForAll; p &Element; &Psi; p ^ &cap; &Omega; - - - ( 12 )
重复以上过程,直至修复完成。修复后的虚拟视点彩色图像如图9所示。

Claims (4)

1.一种基于深度图的视点合成方法,其具体步骤如下:
(1)3D图像变换:根据摄像机投影原理,通过3D图像变换,将参考视点的深度图投影到虚拟视点上,获得虚拟视点深度图像;
(2)虚拟视点深度图像的优化处理:通过形态学图像处理,优化虚拟视点深度图像;
(3)逆向3D图像变换:根据优化后的虚拟视点深度图像,进行逆向3D图像变换,对于虚拟视点图像中的所有像素,找到其在参考视点图像中的对应点,并进行像素彩色信息的赋值,从而获得虚拟视点彩色图像;
(4)空洞填充:利用图像修复技术对上述步骤得到的虚拟视点彩色图像中的空洞进行填充;
所述步骤(4)的具体实现步骤如下:
a.检测空洞区域的边缘,计算边缘上各像素的优先级,决定修复顺序;
b.以边缘像素为中心,获取特定尺寸的样本块,以样本块为单位,根据其中的颜色信息和深度信息,从源图像中搜索最佳匹配块;
c.找到最佳匹配块之后,将最佳匹配块中的像素信息复制到样本块中的空洞处,实现填充。
所述步骤(4)的子步骤a中,计算边缘上各像素修复优先级的公式为:
P(p)=C(p)β·D(p)
其中,C(p)为置信度项,D(p)为数据项,C(p)中的分子表示样本块中非空洞像素的数量,分母|Ψp|表示样本块中总的像素数量;D(p)中,np分别表示空洞边缘上p点处的等照度线的方向与法向量;α为归一化因子,值为255,β为权重因子,它的值大于1。
所述步骤(4)的子步骤b中,搜索匹配块的过程为:首先按照公式 SSD ( &Psi; p ^ , &Psi; q ) = &Sigma; p &Element; &Psi; p &cap; &Phi; ( ( R p ^ ( p ) - R q ( p ) ) 2 + ( G p ^ ( p ) - G q ( p ) ) 2 + ( B p ^ ( p ) - B q ( p ) ) 2 ) , 以误差平方和(SSD)计算样本块中非空洞像素与匹配块中的相应位置的像素之间的彩色信息R、G、B的差异,然后根据公式计算样本块中空洞处像素与匹配块中的相应位置的像素之间的深度信息的差值De,并将该差值与门限值th进行比较,根据比较结果,按照公式 E = SSD ( &Psi; p ^ , &Psi; q ) * De , SSD ( &Psi; p ^ , &Psi; q ) &NotEqual; 0 and De > th Q , SSD ( &Psi; p ^ , &Psi; q ) = 0 and De > th SSD ( &Psi; p ^ , &Psi; q ) , De < th 进一步修正匹配块的匹配程度,最终根据公式确定最佳匹配块Ψq_best
2.根据权利要求1所述的基于深度图的视点合成方法,其特征在于,所述步骤(1)的具体步骤为:
a.根据参考视点的深度信息,实现从参考视点平面到三维空间,再从三维空间到虚拟视点平面的坐标变换;
b.根据坐标变换的结果,将参考视点深度图中的像素点投影到虚拟视点平面内,从而获得虚拟视点深度图像。
3.根据权利要求1所述的基于深度图的视点合成方法,其特征在于,所述步骤(2)的具体实现步骤如下:
a.对虚拟视点深度图像进行一次膨胀处理,消除深度图像中的裂纹;
b.再对膨胀处理后的深度图像进行两次腐蚀处理,消除由膨胀处理带来的边缘像素的不准确性。
4.根据权利要求1所述的基于深度图的视点合成方法,其特征在于,所述步骤(3)的具体实现步骤如下:
a.根据步骤(2)中得到的虚拟视点深度图像,实现从虚拟视点平面到三维空间,再从三维空间到参考视点平面的坐标变换;
b.根据坐标变换结果,将参考视点平面内像素的彩色信息复制到虚拟视点平面内,从而获取虚拟视点彩色图像。
CN201310017391.3A 2013-01-18 2013-01-18 自由视点电视中的虚拟视点合成方法 Expired - Fee Related CN103024421B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201310017391.3A CN103024421B (zh) 2013-01-18 2013-01-18 自由视点电视中的虚拟视点合成方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201310017391.3A CN103024421B (zh) 2013-01-18 2013-01-18 自由视点电视中的虚拟视点合成方法

Publications (2)

Publication Number Publication Date
CN103024421A CN103024421A (zh) 2013-04-03
CN103024421B true CN103024421B (zh) 2015-03-04

Family

ID=47972486

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201310017391.3A Expired - Fee Related CN103024421B (zh) 2013-01-18 2013-01-18 自由视点电视中的虚拟视点合成方法

Country Status (1)

Country Link
CN (1) CN103024421B (zh)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2959683A1 (en) * 2013-05-14 2015-12-30 Huawei Technologies Co., Ltd. Method and apparatus for computing a synthesized picture
CN103248911B (zh) * 2013-05-20 2015-11-04 山东大学 多视点视频中基于空时结合的虚拟视点绘制方法
CN103337081B (zh) * 2013-07-12 2016-03-16 南京大学 一种基于深度层的遮挡判断方法及装置
CN103747229B (zh) * 2014-01-27 2015-08-19 电子科技大学 三维视频虚拟视点合成中彩色混叠及阴影部分的处理方法
CN104378619B (zh) * 2014-11-12 2016-09-28 合肥工业大学 一种基于前后景梯度过渡的快速高效的空洞填补算法
CN104601972B (zh) * 2014-12-17 2016-09-21 清华大学深圳研究生院 一种利用图像修补的自由视点合成方法
CN104539928B (zh) * 2015-01-05 2016-08-24 武汉大学 一种光栅立体印刷图像合成方法
CN107018401B (zh) * 2017-05-03 2019-01-22 曲阜师范大学 基于逆映射的虚拟视点空洞填补方法
CN107809630B (zh) * 2017-10-24 2019-08-13 天津大学 基于改进虚拟视点合成的多视点视频超分辨率重建算法
US10593024B2 (en) 2018-04-04 2020-03-17 Hong Kong Applied Science And Technology Research Institute Co., Ltd. Image inpainting on arbitrary surfaces
CN109614983B (zh) * 2018-10-26 2023-06-16 创新先进技术有限公司 训练数据的生成方法、装置及系统
CN109982064B (zh) * 2019-03-18 2021-04-27 影石创新科技股份有限公司 一种裸眼3d的虚拟视点图像生成方法和便携式终端

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102625127A (zh) * 2012-03-24 2012-08-01 山东大学 一种适于3d电视虚拟视点生成的优化方法
CN102760285A (zh) * 2012-05-31 2012-10-31 河海大学 一种图像修复方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102625127A (zh) * 2012-03-24 2012-08-01 山东大学 一种适于3d电视虚拟视点生成的优化方法
CN102760285A (zh) * 2012-05-31 2012-10-31 河海大学 一种图像修复方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
基于DIBR和图像修复的任意视点绘制;骆凯等;《中国图象图形学报》;20100331;第15卷(第03期);第443-449页 *
虚拟视点生成算法研究;吴祖成;《浙江大学硕士学位论文》;20100531;第37-53页 *

Also Published As

Publication number Publication date
CN103024421A (zh) 2013-04-03

Similar Documents

Publication Publication Date Title
CN103024421B (zh) 自由视点电视中的虚拟视点合成方法
CN103248911B (zh) 多视点视频中基于空时结合的虚拟视点绘制方法
CN105096386B (zh) 大范围复杂城市环境几何地图自动生成方法
US8860712B2 (en) System and method for processing video images
CN101976455B (zh) 一种基于立体匹配的彩色图像三维重建方法
CN103810685B (zh) 一种深度图的超分辨率处理方法
CN103177440B (zh) 生成图像深度图的系统和方法
CN111325693B (zh) 一种基于单视点rgb-d图像的大尺度全景视点合成方法
CN101400001B (zh) 一种视频帧深度图的生成方法及系统
US20080259073A1 (en) System and method for processing video images
US20080246836A1 (en) System and method for processing video images for camera recreation
CN109754459B (zh) 一种用于构建人体三维模型的方法及系统
TWI469088B (zh) 前景深度地圖產生模組及其方法
CN104952075A (zh) 面向激光扫描三维模型的多图像自动纹理映射方法
CN104780355A (zh) 一种视点合成中基于深度的空洞修复方法
CN102609950B (zh) 一种二维视频深度图的生成方法
CN103345736A (zh) 一种虚拟视点绘制方法
CN104463778A (zh) 一种全景图生成方法
CN102263957B (zh) 一种基于搜索窗口自适应的视差估计方法
CN111047709A (zh) 一种双目视觉裸眼3d图像生成方法
CN111881985B (zh) 立体匹配方法、装置、终端和存储介质
CN104270624A (zh) 一种分区域的3d视频映射方法
CN101383051B (zh) 一种基于图像重投影的视图合成方法
CN116363290A (zh) 一种用于大规模场景三维重建的纹理贴图生成方法
CN115731336B (zh) 图像渲染方法、图像渲染模型生成方法及相关装置

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20150304

Termination date: 20190118