CN104751508A - 3d立体影视制作中新视图的全自动快速生成及补全方法 - Google Patents
3d立体影视制作中新视图的全自动快速生成及补全方法 Download PDFInfo
- Publication number
- CN104751508A CN104751508A CN201510111816.6A CN201510111816A CN104751508A CN 104751508 A CN104751508 A CN 104751508A CN 201510111816 A CN201510111816 A CN 201510111816A CN 104751508 A CN104751508 A CN 104751508A
- Authority
- CN
- China
- Prior art keywords
- pixel
- depth
- new view
- image
- former
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Image Processing (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Processing Or Creating Images (AREA)
Abstract
本发明公开了一种3D立体影视制作中新视图的全自动快速生成及补全方法。对于原视图图像及其深度图,根据原视图的摄像机参数进行三维反投影和表面三角网格化,将网格化的图像表面结构根据新视图的摄像机参数进行三维空间投影渲染,生成新视图的图像及其深度图;利用有向漫水填充法将新视图图像和深度图中非空洞区域颜色和深度扩展填补至空洞区域,直到空洞区域所有像素的颜色和深度均被补全完整。本发明方法能够高效快速地合成3D立体新视角的视图图像和深度,并且对新视图中的由于遮挡产生的空洞区域实现全自动的快速修补,得到真实感的新视图合成结果。
Description
技术领域
本发明涉及一种3D立体影视的处理方法,特别是涉及图像合成技术领域的一种3D立体影视制作中新视图的全自动快速生成及补全方法。
背景技术
随着3D电影的日益普及,3D立体影视逐渐视成为影视行业的主流媒体格式。虽然市面上的立体摄像机可以用来直接拍摄生成3D立体视频,但3D实拍技术的成本高、周期长且立体效果调节难度大。因此,当今普遍的3D电影制作方案是采用后期2D转制3D的方法,该方法成本相对较低,而且立体效果可控性更强。因此,如何有效的将2D影视转换成3D立体影视成为3D立体影视制作领域的研究热点。
影视3D转3D的主要技术流程包括图层分割、深度图创建和新视图合成,其中最关键的技术为新视图合成,包括新视图的生成及补全两个步骤。传统的2D转3D技术中,新视图的生成采用基于水平偏移的深度置换方法,新视图的补全是采用简单的颜色扩散填充结合人工交互修补的方法。水平偏移生成的新视图并不符合真实世界的立体几何投影关系,会造成视觉欺骗;并且,简单的颜色扩散填充方法并不能生成很好的补全效果,同样会造成一定程度的视觉欺骗。
由此,传统的新视图合成技术自动化程度低,交互修补需要大量的人工操作,很难满足3D影视制作(尤其是3D电影)对于高质量和高效率低成本的行业要求。
发明内容
为了克服现有技术的不足,本发明提供了一种3D立体影视制作中新视图的全自动快速生成及补全方法,旨在利用原视图图像及其对应的深度图全自动地生成新视图的图像和深度图。该技术可以快速自动化地完成图像2D转3D立体过程中的立体视图合成,满足3D电影制作对于高质量和高效率低成本的行业要求;此外,该技术还可以用来完成电视节目或网络视频2D转3D立体过程中的新视图视频序列的快速自动合成。
本发明所采用的技术方案是包括以下步骤:
a、对于原视图图像及其深度图,根据原视图的摄像机参数进行三维反投影和表面三角网格化,将网格化的图像表面结构根据新视图的摄像机参数进行三维空间投影渲染,生成新视图的图像及其深度图;
b、利用有向漫水填充法将新视图图像和深度图中非空洞区域颜色和深度扩展填补至空洞区域,直到空洞区域所有像素的颜色和深度均被补全完整。
所述步骤a具体包括:
a1、原视图图像记为Io,原视图图像的深度图记为Do,原视图的摄像机参数记为Co=Ko[Ro|To],
其中,Ko为原视图摄像机的内参矩阵,Ro为原视图摄像机的旋转矩阵,To为原视图摄像机的平移向量,将原视图图像Io中的每个2D像素点x根据摄像机参数和深度采用以下公式反投影至3D空间坐标,并将原视图图像Io中所有2D像素点经反投影后所得的3D点集合记为P:
其中,P(x)表示x反投影所得的3D点,Do(x)表示x的深度值;T表示矩阵的转置,[x 1]为2D像素点x的齐次坐标;
a2、原视图图像Io中2D像素点进行Delaunay三角化,再根据三角化的网格结构拓扑关系对3D点集合P进行三角网格化,形成原视图图像的3D表面网格结构S;然后,将原视图图像的深度图Do中的深度最大值记为Dmax,最小值记为Dmin,对于深度差大于0.05(Dmax-Dmin)的相邻2D像素点对,将其拓扑连接的三角网格从S中除去;
a3、将新视图的摄像机参数记为Cn=Kn[Rn|Tn],其中Kn为新视图摄像机的内参矩阵,Rn为原视图摄像机的旋转矩阵,Tn为原视图摄像机的平移向量;
将原视图图像Io根据原视图图像坐标映射至3D表面网格结构S的表面,然后将包含图像映射的S从Cn所在的摄像机视角进行三维空间投影渲染,将渲染的图像作为新视图图像In,渲染的深度图作为新视图深度图Dn。
所述的步骤b具体包括:
b1、新视图图像In中的空洞区域记为Ω,将空洞区域Ω的区域外边界像素点b利用摄像机参数和新视图深度图Dn中的深度值采用以下公式投影至原视图中:
其中,Bo表示区域外边界像素点b从新视图投影至原视图摄像机坐标系下的3D点坐标,表示区域外边界像素点b从新视图投影至原视图的投影点位置,Dn(b)表示区域外边界像素点b的深度值;
然后,统计以为中心的7×7像素窗口内的深度值的最大值dmax和最小值dmin,因所有外边界的像素点并不都是漫水填充种子像素点,再采用以下公式计算出区域外边界像素点b为漫水填充种子像素点的概率:
其中,z(Bo)表示3D点Bo的z轴坐标;
b2、为空洞区域Ω所有的区域外边界像素点集合建立采用以下公式的能量方程来求解每个像素点是否为种子点,利用图切割方法最小化能量方程,以求得每个区域外边界像素点是否为种子点,所有为种子点的区域外边界像素点集合记为Δ,能量方程定义如下:
其中,b表示区域外边界像素点,c为b的相邻外边界像素点,N(b)为b的所有相邻像素点,Ed(b)为像素点b的数据项,Es(b,c)为邻域像素点对(b,c)的平滑项;
b3、利用有向漫水填充法将种子像素点的颜色和深度扩展填补至In和Dn的空洞区域。
所述步骤b2能量方程中的像素点b的数据项Ed(b)采用以下公式定义:
其中,b表示区域外边界像素点,p(b)为区域外边界像素点b为漫水填充种子像素点的概率。
所述步骤b2能量方程中的邻域像素点对(b,c)的平滑项Es(b,c)采用以下公式定义:
其中,b表示区域外边界像素点,c为b的相邻外边界像素点,λ为平滑项权重。
所述的步骤b3具体如下:
b3.1)将种子像素点集合Δ向空洞区域Ω膨胀一个像素宽度;
b3.2)对膨胀的每个空洞区域像素点p,利用其8邻域中种子点的颜色和深度来分别填补新视图图像In中像素点p位置的颜色和新视图深度图Dn中像素点p位置的深度;
如果8邻域中存在至少两个种子点,则比较每个种子点指向点p的向量与点p位置的空洞区域边界法向的一致性,选择方向最一致的种子点,利用其颜色和深度来填补In和Dn中像素点p位置的颜色和深度;
b3.3)清空所有为种子点的区域外边界像素点集合Δ中的种子点,将膨胀的空洞区域像素点置入该像素点集合Δ中形成新的种子点集合;
b3.4)重复步骤b3.1)-b3.3),直到空洞区域Ω中所有像素点的颜色和深度均被填补完整。
对于本发明方法的步骤a和步骤b中使用的摄像机模型、3D空间反投影和多帧之间投影采用了Richard Hartley的著作《Multiple View Geometry inComputer Vision》中提出的透视摄像机模型内外参数形式。
对于本发明方法的步骤a使用了Shewchuk等人提出的Delaunay三角化法:Jonathan Richard Shewchuk:Delaunay Refinement Algorithms for Triangular MeshGeneration.Computational Geometry:Theory and Applications,May 2002,22(1-3):21-74。
对于本发明方法的步骤b使用了Delong等人提出的图切割优化方法:A.Delong,A.Osokin,H.N.Isack,and Y.Boykov:Fast Approximate EnergyMinimization with Label Costs.International Journal of Computer Vision,2012,96(1):1-27。
与现有技术相比,本发明的有益效果是:
1)能够实现全自动的新视图图像及深度图合成,合成的新视图图像符合真实视角的三维投影影像;
2)能够实现全自动的新视图图像及深度图空洞补全,处理效率高,无需任何人工交互辅助;
附图说明
图1为本发明方法的流程示意图。
图2为本发明实施例输入的原视图图像和深度图。
图3为实施例对图2的输入数据执行步骤a1-a2产生的3D表面网格结构。
图4为实施例对图2的输入数据执行步骤a产生的带空洞区域的新视图图像和深度图。
图5为实施例对图4新视图图像中的空洞区域外边界的每个像素点判定是否为种子像素点的结果局部图,其中黑色表示种子像素点,白色表示非种子像素点。
图6为实施例对图4的结果执行步骤b产生的完整补全后的新视图图像和深度图。
图7为实施例图2的原视图图像和图6的新视图图像合成的双目立体效果图。
具体实施方式
下面结合附图及具体实施例对本发明作进一步详细说明。
如图1所示,本发明实施例过程如下:
a、对于原视图图像及其深度图,根据原视图的摄像机参数进行三维反投影和表面三角网格化,将网格化的图像表面结构根据新视图的摄像机参数进行三维空间投影渲染,生成新视图的图像及其深度图。
a1、实施采用图2所示的原视图图像记为Io,原视图图像的深度图记为Do,原视图的摄像机参数记为Co=Ko[Ro|To],
其中,Ko为原视图摄像机的内参矩阵,Ro为原视图摄像机的旋转矩阵,To为原视图摄像机的平移向量,将原视图图像Io中的每个2D像素点x根据摄像机参数和深度采用以下公式反投影至3D空间坐标,并将原视图图像Io中所有2D像素点经反投影后所得的3D点集合记为P,对于2D像素点x的反投影计算公式如下:
其中,P(x)表示x反投影所得的3D点,Do(x)表示x的深度值;T表示矩阵的转置,[x 1]为2D像素点x的齐次坐标;
a2、原视图图像Io中2D像素点进行Delaunay三角化,再根据三角化的网格结构拓扑关系对3D点集合P进行三角网格化,形成原视图图像的3D表面网格结构S;然后,将原视图图像的深度图Do中的深度最大值记为Dmax,最小值记为Dmin,对于深度差大于0.05(Dmax-Dmin)的相邻2D像素点对,将其拓扑连接的三角网格从S中除去,得到的3D表面网格结构S如图3所示;
a3、将新视图的摄像机参数记为Cn=Kn[Rn|Tn],其中Kn为新视图摄像机的内参矩阵,Rn为原视图摄像机的旋转矩阵,Tn为原视图摄像机的平移向量;
将原视图图像Io根据原视图图像坐标映射至3D表面网格结构S的表面,然后将包含图像映射的S从Cn所在的摄像机视角进行三维空间投影渲染,将渲染的图像作为新视图图像In,渲染的深度图作为新视图深度图Dn,得到的新视图图像In和新视图深度图Dn分别如图4所示。
b、利用有向漫水填充法将新视图图像和深度图中非空洞区域颜色和深度扩展填补至空洞区域,直到空洞区域所有像素的颜色和深度均被补全完整。
b1、新视图图像In中的空洞区域记为Ω,将空洞区域Ω的区域外边界像素点b利用摄像机参数和新视图深度图Dn中的深度值采用以下公式投影至原视图中,区域外边界像素点b的投影计算公式如下:
其中,Bo表示区域外边界像素点b从新视图投影至原视图摄像机坐标系下的3D点坐标,表示区域外边界像素点b从新视图投影至原视图的投影点位置,Dn(b)表示区域外边界像素点b的深度值;
然后,统计以为中心的7×7像素窗口内的深度值的最大值dmax和最小值dmin,因所有外边界的像素点并不都是漫水填充种子像素点,再采用以下公式计算出区域外边界像素点b为漫水填充种子像素点的概率:
其中,z(Bo)表示3D点Bo的z轴坐标;
b2、为空洞区域Ω所有的区域外边界像素点集合建立采用以下公式的能量方程来求解每个像素点是否为种子点,利用图切割方法最小化能量方程,以求得每个区域外边界像素点是否为种子点,所有为种子点的区域外边界像素点集合记为Δ,能量方程定义如下:
其中,b表示区域外边界像素点,c为b的相邻外边界像素点,N(b)为b的所有相邻像素点,Ed(b)为像素点b的数据项,Es(b,c)为邻域像素点对(b,c)的平滑项;
上述像素点b的数据项Ed(b)采用以下公式定义:
其中,b表示区域外边界像素点,p(b)为区域外边界像素点b为漫水填充种子像素点的概率。
上述邻域像素点对(b,c)的平滑项Es(b,c)采用以下公式定义:
其中,b表示区域外边界像素点,c为b的相邻外边界像素点,λ为平滑项权重,实施例其值取100。
上述方法将外边界中深度较远的背景像素点判定为种子像素点,较近的前景像素点则为非种子像素点。利用获得的区域外边界像素种子点判定结果如图5所示,其中黑色表示种子像素点,白色表示非种子像素点。
b3、利用有向漫水填充法将种子像素点的颜色和深度扩展填补至In和Dn的空洞区域。
b3.1)将种子像素点集合Δ向空洞区域Ω膨胀一个像素宽度;
b3.2)对膨胀的每个空洞区域像素点p,利用其8邻域中种子点的颜色和深度来分别填补新视图图像In中像素点p位置的颜色和新视图深度图Dn中像素点p位置的深度;
如果8邻域中存在至少两个种子点,则比较每个种子点指向点p的向量与点p位置的空洞区域边界法向的一致性,选择方向最一致的种子点,利用其颜色和深度来填补In和Dn中像素点p位置的颜色和深度;
b3.3)清空所有为种子点的区域外边界像素点集合Δ中的种子点,将膨胀的空洞区域像素点置入该像素点集合Δ中形成新的种子点集合;
b3.4)重复步骤b3.1)-b3.3),直到空洞区域Ω中所有像素点的颜色和深度均被填补完整,得到如图6所示的完整补全后的新视图图像和深度图。
有向漫水填充法使得新视图颜色和深度均来自种子像素点,非种子像素点的颜色和深度则不参与扩散填补,最终得到如图7所示的原视图图像和新视图图像合成后的双目立体效果。
由此可见,本发明实现了高效快速地合成3D立体新视角的视图图像和深度,并且对新视图中的由于遮挡产生的空洞区域实现全自动的快速修补,得到真实感的新视图合成结果。在CPU为Intel Core i7-4770,主频3.4GHz的台式机上,对于分辨率为1287×855的图像,新视图的生成及补全耗时仅为8秒,可见具有突出显著的技术效果。
上述具体实施方式用来解释说明本发明,而不是对本发明进行限制,在本发明的精神和权利要求的保护范围内,对本发明作出的任何修改和改变,都落入本发明的保护范围。
Claims (6)
1.一种3D立体影视制作中新视图的全自动快速生成及补全方法,其特征在于包括以下步骤:
a、对于原视图图像及其深度图,根据原视图的摄像机参数进行三维反投影和表面三角网格化,将网格化的图像表面结构根据新视图的摄像机参数进行三维空间投影渲染,生成新视图的图像及其深度图;
b、利用有向漫水填充法将新视图图像和深度图中非空洞区域颜色和深度扩展填补至空洞区域,直到空洞区域所有像素的颜色和深度均被补全完整。
2.根据权利要求1所述的一种3D立体影视制作中新视图的全自动快速生成及补全方法,其特征在于所述步骤a具体包括:
a1、原视图图像记为Io,原视图图像的深度图记为Do,原视图的摄像机参数记为Co=Ko[Ro|To],
其中,Ko为原视图摄像机的内参矩阵,Ro为原视图摄像机的旋转矩阵,To为原视图摄像机的平移向量,将原视图图像Io中的每个2D像素点x根据摄像机参数和深度采用以下公式反投影至3D空间坐标,并将原视图图像Io中所有2D像素点经反投影后所得的3D点集合记为P:
其中,P(x)表示x反投影所得的3D点,Do(x)表示x的深度值;T表示矩阵的转置,[x 1]为2D像素点x的齐次坐标;
a2、原视图图像Io中2D像素点进行Delaunay三角化,再根据三角化的网格结构拓扑关系对3D点集合P进行三角网格化,形成原视图图像的3D表面网格结构S;然后,将原视图图像的深度图Do中的深度最大值记为Dmax,最小值记为Dmin,对于深度差大于0.05(Dmax-Dmin)的相邻2D像素点对,将其拓扑连接的三角网格从S中除去;
a3、将新视图的摄像机参数记为Cn=Kn[Rn|Tn],其中Kn为新视图摄像机的内参矩阵,Rn为原视图摄像机的旋转矩阵,Tn为原视图摄像机的平移向量;
将原视图图像Io根据原视图图像坐标映射至3D表面网格结构S的表面,然后将包含图像映射的S从Cn所在的摄像机视角进行三维空间投影渲染,将渲染的图像作为新视图图像In,渲染的深度图作为新视图深度图Dn。
3.根据权利要求1所述的一种3D立体影视制作中新视图的全自动快速生成及补全方法,其特征在于所述的步骤b具体包括:
b1、新视图图像In中的空洞区域记为Ω,将空洞区域Ω的区域外边界像素点b利用摄像机参数和新视图深度图Dn中的深度值采用以下公式投影至原视图中:
其中,Bo表示区域外边界像素点b从新视图投影至原视图摄像机坐标系下的3D点坐标,表示区域外边界像素点b从新视图投影至原视图的投影点位置,Dn(b)表示区域外边界像素点b的深度值;
然后,统计以为中心的7×7像素窗口内的深度值的最大值dmax和最小值dmin,因所有外边界的像素点并不都是漫水填充种子像素点,再采用以下公式计算出区域外边界像素点b为漫水填充种子像素点的概率:
其中,z(Bo)表示3D点Bo的z轴坐标;
b2、为空洞区域Ω所有的区域外边界像素点集合建立采用以下公式的能量方程来求解每个像素点是否为种子点,利用图切割方法最小化能量方程,以求得每个区域外边界像素点是否为种子点,所有为种子点的区域外边界像素点集合记为Δ,能量方程定义如下:
其中,b表示区域外边界像素点,c为b的相邻外边界像素点,N(b)为b的所有相邻像素点,Ed(b)为像素点b的数据项,Es(b,c)为邻域像素点对(b,c)的平滑项;
b3、利用有向漫水填充法将种子像素点的颜色和深度扩展填补至In和Dn的空洞区域。
4.根据权利要求3所述的一种3D立体影视制作中新视图的全自动快速生成及补全方法,其特征在于:所述步骤b2能量方程中的像素点b的数据项Ed(b)采用以下公式定义:
其中,b表示区域外边界像素点,p(b)为区域外边界像素点b为漫水填充种子像素点的概率。
5.根据权利要求3所述的一种3D立体影视制作中新视图的全自动快速生成及补全方法,其特征在于:所述步骤b2能量方程中的邻域像素点对(b,c)的平滑项Es(b,c)采用以下公式定义:
其中,b表示区域外边界像素点,c为b的相邻外边界像素点,λ为平滑项权重。
6.根据权利要求3所述的一种3D立体影视制作中新视图的全自动快速生成及补全方法,其特征在于所述的步骤b3具体如下:
b3.1)将种子像素点集合Δ向空洞区域Ω膨胀一个像素宽度;
b3.2)对膨胀的每个空洞区域像素点p,利用其8邻域中种子点的颜色和深度来分别填补新视图图像In中像素点p位置的颜色和新视图深度图Dn中像素点p位置的深度;
如果8邻域中存在至少两个种子点,则比较每个种子点指向点p的向量与点p位置的空洞区域边界法向的一致性,选择方向最一致的种子点,利用其颜色和深度来填补In和Dn中像素点p位置的颜色和深度;
b3.3)清空所有为种子点的区域外边界像素点集合Δ中的种子点,将膨胀的空洞区域像素点置入该像素点集合Δ中形成新的种子点集合;
b3.4)重复步骤b3.1)-b3.3),直到空洞区域Ω中所有像素点的颜色和深度均被填补完整。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510111816.6A CN104751508B (zh) | 2015-03-14 | 2015-03-14 | 3d立体影视制作中新视图的全自动快速生成及补全方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510111816.6A CN104751508B (zh) | 2015-03-14 | 2015-03-14 | 3d立体影视制作中新视图的全自动快速生成及补全方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN104751508A true CN104751508A (zh) | 2015-07-01 |
CN104751508B CN104751508B (zh) | 2017-07-14 |
Family
ID=53591126
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510111816.6A Expired - Fee Related CN104751508B (zh) | 2015-03-14 | 2015-03-14 | 3d立体影视制作中新视图的全自动快速生成及补全方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN104751508B (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104992442A (zh) * | 2015-07-08 | 2015-10-21 | 北京大学深圳研究生院 | 面向平面显示设备的视频立体化绘制方法 |
CN106384372A (zh) * | 2016-08-31 | 2017-02-08 | 重庆大学 | 视图合成方法和装置 |
CN106791770A (zh) * | 2016-12-20 | 2017-05-31 | 南阳师范学院 | 一种适用于dibr预处理过程的深度图融合方法 |
CN107248143A (zh) * | 2017-04-26 | 2017-10-13 | 中山大学 | 一种基于图像分割的深度图像修复方法 |
CN108369811A (zh) * | 2015-10-12 | 2018-08-03 | 诺基亚技术有限公司 | 分布式音频捕获和混合 |
CN112513929A (zh) * | 2019-11-29 | 2021-03-16 | 深圳市大疆创新科技有限公司 | 图像处理方法及装置 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20070279415A1 (en) * | 2006-06-01 | 2007-12-06 | Steve Sullivan | 2D to 3D image conversion |
CN104159099A (zh) * | 2014-08-29 | 2014-11-19 | 杭州道玄影视科技有限公司 | 一种3d立体影视制作中双目立体摄像机的设置方法 |
CN104159093A (zh) * | 2014-08-29 | 2014-11-19 | 杭州道玄影视科技有限公司 | 运动拍摄的静态场景视频的时域一致性空洞区域修补方法 |
-
2015
- 2015-03-14 CN CN201510111816.6A patent/CN104751508B/zh not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20070279415A1 (en) * | 2006-06-01 | 2007-12-06 | Steve Sullivan | 2D to 3D image conversion |
CN104159099A (zh) * | 2014-08-29 | 2014-11-19 | 杭州道玄影视科技有限公司 | 一种3d立体影视制作中双目立体摄像机的设置方法 |
CN104159093A (zh) * | 2014-08-29 | 2014-11-19 | 杭州道玄影视科技有限公司 | 运动拍摄的静态场景视频的时域一致性空洞区域修补方法 |
Non-Patent Citations (2)
Title |
---|
ANDRE DELONG ET AL.: "Fast Approximate Energy Minimization with Label Costs", 《IN COMPUTER VISION AND PATTERN RECOGNITION(CNPR)》 * |
JONATHAN RICHARD SHEWCHUK: "Delaunay Refinement Algorithm for Triangular Mesh Generation", 《COMPUTATIONAL GEOMETRY》 * |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104992442A (zh) * | 2015-07-08 | 2015-10-21 | 北京大学深圳研究生院 | 面向平面显示设备的视频立体化绘制方法 |
WO2017004882A1 (zh) * | 2015-07-08 | 2017-01-12 | 北京大学深圳研究生院 | 面向平面显示设备的视频立体化绘制方法 |
CN104992442B (zh) * | 2015-07-08 | 2018-01-16 | 北京大学深圳研究生院 | 面向平面显示设备的视频立体化绘制方法 |
CN108369811A (zh) * | 2015-10-12 | 2018-08-03 | 诺基亚技术有限公司 | 分布式音频捕获和混合 |
CN106384372A (zh) * | 2016-08-31 | 2017-02-08 | 重庆大学 | 视图合成方法和装置 |
CN106384372B (zh) * | 2016-08-31 | 2019-08-09 | 重庆大学 | 视图合成方法和装置 |
CN106791770A (zh) * | 2016-12-20 | 2017-05-31 | 南阳师范学院 | 一种适用于dibr预处理过程的深度图融合方法 |
CN107248143A (zh) * | 2017-04-26 | 2017-10-13 | 中山大学 | 一种基于图像分割的深度图像修复方法 |
CN107248143B (zh) * | 2017-04-26 | 2020-12-25 | 中山大学 | 一种基于图像分割的深度图像修复方法 |
CN112513929A (zh) * | 2019-11-29 | 2021-03-16 | 深圳市大疆创新科技有限公司 | 图像处理方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
CN104751508B (zh) | 2017-07-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104751508A (zh) | 3d立体影视制作中新视图的全自动快速生成及补全方法 | |
CN101902657B (zh) | 一种基于深度图分层的虚拟多视点图像的生成方法 | |
CN103473806B (zh) | 一种基于单幅图像的服装三维模型构建方法 | |
CN111243071A (zh) | 实时三维人体重建的纹理渲染方法、系统、芯片、设备和介质 | |
CN104159093B (zh) | 运动拍摄的静态场景视频的时域一致性空洞区域修补方法 | |
CN103310420B (zh) | 基于纹理与几何相似性的彩色图像空洞修复方法及系统 | |
CN104780355A (zh) | 一种视点合成中基于深度的空洞修复方法 | |
CN101383054A (zh) | 一种基于图像与扫描数据的混合三维重建方法 | |
CN111047709B (zh) | 一种双目视觉裸眼3d图像生成方法 | |
JP2007220049A (ja) | 映像基盤突出変位マッピング方法、及び該方法を用いる二重変位マッピング方法 | |
CN103544725B (zh) | 一种二维立体动画制作方法 | |
CN113538667B (zh) | 动态场景光场重建方法及装置 | |
CN102957936B (zh) | 从视频单视点到多视点的虚拟视点生成方法 | |
CN103761734A (zh) | 一种时域一致性保持的双目立体视频场景融合方法 | |
CN104463959A (zh) | 一种生成立方体环境贴图的方法 | |
CN106028020B (zh) | 一种基于多方向预测的虚拟视角图像空洞填补方法 | |
CN109461197B (zh) | 一种基于球面uv和重投影的云实时绘制优化方法 | |
CN105979241B (zh) | 一种柱面立体全景视频快速反变换方法 | |
CN104424658A (zh) | 一种保结构的二维形状内插方法 | |
CN101383051B (zh) | 一种基于图像重投影的视图合成方法 | |
Ahn et al. | Panerf: Pseudo-view augmentation for improved neural radiance fields based on few-shot inputs | |
CN103955959A (zh) | 一种基于车载激光测量系统的全自动纹理映射方法 | |
CN103325086B (zh) | 一种基于四面体坐标系的三维图形的变形方法 | |
CN103945209A (zh) | 一种基于分块投影的dibr方法 | |
CN113450274B (zh) | 一种基于深度学习的自适应视点融合方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20170714 Termination date: 20200314 |