CN113066191A - 基于深度图的全息体视图视差图像的虚实融合方法及系统 - Google Patents
基于深度图的全息体视图视差图像的虚实融合方法及系统 Download PDFInfo
- Publication number
- CN113066191A CN113066191A CN202110385498.8A CN202110385498A CN113066191A CN 113066191 A CN113066191 A CN 113066191A CN 202110385498 A CN202110385498 A CN 202110385498A CN 113066191 A CN113066191 A CN 113066191A
- Authority
- CN
- China
- Prior art keywords
- value
- virtual
- depth map
- scene
- parallax image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
Abstract
本发明提供了一种基于深度图的全息体视图视差图像的虚实融合方法及系统,通过获取真实场景和虚拟场景的视差图像及深度图,对虚拟场景与真实场景对应的深度图像的各个像素点的深度值进行比较,获得带有遮挡关系的真实场景视差图像与带有遮挡关系的虚拟场景视差图像,将其融合后得到保留遮挡关系的融合视差图像。本发明在视差图像的虚实融合中保留了场景的遮挡关系,增强了真实感,更具有普适性。
Description
技术领域
本发明涉及全息体视图领域,特别是涉及一种基于深度图的全息体视图视差图像的虚实融合方法及系统。
背景技术
在生产生活中,在真实场景上附加指定虚拟场景更便于用户对场景信息的理解,能够增加真实感,主要体现在商业、军事及医疗等领域,其中对于多场景信息的融合处理大多数出现在增强现实(AR)领域,在全息体视图打印领域,获取传统视差图像时,通常只针对单一场景进行采样,关于真实场景和虚拟场景进行融合的研究较少,并且没有考虑遮挡关系的影响,在实际生活中应用范围有限。因此,亟需一种保留遮挡关系的视差图像虚实融合获取方法,使其更具普适性。
发明内容
本发明的目的是提供一种基于深度图的全息体视图视差图像的虚实融合方法及系统,保留了场景遮挡关系,更具有普适性。
为实现上述目的,本发明提供了如下方案:
一种基于深度图的全息体视图视差图像的虚实融合方法,所述基于深度图的全息体视图视差图像的虚实融合方法包括:
获取真实场景的视差图像IR(i,j)及深度图DIR(i,j),所述视差图像IR(i,j)由第一目标相机采样得到,i,j表示图像的像素位置索引;
建立虚拟场景,利用虚拟目标相机获取虚拟场景的视差图像IV(i,j)和深度图DIV(i,j);
当Value[DIR(i,j)]>Value[DIV(i,j)]时,令Value[IR(i,j)]=0,Value[IV(i,j)]保持不变;当Value[DIR(i,j)]<Value[DIV(i,j)]时,令Value[IV(i,j)]=0,Value[IR(i,j)]保持不变;当Value[DIR(i,j)]=Value[DIV(i,j)]=0时,令Value[IR(i,j)]=Value[IV(i,j)]=0;
其中,Value[DIR(i,j)]表示真实场景的视差图像的深度图的深度值,Value[DIV(i,j)]表示虚拟场景的视差图像的深度图的深度值,Value[IR(i,j)]表示真实场景视差图像的像素值,Value[IV(i,j)]表示虚拟场景视差图像的像素值;
通过公式IF(i,j)=New_IR(i,j)+New_IV(i,j)得到带有遮挡关系的融合视差图像IF(i,j)。
可选地,所述基于深度图的全息体视图视差图像的虚实融合方法还包括:基于所述带有遮挡关系的融合视差图像,进行全息体视图的打印,得到虚实场景融合的三维全息像。
可选地,所述真实场景的深度图DIR(i,j)采用立体匹配算法或Kinect传感器得到。
可选地,所述虚拟目标相机相机参数与真实场景采样的第一目标相机的各项参数一致。
可选地,所述建立虚拟场景采用3ds Max软件建立三维模型。
为实现上述目的,本发明还提供了如下方案:
一种基于深度图的全息体视图视差图像的虚实融合系统,所述基于深度图的全息体视图视差图像的虚实融合系统包括:
真实场景图像获取模块,用于获取真实场景的视差图像IR(i,j)及深度图DIR(i,j),所述视差图像IR(i,j)由第一目标相机采样得到,i,j表示图像的像素位置索引;
虚拟场景图像获取模块,用于建立虚拟场景,利用虚拟目标相机获取虚拟场景的视差图像IV(i,j)和深度图DIV(i,j);
带有遮挡关系的图像获取模块,当Value[DIR(i,j)]>Value[DIV(i,j)]时,令Value[IR(i,j)]=0,Value[IV(i,j)]保持不变;当Value[DIR(i,j)]<Value[DIV(i,j)]时,令Value[IV(i,j)]=0,Value[IR(i,j)]保持不变;当Value[DIR(i,j)]=Value[DIV(i,j)]=0时,令Value[IR(i,j)]=Value[IV(i,j)]=0;
其中,Value[DIR(i,j)]表示真实场景的视差图像的深度图的深度值,Value[DIV(i,j)]表示虚拟场景的视差图像的深度图的深度值,Value[IR(i,j)]表示真实场景视差图像的像素值,Value[IV(i,j)]表示虚拟场景视差图像的像素值;
图像融合模块,通过公式IF(i,j)=New_IR(i,j)+New_IV(i,j)得到带有遮挡关系的融合视差图像IF(i,j)。
可选地,所述基于深度图的全息体视图视差图像的虚实融合系统还包括图像打印模块;
所述图像打印模块基于所述带有遮挡关系的融合视差图像,进行全息体视图的打印,得到虚实场景融合的三维全息像。
可选地,所述真实场景的深度图DIR(i,j)采用立体匹配算法或Kinect传感器得到。
可选地,所述虚拟目标相机相机参数与真实场景采样的第一目标相机的各项参数一致。
可选地,所述建立虚拟场景采用3ds Max软件建立三维模型。
根据本发明提供的具体实施例,本发明公开了以下技术效果:
本发明提供了一种基于深度图的全息体视图视差图像的虚实融合方法及系统,通过获取真实场景和虚拟场景的视差图像及深度图,对虚拟场景与真实场景对应的深度图像的各个像素点的深度值进行比较,获得带有遮挡关系的真实场景视差图像与带有遮挡关系的虚拟场景视差图像并融合后得到保留遮挡关系的融合视差图像。本发明在视差图像的虚实融合中保留了场景的遮挡关系,增强了真实感,更具有普适性。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本发明基于深度图的全息体视图视差图像的虚实融合获取方法的流程图;
图2为本发明基于深度图的全息体视图视差图像的虚实融合获取系统的模块结构示意图。
符号说明:
1-真实场景图像获取模块,2-虚拟场景图像获取模块,3-带有遮挡关系的图像获取模块,4-图像融合模块。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明的目的是提供一种基于深度图的全息体视图视差图像的虚实融合方法及系统,保留了场景遮挡关系,更具有普适性。
为使本发明的上述目的、特征和优点能够更加明显易懂,下面结合附图和具体实施方式对本发明作进一步详细的说明。
如图1所示,本发明基于深度图的全息体视图视差图像的虚实融合方法,包括以下步骤:
步骤S1:获取真实场景的视差图像IR(i,j)及深度图DIR(i,j),所述视差图像IR(i,j)由第一目标相机采样得到,i,j表示图像的像素位置索引。
步骤S2:建立虚拟场景,利用虚拟目标相机获取虚拟场景的视差图像IV(i,j)和深度图DIV(i,j)。
步骤S3:当Value[DIR(i,j)]>Value[DIV(i,j)]时,令Value[IR(i,j)]=0,Value[IV(i,j)]保持不变;当Value[DIR(i,j)]<Value[DIV(i,j)]时,令Value[IV(i,j)]=0,Value[IR(i,j)]保持不变;当Value[DIR(i,j)]=Value[DIV(i,j)]=0时,令Value[IR(i,j)]=Value[IV(i,j)]=0。
其中,Value[DIR(i,j)]表示真实场景的视差图像的深度图的深度值,Value[DIV(i,j)]表示虚拟场景的视差图像的深度图的深度值,Value[IR(i,j)]表示真实场景视差图像的像素值,Value[IV(i,j)]表示虚拟场景视差图像的像素值。
步骤S4:通过公式IF(i,j)=New_IR(i,j)+New_IV(i,j)得到带有遮挡关系的融合视差图像IF(i,j)。进一步地,可以遍历每幅虚实场景对应的深度图像,执行步骤S1~S4。
优选地,所述基于深度图的全息体视图视差图像的虚实融合方法还包括:基于所述带有遮挡关系的融合视差图像,进行全息体视图的打印,得到虚实场景融合的三维全息像。
进一步地,所述真实场景的深度图DIR(i,j)采用立体匹配算法或Kinect传感器得到。
为了实现更好的图像融合效果地,所述虚拟目标相机相机参数与真实场景采样的第一目标相机的各项参数一致。
在本发明的具体实施例中地,所述建立虚拟场景采用3ds Max软件建立三维模型。
为实现上述目的,本发明还提供了如下方案:
一种基于深度图的全息体视图视差图像的虚实融合系统,如图2所示,所述基于深度图的全息体视图视差图像的虚实融合系统包括:真实场景图像获取模块1、虚拟场景图像获取模块2、带有遮挡关系的图像获取模块3和图像融合模块4。
真实场景图像获取模块1,用于获取真实场景的视差图像IR(i,j)及深度图DIR(i,j),所述视差图像IR(i,j)由第一目标相机采样得到,i,j表示图像的像素位置索引。
虚拟场景图像获取模块2,用于建立虚拟场景,利用虚拟目标相机获取虚拟场景的视差图像IV(i,j)和深度图DIV(i,j)。
带有遮挡关系的图像获取模块3,用于对虚拟场景与真实场景对应的深度图像的各个像素点的深度值进行比较,获得带有遮挡关系的真实场景视差图像New_IR(i,j)与带有遮挡关系的虚拟场景视差图像New_IV(i,j),具体包括:
当Value[DIR(i,j)]>Value[DIV(i,j)]时,令Value[IR(i,j)]=0,Value[IV(i,j)]保持不变,即保留虚拟场景视差图像上的像素值,令真实场景视差图像上的像素值为0。当Value[DIR(i,j)]<Value[DIV(i,j)]时,令Value[IV(i,j)]=0,Value[IR(i,j)]保持不变,即保留真实场景视差图像上的像素值,令虚拟场景视差图像上的像素值为0。当Value[DIR(i,j)]=Value[DIV(i,j)]=0时,令Value[IR(i,j)]=Value[IV(i,j)]=0。其中,由于两种场景通常存在一定的位置关系,当二者的物点位于空间中一点时会造成视感奇异,因此只考虑深度值相等且仅为0的情况,此时虚实场景的采样图像均无信息体现。
其中,Value[DIR(i,j)]表示真实场景的视差图像的深度图的深度值,Value[DIV(i,j)]表示虚拟场景的视差图像的深度图的深度值,Value[IR(i,j)]表示真实场景视差图像的像素值,Value[IV(i,j)]表示虚拟场景视差图像的像素值。
图像融合模块4,通过公式IF(i,j)=New_IR(i,j)+New_IV(i,j)得到带有遮挡关系的融合视差图像IF(i,j),即将对应的图像直接相加即得到融合后带有遮挡关系的视差图像。
优选地,所述基于深度图的全息体视图视差图像的虚实融合系统还包括图像打印模块。
所述图像打印模块基于所述带有遮挡关系的融合视差图像,进行全息体视图的打印,得到虚实场景融合的三维全息像。
进一步地,所述真实场景的深度图DIR(i,j)采用立体匹配算法或Kinect传感器得到。
为了获得更好的融合效果,所述虚拟目标相机相机参数与真实场景采样的第一目标相机的各项参数一致。
在本发明的实施例中,所述建立虚拟场景采用3ds Max软件建立三维模型。3dsMax软件中的平移、缩放与旋转操作便于设定,在3ds Max软件的Z深度渲染功能可以获得对应视角处图像的深度图,可以建立全息体视图打印所需的三维模型(虚拟场景),设定其空间位置、三维模型的大小和空间角度依据用户需求设定。
融合后的视差图像带有遮挡关系,这来源于方法中遍历图像像素深度值的比较过程即步骤S3。假设,虚拟场景叠加在真实场景上,那么观察时,虚拟场景就完全覆盖着真实场景的信息,图像上只需保留虚拟场景信息。但是,如果虚拟场景的空间位置本身就与真实场景存在较为复杂的遮挡关系,就需要进行判断,判定采样图像上该保留哪种信息。
当我们单眼观看某一像素时,可以认为是眼指向像素点的一条射线,像素点的值不为0说明此射线接触到了场景中的某个物点,而判定该物点是真实场景的还是虚拟场景的,只需要判定该像素处虚实物点的深度。也就是说,射线先接触到真实场景物点,融合图像上的对应像素位置就只保留真实场景物点,而该像素处对应的虚拟场景物点被遮挡住,反之亦然。显然,本发明有利于为全息体视图的打印提供融合场景的数据源,相较于传统单场景打印更具有普适性。
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。对于实施例公开的系统而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。
本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处。综上所述,本说明书内容不应理解为对本发明的限制。
Claims (10)
1.一种基于深度图的全息体视图视差图像的虚实融合方法,其特征在于,所述基于深度图的全息体视图视差图像的虚实融合方法包括:
获取真实场景的视差图像IR(i,j)及深度图DIR(i,j),所述视差图像IR(i,j)由第一目标相机采样得到,i,j表示图像的像素位置索引;
建立虚拟场景,利用虚拟目标相机获取虚拟场景的视差图像IV(i,j)和深度图DIV(i,j);
当Value[DIR(i,j)]>Value[DIV(i,j)]时,令Value[IR(i,j)]=0,Value[IV(i,j)]保持不变;当Value[DIR(i,j)]<Value[DIV(i,j)]时,令Value[IV(i,j)]=0,Value[IR(i,j)]保持不变;当Value[DIR(i,j)]=Value[DIV(i,j)]=0时,令Value[IR(i,j)]=Value[IV(i,j)]=0;
其中,Value[DIR(i,j)]表示真实场景的视差图像的深度图的深度值,Value[DIV(i,j)]表示虚拟场景的视差图像的深度图的深度值,Value[IR(i,j)]表示真实场景视差图像的像素值,Value[IV(i,j)]表示虚拟场景视差图像的像素值;
通过公式IF(i,j)=New_IR(i,j)+New_IV(i,j)得到带有遮挡关系的融合视差图像IF(i,j)。
2.根据权利要求1所述的基于深度图的全息体视图视差图像的虚实融合方法,其特征在于,所述基于深度图的全息体视图视差图像的虚实融合方法还包括:基于所述带有遮挡关系的融合视差图像,进行全息体视图的打印,得到虚实场景融合的三维全息像。
3.根据权利要求1所述的基于深度图的全息体视图视差图像的虚实融合方法,其特征在于,所述真实场景的深度图DIR(i,j)采用立体匹配算法或Kinect传感器得到。
4.根据权利要求1所述的基于深度图的全息体视图视差图像的虚实融合方法,其特征在于,所述虚拟目标相机相机参数与真实场景采样的第一目标相机的各项参数一致。
5.根据权利要求1所述的基于深度图的全息体视图视差图像的虚实融合方法,其特征在于,所述建立虚拟场景采用3ds Max软件建立三维模型。
6.一种基于深度图的全息体视图视差图像的虚实融合系统,其特征在于,所述基于深度图的全息体视图视差图像的虚实融合系统包括:
真实场景图像获取模块,用于获取真实场景的视差图像IR(i,j)及深度图DIR(i,j),所述视差图像IR(i,j)由第一目标相机采样得到,i,j表示图像的像素位置索引;
虚拟场景图像获取模块,用于建立虚拟场景,利用虚拟目标相机获取虚拟场景的视差图像IV(i,j)和深度图DIV(i,j);
带有遮挡关系的图像获取模块,当Value[DIR(i,j)]>Value[DIV(i,j)]时,令Value[IR(i,j)]=0,Value[IV(i,j)]保持不变;当Value[DIR(i,j)]<Value[DIV(i,j)]时,令Value[IV(i,j)]=0,Value[IR(i,j)]保持不变;当Value[DIR(i,j)]=Value[DIV(i,j)]=0时,令Value[IR(i,j)]=Value[IV(i,j)]=0;
其中,Value[DIR(i,j)]表示真实场景的视差图像的深度图的深度值,Value[DIV(i,j)]表示虚拟场景的视差图像的深度图的深度值,Value[IR(i,j)]表示真实场景视差图像的像素值,Value[IV(i,j)]表示虚拟场景视差图像的像素值;
图像融合模块,通过公式IF(i,j)=New_IR(i,j)+New_IV(i,j)得到带有遮挡关系的融合视差图像IF(i,j)。
7.根据权利要求6所述的基于深度图的全息体视图视差图像的虚实融合系统,其特征在于,所述基于深度图的全息体视图视差图像的虚实融合系统还包括图像打印模块;
所述图像打印模块基于所述带有遮挡关系的融合视差图像,进行全息体视图的打印,得到虚实场景融合的三维全息像。
8.根据权利要求6所述的基于深度图的全息体视图视差图像的虚实融合系统,其特征在于,所述真实场景的深度图DIR(i,j)采用立体匹配算法或Kinect传感器得到。
9.根据权利要求6所述的基于深度图的全息体视图视差图像的虚实融合系统,其特征在于,所述虚拟目标相机相机参数与真实场景采样的第一目标相机的各项参数一致。
10.根据权利要求6所述的基于深度图的全息体视图视差图像的虚实融合系统,其特征在于,所述建立虚拟场景采用3ds Max软件建立三维模型。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110385498.8A CN113066191B (zh) | 2021-04-10 | 2021-04-10 | 基于深度图的全息体视图视差图像的虚实融合方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110385498.8A CN113066191B (zh) | 2021-04-10 | 2021-04-10 | 基于深度图的全息体视图视差图像的虚实融合方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113066191A true CN113066191A (zh) | 2021-07-02 |
CN113066191B CN113066191B (zh) | 2022-12-02 |
Family
ID=76566593
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110385498.8A Active CN113066191B (zh) | 2021-04-10 | 2021-04-10 | 基于深度图的全息体视图视差图像的虚实融合方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113066191B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113671813A (zh) * | 2021-08-20 | 2021-11-19 | 中国人民解放军陆军装甲兵学院 | 一种虚实场景融合的全视差全息体视图制作方法及系统 |
CN114463236A (zh) * | 2022-01-27 | 2022-05-10 | 重庆西山科技股份有限公司 | 单目内窥镜三维图像的显示方法和系统 |
CN115171030A (zh) * | 2022-09-09 | 2022-10-11 | 山东省凯麟环保设备股份有限公司 | 基于多级特征融合的多模态图像分割方法、系统及器件 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102509343A (zh) * | 2011-09-30 | 2012-06-20 | 北京航空航天大学 | 一种基于双目图像和对象轮廓的虚实遮挡处理方法 |
CN102568026A (zh) * | 2011-12-12 | 2012-07-11 | 浙江大学 | 一种多视点自由立体显示的三维增强现实方法 |
CN107292965A (zh) * | 2017-08-03 | 2017-10-24 | 北京航空航天大学青岛研究院 | 一种基于深度图像数据流的虚实遮挡处理方法 |
-
2021
- 2021-04-10 CN CN202110385498.8A patent/CN113066191B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102509343A (zh) * | 2011-09-30 | 2012-06-20 | 北京航空航天大学 | 一种基于双目图像和对象轮廓的虚实遮挡处理方法 |
CN102568026A (zh) * | 2011-12-12 | 2012-07-11 | 浙江大学 | 一种多视点自由立体显示的三维增强现实方法 |
CN107292965A (zh) * | 2017-08-03 | 2017-10-24 | 北京航空航天大学青岛研究院 | 一种基于深度图像数据流的虚实遮挡处理方法 |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113671813A (zh) * | 2021-08-20 | 2021-11-19 | 中国人民解放军陆军装甲兵学院 | 一种虚实场景融合的全视差全息体视图制作方法及系统 |
CN113671813B (zh) * | 2021-08-20 | 2022-09-13 | 中国人民解放军陆军装甲兵学院 | 一种虚实场景融合的全视差全息体视图制作方法及系统 |
CN114463236A (zh) * | 2022-01-27 | 2022-05-10 | 重庆西山科技股份有限公司 | 单目内窥镜三维图像的显示方法和系统 |
CN115171030A (zh) * | 2022-09-09 | 2022-10-11 | 山东省凯麟环保设备股份有限公司 | 基于多级特征融合的多模态图像分割方法、系统及器件 |
Also Published As
Publication number | Publication date |
---|---|
CN113066191B (zh) | 2022-12-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113066191B (zh) | 基于深度图的全息体视图视差图像的虚实融合方法及系统 | |
TWI712918B (zh) | 擴增實境的影像展示方法、裝置及設備 | |
Attal et al. | MatryODShka: Real-time 6DoF video view synthesis using multi-sphere images | |
Serrano et al. | Motion parallax for 360 RGBD video | |
US10650574B2 (en) | Generating stereoscopic pairs of images from a single lens camera | |
US10262426B2 (en) | System and method for infinite smoothing of image sequences | |
US20180192034A1 (en) | Stereoscopic 3d camera for virtual reality experience | |
JP4879326B2 (ja) | 3次元画像を合成するシステム及び方法 | |
Kuster et al. | FreeCam: A Hybrid Camera System for Interactive Free-Viewpoint Video. | |
AU2018211217B2 (en) | Virtual reality parallax correction | |
DE202017105894U1 (de) | Headset-Entfernung in virtueller, erweiterter und gemischter Realität unter Verwendung einer Blick-Datenbank | |
Cheng et al. | Spatio-temporally consistent novel view synthesis algorithm from video-plus-depth sequences for autostereoscopic displays | |
NZ589170A (en) | Stereoscopic editing for video production, post-production and display adaptation | |
Thatte et al. | Depth augmented stereo panorama for cinematic virtual reality with head-motion parallax | |
EP1658558A2 (en) | Method of and scaling unit for scaling a three-dimensional model | |
US20210012571A1 (en) | Reconstruction of essential visual cues in mixed reality applications | |
US20220321858A1 (en) | Methods, systems, and media for rendering immersive video content with foveated meshes | |
JP7184748B2 (ja) | 場面の積層深度データを生成するための方法 | |
US10127714B1 (en) | Spherical three-dimensional video rendering for virtual reality | |
US20130321409A1 (en) | Method and system for rendering a stereoscopic view | |
JP2007507945A (ja) | 立体映像化 | |
JP2022518402A (ja) | 三次元再構成の方法及び装置 | |
CN110751615B (zh) | 基于环境感知的立体树木图像融合方法 | |
Kao | Stereoscopic image generation with depth image based rendering | |
Knorr et al. | From 2D-to stereo-to multi-view video |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |