CN102693552A - 数字内容的2d转3d的方法及装置 - Google Patents
数字内容的2d转3d的方法及装置 Download PDFInfo
- Publication number
- CN102693552A CN102693552A CN2011100721410A CN201110072141A CN102693552A CN 102693552 A CN102693552 A CN 102693552A CN 2011100721410 A CN2011100721410 A CN 2011100721410A CN 201110072141 A CN201110072141 A CN 201110072141A CN 102693552 A CN102693552 A CN 102693552A
- Authority
- CN
- China
- Prior art keywords
- depth
- image
- degree
- cutting apart
- clue
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
本发明公开了一种数字内容的2D转3D的方法及装置,包括:将原始2D图像进行图像分割,产生分割后的2D图像;在分割后的2D图像中进行深度线索提取及深度赋值,产生全局深度图;将分割后的2D图像进行3D建模,产生3D建模后的图像;在3D建模后的图像中进行深度线索提取及深度赋值,产生局部深度图;将全局深度图与局部深度图相结合,产生合成深度图;将合成深度图与分割后的2D图像相结合,产生3D立体图像对。本发明不但使不同物体之间具有应有的深度差异,而且能够反映单独个体的空间3D结构。
Description
技术领域
本发明涉及数字处理技术领域,尤其涉及数字内容的2D转3D的方法及装置。
背景技术
立体视觉一般分为双眼立体视觉和单眼立体视觉,目前的3D放映基本上都是基于双眼的视差(Parallax)来形成立体效果。由于两只眼睛有4-6厘米的距离,因此有轻微不同的视角。而不同视角的图像被传送到大脑,其中的轻微不同之处(视差)被解析为深度。3D内容的产生基本上也遵循了同样的原理。
3D立体数字电影的素材来源于双机拍摄或多机拍摄、CGI(Computer Generated Image,计算机合成图像)以及2D到3D转换。
双机拍摄甚至多机拍摄均为模仿人的两只眼镜对真实的三维世界的图像摄取,例如电影《阿凡达》以及南非世界杯均采用双机立体拍摄。一般采用称为立体支架(Stereo Rig)的设备并在其上安装两台参数一致的摄像机。
所谓2D转3D(3D视觉)指从场景的一幅图像或者一系列图像中,推导出该场景精确的三维几何描述,并定量的确定场景中物体的性质。将3D视觉分为自下而上(重建)与自上而下(基于模型的视觉)两大类。由于数字电影内容不可能是基于某种事先预知的某种模型,因此主要采用自下而上的重建方式。其主要的步骤如下:
(1)输入灰度图(Intensity);
(2)生成主轮廓(Primal sketch),表示出图像中重要物体的边缘(采用图像分割技术);
(3)生成深度图(亦称2.5D sketch),表示出以观看者为中心的图像中各物体的深度;
(4)3D呈现,表示出图像中各个物体的空间几何结构与关系。
对于3D影视应用而言,最终的3D表示是所谓的3D立体图像对,即两幅略微不同的图像,其中一幅称为左眼图像,另一幅称为右眼图像。
图1为传统的2D转3D的方法示意图。如图1所示,传统的方法主要分为三个步骤:1、对原始2D图像进行图像分割,从而产生“分割后的2D图像”;2、在“分割后的2D图像”中进行深度线索提取并进行深度赋值,从而产生“深度图”;3、结合“深度图”与“分割后的2D图像”,生成视差图(3D立体图像对)。
这种2D转3D的方法一个显著的问题是:不同物体之间具有应有的深度差异,但因为图像分割是针对每个物体的,所以每个物体看起来均为平面结构,并不能反映单独个体的空间3D结构。
发明内容
本发明实施例提供一种数字内容的2D转3D的方法,用以使不同物体之间具有应有的深度差异,而且能够反映单独个体的空间3D结构,该方法包括:
将原始2D图像进行图像分割,产生分割后的2D图像;
在分割后的2D图像中进行深度线索提取及深度赋值,产生全局深度图;
将分割后的2D图像进行3D建模,产生3D建模后的图像;
在3D建模后的图像中进行深度线索提取及深度赋值,产生局部深度图;
将全局深度图与局部深度图相结合,产生合成深度图;
将合成深度图与分割后的2D图像相结合,产生3D立体图像对。
本发明实施例还提供一种数字内容的2D转3D的装置,用以使不同物体之间具有应有的深度差异,而且能够反映单独个体的空间3D结构,该装置包括:
图像分割模块,用于将原始2D图像进行图像分割,产生分割后的2D图像;
全局深度图产生模块,用于在分割后的2D图像中进行深度线索提取及深度赋值,产生全局深度图;
3D建模模块,用于将分割后的2D图像进行3D建模,产生3D建模后的图像;
局部深度图产生模块,用于在3D建模后的图像中进行深度线索提取及深度赋值,产生局部深度图;
合成深度图产生模块,用于将全局深度图与局部深度图相结合,产生合成深度图;
3D立体图像对产生模块,用于将合成深度图与分割后的2D图像相结合,产生3D立体图像对。
本发明实施例中,将原始2D图像进行图像分割,产生分割后的2D图像;在分割后的2D图像中进行深度线索提取及深度赋值,产生全局深度图;将分割后的2D图像进行3D建模,产生3D建模后的图像;在3D建模后的图像中进行深度线索提取及深度赋值,产生局部深度图;将全局深度图与局部深度图相结合,产生合成深度图;将合成深度图与分割后的2D图像相结合,产生3D立体图像对;从而不但使不同物体之间具有应有的深度差异,而且能够反映单独个体的空间3D结构。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。在附图中:
图1为背景技术中传统的2D转3D的方法示意图;
图2为本发明实施例中数字内容的2D转3D的方法的处理流程图;
图3为本发明实施例中平移操作的几何关系示意图;
图4为本发明实施例中数字内容的2D转3D的方法示意图;
图5为本发明实施例中数字内容的2D转3D的方法与现有技术的效果比较图;
图6为本发明实施例中数字内容的2D转3D的装置结构示意图;
图7、图8为本发明实施例中数字内容的2D转3D的装置的具体实例的结构示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚明白,下面结合附图对本发明实施例做进一步详细说明。在此,本发明的示意性实施例及其说明用于解释本发明,但并不作为对本发明的限定。
如图2所示,本发明实施例中数字内容的2D转3D的方法的处理流程可以包括:
步骤201、将原始2D图像进行图像分割,产生分割后的2D图像;
步骤202、在分割后的2D图像中进行深度线索提取及深度赋值,产生全局深度图;
步骤203、将分割后的2D图像进行3D建模,产生3D建模后的图像;
步骤204、在3D建模后的图像中进行深度线索提取及深度赋值,产生局部深度图;其中,步骤203、204产生局部深度图与步骤202产生全局深度图可以同时进行,也可以先后进行;
步骤205、将全局深度图与局部深度图相结合,产生合成深度图;
步骤206、将合成深度图与分割后的2D图像相结合,产生3D立体图像对。
由图2所示流程可知,本发明实施例将物体3D建模结合图像分割,利用图像分割产生“全局深度图”,利用3D建模产生“局部深度图”,并将二者结合起来从而产生“合成深度图”,从而在产生3D立体图像对时,使不同物体之间具有应有的深度差异,而且能够反映单独个体的空间3D结构。
图像分割的主要目标是将图像划分为与其中含有的真实世界的物体或区域有强相关性的组成部分。图像分割方法一般是基于亮度值的两个基本特征之一:不连续性和相似性。目前图像分割方法主要可以划分为三大类:阈值化分割、基于边缘的分割与基于区域的分割。
本发明实施例中,图像分割产生“全局深度图”的方法可采用传统的深度线索方法,但是也可以对传统的深度线索方法进一步改进,例如,在具体实施时,可建立深度线索优先级和/或深度线索可用度的概念,对同一幅图像按照深度线索优先级和/或深度线索可用度执行深度。具体的,在分割后的2D图像中进行深度线索提取及深度赋值,可以包括:根据深度线索优先级和/或深度线索可用度,在分割后的2D图像中进行深度线索提取及深度赋值。
深度线索优先级反映深度线索的级别高低,例如有4个深度线索:A、B、C、D,则按深度线索优先级从高到低的顺序可以排序为:A、B、C、D,表示深度线索优先级A>B>C>D。深度线索可用度反映深度线索的可用程度,可以是一个百分比的概念,仍假设有4个深度线索:A、B、C、D,则深度线索可用度可以是:A为90%、B为50%、C为30%、D为10%。在分割后的2D图像中进行深度线索提取及深度赋值时,深度线索优先级和深度线索可用度可以单独应用,也可以结合应用。下面以单独应用深度线索优先级为例来具体说明。
常用的深度线索包括:双目视差、运动、离焦、焦点、人影、线性透视、大气散射、阴影、纹理图案、双边对称格局、闭塞、统计模式等。
假设将一些深度线索定义为:
DI-A,DI-B,DI-C,DI-D,DI-E,DI-F,DI-G,DI-H;
对于图像帧1,可能的深度线索优先级顺序为:
DI-B,DI-A,DI-C,DI-D,DI-H,DI-F,DI-E,DI-G;
对于图像帧2,可能的深度线索优先级顺序为:
DI-H,DI-A,DI-C,DI-E,DI-F,DI-B,DI-D,DI-G;
如果两种深度线索搜索并赋值的结果相同或类似,则是一个确认或者修正;如果两种深度线索搜索并赋值的结果相反,则采用优先级高的结果,放弃优先级低的结果。
具体实施时,将合成深度图与分割后的2D图像相结合,分别产生左眼图像和右眼图像,二者即为3D立体图像对。
具体实施时,将合成深度图与分割后的2D图像相结合,产生3D图像对,可以包括:
将分割后的2D图像中的物体进行平移操作,其中平移量根据如下公式获得:
Parallax=B/2*(1-depth_value/255);
其中Parallax为平移量,B为人双眼之间的平均距离,depth_value为以8位灰度值表示的深度值。该平移操作的几何关系可以如图3所示。
具体实施时,可以将产生的3D立体图像对进行多种应用处理,例如,将3D立体图像对进行红蓝处理、Sensio(左右拼接)3D处理、Side-By-Side(左右拼接2D)处理、Line-by-Line(隔行拼接)处理、Top-bottom(上下拼接)处理其中之一或任意组合。
另外,发明人考虑到现有技术的2D转3D方法还由于没有很好的处理不同角度物体的遮挡问题,会造成图像中的“内容真空”,故在本发明实施例中将产生的3D立体图像对进行遮挡处理,具体包括:将3D立体图像对进行填充与模糊处理,从而保证了图像的完整性与最大的3D立体效果。
图4为本发明实施例中数字内容的2D转3D的方法示意图。如图4所示,本发明实施例中,将原始2D图像进行图像分割,产生分割后的2D图像;在分割后的2D图像中进行深度线索提取及深度赋值,产生全局深度图;将分割后的2D图像进行3D建模,产生3D建模后的图像;在3D建模后的图像中进行深度线索提取及深度赋值,产生局部深度图;进行深度合成,将全局深度图与局部深度图相结合,产生合成深度图;将合成深度图与分割后的2D图像相结合,产生视差图(3D立体图像对);还进行遮挡处理,即将3D立体图像对进行填充与模糊处理,产生填充与模糊处理后的视差图(3D立体图像对)。
图5为本发明实施例中数字内容的2D转3D的方法与现有技术的效果比较图。如图5所示,上方的图即现有技术的2D转3D表示深度只是全局的,不包含局部的,因此每个物体都是一个平面;而下方的图即本发明实施例中的2D转3D由于结合了3D建模处理,包含了全局深度与局部深度,因此每个物体都是丰满的3D个体,并且也处在全局的3D环境中。
基于同一发明构思,本发明实施例中还提供了一种数字内容的2D转3D的装置,如下面的实施例所述。由于该装置解决问题的原理与数字内容的2D转3D的方法相似,因此该装置的实施可以参见数字内容的2D转3D的方法的实施,重复之处不再赘述。
如图6所示,本发明实施例中,数字内容的2D转3D的装置可以包括:
图像分割模块601,用于将原始2D图像进行图像分割,产生分割后的2D图像;
全局深度图产生模块602,用于在分割后的2D图像中进行深度线索提取及深度赋值,产生全局深度图;
3D建模模块603,用于将分割后的2D图像进行3D建模,产生3D建模后的图像;
局部深度图产生模块604,用于在3D建模后的图像中进行深度线索提取及深度赋值,产生局部深度图;
合成深度图产生模块605,用于将全局深度图与局部深度图相结合,产生合成深度图;
3D立体图像对产生模块606,用于将合成深度图与分割后的2D图像相结合,产生3D立体图像对。
一个实施例中,全局深度图产生模块602具体可以用于:
根据深度线索优先级和/或深度线索可用度,在分割后的2D图像中进行深度线索提取及深度赋值。
一个实施例中,3D立体图像对产生模块606具体可以用于:
将分割后的2D图像中的物体进行平移操作,其中平移量根据如下公式获得:
Parallax=B/2*(1-depth_value/255);
其中Parallax为平移量,B为人双眼之间的平均距离,depth_value为以8位灰度值表示的深度值。
如图7所示,一个实施例中,图6所示的数字内容的2D转3D的装置还可以包括:
应用处理模块701,用于将3D立体图像对进行红蓝处理、Sensio(左右拼接)3D处理、Side-By-Side(左右拼接2D)处理、Line-by-Line(隔行拼接)处理、Top-bottom(上下拼接)处理其中之一或任意组合。
如图8所示,一个实施例中,图6所示的数字内容的2D转3D的装置还可以包括:
遮挡处理模块801,用于将3D立体图像对进行填充与模糊处理。另外,遮挡处理模块801也可以包括在图7所示的数字内容的2D转3D的装置中。
综上所述,本发明实施例中,将原始2D图像进行图像分割,产生分割后的2D图像;在分割后的2D图像中进行深度线索提取及深度赋值,产生全局深度图;将分割后的2D图像进行3D建模,产生3D建模后的图像;在3D建模后的图像中进行深度线索提取及深度赋值,产生局部深度图;将全局深度图与局部深度图相结合,产生合成深度图;将合成深度图与分割后的2D图像相结合,产生3D立体图像对;从而不但使不同物体之间具有应有的深度差异,而且能够反映单独个体的空间3D结构。
本发明实施例中,在产生3D立体图像后,还可以将产生的3D立体图像对进行填充与模糊处理,从而保证了图像的完整性与最大的3D立体效果,不会造成图像中的“内容真空”。
本领域内的技术人员应明白,本发明的实施例可提供为方法、系统、或计算机程序产品。因此,本发明可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本发明是参照根据本发明实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
以上所述的具体实施例,对本发明的目的、技术方案和有益效果进行了进一步详细说明,所应理解的是,以上所述仅为本发明的具体实施例而已,并不用于限定本发明的保护范围,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (10)
1.一种数字内容的2D转3D的方法,其特征在于,该方法包括:
将原始2D图像进行图像分割,产生分割后的2D图像;
在分割后的2D图像中进行深度线索提取及深度赋值,产生全局深度图;
将分割后的2D图像进行3D建模,产生3D建模后的图像;
在3D建模后的图像中进行深度线索提取及深度赋值,产生局部深度图;
将全局深度图与局部深度图相结合,产生合成深度图;
将合成深度图与分割后的2D图像相结合,产生3D立体图像对。
2.如权利要求1所述的方法,其特征在于,所述在分割后的2D图像中进行深度线索提取及深度赋值,包括:
根据深度线索优先级和/或深度线索可用度,在分割后的2D图像中进行深度线索提取及深度赋值。
3.如权利要求1所述的方法,其特征在于,所述将合成深度图与分割后的2D图像相结合,产生3D立体图像对,包括:
将分割后的2D图像中的物体进行平移操作,其中平移量根据如下公式获得:
Parallax=B/2*(1-depth_value/255);
其中Parallax为平移量,B为人双眼之间的平均距离,depth_value为以8位灰度值表示的深度值。
4.如权利要求1所述的方法,其特征在于,还包括:
将3D立体图像对进行红蓝处理、左右拼接3D处理、左右拼接2D处理、隔行拼接处理、上下拼接处理其中之一或任意组合。
5.如权利要求1至4任一项所述的方法,其特征在于,还包括:
将3D立体图像对进行填充与模糊处理。
6.一种数字内容的2D转3D的装置,其特征在于,该装置包括:
图像分割模块,用于将原始2D图像进行图像分割,产生分割后的2D图像;
全局深度图产生模块,用于在分割后的2D图像中进行深度线索提取及深度赋值,产生全局深度图;
3D建模模块,用于将分割后的2D图像进行3D建模,产生3D建模后的图像;
局部深度图产生模块,用于在3D建模后的图像中进行深度线索提取及深度赋值,产生局部深度图;
合成深度图产生模块,用于将全局深度图与局部深度图相结合,产生合成深度图;
3D立体图像对产生模块,用于将合成深度图与分割后的2D图像相结合,产生3D立体图像对。
7.如权利要求6所述的装置,其特征在于,所述全局深度图产生模块具体用于:
根据深度线索优先级和/或深度线索可用度,在分割后的2D图像中进行深度线索提取及深度赋值。
8.如权利要求6所述的装置,其特征在于,所述3D立体图像对产生模块具体用于:
将分割后的2D图像中的物体进行平移操作,其中平移量根据如下公式获得:
Parallax=B/2*(1-depth_value/255);
其中Parallax为平移量,B为人双眼之间的平均距离,depth_value为以8位灰度值表示的深度值。
9.如权利要求6所述的装置,其特征在于,还包括:
应用处理模块,用于将3D立体图像对进行红蓝处理、左右拼接3D处理、左右拼接2D处理、隔行拼接处理、上下拼接处理其中之一或任意组合。
10.如权利要求6至9任一项所述的装置,其特征在于,还包括:
遮挡处理模块,用于将3D立体图像对进行填充与模糊处理。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201110072141.0A CN102693552B (zh) | 2011-03-24 | 2011-03-24 | 数字内容的2d转3d的方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201110072141.0A CN102693552B (zh) | 2011-03-24 | 2011-03-24 | 数字内容的2d转3d的方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN102693552A true CN102693552A (zh) | 2012-09-26 |
CN102693552B CN102693552B (zh) | 2015-07-22 |
Family
ID=46858952
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201110072141.0A Active CN102693552B (zh) | 2011-03-24 | 2011-03-24 | 数字内容的2d转3d的方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN102693552B (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103177440A (zh) * | 2012-12-20 | 2013-06-26 | 香港应用科技研究院有限公司 | 生成图像深度图的系统和方法 |
CN106469464A (zh) * | 2015-08-19 | 2017-03-01 | 富士通株式会社 | 用于三维建模目标对象的方法和系统 |
CN107067452A (zh) * | 2017-02-20 | 2017-08-18 | 同济大学 | 一种基于全卷积神经网络的电影2d转3d方法 |
WO2019052505A1 (en) * | 2017-09-13 | 2019-03-21 | Mediatek Inc. | METHOD AND APPARATUS FOR VIDEO CODING OF VIRTUAL REALITY IMAGES WITH INACTIVE AREAS |
CN112015357A (zh) * | 2020-08-12 | 2020-12-01 | 浙江迅实科技有限公司 | 一种3d立体画的制作方法及其产品 |
-
2011
- 2011-03-24 CN CN201110072141.0A patent/CN102693552B/zh active Active
Non-Patent Citations (3)
Title |
---|
ASHUTOSH SAXENA ET AL.: ""3-D Reconstruction from Sparse Views using Monocular Vision"", 《IEEE》 * |
ASHUTOSH SAXENA ET AL.: ""Make3D:Learning 3D Scene Structure"", 《IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE》 * |
黄转娣等: ""基于OMAP3530的2D到3D视频自动转换系统"", 《数据采集与处理》 * |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103177440A (zh) * | 2012-12-20 | 2013-06-26 | 香港应用科技研究院有限公司 | 生成图像深度图的系统和方法 |
CN103177440B (zh) * | 2012-12-20 | 2015-09-16 | 香港应用科技研究院有限公司 | 生成图像深度图的系统和方法 |
US9299152B2 (en) | 2012-12-20 | 2016-03-29 | Hong Kong Applied Science And Technology Research Institute Co., Ltd. | Systems and methods for image depth map generation |
CN106469464A (zh) * | 2015-08-19 | 2017-03-01 | 富士通株式会社 | 用于三维建模目标对象的方法和系统 |
CN106469464B (zh) * | 2015-08-19 | 2019-02-19 | 富士通株式会社 | 用于三维建模目标对象的方法和系统 |
CN107067452A (zh) * | 2017-02-20 | 2017-08-18 | 同济大学 | 一种基于全卷积神经网络的电影2d转3d方法 |
WO2019052505A1 (en) * | 2017-09-13 | 2019-03-21 | Mediatek Inc. | METHOD AND APPARATUS FOR VIDEO CODING OF VIRTUAL REALITY IMAGES WITH INACTIVE AREAS |
TWI688256B (zh) * | 2017-09-13 | 2020-03-11 | 聯發科技股份有限公司 | 具有無效區域的vr 圖像的視訊編解碼方法和裝置 |
CN112015357A (zh) * | 2020-08-12 | 2020-12-01 | 浙江迅实科技有限公司 | 一种3d立体画的制作方法及其产品 |
CN112015357B (zh) * | 2020-08-12 | 2023-05-05 | 浙江迅实科技有限公司 | 一种3d立体画的制作方法及其产品 |
Also Published As
Publication number | Publication date |
---|---|
CN102693552B (zh) | 2015-07-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Hedman et al. | Scalable inside-out image-based rendering | |
US8471898B2 (en) | Medial axis decomposition of 2D objects to synthesize binocular depth | |
JP4896230B2 (ja) | 2次元から3次元に変換するためのオブジェクトのモデルフィッティング及びレジストレーションのシステム及び方法 | |
US11699263B2 (en) | Apparatus, method and computer program for rendering a visual scene | |
KR20110090958A (ko) | 이미지 속성들에 대한 오클루젼 데이터의 생성 | |
CN108513123B (zh) | 一种集成成像光场显示的图像阵列生成方法 | |
TWI702568B (zh) | 影像處理裝置、編碼裝置、解碼裝置、影像處理方法、程式、編碼方法及解碼方法 | |
KR101334187B1 (ko) | 다시점 렌더링 장치 및 방법 | |
US8831273B2 (en) | Methods and systems for pre-processing two-dimensional image files to be converted to three-dimensional image files | |
TW201016013A (en) | Method and system for encoding a 3D video signal, encoder for encoding a 3-D video signal, encoded 3D video signal, method and system for decoding a 3D video signal, decoder for decoding a 3D video signal | |
JP7181233B2 (ja) | テクスチャマップ及びメッシュに基づく3d画像情報の処理 | |
Pearson et al. | Plenoptic layer-based modeling for image based rendering | |
CN109510975B (zh) | 一种视频图像的提取方法、设备及系统 | |
CN102693552B (zh) | 数字内容的2d转3d的方法及装置 | |
JP5852093B2 (ja) | 映像処理装置、映像処理方法、プログラム | |
JP2009116856A (ja) | 画像処理装置、画像処理方法 | |
JP2022518773A (ja) | 3d小惑星ダイナミックマップの生成方法及びポータブル型端末 | |
JP2023172882A (ja) | 三次元表現方法及び表現装置 | |
JP4996922B2 (ja) | 立体映像化 | |
KR20200131817A (ko) | 여러 장치에 대한 3d 개체 시각화 및 조작을 용이하게 하는 방법 및 장치 | |
JP6595878B2 (ja) | 要素画像群生成装置及びそのプログラム | |
Galabov | A real time 2D to 3D image conversion techniques | |
Van Bogaert et al. | Novel view synthesis in embedded virtual reality devices | |
Wang et al. | GPU based implementation of 3DTV system | |
US20200359052A1 (en) | Stereoscopic image data compression |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant |