CN111476707A - 一种2d转换3d与vr的虚拟设备 - Google Patents
一种2d转换3d与vr的虚拟设备 Download PDFInfo
- Publication number
- CN111476707A CN111476707A CN202010172613.9A CN202010172613A CN111476707A CN 111476707 A CN111476707 A CN 111476707A CN 202010172613 A CN202010172613 A CN 202010172613A CN 111476707 A CN111476707 A CN 111476707A
- Authority
- CN
- China
- Prior art keywords
- image
- module
- depth map
- depth
- conversion
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000006243 chemical reaction Methods 0.000 claims abstract description 53
- 230000033001 locomotion Effects 0.000 claims abstract description 45
- 238000012545 processing Methods 0.000 claims abstract description 24
- 239000013598 vector Substances 0.000 claims abstract description 16
- 230000003993 interaction Effects 0.000 claims abstract description 5
- 238000000034 method Methods 0.000 claims description 28
- 230000008569 process Effects 0.000 claims description 12
- 238000001914 filtration Methods 0.000 claims description 11
- 238000003384 imaging method Methods 0.000 claims description 10
- 238000013507 mapping Methods 0.000 claims description 8
- 230000003287 optical effect Effects 0.000 claims description 5
- 238000009499 grossing Methods 0.000 claims description 3
- 230000002452 interceptive effect Effects 0.000 claims description 3
- 238000011410 subtraction method Methods 0.000 claims description 3
- 230000003321 amplification Effects 0.000 claims description 2
- 230000000877 morphologic effect Effects 0.000 claims description 2
- 238000003199 nucleic acid amplification method Methods 0.000 claims description 2
- 238000005516 engineering process Methods 0.000 abstract description 6
- 230000011218 segmentation Effects 0.000 abstract description 4
- 238000004458 analytical method Methods 0.000 abstract description 2
- 238000005070 sampling Methods 0.000 description 6
- 230000005540 biological transmission Effects 0.000 description 5
- 230000000694 effects Effects 0.000 description 5
- 238000000605 extraction Methods 0.000 description 5
- 230000008859 change Effects 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 239000011521 glass Substances 0.000 description 3
- 238000012805 post-processing Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 2
- 238000003780 insertion Methods 0.000 description 2
- 230000037431 insertion Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000013519 translation Methods 0.000 description 2
- 101100328887 Caenorhabditis elegans col-34 gene Proteins 0.000 description 1
- 101100476489 Rattus norvegicus Slc20a2 gene Proteins 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000003707 image sharpening Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/08—Projecting images onto non-planar surfaces, e.g. geodetic screens
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/215—Motion-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20224—Image subtraction
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Processing Or Creating Images (AREA)
Abstract
本申请公开一种2D转换3D与VR的虚拟设备,包括用于插接装有2D图像设备的底座,在底座上设置有插接口,将插接口输入的2D图像转换为3D效果的图像转换部,以及输出的图像口和充电口;所述图像转换部包括配置单元和转换单元;转换单元包括接收插接口输出的2D信号的信号转换模块,对信号转换模块转换后信号进行缩小调整的调整模块,对调整模块输出数据通过运动估计得到运动矢量的运动估计模块,对运动矢量进行处理以得到图像深度图的深度图模块,以及存储模块。本发明采取软硬件转换,从硬件和软件体系实现2D转3D技术,包括硬件模块、场景深度分析识别软件、运动特征分割软件、自由移动交互软件等,实现将游戏、电影、图片统统转为3D甚至360°沉浸式VR格式。
Description
技术领域
本申请涉及3D图像处理领域,特别是涉及一种可直接通过插接将2D图像设备中的2D图像转换成逼真3D与VR效果的虚拟设备。
背景技术
目前,无论是3DTV还是VR,都依赖于好的3D片源,3D片源的产生主要分3种:(1)两个彩色相机拍摄两路彩色视频;(2)利用深度相机拍摄深度图+单个彩色相机拍摄一路彩色视频;(3)单个彩色相机拍摄一路彩色视频结合2D转3D技术。第一种方法需要更多的内存来存储视频,在传输中也需要更多的带宽,这在带宽紧张的今天也是不实际的。由于深度相机的昂贵,导致第二种方法没有普及。而第三种方法可以很好的解决前两种方法的缺点,因此2D转3D技术受到了广泛的研究。
2D转3D可将普通2D视频转换成由左眼和右眼视频表示的3D视频,常用的有:(1)基于关键帧的半自动转换系统;(2)基于运动分割的自动转换系统;(3)基于focus信息的2D转3D系统。但上述转换都依赖于纯软件技术,而且不能实现全显示与随动显示综合功能。
发明内容
本发明的目的是要提供涉及一种可直接通过插接将2D图像设备中的2D图像转换成逼真3D效果或VR的虚拟设备。
特别地,本发明的一个实施方式提供了一种2D转换3D与VR的虚拟设备,包括用于插接装有2D图像设备的底座,在底座上安装有与2D图像设备的输出口连接的插接口,将插接口输入的2D图像转换为3D效果的图像转换部,以及将图像转换部转换后3D图像输出的图像口,提供外部电力输入的充电口;
所述图像转换部包括配置单元和转换单元;
所述配置单元用于接收转换图像时的环境配置参数并输出至所述转换单元,
所述转换单元包括接收所述插接口输出的2D信号的信号转换模块,对信号转换模块转换后信号进行缩小调整的调整模块,对调整模块输出数据通过运动估计得到运动矢量的运动估计模块,对运动矢量进行处理以得到图像深度图的深度图模块,以及为各模块提供存储空间的存储模块。
在本发明的一个实施方式中,还包括在所述深度图模块生成图像深度图过程中对图像深度图进行平滑、放大和自由移动交互处理的深度图调整模块。
在本发明的一个实施方式中,还包括对所述深度图模块生成的图像深度图进行滤波处理的滤波模块。
在本发明的一个实施方式中,所述滤波模块采用形态学滤波方式来处理图像。
在本发明的一个实施方式中,所述配置单元包括接收外界配置信息的从动模块,以及处理两个时钟域信号同步的时钟模块。
在本发明的一个实施方式中,所述配置单元只有在所述转换单元不工作时或一帧图像处理完时才能对所述转换单元操作。
在本发明的一个实施方式中,所述运动估计模块得到运动矢量的过程如下:
步骤100,将所述2D图像中大于某个预定值的像素值构成的区域判定为表示运动的前景区域,小于和等于预定值的像素值构成的区域判定为表示静物的背景区域;
步骤102,利用基于K均值的混合高斯背景模型和背景减除法相结合,提取出划分后的前景区域和背景区域;
步骤103,对前景区域采用高精度光流法得到前景深度图,对背景区域根据几何透视原理对其赋值然后得到背景深度图,对所述2D图像根据其纹理特征对其赋予深度以得到纹理深度图;
步骤104,将所述前景深度图和所述背景深度图分别与所述纹理深度图进行加权系数结合,再将结果进行融合后即得到表示有运动矢量的图像。
在本发明的一个实施方式中,所述深度图模块的处理步骤包括:
步骤201,依据相机小孔成像模型推导出2D图像在真实世界中地面点的深度和它在相机中所成像点的图像坐标之间的对应关系;
步骤202,通过计算2D图像的特征来分析2D图像内目标视点的线束位置,并获取线束对应的空间坐标,然后结合2D图像平面中心坐标,计算区域像素点的深度信息;
步骤203,依据2D图像的消失点特征估计2D图像中各线束的位置,并旋转2D图像分别将各线束调至水平,再根据旋转之后区域像素点的坐标计算2D图像中不同区域的深度,完成对所有区域的深度估计;
步骤204,将2D图像映射到立体空间中,再将其各区域像素点的三维坐标根据2D图像的各种参数,经过相应处理后映射到目标视点的二维坐标中,最终得到目标视点的3D图像。
在本发明的一个实施方式中,还包括将所述深度图模块输出的图像深度图转换成3D和/VR输出的自由交互模块。
在本发明的一个实施方式中,所述存储模块同时保存各种中间处理数据。
本发明采取软硬件转换,从硬件和软件体系实现2D转3D技术,包括硬件模块、场景深度分析识别软件、运动特征分割软件、自由移动交互软件等,实现将游戏、电影、图片统统转为3D甚至360°沉浸式VR格式。
附图说明
图1为本发明一个实施方式的虚拟设备外部结构示意图;
图2为本发明一个实施方式的虚拟设备内部结构示意图;
图3为本发明一个实施方式的运动估计模块工作流程示意图;
图4为本发明一个实施方式的深度图模块工作流程示意图。
具体实施方式
如图1、2所示,本发明的一个实施方式公开一种2D转换3D与VR的虚拟设备,包括用于插接装有2D图像设备的底座10,在底座10上安装有与2D图像设备的输出口连接的插接口20,将插接口20输入的2D图像转换为3D效果的图像转换部,以及将图像转换部转换后3D图像输出的图像口30,在底座10上设置有提供外部电力输入的充电口40。
本方案中的2D图像设备可以是手机、平板、游戏机或U盘一类电子设备。具体的插接口可以是USB接口,而图像口可以是HDMI接口,充电口可以是Type-C接口。
该图像转换部包括配置单元(CONFIGURE)和转换单元(CORE);配置单元用于接收转换图像时的环境配置参数并输出至所述转换单元;配置单元主要是通过APB总线与底座内部单片机相连,接收单片机发出的配置信息,完成对整个深度图提取模块的配置以及控制整个模块的开启和关闭。
配置单元包括从动模块(apb slave)和时钟模块(SYNC)。从动模块接收APB总线上送来的配置信息,并将接收的配置信息送入时钟(SYNC)模块,时钟模块主要处理两个时钟域信号的同步问题,将pclk(APB)时钟送进来的配置信息转换到clk a(像素)时钟,并输出clk a时钟域的配置信息给转换单元,完成转换单元寄存器的配置后,再向转换单元发出start信号,使能转换单元。
配置单元工作时,转换单元不进行工作,外部系统(如用于播放的电视、VR眼镜等设备)可以通过APB总线对转换单元的寄存器进行读写操作,以实现相应环境配置,配置内容包括边缘值阈值、图像锐化阈值以及模块的工作模式等,同时外部系统可以读取转换单元的版本号和寄存器的配置状态等信息。
同样,当转换单元工作时,APB接口不能对模块内部的寄存器进行写操作。当转换单元完成对输入的图像进行深度图提取并对提取的深度图进行图像增强等后处理后,并将处理后的深度图输出给后面的模块,才会接受配置单元的控制信号,即配置单元控制转换单元,只有在转换单元不工作时,或完成当前工作后,至少是转换单元处理完当前一帧图像并传输后,在下一帧图像处理前的空隙,这样可以保证一帧图像的完整性。
具体的转换单元包括接收插接口20输出的2D信号的信号转换模块,对信号转换模块转换后信号进行缩小调整的调整模块,对调整模块输出数据通过运动估计得到运动矢量的运动估计模块,对运动矢量进行处理以得到图像深度图的深度图模块,以及为各模块提供存储空间的存储模块。存储模块可同时作为各模块中间处理数据时的暂存器,以保存各种中间处理数据。
其中的信号转换模块是通过图2中的RGB2YUV将RGB信号转换为YUV信号。在得到YUV 3个分量后,需要将YUV 3个分量分别按行存入到line buffer中,供后面的图像调整模块和边缘值读取。图像调整模块主要包括多个下采样,实现对图像的连续下采样,下采样主要是对输入进来的数据进行下采样处理。Ram1、Ram2、Ram3、Ram4主要用于存储图像信息和读取上一帧的运动矢量。场景变换度处理前后两帧图像之间的连贯程度,通过对运动估计模块的深度图进行处理,使得场景发生变化时,由深度图渲染得到的3D立体图像不会有突兀感。上采样是用两行的数据做双线性插值,得到一行和一列新的数据,将之前缩小的图像放大回原先输入图像的大小,图像经过上采样后图像边缘和轮廓会变得模糊,需要对图像进行锐化处理,经过锐化后轮廓模糊的图像会变得清晰。
而深度图模块是在2D图像基础上建立一个其各像素点延伸而形成的深度图,再将深度图信息添回到相应的2D图像上合成新视图,最终输出时,相应的播放设备根据选择的播放效果,结合2D图像和对应的深度图,即可播放出相应的3D画面。
关于2D图像的运动矢量,可利用多目深度线索的方法实现,目前多目深度线索的获取方法主要有三种:双目视差、运动视差、散焦。
双目视差将不同角度拍摄的两幅图像运用立体匹配的方法寻找对应的像素,计算两幅图像对的像素差,差值越大,场景越近,继而转换为场景深度。但如果拍摄角度过大或过小则会影响场景的深度,并且极易受遮挡的影响,对于表面缺少纹理的区域很难处理。
运动视差适用于具有运动目标的场景,常用的是可以获取密集深度图的光流法,虽然实时性较差,但是精度很高,获取深度图的质量较好。
散焦方法要求场景中的前后景之一要有散焦现象,而且对于有模糊纹理的图像不适合。
为提高综合深度图的精度,本方案在光流法的基础上提供如下一种运动估计模块得到运动矢量的方法,步骤如下:
步骤100,将所述2D图像中大于某个预定值的像素值构成的区域判定为表示运动的前景区域,小于和等于预定值的像素值构成的区域判定为表示静物的背景区域;
2D图像中的像素值一般在0~255之间,而具体的预定值可以根据相应图像的色调来确定,如色彩较明亮时,可设置预定值为200,而色彩较暗时,可设置预定值为100等,当然也可以直接以中间值122来简单划分。
步骤102,利用基于K均值的混合高斯背景模型和背景减除法相结合,提取出划分后的前景区域和背景区域;
该步骤是将2D图像中散乱分布的前景区域和背景区域分别进行圈定。
步骤103,对前景区域采用高精度光流法得到前景深度图,对背景区域根据几何透视原理对其赋值然后得到背景深度图,对所述2D图像根据其纹理特征对其赋予深度以得到纹理深度图;
步骤104,将所述前景深度图和所述背景深度图分别与所述纹理深度图进行加权系数结合,再将结果进行融合后即得到表示有运动矢量的图像。
由于现有技术中基于运动信息、几何信息和纹理信息深度图都是利用单一的深度线索求出的,并没有一个普遍通用的深度图提取算法,即使有些混合深度提取算法,也由于分割算法和赋值方法的不同使得提取的深度图不够精确,不太符合人眼视觉特性,适应性较差,往往根据视频序列的特征,利用经典的运动信息和几何信息来恢复场景的深度信息,这样提取的深度图不是特别的精确,适用性也不强。本方案利用K均值混合高斯模型对每个像素建立一多分布的高斯模型用于表征该像素点的灰度值变化,并依据权值和方差判定属于背景的分布,再用采集到的每一帧图像与这些分布匹配,以决定哪些像素属于前景。由于场景的动态变化,还需要对各分布的权值、均值和方差进行实时更新,以适应环境的变化。
此外,可设置在深度图模块生成图像深度图过程中对图像深度图进行平滑、放大和自由移动交互处理的深度图调整模块。以及对深度图模块生成的图像深度图进行滤波处理的滤波模块。
由于图像经过目标分割,存在光线的反射或者物体与背景灰度差别不大情况,得到的前景区域不可避免的存在横向或者竖向的断层现象,而且分割区域的边缘比较粗糙,目标区域总是多多少少,或大或小地存在一些空洞,同时一些噪声可能会被当成运动目标被分割出来,也成为一些孤立的噪声。运动区域的噪声和这些孤立的噪声对图像的后期处理带来很大的影响,因此可通过深度图调整模块和滤波模块进行处理。
本方案中的滤波模块采用数学形态学滤波来处理图像,该方式与本方案采用的差分处理方法相适应,可很好地滤除随机噪声,减少对图像的影响,同时能够分割或者连接图像中的相邻区域,便于图像的后期处理。
在理想条件下,可以近似的认为相机成像模型符合小孔成像模型,因此可依据相机小孔成像模型推导出真实世界中地面点的深度和它在相机中所成像点的图像坐标之间的对应关系。对于大多数的视频图像,真实景物的深度(即物距)要远大于景物所成像的像距。那么,根据凸透镜成像原理,可近似认为景物所成的像都位于相机焦平面上。在该理论下,本方案提供一种深度图模块生成深度图的方法,步骤如下:
步骤201,依据相机小孔成像模型推导出2D图像在真实世界中地面点的深度和它在相机中所成像点的图像坐标之间的对应关系;
步骤202,通过计算2D图像的特征来分析2D图像内目标视点的线束位置,并获取线束对应的空间坐标,然后结合2D图像平面中心坐标,计算区域像素点的深度信息;
步骤203,依据2D图像的消失点特征估计2D图像中各线束的位置,并旋转2D图像分别将各线束调至水平,再根据旋转之后区域像素点的坐标计算2D图像中不同区域的深度,完成对所有区域的深度估计;
步骤204,将2D图像映射到立体空间中,再将其各区域像素点的三维坐标根据2D图像的各种参数,经过相应处理后映射到目标视点的二维坐标中,最终得到目标视点的3D图像。
处理过程说明如下:首先通过计算视频2D图像中的消失点、图像边缘特征等方法分析估计视频图像内目标视线的线束位置,获取线束对应的空间坐标,然后结合像平面中心坐标,计算区域像素点的深度信息。需要依据2D图像的消失点等特征估计3D图像中线束的位置,并旋转2D图像将线束调至水平,再根据旋转之后区域像素点的坐标计算2D图像中任意视频中区域的深度,重复上述过程,直至完成对2D图像所有视频区域的深度估计。
然后根据2D图像的深度估计值来计算该物体在原三维空间中所对应的位置坐标,即将二维的景物图像映射到立体空间中,再将三维坐标根据图像的各种参数,经过平移、旋转等操作映射到目标视点的二维坐标中,得到目标视点的图像。而目前采取的基于DIBR的虚拟视点视图合成技术在编码和传输上都提供了更方便的途径。此技术只需要在原2D视频图像中添加相应的深度图序列,在传输终端根据需要制作任意视点的图像,速度较两路2D图像视频要快,且传输空间小。
此外,可在深度图模块设置将深度图模块输出的图像深度图转换成3D和/VR输出的自由交互模块,通过用户的简单选择,既能转为左右眼图像,也能转为具有视差的图像。
本方案的设备在工作时,底座10可用于插接手机或游戏机等数码设备,然后通过底座内部转换,将手机、游戏机上的2D视频、游戏等传输到电视、VR眼镜或其他大型显示屏上,达到输出3D效果的目的。底座10上的图像口(HDMI)30负责传输3D信号输出到电视、VR眼镜或其他大型显示屏上,信号流向为外向;而插接口(USB)20的作用是通过手机、游戏机上的接口将2D信号传输到底座10上,信号流向为内向;充电口(Type-C)40的作用是给整个系统充电。
至此,本领域技术人员应认识到,虽然本文已详尽示出和描述了本发明的多个示例性实施例,但是,在不脱离本发明精神和范围的情况下,仍可根据本发明公开的内容直接确定或推导出符合本发明原理的许多其他变型或修改。因此,本发明的范围应被理解和认定为覆盖了所有这些其他变型或修改。
Claims (10)
1.一种2D转换3D与VR的虚拟设备,其特征在于,包括用于插接装有2D图像设备的底座,在底座上安装有与2D图像设备的输出口连接的插接口,将插接口输入的2D图像转换为3D效果的图像转换部,以及将图像转换部转换后3D图像输出的图像口,提供外部电力输入的充电口;
所述图像转换部包括配置单元和转换单元;
所述配置单元用于接收转换图像时的环境配置参数并输出至所述转换单元,
所述转换单元包括接收所述插接口输出的2D信号的信号转换模块,对信号转换模块转换后信号进行缩小调整的调整模块,对调整模块输出数据通过运动估计得到运动矢量的运动估计模块,对运动矢量进行处理以得到图像深度图的深度图模块,以及为各模块提供存储空间的存储模块。
2.如权利要求1所述的虚拟设备,其特征在于,
还包括在所述深度图模块生成图像深度图过程中对图像深度图进行平滑、放大和自由移动交互处理的深度图调整模块。
3.如权利要求1所述的虚拟设备,其特征在于,
还包括对所述深度图模块生成的图像深度图进行滤波处理的滤波模块。
4.如权利要求3所述的虚拟设备,其特征在于,
所述滤波模块采用形态学滤波方式来处理图像。
5.如权利要求1所述的虚拟设备,其特征在于,
所述配置单元包括接收外界配置信息的从动模块,以及处理两个时钟域信号同步的时钟模块。
6.如权利要求5所述的虚拟设备,其特征在于,
所述配置单元只有在所述转换单元不工作时或一帧图像处理完时才能对所述转换单元操作。
7.如权利要求1所述的虚拟设备,其特征在于,
所述运动估计模块得到运动矢量的过程如下:
步骤100,将所述2D图像中大于某个预定值的像素值构成的区域判定为表示运动的前景区域,小于和等于预定值的像素值构成的区域判定为表示静物的背景区域;
步骤102,利用基于K均值的混合高斯背景模型和背景减除法相结合,提取出划分后的前景区域和背景区域;
步骤103,对前景区域采用高精度光流法得到前景深度图,对背景区域根据几何透视原理对其赋值然后得到背景深度图,对所述2D图像根据其纹理特征对其赋予深度以得到纹理深度图;
步骤104,将所述前景深度图和所述背景深度图分别与所述纹理深度图进行加权系数结合,再将结果进行融合后即得到表示有运动矢量的图像。
8.如权利要求1所述的虚拟设备,其特征在于,
所述深度图模块的处理步骤包括:
步骤201,依据相机小孔成像模型推导出2D图像在真实世界中地面点的深度和它在相机中所成像点的图像坐标之间的对应关系;
步骤202,通过计算2D图像的特征来分析2D图像内目标视点的线束位置,并获取线束对应的空间坐标,然后结合2D图像平面中心坐标,计算区域像素点的深度信息;
步骤203,依据2D图像的消失点特征估计2D图像中各线束的位置,并旋转2D图像分别将各线束调至水平,再根据旋转之后区域像素点的坐标计算2D图像中不同区域的深度,完成对所有区域的深度估计;
步骤204,将2D图像映射到立体空间中,再将其各区域像素点的三维坐标根据2D图像的各种参数,经过相应处理后映射到目标视点的二维坐标中,最终得到目标视点的3D图像。
9.如权利要求1所述的虚拟设备,其特征在于,
还包括将所述深度图模块输出的图像深度图转换成3D和/VR输出的自由交互模块。
10.如权利要求1所述的虚拟设备,其特征在于,
所述存储模块同时保存各种中间处理数据。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010172613.9A CN111476707A (zh) | 2020-03-12 | 2020-03-12 | 一种2d转换3d与vr的虚拟设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010172613.9A CN111476707A (zh) | 2020-03-12 | 2020-03-12 | 一种2d转换3d与vr的虚拟设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111476707A true CN111476707A (zh) | 2020-07-31 |
Family
ID=71747671
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010172613.9A Withdrawn CN111476707A (zh) | 2020-03-12 | 2020-03-12 | 一种2d转换3d与vr的虚拟设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111476707A (zh) |
-
2020
- 2020-03-12 CN CN202010172613.9A patent/CN111476707A/zh not_active Withdrawn
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11960639B2 (en) | Virtual 3D methods, systems and software | |
Zhang et al. | 3D-TV content creation: automatic 2D-to-3D video conversion | |
Cao et al. | Semi-automatic 2D-to-3D conversion using disparity propagation | |
Smolic et al. | Three-dimensional video postproduction and processing | |
JP5587894B2 (ja) | 深さマップを生成するための方法及び装置 | |
US8711204B2 (en) | Stereoscopic editing for video production, post-production and display adaptation | |
US6496598B1 (en) | Image processing method and apparatus | |
US20130057644A1 (en) | Synthesizing views based on image domain warping | |
CN106254854B (zh) | 三维图像的获得方法、装置及系统 | |
CN103426163A (zh) | 用于渲染受影响的像素的系统和方法 | |
JPH08331607A (ja) | 三次元表示画像生成方法 | |
CN109510975B (zh) | 一种视频图像的提取方法、设备及系统 | |
Schmeing et al. | Depth image based rendering: A faithful approach for the disocclusion problem | |
WO2014121108A1 (en) | Methods for converting two-dimensional images into three-dimensional images | |
Li et al. | A real-time high-quality complete system for depth image-based rendering on FPGA | |
JP5755571B2 (ja) | 仮想視点画像生成装置、仮想視点画像生成方法、制御プログラム、記録媒体、および立体表示装置 | |
CN111047709A (zh) | 一种双目视觉裸眼3d图像生成方法 | |
Wang et al. | Stereo vision–based depth of field rendering on a mobile device | |
CN111447428A (zh) | 平面至立体图像的转换方法、装置、计算机可读存储介质及设备 | |
JP2008217593A (ja) | 被写体領域抽出装置及び被写体領域抽出プログラム | |
KR100335617B1 (ko) | 3차원 입체영상 합성방법 | |
Liu et al. | Bokeh effects based on stereo vision | |
KR101289283B1 (ko) | 하이브리드 영상획득 장치 기반 홀로그래픽 영상 복원 방법 | |
Shih et al. | A depth refinement algorithm for multi-view video synthesis | |
CN111476707A (zh) | 一种2d转换3d与vr的虚拟设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WW01 | Invention patent application withdrawn after publication | ||
WW01 | Invention patent application withdrawn after publication |
Application publication date: 20200731 |