CN113129352A - 一种稀疏光场重建方法及装置 - Google Patents
一种稀疏光场重建方法及装置 Download PDFInfo
- Publication number
- CN113129352A CN113129352A CN202110485198.7A CN202110485198A CN113129352A CN 113129352 A CN113129352 A CN 113129352A CN 202110485198 A CN202110485198 A CN 202110485198A CN 113129352 A CN113129352 A CN 113129352A
- Authority
- CN
- China
- Prior art keywords
- target object
- information
- mapping relation
- color information
- geometric
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 37
- 238000013507 mapping Methods 0.000 claims abstract description 131
- 230000001419 dependent effect Effects 0.000 claims description 29
- 239000013598 vector Substances 0.000 claims description 17
- 238000005070 sampling Methods 0.000 claims description 15
- 238000004364 calculation method Methods 0.000 claims description 10
- 238000009877 rendering Methods 0.000 claims description 10
- 150000001875 compounds Chemical class 0.000 claims description 9
- 238000004590 computer program Methods 0.000 claims description 8
- 238000012545 processing Methods 0.000 claims description 6
- 239000000463 material Substances 0.000 claims description 5
- 238000000605 extraction Methods 0.000 claims description 4
- 229910044991 metal oxide Inorganic materials 0.000 claims 3
- 150000004706 metal oxides Chemical class 0.000 claims 3
- 238000010586 diagram Methods 0.000 description 17
- 238000004422 calculation algorithm Methods 0.000 description 10
- 230000003287 optical effect Effects 0.000 description 9
- 230000006870 function Effects 0.000 description 7
- 238000012549 training Methods 0.000 description 5
- 238000013528 artificial neural network Methods 0.000 description 4
- 238000004891 communication Methods 0.000 description 4
- 238000003491 array Methods 0.000 description 2
- 230000004927 fusion Effects 0.000 description 2
- 239000013307 optical fiber Substances 0.000 description 2
- 238000005192 partition Methods 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 230000000750 progressive effect Effects 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 239000000126 substance Substances 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000012512 characterization method Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
- 230000008707 rearrangement Effects 0.000 description 1
- 238000005096 rolling process Methods 0.000 description 1
- 238000000638 solvent extraction Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/557—Depth or shape recovery from multiple images from light fields, e.g. from plenoptic cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10052—Images from lightfield camera
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
Abstract
本发明实施例公开了一种稀疏光场重建方法,包括:根据稀疏光场信息中的二维图像的特征相似性提取目标物体的初始轮廓;建立目标物体与动态三维场景之间的映射关系;映射关系包括至少一个局部映射关系;局部映射关系表征目标物体一个表面与动态三维场景之间的映射关系;根据映射关系计算目标物体每个表面的几何信息与色彩信息;根据目标物体各表面的几何信息与色彩信息建立目标物体的大场景全局表面模型与三维图像。本发明实施例提供的稀疏光场重建方法,通过构建并求解目标物体表面与动态三维场景之间的映射关系,利用稀疏视角的二维图像数据实现了对目标物体的大场景全局表面模型与三维图像的重建,降低了对三维几何标注数据的依赖和存储复杂度,并提高了光场重建精度与效率。
Description
技术领域
本发明涉及计算机视觉技术领域,尤其涉及一种稀疏光场重建方法及装置。
背景技术
立体视觉是计算机视觉领域的一个重要课题,它的目的在于重构场景的三维几何信息。多视角立体视觉(Multiple View Stereo,MVS)是对立体视觉的推广,能够在多个视角(从外向里)观察和获取景物的图像,并以此完成匹配和深度估计。
MVS旨在从具有已知相机参数的2D图像集中恢复密集的3D模型,可大致分为三类:基于点云的重建算法、深度图融合算法、基于体积的重建算法。基于点云的重建算法直接处理3D点云,通过传播的方式使重建结果逐渐变得致密;深度图融合算法将复杂的MVS任务进行分解,逐一估计每个摄像机视图的深度图并将其融合为3D模型;基于体积的重建算法通过将3D空间划分为规则网格,在全局框架内使用隐式表征或显式表面特性实现优化。此外,一些算法应用八叉树或层次化多尺度的结构来提升三维重建的空间尺度,但不能直接表示邻域的形状与色彩信息,因此很难生成平滑、纹理丰富且具有高保真度的表面。
发明内容
本发明实施例提供了一种稀疏光场重建方法及装置,可以实现降低对三维几何标注数据的依赖和存储复杂度,并提高光场重建精度与效率的目的。
第一方面,本发明实施例提供了一种稀疏光场重建方法,包括:
根据稀疏光场信息中的二维图像的特征相似性提取目标物体的初始轮廓;
建立所述目标物体与动态三维场景之间的映射关系;所述映射关系包括至少一个局部映射关系;所述局部映射关系表征所述目标物体一个表面与所述动态三维场景之间的映射关系;
根据所述映射关系计算所述目标物体每个表面的几何信息与色彩信息;
根据所述目标物体各表面的几何信息与色彩信息建立所述目标物体的大场景全局表面模型与三维图像。
进一步地,所述局部映射关系包括几何映射关系和色彩映射关系,其中,几何映射关系表示为色彩映射关系表示为和式中,是二维局部坐标,是相机视角方向,是可训练特征向量,r是视角相关的表面形变量,s是表面的几何信息,是表面的重心坐标,n是表面法相,c(a)是视角不相关颜色信息,c(b)是视角相关颜色信息,c(m)是表面材质信息,是可训练特征向量。
进一步地,根据所述映射关系计算所述目标物体每个表面的几何信息,包括:
对于所述目标物体的每个表面,根据所述几何映射关系计算所述表面的形变量;
根据所述表面的形变量计算所述表面的几何信息。
进一步地,根据所述映射关系计算所述目标物体每个表面的色彩信息,包括:
对于所述目标物体的每个表面,根据所述色彩映射关系计算所述表面的视角不相关色彩信息和视角相关色彩信息;
根据所述表面的视角不相关色彩信息和视角相关色彩信息计算所述表面的色彩信息。
进一步地,根据所述目标物体各表面的几何信息与色彩信息建立所述目标物体的大场景全局表面模型与三维图像,包括:
对于每个相机视角,获取所述相机视角下所述目标物体每个表面中的采样像素点的位置信息;
对于所述目标物体的每个表面,根据所述表面的几何信息、色彩信息以及采样像素点的位置信息确定所述目标物体在所述表面的点云集合;
根据各表面的点云集合建立所述目标物体的大场景全局表面模型与三维图像。
进一步地,根据各表面的点云集合建立所述目标物体的大场景全局表面模型与三维图像,包括:
根据各表面的点云集合建立所述目标物体的大场景全局表面模型;
对各表面的点云集合进行渲染获得三维图像。
第二方面,本发明实施例还提供了一种稀疏光场重建装置,包括:
初始轮廓提取模块,用于根据稀疏光场信息中的二维图像的特征相似性提取目标物体的初始轮廓;
映射关系建立模块,用于建立所述目标物体与动态三维场景之间的映射关系;所述映射关系包括至少一个局部映射关系;所述局部映射关系表征所述目标物体一个表面与所述动态三维场景之间的映射关系;
几何信息与色彩信息计算模块,用于根据所述映射关系计算所述目标物体每个表面的几何信息与色彩信息;
大场景全局表面模型与三维图像建立模块,用于根据所述目标物体各表面的几何信息与色彩信息建立所述目标物体的大场景全局表面模型与三维图像。
可选的,映射关系建立模块还用于:
所述局部映射关系包括几何映射关系和色彩映射关系,其中,几何映射关系表示为色彩映射关系表示为和式中,是二维局部坐标,是相机视角方向,是可训练特征向量,r是视角相关的表面形变量,s是表面的几何信息,是表面的重心坐标,n是表面法相,c(a)是视角不相关颜色信息,c(b)是视角相关颜色信息,c(m)是表面材质信息,是可训练特征向量。
可选的,几何信息与色彩信息计算模块还用于:
对于所述目标物体的每个表面,根据所述几何映射关系计算所述表面的形变量;
根据所述表面的形变量计算所述表面的几何信息。
可选的,几何信息与色彩信息计算模块还用于:
可选的,几何信息与色彩信息计算模块还用于:
对于所述目标物体的每个表面,根据所述色彩映射关系计算所述表面的视角不相关色彩信息和视角相关色彩信息;
根据所述表面的视角不相关色彩信息和视角相关色彩信息计算所述表面的色彩信息。
可选的,大场景全局表面模型与三维图像建立模块还用于:
对于每个相机视角,获取所述相机视角下所述目标物体每个表面中的采样像素点的位置信息;
对于所述目标物体的每个表面,根据所述表面的几何信息、色彩信息以及采样像素点的位置信息确定所述目标物体在所述表面的点云集合;
根据各表面的点云集合建立所述目标物体的大场景全局表面模型与三维图像。
可选的,大场景全局表面模型与三维图像建立模块还用于:
根据各表面的点云集合建立所述目标物体的大场景全局表面模型;
对各表面的点云集合进行渲染获得三维图像。
第三方面,本发明实施例还提供了一种稀疏光场重建设备,该设备包括:
包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现如本发明实施例任一所述的稀疏光场重建方法。
第四方面,本发明实施例还提供了一种稀疏光场重建存储介质,其上存储有计算机程序,该程序被处理装置执行时实现如本发明实施例任一所述的稀疏光场重建方法。
本发明实施例首先根据稀疏光场信息中的二维图像的特征相似性提取目标物体的初始轮廓;然后建立目标物体与动态三维场景之间的映射关系;其中映射关系包括至少一个局部映射关系;局部映射关系表征目标物体一个表面与动态三维场景之间的映射关系;再根据映射关系计算目标物体每个表面的几何信息与色彩信息;最后根据目标物体各表面的几何信息与色彩信息建立所述目标物体的大场景全局表面模型与三维图像。本发明实施例提供的稀疏光场重建方法,通过构建并求解目标物体表面与动态三维场景之间的映射关系,利用稀疏视角的二维图像数据实现了对目标物体的大场景全局表面模型与三维图像的重建,降低了对三维几何标注数据的依赖和存储复杂度,并提高了光场重建精度与效率。
附图说明
图1是本发明实施例一中的一种稀疏光场重建方法流程图;
图2是本发明实施例一中的一种目标物体与动态三维场景之间的映射的构建与求解示意图;
图3是本发明实施例一中的一种渐进式训练算法示意图;
图4是本发明实施例一中的一种局部映射关系的原理示意图;
图5是本发明实施例一中的一种稀疏光场重建过程示意图;
图6是本发明实施例二中的一种稀疏光场重建装置结构示意图;
图7是本发明实施例三中的一种计算机设备的结构示意图。
具体实施方式
下面结合附图和实施例对本发明作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释本发明,而非对本发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与本发明相关的部分而非全部结构。
实施例一
图1为本发明实施例一提供的一种稀疏光场重建方法流程图,本实施例可适用于对根据稀疏光场信息进行重建以获得三维模型的情况,该方法可以由稀疏光场重建装置来执行,该装置可由硬件和/或软件组成,并一般可集成在具有稀疏光场重建功能的设备中,该设备可以是服务器或服务器集群等电子设备。
如图1所示,具体包括如下步骤:
步骤110、根据稀疏光场信息中的二维图像的特征相似性提取目标物体的初始轮廓。
其中,光场是一个四维的参数化表示,是空间中同时包含位置和方向信息的四维光辐射场,简单地说,涵盖了光线在传播中的所有信息。光场信息可以通过光场相机拍摄获得,稀疏光场信息为稀疏视角下的相机拍摄得到的光场信息,从中可以得到二维图像信息。
具体的,二维图像中包含有目标物体的位置信息,可以根据至少两张不同视角的二维图像提取目标物体的大致轮廓并确定该轮廓在三维空间中的位置和区域范围。
步骤120、建立目标物体与动态三维场景之间的映射关系。
其中,映射关系包括至少一个局部映射关系;局部映射关系表征目标物体一个表面与动态三维场景之间的映射关系。
在本实施例中,局部映射关系包括几何映射关系和色彩映射关系。其中,几何映射关系表示为:
色彩映射关系表示为:
式中,是二维局部坐标,是相机视角方向,是可训练特征向量,r是视角相关的表面形变量,s是表面的几何信息,是表面的重心坐标,n是表面法相,c(a)是视角不相关颜色信息,c(b)是视角相关颜色信息,c(m)是表面材质信息,是可训练特征向量。
图2是本发明实施例一提供的一种目标物体与动态三维场景之间的映射的构建与求解示意图。具体的,根据步骤110中提取的目标物体的初始轮廓,可以对该初始轮廓的每一个表面建立相应的局部映射关系,局部映射关系又分为几何映射关系和色彩映射关系,即对每一个表面建立其对应的几何映射关系和色彩映射关系。优选地,可以对每个映射关系中的可训练特征向量随机设定一个初始值,然后建立相应的初始几何映射关系和初始色彩映射关系,并提取对应表面的运动与法相信息,根据表面运动与法相信息确定相应表面的映射关系的作用区域。
进一步地,可以利用深度神经网络对映射关系进行求解,计算出每个可训练特征向量的最优解,从而获取最优的映射关系。优选的,可以采用从粗到精的训练方式渐进地精细化场景表面的划分,以获取更复杂的拓扑结构与更细致的遮挡信息。图3是本发明实施例一提供的一种渐进式训练算法示意图,如图3所示,从粗糙阶段的表面预测开始,基于较粗糙的表面划分采用滚球算法或等边三角形划分在下一阶段获取更精细的表面集合,神经网络的结构与参数由下一阶段继承,从而加速训练过程。在训练过程中,可以计算神经网络输出的图像与实际图像之间的误差,并根据误差调整可训练特征向量的取值,直到误差满足神经网络的精度要求,此时的可训练特征向量的值即为相应映射关系的解。
图4是本发明实施例一提供的一种局部映射关系的原理示意图,如图4所示,确定各映射关系中的可训练特征向量的值之后即可确定目标物体各表面对应的局部映射关系,进而确定目标物体与动态三维场景之间的映射关系。
步骤130、根据映射关系计算目标物体每个表面的几何信息与色彩信息。
在本实施例中,根据映射关系计算目标物体每个表面的几何信息的方式可以是:对于目标物体的每个表面,根据几何映射关系计算表面的形变量;根据表面的形变量计算表面的几何信息。
进一步地,根据表面的形变量计算表面的几何信息可以按照如下公式计算:
具体的,可以根据步骤120中的几何映射关系计算得到视角相关的表面形变量r,再根据表面的几何信息的计算公式得到表面的几何信息。
在本实施例中,根据映射关系计算目标物体每个表面的色彩信息的方式可以是:对于目标物体的每个表面,根据色彩映射关系计算表面的视角不相关色彩信息和视角相关色彩信息;根据表面的视角不相关色彩信息和视角相关色彩信息计算表面的色彩信息。
进一步地,根据表面的视角不相关色彩信息和视角相关色彩信息计算表面的色彩信息可以按照如下公式计算:
c=c(a)+c(b),
式中,c是表面的色彩信息,c(a)是视角不相关色彩信息,c(b)是视角相关色彩信息。
具体的,可以根据步骤120中的色彩映射关系计算得到视角不相关色彩信息与视角相关色彩信息,表面的色彩信息为视角不相关色彩信息与视角相关色彩信息之和。
步骤140、根据目标物体各表面的几何信息与色彩信息建立目标物体的大场景全局表面模型与三维图像。
在本实施例中,根据目标物体各表面的几何信息与色彩信息建立目标物体的大场景全局表面模型与三维图像的方式可以是:对于每个相机视角,获取所述相机视角下目标物体每个表面中的采样像素点的位置信息;对于目标物体的每个表面,根据表面的几何信息、色彩信息以及采样像素点的位置信息确定所述目标物体在表面的点云集合;根据各表面的点云集合建立目标物体的大场景全局表面模型与三维图像。
具体的,可以根据目标物体表面运动与法相信息自适应调节局部映射关系的作用区域,然后在该作用区域中确定采样像素点的位置信息。采样像素点的位置信息可以是采样像素点的局部坐标,在固定相机视角方向下对某一表面进行采样的局部坐标可以表示为:
其中,a是表面每条边上的采样点数。
进一步地,根据目标物体不同表面与动态三维场景之间的局部映射关系,计算采样局部坐标对应的几何信息与色彩信息,可以得到该表面生成的点云集合:
其中,是该表面的二维局部坐标与相机视角方向,是该表面的顶点坐标,γi是对应第i个表面的训练好的特征向量,LΘ(·)是目标物体与动态三维场景之间的局部映射关系,s是该表面的几何信息,c是该表面的色彩信息。
目标物体的大场景全局表面模型为全部表面生成的点云集合P(a)=∪iPi(a)。
进一步地,根据各表面的点云集合建立目标物体的大场景全局表面模型与三维图像的方式可以是:根据各表面的点云集合建立目标物体的大场景全局表面模型;对各表面的点云集合进行渲染获得三维图像。
具体的,对各表面的点云集合进行渲染的方式可以是:对于带渲染的像素点p,在指定视角τk,p下统计相机射线穿过且距离最近的若干表面Dk,p,并对其几何信息与色彩信息进行平均,从而得到像素p的渲染结果:
对点云集合中的所有像素点进行渲染可以获得最终的三维图像。
图5是本发明实施例一中的一种稀疏光场重建过程示意图,如图5所示,本发明实施例首先根据稀疏光场信息中的二维图像的特征相似性提取目标物体的初始轮廓;然后建立目标物体与动态三维场景之间的映射关系;再根据映射关系计算目标物体每个表面的几何信息与色彩信息;最后根据目标物体各表面的几何信息与色彩信息建立所述目标物体的大场景全局表面模型与三维图像。本发明实施例提供的稀疏光场重建方法,通过构建并求解目标物体表面与动态三维场景之间的映射关系,利用稀疏视角的二维图像数据实现了对目标物体的大场景全局表面模型与三维图像的重建,降低了对三维几何标注数据的依赖和存储复杂度,并提高了光场重建精度与效率。
实施例二
图6为本发明实施例二提供的一种稀疏光场重建装置结构示意图。如图6所示,该装置包括:初始轮廓提取模块210,映射关系建立模块220,几何信息与色彩信息计算模块230,大场景全局表面模型与三维图像建立模块240。
初始轮廓提取模块210,用于根据稀疏光场信息中的二维图像的特征相似性提取目标物体的初始轮廓。
映射关系建立模块220,用于建立目标物体与动态三维场景之间的映射关系。
其中,映射关系包括至少一个局部映射关系;局部映射关系表征目标物体一个表面与动态三维场景之间的映射关系。
可选的,映射关系建立模块220还用于:
局部映射关系包括几何映射关系和色彩映射关系,其中,几何映射关系表示为色彩映射关系表示为和式中,是二维局部坐标,是相机视角方向,是可训练特征向量,r是视角相关的表面形变量,s是表面的几何信息,是表面的重心坐标,n是表面法相,c(a)是视角不相关颜色信息,c(b)是视角相关颜色信息,c(m)是表面材质信息,是可训练特征向量。
几何信息与色彩信息计算模块230,用于根据映射关系计算目标物体每个表面的几何信息与色彩信息。
可选的,几何信息与色彩信息计算模块230还用于:
对于目标物体的每个表面,根据几何映射关系计算表面的形变量;根据表面的形变量计算表面的几何信息。
可选的,几何信息与色彩信息计算模块230还用于:
可选的,几何信息与色彩信息计算模块230还用于:
对于目标物体的每个表面,根据色彩映射关系计算表面的视角不相关色彩信息和视角相关色彩信息;根据表面的视角不相关色彩信息和视角相关色彩信息计算表面的色彩信息。
大场景全局表面模型与三维图像建立模块240,用于根据目标物体各表面的几何信息与色彩信息建立目标物体的大场景全局表面模型与三维图像。
可选的,大场景全局表面模型与三维图像建立模块240还用于:
对于每个相机视角,获取相机视角下目标物体每个表面中的采样像素点的位置信息;对于目标物体的每个表面,根据表面的几何信息、色彩信息以及采样像素点的位置信息确定目标物体在表面的点云集合;根据各表面的点云集合建立目标物体的大场景全局表面模型与三维图像。
可选的,大场景全局表面模型与三维图像建立模块240块还用于:
根据各表面的点云集合建立目标物体的大场景全局表面模型;对各表面的点云集合进行渲染获得三维图像。
上述装置可执行本公开前述所有实施例所提供的方法,具备执行上述方法相应的功能模块和有益效果。未在本实施例中详尽描述的技术细节,可参见本公开前述所有实施例所提供的方法。
实施例三
图7为本发明实施例三提供的一种计算机设备的结构示意图。图7示出了适于用来实现本发明实施方式的计算机设备312的框图。图7显示的计算机设备312仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。设备312是典型的稀疏光场重建计算设备。
如图7所示,计算机设备312以通用计算设备的形式表现。计算机设备312的组件可以包括但不限于:一个或者多个处理器316,存储装置328,连接不同系统组件(包括存储装置328和处理器316)的总线318。
总线318表示几类总线结构中的一种或多种,包括存储器总线或者存储器控制器,外围总线,图形加速端口,处理器或者使用多种总线结构中的任意总线结构的局域总线。举例来说,这些体系结构包括但不限于工业标准体系结构(Industry StandardArchitecture,ISA)总线,微通道体系结构(Micro Channel Architecture,MCA)总线,增强型ISA总线、视频电子标准协会(Video Electronics Standards Association,VESA)局域总线以及外围组件互连(Peripheral Component Interconnect,PCI)总线。
计算机设备312典型地包括多种计算机系统可读介质。这些介质可以是任何能够被计算机设备312访问的可用介质,包括易失性和非易失性介质,可移动的和不可移动的介质。
存储装置328可以包括易失性存储器形式的计算机系统可读介质,例如随机存取存储器(Random Access Memory,RAM)330和/或高速缓存存储器332。计算机设备312可以进一步包括其它可移动/不可移动的、易失性/非易失性计算机系统存储介质。仅作为举例,存储系统334可以用于读写不可移动的、非易失性磁介质(图7未显示,通常称为“硬盘驱动器”)。尽管图7中未示出,可以提供用于对可移动非易失性磁盘(例如“软盘”)读写的磁盘驱动器,以及对可移动非易失性光盘(例如只读光盘(Compact Disc-Read Only Memory,CD-ROM)、数字视盘(Digital Video Disc-Read Only Memory,DVD-ROM)或者其它光介质)读写的光盘驱动器。在这些情况下,每个驱动器可以通过一个或者多个数据介质接口与总线318相连。存储装置328可以包括至少一个程序产品,该程序产品具有一组(例如至少一个)程序模块,这些程序模块被配置以执行本发明各实施例的功能。
具有一组(至少一个)程序模块326的程序336,可以存储在例如存储装置328中,这样的程序模块326包括但不限于操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。程序模块326通常执行本发明所描述的实施例中的功能和/或方法。
计算机设备312也可以与一个或多个外部设备314(例如键盘、指向设备、摄像头、显示器324等)通信,还可与一个或者多个使得用户能与该计算机设备312交互的设备通信,和/或与使得该计算机设备312能与一个或多个其它计算设备进行通信的任何设备(例如网卡,调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口322进行。并且,计算机设备312还可以通过网络适配器320与一个或者多个网络(例如局域网(Local AreaNetwork,LAN),广域网Wide Area Network,WAN)和/或公共网络,例如因特网)通信。如图所示,网络适配器320通过总线318与计算机设备312的其它模块通信。应当明白,尽管图中未示出,可以结合计算机设备312使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、磁盘阵列(Redundant Arrays of IndependentDisks,RAID)系统、磁带驱动器以及数据备份存储系统等。
处理器316通过运行存储在存储装置328中的程序,从而执行各种功能应用以及数据处理,例如实现本发明上述实施例所提供的稀疏光场重建方法。
实施例四
本发明实施例提供了一种计算机可读存储介质,该计算机可读存储介质上存储有计算机程序,该程序被处理装置执行时实现如本发明实施例中的稀疏光场重建方法。本发明上述的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是但不限于电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本公开中,计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读信号介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:电线、光缆、RF(射频)等等,或者上述的任意合适的组合。
在一些实施方式中,客户端、服务器可以利用诸如HTTP(HyperText TransferProtocol,超文本传输协议)之类的任何当前已知或未来研发的网络协议进行通信,并且可以与任意形式或介质的数字数据通信(例如,通信网络)互连。通信网络的示例包括局域网(“LAN”),广域网(“WAN”),网际网(例如,互联网)以及端对端网络(例如,ad hoc端对端网络),以及任何当前已知或未来研发的网络。
上述计算机可读介质可以是上述电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。
上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该电子设备执行时,使得该电子设备:根据稀疏光场信息中的二维图像的特征相似性提取目标物体的初始轮廓;建立目标物体与动态三维场景之间的映射关系;映射关系包括至少一个局部映射关系;局部映射关系表征所述目标物体一个表面与动态三维场景之间的映射关系;根据映射关系计算目标物体每个表面的几何信息与色彩信息;根据目标物体各表面的几何信息与色彩信息建立目标物体的大场景全局表面模型与三维图像。
可以以一种或多种程序设计语言或其组合来编写用于执行本公开的操作的计算机程序代码,上述程序设计语言包括但不限于面向对象的程序设计语言,诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络连接到用户计算机,包括局域网(LAN)或广域网(WAN),或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本公开各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本公开实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。其中,单元的名称在某种情况下并不构成对该单元本身的限定。
本文中以上描述的功能可以至少部分地由一个或多个硬件逻辑部件来执行。例如,非限制性地,可以使用的示范类型的硬件逻辑部件包括:现场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、片上系统(SOC)、复杂可编程逻辑设备(CPLD)等等。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
注意,上述仅为本发明的较佳实施例及所运用技术原理。本领域技术人员会理解,本发明不限于这里所述的特定实施例,对本领域技术人员来说能够进行各种明显的变化、重新调整和替代而不会脱离本发明的保护范围。因此,虽然通过以上实施例对本发明进行了较为详细的说明,但是本发明不仅仅限于以上实施例,在不脱离本发明构思的情况下,还可以包括更多其他等效实施例,而本发明的范围由所附的权利要求范围决定。
Claims (10)
1.一种稀疏光场重建方法,其特征在于,包括:
根据稀疏光场信息中的二维图像的特征相似性提取目标物体的初始轮廓;
建立所述目标物体与动态三维场景之间的映射关系;所述映射关系包括至少一个局部映射关系;所述局部映射关系表征所述目标物体一个表面与所述动态三维场景之间的映射关系;
根据所述映射关系计算所述目标物体每个表面的几何信息与色彩信息;
根据所述目标物体各表面的几何信息与色彩信息建立所述目标物体的大场景全局表面模型与三维图像。
3.根据权利要求2所述的方法,其特征在于,根据所述映射关系计算所述目标物体每个表面的几何信息,包括:
对于所述目标物体的每个表面,根据所述几何映射关系计算所述表面的形变量;
根据所述表面的形变量计算所述表面的几何信息。
5.根据权利要求2所述的方法,其特征在于,根据所述映射关系计算所述目标物体每个表面的色彩信息,包括:
对于所述目标物体的每个表面,根据所述色彩映射关系计算所述表面的视角不相关色彩信息和视角相关色彩信息;
根据所述表面的视角不相关色彩信息和视角相关色彩信息计算所述表面的色彩信息。
6.根据权利要求1所述的方法,其特征在于,根据所述目标物体各表面的几何信息与色彩信息建立所述目标物体的大场景全局表面模型与三维图像,包括:
对于每个相机视角,获取所述相机视角下所述目标物体每个表面中的采样像素点的位置信息;
对于所述目标物体的每个表面,根据所述表面的几何信息、色彩信息以及采样像素点的位置信息确定所述目标物体在所述表面的点云集合;
根据各表面的点云集合建立所述目标物体的大场景全局表面模型与三维图像。
7.根据权利要求6所述的方法,其特征在于,根据各表面的点云集合建立所述目标物体的大场景全局表面模型与三维图像,包括:
根据各表面的点云集合建立所述目标物体的大场景全局表面模型;
对各表面的点云集合进行渲染获得三维图像。
8.一种稀疏光场重建装置,其特征在于,包括:
初始轮廓提取模块,用于根据稀疏光场信息中的二维图像的特征相似性提取目标物体的初始轮廓;
映射关系建立模块,用于建立所述目标物体与动态三维场景之间的映射关系;所述映射关系包括至少一个局部映射关系;所述局部映射关系表征所述目标物体一个表面与所述动态三维场景之间的映射关系;
几何信息与色彩信息计算模块,用于根据所述映射关系计算所述目标物体每个表面的几何信息与色彩信息;
大场景全局表面模型与三维图像建立模块,用于根据所述目标物体各表面的几何信息与色彩信息建立所述目标物体的大场景全局表面模型与三维图像。
9.一种计算机设备,其特征在于,所述设备包括:包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现如权利要求1-7任一所述的稀疏光场重建方法。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理装置执行时实现如权利要求1-7中任一所述的稀疏光场重建方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110485198.7A CN113129352A (zh) | 2021-04-30 | 2021-04-30 | 一种稀疏光场重建方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110485198.7A CN113129352A (zh) | 2021-04-30 | 2021-04-30 | 一种稀疏光场重建方法及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113129352A true CN113129352A (zh) | 2021-07-16 |
Family
ID=76780788
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110485198.7A Pending CN113129352A (zh) | 2021-04-30 | 2021-04-30 | 一种稀疏光场重建方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113129352A (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113436325A (zh) * | 2021-07-30 | 2021-09-24 | 北京达佳互联信息技术有限公司 | 一种图像处理方法、装置、电子设备及存储介质 |
CN114863038A (zh) * | 2022-07-07 | 2022-08-05 | 杭州像衍科技有限公司 | 基于显式几何形变的实时动态自由视角合成方法及装置 |
CN116071484A (zh) * | 2023-03-07 | 2023-05-05 | 清华大学 | 一种大场景稀疏光场十亿像素级智能重建方法及装置 |
CN117036617A (zh) * | 2023-08-24 | 2023-11-10 | 重庆市地理信息和遥感应用中心(重庆市测绘产品质量检验测试中心) | 快速构建大场景三维模型方法、系统及计算机系统 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140328535A1 (en) * | 2013-05-06 | 2014-11-06 | Disney Enterprises, Inc. | Sparse light field representation |
US20180205941A1 (en) * | 2017-01-17 | 2018-07-19 | Facebook, Inc. | Three-dimensional scene reconstruction from set of two dimensional images for consumption in virtual reality |
US20180295352A1 (en) * | 2017-04-11 | 2018-10-11 | Dolby Laboratories Licensing Corporation | Adapting video images for wearable devices |
CN111311662A (zh) * | 2020-02-12 | 2020-06-19 | 清华大学深圳国际研究生院 | 一种实时重建三维场景的方法及装置 |
CN111598789A (zh) * | 2020-04-08 | 2020-08-28 | 西安理工大学 | 一种基于深度学习的稀疏颜色传感器图像重建方法 |
US20200380762A1 (en) * | 2018-01-14 | 2020-12-03 | Light Field Lab, Inc. | Systems and methods for rendering data from a 3d environment |
CN112132972A (zh) * | 2020-09-29 | 2020-12-25 | 凌美芯(北京)科技有限责任公司 | 一种激光与图像数据融合的三维重建方法及系统 |
US20210082185A1 (en) * | 2019-09-13 | 2021-03-18 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Apparatus, method and computer program for rendering a visual scene |
-
2021
- 2021-04-30 CN CN202110485198.7A patent/CN113129352A/zh active Pending
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140328535A1 (en) * | 2013-05-06 | 2014-11-06 | Disney Enterprises, Inc. | Sparse light field representation |
US20180205941A1 (en) * | 2017-01-17 | 2018-07-19 | Facebook, Inc. | Three-dimensional scene reconstruction from set of two dimensional images for consumption in virtual reality |
US20180295352A1 (en) * | 2017-04-11 | 2018-10-11 | Dolby Laboratories Licensing Corporation | Adapting video images for wearable devices |
US20200380762A1 (en) * | 2018-01-14 | 2020-12-03 | Light Field Lab, Inc. | Systems and methods for rendering data from a 3d environment |
US20210082185A1 (en) * | 2019-09-13 | 2021-03-18 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Apparatus, method and computer program for rendering a visual scene |
CN111311662A (zh) * | 2020-02-12 | 2020-06-19 | 清华大学深圳国际研究生院 | 一种实时重建三维场景的方法及装置 |
CN111598789A (zh) * | 2020-04-08 | 2020-08-28 | 西安理工大学 | 一种基于深度学习的稀疏颜色传感器图像重建方法 |
CN112132972A (zh) * | 2020-09-29 | 2020-12-25 | 凌美芯(北京)科技有限责任公司 | 一种激光与图像数据融合的三维重建方法及系统 |
Non-Patent Citations (2)
Title |
---|
GAOCHANG WU等: "Light Field Reconstruction Using Convolutional Network on EPI and Extended Applications", IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE, 24 June 2019 (2019-06-24), pages 1681 - 1694 * |
李坤等: "稀疏光场的密集重建方法", 中国科技论文, vol. 13, no. 20, 23 October 2018 (2018-10-23), pages 2317 - 2322 * |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113436325A (zh) * | 2021-07-30 | 2021-09-24 | 北京达佳互联信息技术有限公司 | 一种图像处理方法、装置、电子设备及存储介质 |
CN113436325B (zh) * | 2021-07-30 | 2023-07-28 | 北京达佳互联信息技术有限公司 | 一种图像处理方法、装置、电子设备及存储介质 |
CN114863038A (zh) * | 2022-07-07 | 2022-08-05 | 杭州像衍科技有限公司 | 基于显式几何形变的实时动态自由视角合成方法及装置 |
CN116071484A (zh) * | 2023-03-07 | 2023-05-05 | 清华大学 | 一种大场景稀疏光场十亿像素级智能重建方法及装置 |
US11908067B1 (en) | 2023-03-07 | 2024-02-20 | Tsinghua University | Method and device for gigapixel-level light field intelligent reconstruction of large-scale scene |
CN117036617A (zh) * | 2023-08-24 | 2023-11-10 | 重庆市地理信息和遥感应用中心(重庆市测绘产品质量检验测试中心) | 快速构建大场景三维模型方法、系统及计算机系统 |
CN117036617B (zh) * | 2023-08-24 | 2024-04-05 | 重庆市地理信息和遥感应用中心(重庆市测绘产品质量检验测试中心) | 快速构建大场景三维模型方法、系统及计算机系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6745328B2 (ja) | 点群データを復旧するための方法及び装置 | |
WO2020001168A1 (zh) | 三维重建方法、装置、设备和存储介质 | |
CN113129352A (zh) | 一种稀疏光场重建方法及装置 | |
CN108596965B (zh) | 一种光场图像深度估计方法 | |
WO2018127007A1 (zh) | 深度图获取方法及系统 | |
WO2019011249A1 (zh) | 一种图像中物体姿态的确定方法、装置、设备及存储介质 | |
CN109191554B (zh) | 一种超分辨图像重建方法、装置、终端和存储介质 | |
US8463024B1 (en) | Combining narrow-baseline and wide-baseline stereo for three-dimensional modeling | |
CN110910437B (zh) | 一种复杂室内场景的深度预测方法 | |
EP3803803A1 (en) | Lighting estimation | |
CN115690382B (zh) | 深度学习模型的训练方法、生成全景图的方法和装置 | |
CN115578515B (zh) | 三维重建模型的训练方法、三维场景渲染方法及装置 | |
CN115082540B (zh) | 一种适用于无人机平台的多视图深度估计方法及装置 | |
CN114519772A (zh) | 一种基于稀疏点云和代价聚合的三维重建方法及系统 | |
CN115375836A (zh) | 基于多元置信度滤波的点云融合三维重建方法和系统 | |
CN115953468A (zh) | 深度和自运动轨迹的估计方法、装置、设备及存储介质 | |
US11741671B2 (en) | Three-dimensional scene recreation using depth fusion | |
CN117745944A (zh) | 预训练模型确定方法、装置、设备以及存储介质 | |
CN115578432B (zh) | 图像处理方法、装置、电子设备及存储介质 | |
CN109816791B (zh) | 用于生成信息的方法和装置 | |
CN115082636B (zh) | 基于混合高斯网络的单图像三维重建方法及设备 | |
CN112085842A (zh) | 深度值确定方法及装置、电子设备和存储介质 | |
Ervan et al. | Downsampling of a 3D LiDAR point cloud by a tensor voting based method | |
JP2024521816A (ja) | 無制約画像手ぶれ補正 | |
CN111260544B (zh) | 数据处理方法及装置、电子设备和计算机存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |