CN109360234B - 基于总体不确定度的三维场景重建方法及系统 - Google Patents
基于总体不确定度的三维场景重建方法及系统 Download PDFInfo
- Publication number
- CN109360234B CN109360234B CN201810997400.2A CN201810997400A CN109360234B CN 109360234 B CN109360234 B CN 109360234B CN 201810997400 A CN201810997400 A CN 201810997400A CN 109360234 B CN109360234 B CN 109360234B
- Authority
- CN
- China
- Prior art keywords
- uncertainty
- image frame
- current image
- depth data
- scene
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computer Graphics (AREA)
- Geometry (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
- Processing Or Creating Images (AREA)
Abstract
本发明实施例提供一种基于总体不确定度的三维场景重建方法及系统,该方法包括获取当前图像帧中深度数据点总体不确定度;并基于该总体不确定度,对当前图像帧和已有场景子图关键帧进行对准变换求解,得到当前图像帧与已有场景子图关键帧之间的相机位姿变化值;若相机位姿变化值在设定阈值内,则融合当前图像帧与对应场景子图得到新的场景子图;融合所有场景子图得到三维场景图。本发明实施例提供的基于总体不确定度的三维场景重建方法及系统采用深度数据测量点处邻域内的数据分布,在线估计深度数据点不确定度,利用该不确定度引导不同图像帧之间深度数据整合,提高三维场景重建系统对低质量彩色‑深度数据噪声的鲁棒性。
Description
技术领域
本发明涉及计算机视觉和计算机图形学技术领域,尤其涉及一种基于总体不确定度的三维场景重建方法及系统。
背景技术
三维重建是指对三维物体建立适合计算机表示和处理的数学模型,是在计算机环境下对其进行处理、操作和分析其性质的基础,也是在计算机中建立表达客观世界的虚拟现实的关键技术。在计算机视觉中,三维重建是指根据单视图或者多视图的图像重建三维信息的过程。由于单视频的信息不完全,因此三维重建需要利用经验知识。而多视图的三维重建相对比较容易,其方法是先对摄像机进行标定,即计算出摄像机的图像坐标系与世界坐标系的关系。然后利用多个二维图像中的信息重建出三维信息。物体三维重建是CAGD(Computer Aided Geometric Design,计算机辅助几何设计)、计算机图形学、计算机动画、计算机视觉、医学图像处理、科学计算和虚拟现实、数字媒体创作等领域的共性科学问题和核心技术。
无论是物体的高精度三维重建还是场景的高精度三维重建均是混合现实应用和下一代机器人技术中的关键组成部分。而三维重建过程中一般会用到相机进行实景拍摄,尤其在三维场景重建时,消费级彩色-深度相机更是得到广泛应用,其为大量用户访问已扫描三维模型提供了很大便利,同时也带动了彩色-深度扫描和三维重建系统研究的再次兴起。但现有技术中的三维重建系统一般都是基于消费级彩色-深度传感器提供的数据流,采用立体栅格化的隐式场景几何表示方法,即TSDF(Truncated Signed Distance Function,截断符号距离函数),进行三维场景重建,这种场景表示方法对快速的相机位姿跟踪和帧数据融合很有帮助。
但是消费级传感器获取到的深度数据总是含有大量的噪声,大量噪声的输入会使得各个体素内融合出的几何细节出现模糊或过度平滑等缺陷。尤其在大型三维场景重建时,大量噪声的输入还会使得相机位姿跟踪的结果不可用,并恶化漂移误差,降低系统的鲁棒性。
发明内容
针对背景技术中现有技术存在的缺陷,本发明提供了一种基于总体不确定度的三维场景重建方法及系统。
第一方面,本发明提供的一种基于总体不确定度的三维场景重建方法,该方法包括:
获取当前图像帧中每个深度数据点的总体不确定度;
基于所述当前图像帧中每个所述深度数据点的所述总体不确定度,以及所述当前图像帧和已有的场景子图关键帧之间的对准变换矩阵,对所述当前图像帧和已有的所述场景子图关键帧进行对准变换求解,得到所述当前图像帧与所述场景子图关键帧之间的相机位姿变化值,其中所述场景子图关键帧为已有的所述场景子图的第一图像帧;
若所述相机位姿变化值在设定阈值内,则将所述当前图像帧与对应场景子图进行深度数据点融合,得到融合后的场景子图;
将所有场景子图进行融合,得到重建后的三维场景图。
第二方面,本发明提供的一种基于总体不确定度的三维场景重建系统,该系统包括:
第一处理模块,用于获取当前图像帧中每个深度数据点的总体不确定度;
第二处理模块,用于基于所述当前图像帧中每个所述深度数据点的所述总体不确定度,以及所述当前图像帧和已有的场景子图关键帧之间的对准变换矩阵,对所述当前图像帧和已有的所述场景子图关键帧进行对准变换求解,得到所述当前图像帧与所述场景子图关键帧之间的相机位姿变化值,其中所述场景子图关键帧为已有的所述场景子图的第一图像帧;
第三处理模块,用于若所述相机位姿变化值在设定阈值内,则将所述当前图像帧与对应场景子图进行深度数据点融合,得到融合后的场景子图;
第四处理模块,用于将所有场景子图进行融合,得到重建后的三维场景图。
本发明实施例提供的基于总体不确定度的三维场景重建方法及系统采用每个深度数据测量点处局部时间邻域内的数据分布,在线估计每个深度数据点的不确定度,并利用该不确定度引导不同图像帧之间深度数据整合,以提高三维场景重建系统对低质量彩色-深度数据噪声的鲁棒性,并通过融合经过噪声处理后的场景子图得到重建后的三维场景图。
附图说明
图1为本发明实施例提供的基于总体不确定度的三维场景重建方法流程示意图;
图2为本发明实施例提供的基于总体不确定度的三维场景重建方法中的场景子图融合为三维场景图的流程示意图;
图3为本发明实施例提供的基于总体不确定度的三维场景重建系统结构图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
三维重建是指对三维物体建立适合计算机表示和处理的数学模型,是在计算机环境下对其进行处理、操作和分析其性质的基础,也是在计算机中建立表达客观世界的虚拟现实的关键技术。尤其三维场景图的重建在计算机图像处理领域有非常重要的应用。
而现有技术中,三维场景图的重建一般基于消费级彩色-深度相机对实景进行拍照,然后通过计算机对图像进行处理,进行三维场景图的重建。但相机中的消费级传感器获取的深度图像中的深度数据会有大量的噪声,从而使得各个体素内融合出的几何细节出现模糊或过度平滑等缺陷。大型三维场景重建时,大量噪声的输入还会使得相机位姿跟踪的结果不可用,并恶化漂移误差,降低系统的鲁棒性。
因此,在三维场景图重建时,如何有效的去除噪声,提高系统的鲁棒性,成了三维场景重建亟待解决的问题。
为了解决上述三维场景图重建时,噪声有效去除的技术问题,进一步提高系统鲁棒性,本发明实施例提供了一种基于总体不确定度的三维场景重建方法,结合每个深度数据测量点处局部时间邻域内的数据分布,在线估计逐点的不确定度,并利用该不确定度引导不同图像帧之间深度数据整合,以提高三维场景重建系统对低质量彩色-深度数据噪声的鲁棒性;图1为本发明实施例提供的基于总体不确定度的三维场景重建方法流程示意图,如图1所示,该方法包括:
步骤10、获取当前图像帧中每个深度数据点的总体不确定度;
步骤11、基于当前图像帧中每个深度数据点的总体不确定度,以及当前图像帧和已有的场景子图关键帧之间的对准变换矩阵,对当前图像帧和已有的场景子图关键帧进行对准变换求解,得到当前图像帧与场景子图关键帧之间的相机位姿变化值,其中场景子图关键帧为已有的场景子图的第一图像帧;
步骤12、若相机位姿变化值在设定阈值内,则将当前图像帧与对应场景子图进行深度数据点融合,得到融合后的场景子图;
步骤13、将所有场景子图进行融合,得到重建后的三维场景图。
具体地,上述本发明实施例提供的基于总体不确定度的三维场景重建方法具体为逐帧读取消费级彩色-深度相机捕获到的带有噪声的图像帧,通过深度数据处理得到每个深度数据点的总体不确定度,然后通过该总体不确定度引导不同图像帧之间深度数据整合,提高三维场景重建系统对低质量彩色-深度数据噪声的鲁棒性,即通过当前图像帧中每个深度数据点的总体不确定度以及当前图像帧和已有的场景子图关键帧之间的对准变换矩阵,对当前图像帧和已有的场景子图的第一图像帧进行对准变换求解,得到当前图像帧与场景子图的第一图像帧之间的相机位姿变化值,并将得到的当前图像帧与场景子图的第一图像帧之间的相机位姿变化值与设定阈值进行比较,如果上述相机位姿变化值在设定阈值内,说明该当前图像帧可以用来与该第一图像帧对应的场景子图进行融合,得到融合了上述当前图像帧的场景子图;最后将所有场景子图进行融合,得到重建后的三维场景图。
本发明实施例提供的基于总体不确定度的三维场景重建方法采用每个深度数据测量点处局部时间邻域内的数据分布,在线估计每个深度数据点的不确定度,并利用该不确定度引导不同图像帧之间深度数据整合,在保持物体几何细节的同时有效减少噪声,以提高三维场景重建系统对低质量彩色-深度数据噪声的鲁棒性,并通过融合经过噪声处理后的场景子图得到重建后的三维场景图。
在上述实施例的基础上,本发明实施例提供的基于总体不确定度的三维场景重建方法中的获取当前图像帧中每个深度数据点的总体不确定度,具体为:
获取当前图像帧中每个深度数据点的表面采样不确定度和获取当前图像帧中每个深度数据点的测量不确定度;
基于表面采样不确定度以及测量不确定度,获取当前图像帧中每个深度数据点的总体不确定度。即在获取每个深度数据点的总体不确定度前,需要获取当前图像帧中每个深度数据点的表面采样不确定度和当前图像帧中每个深度数据点的测量不确定度,然后,融合当前图像帧中每个深度数据点的表面采样不确定度和测量不确定度,得到当前图像帧中每个深度数据点的总体不确定度。
在上述实施例的基础上,本发明实施例提供的基于总体不确定度的三维场景重建方法中的获取当前图像帧中每个深度数据点的表面采样不确定度,具体为:
对当前图像帧中每个深度数据点以及每个深度数据点相对应的领域点进行主成分分析,建立相应的局部坐标系以及协方差矩阵,根据深度数据点的坐标以及协方差矩阵获得深度数据点的表面采样不确定度。即获取上述当前图像帧中每个深度数据点采样不确定度的具体过程为:输入彩色-深度图像,使用相机内参反投影后获得三维深度数据点,通过对每个深度数据及其时间领域点进行主成分分析,根据其邻域点的空间分布情况估计三维正态概率分布,以表示该深度数据表面采样不确定度。
在上述实施例的基础上,本发明实施例提供的基于总体不确定度的三维场景重建方法中的获取当前图像帧中每个深度数据点的测量不确定度,具体为:
基于迭代最近点方法ICP对当前图像帧与前后连续多个图像帧进行局部相对变换,得到当前图像帧的深度方差图,并基于深度方差图得到当前图像帧中每个深度数据点的测量不确定度。即获取上述当前图像帧中每个深度数据点测量不确定度的具体过程为:基于ICP(Iterative Closest Point,迭代最近点)算法对当前图像帧与前后连续多个图像帧进行局部相对变换,即获得当前图像帧与前后连续多个图像帧中任一图像帧之间的相机位姿变换矩阵,通过当前图像帧与其他图像帧之间的相机位姿变换进行这两帧图像对准,将其他各图像帧的深度数据重投影至当前图像帧,并统计对应位置的深度数据,并通过方差计算,获得当前图像帧中每个深度数据点的深度方差,从而形成深度方差图,并根据该深度方差图得到当前图像帧中每个深度数据点的测量不确定度,其中,每个深度数据点测量不确定度的获得可通过每个深度数据点的方差估计其正态分布,从而获得每个深度数据点的测量不确定度。然后通过深度数据点的采样不确定度和测量不确定度,获得总体不确定度。
在上述实施例的基础上,本发明实施例提供的基于总体不确定度的三维场景重建方法,在基于表面采样不确定度以及测量不确定度,获取当前图像帧中每个深度数据点的总体不确定度后,还包括:
根据深度数据点的表面采样不确定度,建立深度数据点的表面采样不确定度模型;
根据深度数据点的测量不确定度,建立深度数据点的测量不确定度模型;
根据深度数据点的总体不确定度,建立深度数据点的总体不确定度模型。即在获得当前图像帧中每个深度数据点的表面采样不确定度、测量不确定度以及总体不确定度后,分别建立深度数据点各不确定度相对应的不确定度模型,即表面采样不确定度模型、测量不确定度模型和总体不确定度模型。
其中,总体不确定度模型为其中,为表面采样不确定度模型,为测量不确定度模型,φsurf以及φmeas均为混合权重,混合权重均为0.5;μnk为高斯分布的均值,为表面采样不确定度的高斯分布协方差矩阵,为测量不确定度的高斯分布协方差矩阵,从而实现通过总体不确定对数据噪声进行建模和处理,提高系统对噪声的鲁棒性。
在上述实施例的基础上,本发明实施例提供的基于总体不确定度的三维场景重建方法在基于深度方差图得到当前图像帧中每个深度数据点的测量不确定度后,还包括:
获取当前图像帧与前后连续多个图像帧的深度中值图,并根据深度中值图中的深度中值对当前图像帧的深度数据点进行中值滤波。即本发明实施例提供的基于总体不确定度的三维场景重建方法在获得当前图像帧中每个深度数据点的测量不确定度后,还通过当前图像帧与其他各图像帧相对应的相机位姿变换,进行图像帧之间的图像对准,并计算获得这些图像帧中深度数据的深度中值,从而形成当前图像帧与前后连续多个图像帧的深度中值图,并通过该深度中值图中的深度中值对当前图像帧中的深度数据进行中值滤波,有效去除当前图像帧中深度数据的噪声,提高提高系统的鲁棒性。
在上述实施例的基础上,本发明实施例提供的基于总体不确定度的三维场景重建方法还包括:
若相机位姿变化值不在设定阈值内,则基于当前图像帧新建一个场景子图。即本发明实施例提供的基于总体不确定度的三维场景重建方法获得当前图像帧与场景子图的第一图像帧之间的相机位姿变化值与设定阈值进行比较,该相机位姿变化值超出了设定阈值,则基于当前图像帧新建一个融合该当前图像帧的场景子图。
在上述实施例的基础上,本发明实施例提供的基于总体不确定度的三维场景重建方法中的将所有场景子图进行融合,得到重建后的三维场景图,具体包括:
根据所有场景子图的相机位姿,获得全局相机位姿图;
根据全局相机位姿图进行场景子图融合,获得三维场景图。即本发明实施例提供的基于总体不确定度的三维场景重建方法在对当前图像帧进行深度数据处理,得到融合并降噪处理后的场景子图,然后进行所有场景子图进行融合,得到重建后的三维场景图,其中,所有场景子图进行融合时,根据各个场景子图的相机位姿进行对准,各个场景子图的相机位姿以各子图中的第一图像帧的相机位姿作为参照,然后通过各个子图的相机位姿形成全局相机位姿图,通过该全局相机位姿图,实现各个场景子图的对准,并进行深度数据融合,得到重建后的三维场景图。
在上述实施例的基础上,本发明实施例提供的基于总体不确定度的三维场景重建方法中的根据全局相机位姿图进行场景子图融合,获得三维场景图,图2为本发明实施例提供的基于总体不确定度的三维场景重建方法中的场景子图融合为三维场景图的流程示意图,如图2所示,该方法具体包括:
步骤20、确定当前场景子图第一图像帧为关键帧,并提取关键帧中的ORB特征;
步骤21、将提取出的ORB特征与已有的场景子图第一图像帧中的ORB特征进行匹配;
步骤22、根据关键帧与已有的场景子图第一图像帧的ORB特征匹配结果,将关键帧插入全局相机位姿图中,获得当前场景子图与已有的场景子图的连接位置关系;
步骤23、通过光束平差法局部优化当前场景子图关键帧的相机位姿、各已有的场景子图第一图像帧的相机位姿以及特征点的三维坐标;
步骤24、检测关键帧插入后的全局相机位姿图是否存在闭环;其中:
步骤25、若存在闭环,则通过光束平差法全局优化纠正闭环,并根据全局优化后的当前场景子图关键帧的相机位姿以及各已有的场景子图第一图像帧的相机位姿,融合所有场景子图,获得三维场景图;
步骤26、若不存在闭环,则根据局部优化后的当前场景子图关键帧的相机位姿以及各已有的场景子图第一图像帧的相机位姿,融合所有场景子图,获得三维场景图。
具体地,上述场景子图融合为三维场景图的具体流程为:确定当前场景子图中第一个图像帧为关键帧,并提取关键帧中的ORB特征,将该ORB特征与已有的场景子图的第一个图像帧的ORB特征进行匹配,其中已有的场景子图即其他已经获得的用于构建三维场景图的场景子图;然后根据关键帧的ORB特征与已有的场景子图的第一个图像帧的ORB特征的匹配结果,将关键帧插入上述实施例得到的全局相机位姿图中,获得当前场景子图的相机位姿与各个已有的场景子图的相机位姿关系,从而根据该相机位姿关系,获得当前场景子图与已有的场景子图的连接位置关系;
通过光束平差法局部优化当前场景子图关键帧的相机位姿、各已有的场景子图第一图像帧的相机位姿以及特征点的三维坐标后,检测关键帧插入后的全局相机位姿图中的任意两个图像帧之间是否存在闭环,若存在闭环,则通过光束平差法全局优化纠正闭环,并根据全局优化后的当前场景子图关键帧的相机位姿以及各已有的场景子图第一图像帧的相机位姿,融合所有场景子图,获得三维场景图,即全局相机位姿图中的任意两个图像帧之间如果存在闭环,则将该闭环作为进行全局优化的条件,对当前场景子图关键帧的相机位姿以及各已有的场景子图第一图像帧的相机位姿进行优化,并根据上述实施例中的根据全局相机位姿图进行场景子图融合,获得三维场景图的方法,进行场景子图融合,获得三维场景图;
若不存在闭环,则根据局部优化后的当前场景子图关键帧的相机位姿以及各已有的场景子图第一图像帧的相机位姿,融合所有场景子图,获得三维场景图,其中融合所有场景子图,获得三维场景图的方法与上述融合方法一致。
在上述实施例的基础上,本发明实施例提供的基于总体不确定度的三维场景重建方法中的通过光束平差法全局优化纠正闭环,并根据优化后的当前场景子图关键帧的相机位姿以及各已有的场景子图第一图像帧的相机位姿,具体包括:
通过光束平差法全局优化当前场景子图关键帧的相机位姿、各已有的场景子图第一图像帧的相机位姿、特征点的三维坐标以及闭环,并更新当前场景子图关键帧的相机位姿以及各已有的场景子图第一图像帧的相机位姿。即关键帧插入后的全局相机位姿图存在闭环时,对当前场景子图关键帧的相机位姿、各已有的场景子图第一图像帧的相机位姿、特征点的三维坐标以及闭环进行优化,并将优化后的当前场景子图关键帧的相机位姿和各已有的场景子图第一图像帧的相机位姿,进行更新,获得新的全局相机位姿图,并根据新的全局相机位姿图,获得三维重建场景图。
在上述实施例的基础上,本发明实施例提供的基于总体不确定度的三维场景重建方法中的阈值包括旋转参数阈值和平移参数阈值,其中:
旋转参数阈值为20°;平移参数阈值为0.3米。即本发明实施例提供的基于总体不确定度的三维场景重建方法中的阈值包括两个阈值,分别为旋转参数阈值和平移参数阈值,其中旋转参数阈值为20°,平移参数阈值为0.3米,且上述实施例中相机位姿变化值与设定阈值进行比较时,相机位姿变化值中的旋转参数和平移参数,其中任意一个参数不在相对应的阈值内,则基于当前图像帧,新建一个场景子图,从而提高各个场景子图之间通过相机位姿进行对准的对准概率。
在上述实施例的基础上,本发明实施例提供的基于总体不确定度的三维场景重建方法中的基于当前图像帧中每个深度数据点的总体不确定度,以及当前图像帧和已有的场景子图关键帧之间的对准变换矩阵,对当前图像帧和已有的场景子图关键帧进行对准变换求解,得到当前图像帧与场景子图关键帧之间的相机位姿变化值,具体为:
通过总体不确定度获取相机位姿变化值相对应的当前图像帧的第一样本数据和场景子图关键帧的第二样本数据;
通过第一样本数据、第二样本数据以及对准变换矩阵,获得样本数据偏移量;
基于所述样本数据偏移量,对所述相机位姿变化值进行最大似然估计。即从图像帧的总体不确定度分布中采集两帧图像的样本数据分别为Psk和Ptk;通过样本数据获得数据偏移量ΔPk(T*)=Ptk-Psk,数据偏移量的分布可通过两个观测点之间偏移(误差)向量的空间分布获得,即其中为两个观测点之间偏移(误差)向量的空间分布,其中M是高斯混合模型分量的个数,此处取值为4;T*为两帧扫描数据间的最优对准变换矩阵;为两个观测点之间偏移(误差)向量的空间分布的协方差矩阵。通过当前帧的深度和彩色信息、偏移量以及能量函数,获得场景子图,即对相机位姿变化值进行最大似然估计具体为:
其中,φkm为混合权重、ηkm为归一化权重,C为采样点之间对应的集合,其中T为优化方程中的对准变换矩阵变量,其包含有上述实施例中的相机位姿变化值中的旋转参数和平移参数;其中,为了充分利用彩色-深度数据中同时包含的深度数据点和颜色信息,可将求解帧间变换的目标形式化为最小化如下能量函数求得相机位姿变化值中的旋转参数和平移参数:
Ergbd=WgeoEgeo+Ergb
其中,π是相机投影函数,xs表示有效样本的集合。Wgeo是几何项的权重,可设置为4。
本发明实施例提供的基于总体不确定度的三维场景重建方法能够高效鲁棒地利用消费级彩色-深度相机捕获到的低质量数据重建高质量三维场景。该方法通过对每个深度数据测量点应用总体不确定度来鲁棒地处理传感器的固有测量噪声,在处理有噪声输入的扫描数据时具有显著优势,并以一种巧妙的方式引导深度数据点的融合,能够在保持物体几何细节的同时有效减少噪声。同时利用基于场景子图及不确定度的层次化光束平差法来重建全局一致的三维场景,构建了一个实用的实时的三维场景重建系统,对大型场景有良好的扩展性。
本发明实施例还提供了一种基于总体不确定度的三维场景重建系统,图3为本发明实施例提供的基于总体不确定度的三维场景重建系统结构图,该系统包括第一处理模块31、第二处理模块32、第三处理模块33和第四处理模块34,其中:
第一处理模块31用于获取当前图像帧中每个深度数据点的总体不确定度;第二处理模块32,用于基于当前图像帧中每个深度数据点的总体不确定度,以及当前图像帧和已有的场景子图关键帧之间的对准变换矩阵,对当前图像帧和已有的场景子图关键帧进行对准变换求解,得到当前图像帧与场景子图关键帧之间的相机位姿变化值,其中场景子图关键帧为已有的场景子图的第一图像帧;第三处理模块33,用于若相机位姿变化值在设定阈值内,则将当前图像帧与对应场景子图进行深度数据点融合,得到融合后的场景子图;第四处理模块34,用于将所有场景子图进行融合,得到重建后的三维场景图。
具体地,上述本发明实施例提供的基于总体不确定度的三维场景重建系统具体为第一处理模块31逐帧读取消费级彩色-深度相机捕获到的带有噪声的图像帧,通过深度数据处理得到每个深度数据点的总体不确定度,以便三维场景重建系统通过该总体不确定度引导不同图像帧之间深度数据整合,从而提高系统对低质量彩色-深度数据噪声的鲁棒性,即第二处理模块32通过当前图像帧中每个深度数据点的总体不确定度以及当前图像帧和已有的场景子图关键帧之间的对准变换矩阵,对当前图像帧和已有的场景子图的第一图像帧进行对准变换求解,得到当前图像帧与场景子图的第一图像帧之间的相机位姿变化值;然后第三处理模块33将得到的当前图像帧与场景子图的第一图像帧之间的相机位姿变化值与设定阈值进行比较,如果上述相机位姿变化值在设定阈值内,说明该当前图像帧可以用来与该第一图像帧对应的场景子图进行融合,则将当前图像帧与对应场景子图进行深度数据点融合,得到融合了上述当前图像帧的场景子图;最后第四处理模块34将所有场景子图进行融合,得到重建后的三维场景图。
本发明实施例提供的基于总体不确定度的三维场景重建系统采用每个深度数据测量点处局部时间邻域内的数据分布,在线估计每个深度数据点的不确定度,并利用该不确定度引导不同图像帧之间深度数据整合,以提高三维场景重建系统对低质量彩色-深度数据噪声的鲁棒性,并通过融合经过噪声处理后的场景子图得到重建后的三维场景图。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。
Claims (8)
1.一种基于总体不确定度的三维场景重建方法,其特征在于,包括:
获取当前图像帧中每个深度数据点的总体不确定度;
基于所述当前图像帧中每个所述深度数据点的所述总体不确定度以及所述当前图像帧和已有的场景子图关键帧之间的对准变换矩阵,对所述当前图像帧和已有的所述场景子图关键帧进行对准变换求解,得到所述当前图像帧与所述场景子图关键帧之间的相机位姿变化值,其中所述场景子图关键帧为已有的所述场景子图的第一图像帧;
若所述相机位姿变化值在设定阈值内,则将所述当前图像帧与对应场景子图进行深度数据点融合,得到融合后的场景子图;
将所有场景子图进行融合,得到重建后的三维场景图;
若所述相机位姿变化值不在设定阈值内,则基于所述当前图像帧新建一个场景子图;
所述获取当前图像帧中每个深度数据点的总体不确定度,具体为:
获取所述当前图像帧中每个所述深度数据点的表面采样不确定度和获取所述当前图像帧中每个所述深度数据点的测量不确定度;
基于所述表面采样不确定度以及所述测量不确定度,获取所述当前图像帧中每个所述深度数据点的所述总体不确定度。
2.根据权利要求1所述的方法,其特征在于,所述获取所述当前图像帧中每个所述深度数据点的表面采样不确定度,具体为:
对所述当前图像帧中每个所述深度数据点以及每个所述深度数据点相对应的领域点进行主成分分析,建立相应的局部坐标系以及协方差矩阵,根据所述深度数据点的坐标以及所述协方差矩阵获得所述深度数据点的表面采样不确定度。
3.根据权利要求1所述的方法,其特征在于,所述获取所述当前图像帧中每个所述深度数据点的测量不确定度,具体为:
基于迭代最近点方法ICP对所述当前图像帧与前后连续多个图像帧进行局部相对变换,得到所述当前图像帧的深度方差图,并基于所述深度方差图得到所述当前图像帧中每个深度数据点的测量不确定度。
4.根据权利要求1所述的方法,其特征在于,在所述基于所述表面采样不确定度以及所述测量不确定度,获取所述当前图像帧中每个所述深度数据点的所述总体不确定度后,还包括:
根据所述深度数据点的所述表面采样不确定度,建立所述深度数据点的表面采样不确定度模型;
根据所述深度数据点的所述测量不确定度,建立所述深度数据点的测量不确定度模型;
根据所述深度数据点的所述总体不确定度,建立所述深度数据点的总体不确定度模型。
6.根据权利要求1所述的方法,其特征在于,所述获取当前图像帧中每个深度数据点的总体不确定度后,还包括:
获取所述当前图像帧与前后连续多个图像帧的深度中值图,并根据所述深度中值图中的深度中值对所述当前图像帧的深度数据点进行中值滤波。
7.根据权利要求1所述的方法,其特征在于,所述基于所述当前图像帧中每个所述深度数据点的所述总体不确定度以及所述当前图像帧和已有的场景子图关键帧之间的对准变换矩阵,对所述当前图像帧和已有的所述场景子图关键帧进行对准变换求解,得到所述当前图像帧与所述场景子图关键帧之间的相机位姿变化值,具体为:
通过所述总体不确定度获取所述相机位姿变化值相对应的所述当前图像帧的第一样本数据和所述场景子图关键帧的第二样本数据;
通过所述第一样本数据、所述第二样本数据以及所述对准变换矩阵,获得样本数据偏移量;
基于所述样本数据偏移量,对所述相机位姿变化值进行最大似然估计。
8.一种基于总体不确定度的三维场景重建系统,其特征在于,包括:
第一处理模块,用于获取当前图像帧中每个深度数据点的总体不确定度;
第二处理模块,用于基于所述当前图像帧中每个所述深度数据点的所述总体不确定度以及所述当前图像帧和已有的场景子图关键帧之间的对准变换矩阵,对所述当前图像帧和已有的所述场景子图关键帧进行对准变换求解,得到所述当前图像帧与所述场景子图关键帧之间的相机位姿变化值,其中所述场景子图关键帧为已有的所述场景子图的第一图像帧;
第三处理模块,用于若所述相机位姿变化值在设定阈值内,则将所述当前图像帧与对应场景子图进行深度数据点融合,得到融合后的场景子图;
第四处理模块,用于将所有场景子图进行融合,得到重建后的三维场景图;
第五处理模块,用于若所述相机位姿变化值不在设定阈值内,则基于所述当前图像帧新建一个场景子图;
所述第一处理模块具体用于:
获取所述当前图像帧中每个所述深度数据点的表面采样不确定度和获取所述当前图像帧中每个所述深度数据点的测量不确定度;
基于所述表面采样不确定度以及所述测量不确定度,获取所述当前图像帧中每个所述深度数据点的所述总体不确定度。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810997400.2A CN109360234B (zh) | 2018-08-29 | 2018-08-29 | 基于总体不确定度的三维场景重建方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810997400.2A CN109360234B (zh) | 2018-08-29 | 2018-08-29 | 基于总体不确定度的三维场景重建方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109360234A CN109360234A (zh) | 2019-02-19 |
CN109360234B true CN109360234B (zh) | 2020-08-21 |
Family
ID=65350148
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810997400.2A Active CN109360234B (zh) | 2018-08-29 | 2018-08-29 | 基于总体不确定度的三维场景重建方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109360234B (zh) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105976353A (zh) * | 2016-04-14 | 2016-09-28 | 南京理工大学 | 基于模型和点云全局匹配的空间非合作目标位姿估计方法 |
CN106529394A (zh) * | 2016-09-19 | 2017-03-22 | 广东工业大学 | 一种室内场景物体同时识别与建模方法 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101576379B (zh) * | 2009-05-12 | 2011-04-27 | 四川大学 | 基于二维彩色标靶的主动投影三维测量系统快速标定方法 |
CN102609977B (zh) * | 2012-01-12 | 2014-07-16 | 浙江大学 | 基于深度融合和曲面演变的多视点三维重建方法 |
US10043076B1 (en) * | 2016-08-29 | 2018-08-07 | PerceptIn, Inc. | Visual-inertial positional awareness for autonomous and non-autonomous tracking |
-
2018
- 2018-08-29 CN CN201810997400.2A patent/CN109360234B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105976353A (zh) * | 2016-04-14 | 2016-09-28 | 南京理工大学 | 基于模型和点云全局匹配的空间非合作目标位姿估计方法 |
CN106529394A (zh) * | 2016-09-19 | 2017-03-22 | 广东工业大学 | 一种室内场景物体同时识别与建模方法 |
Non-Patent Citations (4)
Title |
---|
《Feature uncertainty arising from covariant image noise》;STEELE R M et al.;《PROCEEDINGS - IEEE COMPUTER SOCIETY CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION》;20051231;全文 * |
《Real-time High-accuracy 3D Reconstruction with Consumer RGB-D Cameras》;YAN-PEI CAO et al.;《ACM Transactions on Graphics》;20180531;第1卷(第1期);1-16 * |
《基于相对坐标IPC的室内场景三维重建算法》;李策 等;《兰州理工大学学报》;20170630;全文 * |
《测量误差不确定性加权的立体视觉位姿估计目标函数》;霍炬 等;《光学精密工程》;20180430;第26卷(第4期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN109360234A (zh) | 2019-02-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109242959B (zh) | 三维场景重建方法及系统 | |
CN110108258B (zh) | 一种单目视觉里程计定位方法 | |
WO2022088982A1 (zh) | 三维场景构建方法、装置、系统和存储介质 | |
Kim et al. | Scene reconstruction from high spatio-angular resolution light fields. | |
CN109685732B (zh) | 一种基于边界捕捉的深度图像高精度修复方法 | |
AU2022203854A1 (en) | Methods and systems for large-scale determination of RGBD camera poses | |
CN113450410B (zh) | 一种基于对极几何的单目深度和位姿联合估计方法 | |
Yuan et al. | Image haze removal via reference retrieval and scene prior | |
CN110827397B (zh) | 一种面向rgb-d相机实时三维重建的纹理融合方法 | |
US10249046B2 (en) | Method and apparatus for object tracking and segmentation via background tracking | |
CN111223059A (zh) | 一种基于引导滤波器的鲁棒深度图结构重建和去噪方法 | |
Wang et al. | An efficient method for image dehazing | |
CN115222884A (zh) | 一种基于人工智能的空间对象分析及建模优化方法 | |
Shen et al. | Depth map enhancement method based on joint bilateral filter | |
CN109360174B (zh) | 基于相机位姿的三维场景重建方法及系统 | |
US10504235B2 (en) | Method for generating three dimensional images | |
CN117132503A (zh) | 一种图像局部高亮区域修复方法、系统、设备及存储介质 | |
Nouduri et al. | Deep realistic novel view generation for city-scale aerial images | |
Zhang et al. | Dehazing with improved heterogeneous atmosphere light estimation and a nonlinear color attenuation prior model | |
CN109360234B (zh) | 基于总体不确定度的三维场景重建方法及系统 | |
Bugeau et al. | Coherent background video inpainting through Kalman smoothing along trajectories | |
CN112991419B (zh) | 视差数据生成方法、装置、计算机设备及存储介质 | |
Wei et al. | Dense and occlusion-robust multi-view stereo for unstructured videos | |
Khoddami et al. | Depth map super resolution using structure-preserving guided filtering | |
Murayama et al. | Depth Image Noise Reduction and Super-Resolution by Pixel-Wise Multi-Frame Fusion |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |