CN116878524A - 一种基于金字塔l-k光流与多视角几何约束的动态slam稠密地图构建方法 - Google Patents

一种基于金字塔l-k光流与多视角几何约束的动态slam稠密地图构建方法 Download PDF

Info

Publication number
CN116878524A
CN116878524A CN202310847167.0A CN202310847167A CN116878524A CN 116878524 A CN116878524 A CN 116878524A CN 202310847167 A CN202310847167 A CN 202310847167A CN 116878524 A CN116878524 A CN 116878524A
Authority
CN
China
Prior art keywords
dynamic
sdf
depth
camera
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202310847167.0A
Other languages
English (en)
Inventor
左韬
梅剑锋
李玥
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wuhan University of Science and Engineering WUSE
Original Assignee
Wuhan University of Science and Engineering WUSE
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wuhan University of Science and Engineering WUSE filed Critical Wuhan University of Science and Engineering WUSE
Priority to CN202310847167.0A priority Critical patent/CN116878524A/zh
Publication of CN116878524A publication Critical patent/CN116878524A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • G01C21/30Map- or contour-matching
    • G01C21/32Structuring or formatting of map data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Molecular Biology (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种基于金字塔L‑K光流与多视角几何约束的动态SLAM稠密地图构建方法。首先对图像进行FAST特征点提取,通过结合金字塔L‑K光流与多视角几何约束方法来检测并剔除场景中的动态元素;然后,将RANSAC算法迭代计算的基础矩阵分解为旋转矩阵与平移向量,带入最小化SDF误差函数并使其最小化来实现对相机位姿的估计;最后,使用估计的相机位姿和静态深度图像构建TSDF稠密地图。本发明利用金字塔L‑K光流法与多视角几何约束算法进行动态对象剔除并利用TSDF体素构建三维稠密地图,降低了帧间误匹配率并提高算法的鲁棒性,有效提高相机位姿估计精度。在高动态场景或存在先验动态信息缺失的情况下,本发明能有效防止运动物体对SLAM系统性能造成的影响。

Description

一种基于金字塔L-K光流与多视角几何约束的动态SLAM稠密 地图构建方法
技术领域
本发明适用于移动机器人领域,具体涉及到FAST特征点提取,基于金字塔L-K(Lucas-Kanade)光流法与多视角几何约束的动态对象剔除,基于深度残差的静态深度图像获取,SDF(Signed Destance Function)误差函数以及TSDF(Truncated Signed DistanceFunction)稠密地图重建,其优越性在于弥补了在高动态场景或先验动态信息缺失的场景中大多数方案不能有效避免运动物体对SLAM(Simultaneous Localization and Mapping,同步定位与地图构建)系统性能的影响的问题,能够有效提高相机位姿估计精度,实现稠密地图的更新,在提升系统鲁棒性的同时也提升了环境重构的准确性。
背景技术
SLAM在动态环境中具有挑战性,因为机器人必须同时估计环境中静态和运动部分的状态才能构建一致性地图。然而,在存在动态物体的情况下,错误的匹配可能会降低机器人正确估计位置的能力并破坏地图的准确性。传统的视觉SLAM方法都假设相机处于静态场景,但实际场景中运动物体不可避免存在,这将对SLAM系统位姿估计精度和地图构建准确性产生影响。因此,在动态环境下构建高精度的SLAM系统是近年来许多研究的重点,解决这个问题的关键在于如何有效地处理动态对象。
图像金字塔L-K光流法是在L-K光流法的基础上改进的。L-K光流法在求解过程中应用了泰勒展开,泰勒展开只有在变量变化很小的情况下才能使用,如果帧间的像素运动比较大,泰勒展开便不适用了。而在实际场景中是很难满足L-K光流法的3条假设的。因此为防止像素运动太快,无法使用泰勒展开,在计算时采用金字塔L-K光流法。其基本思想是:将整张图片进行缩小,降低其分辨率,对于运动较快的像素点,总能在图像分辨率降到一定程度时,其运动变得足够小,满足泰勒展开的条件。其核心思想在于构建一个多尺度的图像金字塔,通过对自顶向下的图像进行L-K光流跟踪迭代,从而提高关键点跟踪准确性和鲁棒性。
多视角几何约束利用了多个相机视角下的信息来增强对动态物体的识别和剔除能力,可以通过比较视差、运动向量或三维结构等信息来保持一致性,有效地处理复杂场景中的遮挡、投影和透明度等问题,提高动态物体的识别和剔除精度。此外,多视角几何约束还有助于降低误匹配率,通过将多个视角的观察结果进行比较和整合,可以减少单一视角下的误差和噪声,并提高算法的鲁棒性。
TSDF是一种用于三维重建和深度感知的技术,将场景中每个点的距离信息编码为有符号的函数,表示该点与物体表面之间的距离。TSDF通常应用于基于体素(Voxel)的三维重建方法中,实现三维场景稠密重建。TSDF可以提供对场景中物体的准确距离估计,并能够重建出较为精细的三维结构。通过体素网格的方式,可以实现对整个场景的密集三维采样,从而获取更详细的几何信息。TSDF不受物体形状、大小或复杂度的限制,可以处理各种类型的场景,并且对于动态场景也有一定的鲁棒性。
发明内容
针对现有的动态SLAM方法仅解决了轻度动态环境中运动物体的部分干扰,在高动态场景或先验动态信息缺失的场景中,大多数方案不能有效避免运动物体对SLAM系统性能的影响,并且现有视觉SLAM方案大多构建稀疏点云地图,在运动物体占图像大部分画面时,所构建地图不能真实表达机器人周围环境,实用效果将会下降等问题。本发明提出了一种基于金字塔L-K光流与多视角几何约束的动态SLAM稠密地图构建方法,结合金字塔L-K光流法与多视角几何约束算法进行动态对象剔除,提供了一种鲁棒、精确和高效的解决方案来获得图像静态特征。将基础矩阵分解为旋转矩阵与平移向量,带入最小化SDF误差函数来实现对相机位姿的估计,充分融合两种互补信息,增加了位姿估计的鲁棒性和精度。结合静态深度图像信息和优化的相机位姿,使用基于体素的TSDF方法来生成静态三维稠密地图,实现对动态环境的鲁棒建模。
具体发明内容为:
一种基于金字塔L-K光流与多视角几何约束的动态SLAM稠密地图构建方法,其特征在于包括以下步骤:
步骤1)通过结合金字塔L-K光流与多视角几何约束方法来检测并剔除场景中的动态对象,包括以下步骤:
步骤1.1)将来自RGB-D相机的数据图像做预处理,获取图像RGB信息和深度信息,对第k帧图像进行FAST特征点提取;
步骤1.2)采用金字塔L-K光流法对第k帧与第k+1帧图像进行特征点跟踪,给出对应像素点的速度计算公式:
其中,vx、vy为像素在x轴和y轴上运动速度;
[Ix Iy]k为图像在k点处x和y方向的灰度梯度;Itk为点k处图像灰度对时间的变量;
步骤1.3)采用RANSAC算法计算相机变换的基础矩阵以更好的滤除误匹配;基础矩阵的求解具体步骤如下:第一步,从匹配点对中随机选出4组用来求解基础矩阵F;第二步,计算其余特征点到矩阵F所对应极线的距离d,将该距离与事先设定好的阈值dn比较,当d<dn时,判定该点为内点,当d>dn,判定该点为外点;记下内点的数目为n;第三步,重复执行上述两步并迭代N次,选取其中内点数目最多的一次,将该次所求得的基础矩阵作为最终的基础矩阵;
步骤1.4)添加多视角几何约束来增强对动态物体的识别和剔除能力,通过分析多视角下的视差信息,提高误匹配精度和系统定位的鲁棒性;
步骤2)将基础矩阵分解为旋转矩阵与平移向量,带入最小化SDF误差函数并使其最小化来实现对相机位姿的估计;包括以下步骤:
步骤2.1)利用RANSAC算法迭代计算的基础矩阵分解出旋转矩阵与平移向量;
步骤2.2)利用深度残差和区域增长算法去除深度图像中的动态物体,获得静态深度图像并生成SDF;选择一个阈值t来将残差分成动态和静态部分;阈值的计算方式为:
t=γτ2
其中τ是TSDF表示中使用的截断距离,是0到1之间的值;超过阈值t的像素点被视为动态对象的一部分;
步骤2.3)利用SDF建立误差函数,将旋转矩阵与平移向量带入SDF误差函数,并采用Levenberg-Marquardt算法对误差进行归一化来实现相机位姿估计;假设所采用的针孔相机模型具有内参矩阵K=diag(fx,fy,1)和畸变系数0,其中fx、fy分别表示焦距在水平和竖直方向上的大小,对应着相机光心在图像平面上的投影坐标(cx,cy);基于该模型,一个三维点x=(x,y,z)T在图像平面上的投影可以表示为:
而对于深度值为z=Id(i,j)的像素点(i,j)T∈R3,则可以通过以下公式计算其对应的三维坐标:
SDF的含义是返回从x到曲面的带符号距离,基于此,直接使用SDF来建立一个误差函数,以描述深度图像与SDF之间的匹配程度;针对每个像素(i,j),可以通过上一个公式在相机的局部坐标系中重建相应的3D点xij;利用以下公式,可以将该点转换到全局坐标系中:
为了简化后续计算,本文采用负对数并定义误差函数:
其中,i、j遍历深度图像中的所有像素;为了最小化误差函数,本文采用Levenberg-Marquardt算法对误差进行归一化,以加快收敛速度;
步骤3)根据上述步骤得出的静态深度图像信息和优化的相机位姿,使用基于体素的TSDF方法来生成静态三维稠密地图,并采用动态体素分配和空间哈希技术进行索引;包括以下步骤:
步骤3.1)建立一个世界坐标系下由网格组成的空间模型;
步骤3.2)在一个全局三维坐标中建立格式化体素立方体,每一个立方体都包括值与权重两个量,根据不同关键帧的深度图来不断更新网格模型中TSDF值,进行融合处理来减小深度信息的噪声造成的不一致性;TSDF遍历深度图,根据像素点坐标、深度值及相机内参与位姿得到每个像素点对应的体素立方体坐标,并根据以下三个公式计算该立方体的权重与值;
Wi(x,y,z)=min(Wmax,Wi-1(x,y,z)+1)
di(x,y,z)=min(1,sdfi/Tmax)
其中:下标i为当前帧;i-1为上一帧;Wi(x,y,z)为体素立方体的权重;Wmax为最大权重;sdfi为根据深度数据计算得到的体素立方体到物体表面的真实距离;Tmax为截断范围;di(x,y,z)为到物体表面的真实距离除以截断范围的体素值;Di(x,y,z)为带有权重信息的最终体素立方体的值;
步骤3.3)计算得到Wi(x,y,z)与Di(x,y,z)后,提取体素立方体中Wi(x,y,z)大于体素权重阈值Wmin,且Di(x,y,z)等于0的等势面,即可得到重建的网格模型。
本发明具有如下优点和有益效果:
利用金字塔L-K光流法与多视角几何约束算法进行动态对象剔除,构建一个多尺度的图像金字塔,对自顶向下的图像进行L-K光流跟踪迭代,从而提高关键点跟踪准确性和鲁棒性;同时通过比较视差、运动向量或三维结构等信息来保持一致性,有效地处理复杂场景中的遮挡、投影和透明度等问题,将多个视角的观察结果进行比较和整合,还可以减少单一视角下的误差和噪声,降低误匹配率并提高算法的鲁棒性。
TSDF可以提供对场景中物体的准确距离估计,并能够重建出较为精细的三维结构。TSDF不受物体形状、大小或复杂度的限制,可以处理各种类型的场景,并且对于动态场景也有一定的鲁棒性。弥补了在高动态场景或先验动态信息缺失的场景中大多数方案不能有效避免运动物体对SLAM系统性能的影响的问题。
附图说明
图1是本发明地图构建方法总体流程图;
图2是本发明金字塔L-K光流计算流程图。
具体实施方式
下面,将结合附图与实施例,进一步详细说明本发明的优点、目的,应当理解,此处描述仅解释本发明,并不用于限定本发明。
本发明提出的基于金字塔L-K光流与多视角几何约束的动态SLAM稠密地图构建方法首先将来自RGB-D相机的数据图像做预处理,获取图像RGB信息和深度信息,对图像进行FAST特征点提取。接着,采用金字塔L-K光流法对图像进行特征点跟踪并采用RANSAC算法计算相机变换的基础矩阵,同时添加多视角几何约束来增强对动态物体的识别和剔除能力。然后,将基础矩阵分解为旋转矩阵与平移向量,带入最小化SDF误差函数并使其最小化来实现对相机位姿的估计。最后利用残差过滤后的静态深度图像信息和优化的相机位姿,使用基于体素的TSDF方法来生成静态三维稠密地图。附图1为本发明地图构建方法总体流程图,附图2为金字塔L-K光流计算流程图,包括以下步骤:
步骤1)通过结合金字塔L-K光流与多视角几何约束方法来检测并剔除场景中的动态对象,包括以下步骤:
步骤1.1)将来自RGB-D相机的数据图像做预处理,获取图像RGB信息和深度信息,对第k帧图像进行FAST特征点提取;
步骤1.2)采用金字塔L-K光流法对第k帧与第k+1帧图像进行特征点跟踪,给出对应像素点的速度计算公式:
其中,vx、vy为像素在x轴和y轴上运动速度;
[Ix Iy]k为图像在k点处x和y方向的灰度梯度;Itk为点k处图像灰度对时间的变量;
步骤1.3)采用RANSAC算法计算相机变换的基础矩阵以更好的滤除误匹配;基础矩阵的求解具体步骤如下:第一步,从匹配点对中随机选出4组用来求解基础矩阵F;第二步,计算其余特征点到矩阵F所对应极线的距离d,将该距离与事先设定好的阈值dn比较,当d<dn时,判定该点为内点,当d>dn,判定该点为外点;记下内点的数目为n;第三步,重复执行上述两步并迭代N次,选取其中内点数目最多的一次,将该次所求得的基础矩阵作为最终的基础矩阵;
步骤1.4)添加多视角几何约束来增强对动态物体的识别和剔除能力,通过分析多视角下的视差信息,提高误匹配精度和系统定位的鲁棒性;
步骤2)将基础矩阵分解为旋转矩阵与平移向量,带入最小化SDF误差函数并使其最小化来实现对相机位姿的估计;包括以下步骤:
步骤2.1)利用RANSAC算法迭代计算的基础矩阵分解出旋转矩阵与平移向量;
步骤2.2)利用深度残差和区域增长算法去除深度图像中的动态物体,获得静态深度图像并生成SDF;选择一个阈值t来将残差分成动态和静态部分;阈值的计算方式为:
t=γτ2
其中τ是TSDF表示中使用的截断距离,是0到1之间的值;超过阈值t的像素点被视为动态对象的一部分;
步骤2.3)利用SDF建立误差函数,将旋转矩阵与平移向量带入SDF误差函数,并采用Levenberg-Marquardt算法对误差进行归一化来实现相机位姿估计;假设所采用的针孔相机模型具有内参矩阵K=diag(fx,fy,1)和畸变系数0,其中fx、fy分别表示焦距在水平和竖直方向上的大小,对应着相机光心在图像平面上的投影坐标(cx,cy);基于该模型,一个三维点x=(x,y,z)T在图像平面上的投影可以表示为:
而对于深度值为z=Id(i,j)的像素点(i,j)T∈R3,则可以通过以下公式计算其对应的三维坐标:
SDF的含义是返回从x到曲面的带符号距离,基于此,直接使用SDF来建立一个误差函数,以描述深度图像与SDF之间的匹配程度;针对每个像素(i,j),可以通过上一个公式在相机的局部坐标系中重建相应的3D点xij;利用以下公式,可以将该点转换到全局坐标系中:
为了简化后续计算,本文采用负对数并定义误差函数:
其中,i、j遍历深度图像中的所有像素;为了最小化误差函数,本文采用Levenberg-Marquardt算法对误差进行归一化,以加快收敛速度;
步骤3)根据上述步骤得出的静态深度图像信息和优化的相机位姿,使用基于体素的TSDF方法来生成静态三维稠密地图,并采用动态体素分配和空间哈希技术进行索引;包括以下步骤:
步骤3.1)建立一个世界坐标系下由网格组成的空间模型;
步骤3.2)在一个全局三维坐标中建立格式化体素立方体,每一个立方体都包括值与权重两个量,根据不同关键帧的深度图来不断更新网格模型中TSDF值,进行融合处理来减小深度信息的噪声造成的不一致性;TSDF遍历深度图,根据像素点坐标、深度值及相机内参与位姿得到每个像素点对应的体素立方体坐标,并根据以下三个公式计算该立方体的权重与值;
Wi(x,y,z)=min(Wmax,Wi-1(x,y,z)+1)
di(x,y,z)=min(1,sdfi/Tmax)
其中:下标i为当前帧;i-1为上一帧;Wi(x,y,z)为体素立方体的权重;Wmax为最大权重;sdfi为根据深度数据计算得到的体素立方体到物体表面的真实距离;Tmax为截断范围;di(x,y,z)为到物体表面的真实距离除以截断范围的体素值;Di(x,y,z)为带有权重信息的最终体素立方体的值;
步骤3.3)计算得到Wi(x,y,z)与Di(x,y,z)后,提取体素立方体中Wi(x,y,z)大于体素权重阈值Wmin,且Di(x,y,z)等于0的等势面,即可得到重建的网格模型。

Claims (1)

1.一种基于金字塔L-K光流与多视角几何约束的动态SLAM稠密地图构建方法,其特征在于包括以下步骤:
步骤1)通过结合金字塔L-K光流与多视角几何约束方法来检测并剔除场景中的动态对象,包括以下步骤:
步骤1.1)将来自RGB-D相机的数据图像做预处理,获取图像RGB信息和深度信息,对第k帧图像进行FAST特征点提取;
步骤1.2)采用金字塔L-K光流法对第k帧与第k+1帧图像进行特征点跟踪,给出对应像素点的速度计算公式:
其中,vx、vy为像素在x轴和y轴上运动速度;
[Ix Iy]k为图像在k点处x和y方向的灰度梯度;Itk为点k处图像灰度对时间的变量;
步骤1.3)采用RANSAC算法计算相机变换的基础矩阵以更好的滤除误匹配;基础矩阵的求解具体步骤如下:第一步,从匹配点对中随机选出4组用来求解基础矩阵F;第二步,计算其余特征点到矩阵F所对应极线的距离d,将该距离与事先设定好的阈值dn比较,当d<dn时,判定该点为内点,当d>dn,判定该点为外点;记下内点的数目为n;第三步,重复执行上述两步并迭代N次,选取其中内点数目最多的一次,将该次所求得的基础矩阵作为最终的基础矩阵;
步骤1.4)添加多视角几何约束来增强对动态物体的识别和剔除能力,通过分析多视角下的视差信息,提高误匹配精度和系统定位的鲁棒性;
步骤2)将基础矩阵分解为旋转矩阵与平移向量,带入最小化SDF误差函数并使其最小化来实现对相机位姿的估计;包括以下步骤:
步骤2.1)利用RANSAC算法迭代计算的基础矩阵分解出旋转矩阵与平移向量;
步骤2.2)利用深度残差和区域增长算法去除深度图像中的动态物体,获得静态深度图像并生成SDF;选择一个阈值t来将残差分成动态和静态部分;阈值的计算方式为:
t=γτ2
其中τ是TSDF表示中使用的截断距离,是0到1之间的值;超过阈值t的像素点被视为动态对象的一部分;
步骤2.3)利用SDF建立误差函数,将旋转矩阵与平移向量带入SDF误差函数,并采用Levenberg-Marquardt算法对误差进行归一化来实现相机位姿估计;假设所采用的针孔相机模型具有内参矩阵K=diag(fx,fy,1)和畸变系数0,其中fx、fy分别表示焦距在水平和竖直方向上的大小,对应着相机光心在图像平面上的投影坐标(cx,cy);基于该模型,一个三维点x=(x,y,z)T在图像平面上的投影可以表示为:
而对于深度值为z=Id(i,j)的像素点(i,j)T∈R3,则可以通过以下公式计算其对应的三维坐标:
SDF的含义是返回从x到曲面的带符号距离,基于此,直接使用SDF来建立一个误差函数,以描述深度图像与SDF之间的匹配程度;针对每个像素(i,j),可以通过上一个公式在相机的局部坐标系中重建相应的3D点xij;利用以下公式,可以将该点转换到全局坐标系中:
为了简化后续计算,本文采用负对数并定义误差函数:
其中,i、j遍历深度图像中的所有像素;为了最小化误差函数,本文采用Levenberg-Marquardt算法对误差进行归一化,以加快收敛速度;
步骤3)根据上述步骤得出的静态深度图像信息和优化的相机位姿,使用基于体素的TSDF方法来生成静态三维稠密地图,并采用动态体素分配和空间哈希技术进行索引;包括以下步骤:
步骤3.1)建立一个世界坐标系下由网格组成的空间模型;
步骤3.2)在一个全局三维坐标中建立格式化体素立方体,每一个立方体都包括值与权重两个量,根据不同关键帧的深度图来不断更新网格模型中TSDF值,进行融合处理来减小深度信息的噪声造成的不一致性;TSDF遍历深度图,根据像素点坐标、深度值及相机内参与位姿得到每个像素点对应的体素立方体坐标,并根据以下三个公式计算该立方体的权重与值;
Wi(x,y,z)=min(Wmax,Wi-1(x,y,z)+1)
di(x,y,z)=min(1,sdfi/Tmax)
其中:下标i为当前帧;i-1为上一帧;Wi(x,y,z)为体素立方体的权重;Wmax为最大权重;sdfi为根据深度数据计算得到的体素立方体到物体表面的真实距离;Tmax为截断范围;di(x,y,z)为到物体表面的真实距离除以截断范围的体素值;Di(x,y,z)为带有权重信息的最终体素立方体的值;
步骤3.3)计算得到Wi(x,y,z)与Di(x,y,z)后,提取体素立方体中Wi(x,y,z)大于体素权重阈值Wmin,且Di(x,y,z)等于0的等势面,即可得到重建的网格模型。
CN202310847167.0A 2023-07-11 2023-07-11 一种基于金字塔l-k光流与多视角几何约束的动态slam稠密地图构建方法 Pending CN116878524A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310847167.0A CN116878524A (zh) 2023-07-11 2023-07-11 一种基于金字塔l-k光流与多视角几何约束的动态slam稠密地图构建方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310847167.0A CN116878524A (zh) 2023-07-11 2023-07-11 一种基于金字塔l-k光流与多视角几何约束的动态slam稠密地图构建方法

Publications (1)

Publication Number Publication Date
CN116878524A true CN116878524A (zh) 2023-10-13

Family

ID=88256224

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310847167.0A Pending CN116878524A (zh) 2023-07-11 2023-07-11 一种基于金字塔l-k光流与多视角几何约束的动态slam稠密地图构建方法

Country Status (1)

Country Link
CN (1) CN116878524A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117994463A (zh) * 2024-04-07 2024-05-07 云南三乾科技信息有限公司 一种建设用地测绘方法及系统

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117994463A (zh) * 2024-04-07 2024-05-07 云南三乾科技信息有限公司 一种建设用地测绘方法及系统

Similar Documents

Publication Publication Date Title
CN110264567B (zh) 一种基于标记点的实时三维建模方法
CN107833270B (zh) 基于深度相机的实时物体三维重建方法
CN111462329B (zh) 一种基于深度学习的无人机航拍影像的三维重建方法
CN106780576B (zh) 一种面向rgbd数据流的相机位姿估计方法
CN106803267B (zh) 基于Kinect的室内场景三维重建方法
CN110189399B (zh) 一种室内三维布局重建的方法及系统
CN111899328B (zh) 一种基于rgb数据与生成对抗网络的点云三维重建方法
CN113744337B (zh) 一种融合视觉、imu与声纳的同步定位与建图方法
CN113178009A (zh) 一种利用点云分割和网格修补的室内三维重建方法
CN110211169B (zh) 基于多尺度超像素和相位相关的窄基线视差的重构方法
CN110942476A (zh) 基于二维图像引导的改进三维点云配准方法、系统及可读存储介质
Yuan et al. 3D reconstruction of background and objects moving on ground plane viewed from a moving camera
CN114782628A (zh) 基于深度相机的室内实时三维重建方法
Xu et al. Three dimentional reconstruction of large cultural heritage objects based on uav video and tls data
CN114996814A (zh) 一种基于深度学习与三维重建的家具设计系统
CN115512055A (zh) 一种基于二维视频进行室内结构三维重建的方法、装置及计算机设备
CN116878524A (zh) 一种基于金字塔l-k光流与多视角几何约束的动态slam稠密地图构建方法
CN113887624A (zh) 一种基于双目视觉的改进特征立体匹配方法
CN110889868B (zh) 一种结合梯度和纹理特征的单目图像深度估计方法
CN112102504A (zh) 一种基于混合现实的三维场景和二维图像混合方法
CN116681839B (zh) 一种基于改进NeRF的实景三维目标重建与单体化方法
CN117132737A (zh) 一种三维建筑模型构建方法、系统及设备
Hyeon et al. Automatic spatial template generation for realistic 3d modeling of large-scale indoor spaces
Jisen A study on target recognition algorithm based on 3D point cloud and feature fusion
CN116486015A (zh) 一种格子柜的三维尺寸自动检测和cad数模重建方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination