CN108520554B - 一种基于orb-slam2的双目三维稠密建图方法 - Google Patents

一种基于orb-slam2的双目三维稠密建图方法 Download PDF

Info

Publication number
CN108520554B
CN108520554B CN201810324936.8A CN201810324936A CN108520554B CN 108520554 B CN108520554 B CN 108520554B CN 201810324936 A CN201810324936 A CN 201810324936A CN 108520554 B CN108520554 B CN 108520554B
Authority
CN
China
Prior art keywords
depth
inverse depth
inverse
key frame
map
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810324936.8A
Other languages
English (en)
Other versions
CN108520554A (zh
Inventor
白瑞林
彭建建
李新
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wuxi Xinje Electric Co Ltd
Original Assignee
Wuxi Xinje Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wuxi Xinje Electric Co Ltd filed Critical Wuxi Xinje Electric Co Ltd
Priority to CN201810324936.8A priority Critical patent/CN108520554B/zh
Publication of CN108520554A publication Critical patent/CN108520554A/zh
Application granted granted Critical
Publication of CN108520554B publication Critical patent/CN108520554B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Image Processing (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本发明公开了一种基于ORB‑SLAM2的双目稠密建图方法,涉及机器人同步定位与地图创建领域,该方法主要由跟踪线程、局部地图线程、闭环检测线程和稠密建图线程组成。其中稠密建图线程包含以下步骤:1)场景深度范围估计,限制立体匹配计算量;2)立体匹配,估计每个像素点的逆深度值;3)帧内平滑、外点剔除,增加逆深度图的稠密度的同时保留深度边界的不连续性;4)逆深度融合,对上一步获得的逆深度进行帧间优化;5)帧内平滑、外点剔除。本方法只利用CPU,实现室内、室外环境的稠密地图创建。

Description

一种基于ORB-SLAM2的双目三维稠密建图方法
技术领域
本发明属于机器人同步定位与地图创建领域,涉及一种基于ORB-SLAM2的双目三维稠密建图方法。
背景技术
同步定位与地图创建(Simultaneous Localization and Mapping,SLAM)是指移动机器人在没有环境先验信息的情况下,通过自身搭载的传感器,于运动过程中建立所处环境的地图模型,同时估计自身的运动。SLAM同时包含定位与建图两个问题。被认为是实现机器人自主性的关键问题之一,对机器人的导航、控制、任务规划等领域有重要的研究意义,同时它也是二十一世纪机器人领域十大进展最快的研究问题,被誉为机器人研究的“圣杯”。
针对现有的SLAM系统,大都研究的是定位问题,包括通过特征点的定位、直接法的定位,以及后端优化等,对建图模块不是很重视,建立的稀疏特征点地图也主要是服务于定位问题。但是在具体应用中,地图的用途不仅仅用于辅助定位,其明显还带有许多其他的需求。如:对机器人进行路径规划(即导航)、避障等。需要告知机器人地图中哪些地方可以通行,而哪些地方不能通行。这就超出了稀疏特征点地图的能力范围,需要建立一种稠密的地图。
因此,本发明提出了一种基于ORB-SLAM2的双目稠密建图方法。
发明内容
本发明的目的在于提供一种不依赖GPU并行计算,只利用CPU恢复环境三维稠密地图的方法。
为实现上述目的,本发明提供如下技术方案:
一种基于ORB-SLAM2的双目三维稠密建图方法,算法主要由以下四个线程组成。
1.跟踪线程:对左、右图像提取ORB特征并进行匹配,三角化建立特征关联的地图点深度和三维坐标。后续图像通过跟踪运动模型、参考关键帧和重定位估计相机位姿。通过最小重投影误差优化当前帧位姿,随后根据预设条件判断是否生成新的关键帧。
2.局部地图线程:处理跟踪线程创建的关键帧,更新地图点与关键帧之间的对应关系,剔除地图中新添加的但被观测量少的地图点,随后对共视程度高的关键帧通过三角化恢复地图点,检查关键帧与相邻关键帧的重复地图点。当关键帧队列的所有关键帧处理完毕,对当前关键帧、相邻关键帧和观测到的地图点进行局部捆集调整,通过最小重投影误差优化关键帧位姿和地图点精度。
3.闭环检测线程:处理局部地图线程插入的关键帧,主要包含三个过程,分别是闭环检测、计算相似变换矩阵和闭环矫正。闭环检测通过计算词带相似得分选取候选关键帧。随后对每个候选关键帧计算相似变换矩阵,通过随机采样一致性选取最优的关键帧,而后通过本质图(Essential Graph)优化关键帧位姿,最后执行全局捆集调整得到全局一致性环境地图和相机运行轨迹。
4.稠密建图线程:对新建立的关键帧执行地图点深度范围搜索,随后在该深度范围内建立匹配代价量,执行立体匹配得到关键帧初始深度图。基于相邻像素深度相近原则,对获得的初始深度图进行相邻像素逆深度融合和填充空缺像素点,通过相邻关键帧深度图融合优化深度信息,进一步执行帧内填充和外点剔除得到最终深度图,最后利用点云拼接得到环境稠密地图。
其中,稠密建图线程具体方法如下所述:
步骤1:场景深度范围估计:将双目中的左相机图像作为关键帧输入图像,对任意时刻关键帧观测到的每一个地图点,将其投影到关键帧图像中,计算地图点在关键帧坐标系下的深度值。选取最大最小深度设置场景逆深度搜索范围,即(ρminmax)。
步骤2:立体匹配:采用基于水平树结构的可变权重代价聚合立体匹配算法计算像素深度。通过步骤1计算的场景深度范围限制立体匹配中匹配代价量(costvolume)的层数,只在逆深度(ρminmax)对应的视差范围内搜索,减少计算量。同时删除立体匹配中视差后处理步骤,在左右一致性匹配中只保留视差相同的像素点逆深度。
步骤3:帧内平滑、外点剔除:对步骤2得到的逆深度图进行填充和剔除。
步骤4:逆深度融合:在跟踪线程已计算关键帧位姿的基础上,通过后续6幅关键帧逆深度图优化当前关键帧深度信息。
步骤5:帧内平滑、外点剔除:对逆深度融合后获得的逆深度图进行逆深度点的填充与剔除。
本发明的有益效果:
本发明提出了一种基于ORB-SLAM2的双目三维稠密建图方法,只利用CPU运算,实现室内、室外环境的地图重建。通过双目相机实时采集图像,对ORB-SLAM2跟踪线程创建的关键帧进行场景深度估计,只在该深度范围内构建匹配代价量,大大减少了立体匹配花费时间。基于相邻像素深度相近原则,在获得初始深度图后进行帧内平滑与外点剔除环节,增加了深度图的稠密度和剔除了可能存在的孤立的匹配点。针对立体匹配获得的初始深度估计精度不高,且出现严重的视差分层现象,本发明提出了一种多关键帧逆深度融合方法,对每个候选逆深度假设进行高斯融合,优化当前关键帧深度值。
附图说明
图1是本发明算法框架示意图。
图2是本发明地图点深度计算示意图。
图3是本发明逆深度融合前后稠密地图示意图。
图4是本发明KITTI数据(序列08,14,18)点云图对比示意图。
图5是本发明最终场景点云图与八叉树地图。
具体实施方式
为了更好地理解本发明的技术方案,以下结合附图作进一步描述。如图1所示,一种基于ORB-SLAM2的双目三维稠密建图方法,包含以下步骤:
步骤1:场景深度范围估计:将双目中的左相机图像作为关键帧输入图像,对任意时刻关键帧观测到的每一个地图点,将其投影到关键帧图像中,计算地图点在关键帧坐标系下的深度值。选取最大最小深度设置场景逆深度搜索范围。
如图2所示,令Pi为地图点在世界坐标系下的3D坐标的齐次表示,Tk,w∈SE(3)为k时刻相机坐标系与世界坐标系的位姿变换,
Figure BDA0001626274150000031
为地图点在k时刻相机坐标系下的3D坐标的齐次表示。场景深度搜索范围(ρminmax)定义为
pi=[xi yi zi 1]T
Figure BDA0001626274150000032
Figure BDA0001626274150000033
Figure BDA0001626274150000034
Figure BDA0001626274150000035
其中n为在k时刻关键帧中能观测到的地图点个数。
步骤2:立体匹配:采用基于水平树结构的可变权重代价聚合立体匹配算法计算像素深度。通过步骤1计算的场景深度范围限制立体匹配中匹配代价量(cost volume)的层数,只在逆深度(ρminmax)对应的视差范围内搜索,减少计算量。同时删除立体匹配中视差后处理步骤,在左右一致性匹配中只保留视差相同的像素点逆深度。
步骤3:帧内平滑、外点剔除:假设立体匹配获得的视差服从方差为1的高斯分布,即
d:N(d0,1)
Figure BDA0001626274150000036
其中d0为立体匹配计算得到的视差值,f为相机焦距,b为基线,z为像素深度值,ρ为逆深度。变换后逆深度分布为
Figure BDA0001626274150000037
对立体匹配阶段得到的逆深度图进行填充和剔除孤立外点。具体步骤如下:
1)对每一个存在逆深度分布的像素点,计算它与周围8个逆深度分布满足卡方分布小于5.99的个数,如公式(1)所示,当个数小于2时,将其逆深度剔除,当个数大于2时,将满足卡方分布要求的逆深度采用公式(2)进行逆深度融合,融合后该像素点的逆深度为ρp,方差
Figure BDA0001626274150000038
为融合前的逆深度最小方差。
Figure BDA0001626274150000039
Figure BDA0001626274150000041
其中,a、b为以当前像素为中心,周围8个像素。n为满足卡方分布的个数。
2)对于每个不存在逆深度分布的像素点,检测其周围8个像素点之间的逆深度分布是否满足卡方分布,当满足卡方分布的个数大于2时,采用公式(2)进行逆深度融合,同理方差为融合前的逆深度最小方差。
步骤4:逆深度融合:在跟踪线程已计算关键帧位姿的基础上,通过后续6幅关键帧逆深度图优化当前关键帧深度信息。具体步骤如下:
1)将当前关键帧逆深度图对应的地图点投影到相邻关键帧,读取投影点的逆深度ρ0与逆深度方差
Figure BDA0001626274150000042
2)将相邻关键帧中逆深度为ρ00、ρ0与ρ00对应的地图点逆投影到当前关键帧,保留逆投影后的逆深度ρ1、ρ2与ρ3
3)构造候选融合逆深度假设ρ:N(ρ2,[max(|ρ12|,|ρ32|)]2)。
4)循环上述步骤获得6个候选融合逆深度假设,利用卡方分布小于5.99选取待融合逆深度假设,融合后逆深度ρp与方差
Figure BDA0001626274150000043
分别为
Figure BDA0001626274150000044
其中,p为当前帧像素点,n为待融合逆深度个数。
步骤5:帧内平滑、外点剔除:基于场景中相邻区域的深度相近的假设,对逆深度融合后获得的逆深度图进行帧内平滑和外点剔除,提高地图点的精度和增加点云的稠密度。具体步骤如步骤2的逆深度填充与剔除环节。
为验证本发明提出的逆深度融合在稠密建图线程中的有效性,在包含逆深度融合与剔除逆深度融合两种情况下进行稠密建图,对比地图效果。以EuRoc数据集的V1_01_easy为例,地图效果如图3所示。其中第一行为在不同角度观测下,剔除逆深度融合后建图效果。从图中可以看到在对墙面点云创建中存在大量的不准确三维点致使墙体出现膨胀现象(如椭圆形区域)。且地图中存在大量估计错误的外点(如圆形区域)。与之对比,第二行为采用逆深度融合后的稠密地图,在墙体边缘和对外点处理都有很好的改善。
为评价本发明稠密建图效果,将提出的算法与Stereo LSD-SLAM进行对比。如图4所示,第一行为Stereo LSD-SLAM在KITTI数据集的08序列、14序列和18序列下创建半稠密点云图。第二行为本发明创建的环境地图。从图4可见,本发明对物体轮廓表述更清晰,且对道路场景重建效果突出,如第三行所示,其中椭圆区域为道路表面,其周围离散点云很少,近乎在一个平面。
稠密三维点云地图不能直接用于机器人导航,现将其转化为八叉树地图。如图5为本发明建立的EuRoc数据集中V1_01_easy的点云图和八叉树地图。

Claims (2)

1.一种基于ORB-SLAM2的双目三维稠密建图方法,其特征在于,包含以下几个步骤:
步骤(1)、场景深度范围估计:将双目中的左相机图像作为关键帧图像,对任意时刻关键帧观测到的每一个地图点,将其投影到关键帧图像中,计算地图点在关键帧坐标系下的深度值,选取最大最小深度设置场景逆深度搜索范围,即(ρminmax);
步骤(2)、立体匹配:采用基于水平树结构的可变权重代价聚合立体匹配算法计算像素深度,通过所述步骤(1)中计算的场景逆深度搜索范围限制立体匹配中匹配代价量的层数,只在场景逆深度搜索范围(ρminmax)对应的视差范围内搜索,减少计算量;同时删除立体匹配中视差后处理步骤,在左右一致性匹配中只保留视差相同的像素点逆深度;
步骤(3)、帧内平滑、外点剔除:对所述步骤(2)中得到的逆深度图进行填充和剔除;
步骤(4)、逆深度融合:在跟踪线程已计算关键帧位姿的基础上,通过后续6幅关键帧逆深度图优化当前关键帧深度信息;
步骤(5)、帧内平滑、外点剔除:对逆深度融合后获得的逆深度图进行逆深度点的填充与剔除;
所述步骤(3)中,对立体匹配阶段得到的逆深度图进行填充和剔除孤立外点,具体步骤如下:
1)对每一个存在逆深度分布的像素点,计算与该像素点相邻的8个像素的逆深度分布,并通过该相邻8个像素计算逆深度满足卡方分布小于5.99的个数,
如公式(1)所示,当个数小于2时,将其逆深度剔除,当个数大于2时,将满足卡方分布要求的逆深度采用公式(2)进行逆深度融合,融合后该像素点的逆深度为ρp,方差
Figure FDA0003507842540000011
为融合前的逆深度最小方差;
Figure FDA0003507842540000012
Figure FDA0003507842540000013
其中,a、b为相邻8个像素随机抽取的两个像素;n为满足卡方分布的个数;
2)对于每个不存在逆深度分布的像素点,检测其周围8个像素点之间的逆深度分布是否满足卡方分布,当满足卡方分布的个数大于2时,采用公式(2)进行逆深度融合,同理方差为融合前的逆深度最小方差;
步骤(4)中逆深度融合,在跟踪线程已计算关键帧位姿的基础上,通过后续6幅关键帧逆深度图优化当前关键帧深度信息,具体步骤如下:
1)将当前关键帧逆深度图对应的地图点投影到相邻关键帧,读取投影点的逆深度ρ0与逆深度方差
Figure FDA0003507842540000014
2)将相邻关键帧中逆深度为ρ00、ρ0与ρ00对应的地图点逆投影到当前关键帧,保留逆投影后的逆深度ρ1、ρ2与ρ3
3)构造候选融合逆深度假设ρ~N(ρ2,[max(|ρ12|,|ρ32|)]2);
4)循环步骤1)—步骤3)获得6个候选融合逆深度假设,利用卡方分布小于5.99选取待融合逆深度假设,融合后逆深度ρp与方差
Figure FDA0003507842540000021
分别为
Figure FDA0003507842540000022
其中,p为当前帧像素点,n为待融合逆深度个数。
2.根据权利要求1所述一种基于ORB-SLAM2的双目三维稠密建图方法,其特征在于:所述步骤(1)中场景深度范围估计,包含如下步骤:
令Pi为地图点在世界坐标系下的3D坐标的齐次表示,Tk,w∈SE(3)为k时刻相机坐标系与世界坐标系的位姿变换,
Figure FDA0003507842540000023
为地图点在k时刻相机坐标系下的3D坐标的齐次表示,场景逆深度搜索范围(ρminmax)定义为
pi=[xi yi zi 1]T
Figure FDA0003507842540000024
Figure FDA0003507842540000025
Figure FDA0003507842540000026
Figure FDA0003507842540000027
其中n为在k时刻关键帧中能观测到的地图点个数。
CN201810324936.8A 2018-04-12 2018-04-12 一种基于orb-slam2的双目三维稠密建图方法 Active CN108520554B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810324936.8A CN108520554B (zh) 2018-04-12 2018-04-12 一种基于orb-slam2的双目三维稠密建图方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810324936.8A CN108520554B (zh) 2018-04-12 2018-04-12 一种基于orb-slam2的双目三维稠密建图方法

Publications (2)

Publication Number Publication Date
CN108520554A CN108520554A (zh) 2018-09-11
CN108520554B true CN108520554B (zh) 2022-05-10

Family

ID=63432218

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810324936.8A Active CN108520554B (zh) 2018-04-12 2018-04-12 一种基于orb-slam2的双目三维稠密建图方法

Country Status (1)

Country Link
CN (1) CN108520554B (zh)

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109387204B (zh) * 2018-09-26 2020-08-28 东北大学 面向室内动态环境的移动机器人同步定位与构图方法
CN109460267B (zh) * 2018-11-05 2021-06-25 贵州大学 移动机器人离线地图保存与实时重定位方法
CN109640066B (zh) * 2018-12-12 2020-05-22 深圳先进技术研究院 高精度稠密深度图像的生成方法和装置
CN111340922A (zh) * 2018-12-18 2020-06-26 北京三星通信技术研究有限公司 定位与地图构建的方法和电子设备
CN110084272B (zh) * 2019-03-26 2021-01-08 哈尔滨工业大学(深圳) 一种聚类地图创建方法及基于聚类地图和位置描述子匹配的重定位方法
CN110009683B (zh) * 2019-03-29 2021-03-30 北京交通大学 基于MaskRCNN的实时平面上物体检测方法
CN110176060B (zh) * 2019-04-28 2020-09-18 华中科技大学 基于多尺度几何一致性引导的稠密三维重建方法和系统
CN112215880B (zh) * 2019-07-10 2022-05-06 浙江商汤科技开发有限公司 一种图像深度估计方法及装置、电子设备、存储介质
CN110501017A (zh) * 2019-08-12 2019-11-26 华南理工大学 一种基于orb_slam2的移动机器人导航地图生成方法
CN110599545B (zh) * 2019-09-06 2022-12-02 电子科技大学中山学院 一种基于特征的构建稠密地图的系统
CN110477956A (zh) * 2019-09-27 2019-11-22 哈尔滨工业大学 一种基于超声图像引导的机器人诊断系统的智能扫查方法
CN111260706B (zh) * 2020-02-13 2023-04-25 青岛联合创智科技有限公司 一种基于单目相机的稠密深度图计算方法
CN111998862B (zh) * 2020-07-02 2023-05-16 中山大学 一种基于bnn的稠密双目slam方法
CN112581590B (zh) * 2020-12-28 2021-06-08 广东工业大学 一种5g安防救援网联的无人机云边端协同控制方法
CN113103232B (zh) * 2021-04-12 2022-05-20 电子科技大学 一种基于特征分布匹配的智能设备自适应运动控制方法
CN113160390B (zh) * 2021-04-28 2022-07-22 北京理工大学 一种三维稠密重建方法及系统
CN113379911A (zh) * 2021-06-30 2021-09-10 深圳市银星智能科技股份有限公司 Slam方法、slam系统及智能机器人
CN113547501B (zh) * 2021-07-29 2022-10-28 中国科学技术大学 一种基于slam的移动机械臂推车任务规划与控制方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6639596B1 (en) * 1999-09-20 2003-10-28 Microsoft Corporation Stereo reconstruction from multiperspective panoramas
CN105825520A (zh) * 2015-01-08 2016-08-03 北京雷动云合智能技术有限公司 一种可创建大规模地图的单眼slam方法
CN106846417A (zh) * 2017-02-06 2017-06-13 东华大学 基于视觉里程计的单目红外视频三维重建方法
CN106997614A (zh) * 2017-03-17 2017-08-01 杭州光珀智能科技有限公司 一种基于深度相机的大规模场景3d建模方法及其装置

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2887311B1 (en) * 2013-12-20 2016-09-14 Thomson Licensing Method and apparatus for performing depth estimation
US20180005015A1 (en) * 2016-07-01 2018-01-04 Vangogh Imaging, Inc. Sparse simultaneous localization and matching with unified tracking

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6639596B1 (en) * 1999-09-20 2003-10-28 Microsoft Corporation Stereo reconstruction from multiperspective panoramas
CN105825520A (zh) * 2015-01-08 2016-08-03 北京雷动云合智能技术有限公司 一种可创建大规模地图的单眼slam方法
CN106846417A (zh) * 2017-02-06 2017-06-13 东华大学 基于视觉里程计的单目红外视频三维重建方法
CN106997614A (zh) * 2017-03-17 2017-08-01 杭州光珀智能科技有限公司 一种基于深度相机的大规模场景3d建模方法及其装置

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
基于ORB-SLAM的室内机器人定位和三维稠密地图构建;侯荣波等;《计算机应用》;20170510(第05期);全文 *
基于单目视觉SLAM的实时三维场景重建;孙玉柱等;《信息技术》;20161125(第11期);全文 *
基于水平树结构的可变权重代价聚合立体匹配算法;彭建建 等;《光学学报》;20180131;第38卷(第1期);全文 *

Also Published As

Publication number Publication date
CN108520554A (zh) 2018-09-11

Similar Documents

Publication Publication Date Title
CN108520554B (zh) 一种基于orb-slam2的双目三维稠密建图方法
CN111968129B (zh) 具有语义感知的即时定位与地图构建系统及方法
CN110349250B (zh) 一种基于rgbd相机的室内动态场景的三维重建方法
CN107945220B (zh) 一种基于双目视觉的重建方法
CN108010081B (zh) 一种基于Census变换和局部图优化的RGB-D视觉里程计方法
CN113362247B (zh) 一种激光融合多目相机的语义实景三维重建方法及系统
CN110599545B (zh) 一种基于特征的构建稠密地图的系统
CN110132242B (zh) 多摄像机即时定位与地图构建的三角化方法及其运动体
CN112418288A (zh) 一种基于gms和运动检测的动态视觉slam方法
CN116449384A (zh) 基于固态激光雷达的雷达惯性紧耦合定位建图方法
CN104182968A (zh) 宽基线多阵列光学探测系统模糊动目标分割方法
Alcantarilla et al. Large-scale dense 3D reconstruction from stereo imagery
CN111161334A (zh) 一种基于深度学习的语义地图构建方法
Lu et al. Stereo disparity optimization with depth change constraint based on a continuous video
CN107358624B (zh) 单目稠密即时定位与地图重建方法
CN103646397A (zh) 基于多源数据融合的实时合成孔径透视成像方法
Rothermel et al. Fast and robust generation of semantic urban terrain models from UAV video streams
Hu et al. R-CNN based 3D object detection for autonomous driving
Buck et al. Capturing uncertainty in monocular depth estimation: Towards fuzzy voxel maps
CN112991436B (zh) 基于物体尺寸先验信息的单目视觉slam方法
CN112505723B (zh) 一种基于导航点选择的三维地图重建方法
Lv et al. Semantically guided multi-view stereo for dense 3d road mapping
CN110782506B (zh) 一种利用红外相机和深度相机融合构建栅格地图的方法
Xu et al. DOS-SLAM: A real-time dynamic object segmentation visual SLAM system
CN113850293A (zh) 基于多源数据和方向先验联合优化的定位方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
PE01 Entry into force of the registration of the contract for pledge of patent right

Denomination of invention: A binocular 3D dense mapping method based on ORB-SLAM2

Granted publication date: 20220510

Pledgee: Bank of Jiangsu Limited by Share Ltd. Wuxi branch

Pledgor: WUXI XINJE ELECTRONIC Co.,Ltd.

Registration number: Y2024980002296

PE01 Entry into force of the registration of the contract for pledge of patent right