CN110599545B - 一种基于特征的构建稠密地图的系统 - Google Patents

一种基于特征的构建稠密地图的系统 Download PDF

Info

Publication number
CN110599545B
CN110599545B CN201910839830.6A CN201910839830A CN110599545B CN 110599545 B CN110599545 B CN 110599545B CN 201910839830 A CN201910839830 A CN 201910839830A CN 110599545 B CN110599545 B CN 110599545B
Authority
CN
China
Prior art keywords
thread
map
key frames
feature points
filtering
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910839830.6A
Other languages
English (en)
Other versions
CN110599545A (zh
Inventor
黎萍
周健烙
朱军燕
周文辉
戈建清
张国庆
姚若龙
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Electronic Science and Technology of China Zhongshan Institute
Original Assignee
University of Electronic Science and Technology of China Zhongshan Institute
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Electronic Science and Technology of China Zhongshan Institute filed Critical University of Electronic Science and Technology of China Zhongshan Institute
Priority to CN201910839830.6A priority Critical patent/CN110599545B/zh
Publication of CN110599545A publication Critical patent/CN110599545A/zh
Application granted granted Critical
Publication of CN110599545B publication Critical patent/CN110599545B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/243Classification techniques relating to the number of classes
    • G06F18/2433Single-class perspective, e.g. one-against-all classification; Novelty detection; Outlier detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence

Abstract

本发明涉及一种基于特征的构建稠密地图的系统,涉及图像分析领域。包括跟踪线程、滤波线程、局部地图线程和回环检测线程;所述跟踪线程用于获取图像并提取特征点,通过所述追踪每帧所述图像中的位姿,所述跟踪线程还用于根据所述特征点和所述位姿对所述图像进行关键帧提取得到初始局部地图,并根据所述初始局部地图判断是否需要插入关键帧,所述跟踪线程还用于需要插入关键帧的时候根据预设方案得到插入关键帧的时间点;所述滤波线程用于根据所述时间点插入关键帧,所述滤波线程还用于提取所述初始局部地图中的关键帧并进行滤波,得到所述初始局部地图中的关键帧的梯度图。本方案解决了如何构建更稠密的地图的技术问题,适用于稠密地图的构建。

Description

一种基于特征的构建稠密地图的系统
技术领域
本发明涉及图像分析领域,特别涉及一种基于特征的构建稠密地图的系统。
背景技术
近年来,人工智能的发展如火如荼,在AI算法发展的同时,其落地需要寻找载体,于是SLAM(Simultaneous Localization and Mapping,同时定位与建图)重新引起人们的注意。SLAM是机器人完成自主移动的一项核心技术,该技术使机器人能够在未知环境下利用所携带的传感器实现对自身的定位,同时完成对周围环境的建图。SLAM用到传感器主要有激光传感器,视觉传感器,激光传感器价格昂贵,精度高,但难以获取环境中物体的表面信息;视觉传感器具有体积小、成本低、易于获取等优点,引起了人们的极大兴趣,在SLAM系统中得到了广泛的应用。
按优化方法分类,VSLAM(Visual SLAM)可以分为基于非线性优化、基于滤波优化。根据前端视觉跟踪方法,Visual SLAM(VSLAM)可以分为直接SLAM和基于特征的SLAM,其中基于特征的SLAM仅使用图像中小部分点的信息,一般可以构建稀疏地图;而直接SLAM利用有关图像的大部分或甚至所有像素的信息来构建(半)密集云图。
基于特征的SLAM提取一系列富含图像特征信息的点,以最小的再投影误差进行姿态估计。该方法具有精度高、计算速度快的特点,由于单帧图像包含的特征点较少,且没有足够的信息来构建地图,所以一般采用稀疏地图来重建场景。由于该方法基于特征,不适合重建纹理不丰富或图像模糊的场景,因此在提取特征点较少的动态场景中鲁棒性较差。
直接法最根本思想是最小化光度误差以估计运动姿态[6,8]。因直接法对特征信息要求不高,甚至没有特征点的概念(不采用光流法而直接对全像素进行光度误差计算),以至于直接法能够在特征缺失的情况下系统仍可能继续运行,缓解特征依赖,但也不能完全消除。当采用直接SLAM构建稠密地图时,通常一帧图像有30多万个像素点(假设图片分辨率为640x480,则为307200个像素),由于要对参考帧和当前帧的光度误差做优化,仅一次迭代就需要计算30多万项差值。对于单目视觉,还需要考虑深度估计的计算,这使得运算量过大。除此之外,直接法基于灰度不变假设,认为对应点在不同帧里都是同样的灰度值,对环境要求更高,定位精度普遍不如特征法高。
在VSLAM中,按照视觉传感器的使用,可分为单目、双目和RGBD。单目相机以其低廉的价格被广泛应用于生活的各个领域。但是由于缺少场景的深度信息,单目SLAM具有深度估计的不确定性和绝对尺度丢失的缺点。
双目相机一般由水平放置的左眼相机和右眼相机组成,由于已知基线(两相机间的距离),在恢复深度时可以得到绝对尺度,但配置和标定均较为复杂,其深度量程和精度受双目的基线与分辨率所限,且视差的计算非常消耗计算资源[3,5](视差是左右图对应像素的横坐标之差)。根据视差可以估计深度(一个像素与相机之间的距离),
Figure BDA0002193334420000021
其中b为基线,d为视差,f为相机光心到像平面的距离。
RGBD相机不仅可以捕获图像信息,还可以提供场景深度。它的量程虽不如激光传感器那般广,但在室内的环境下,RGBD已然够用。应用RGBD可以直接获取图像深度,使得系统拥有绝对尺度,减免系统为了恢复像素点深度的计算。
Covisibility Graph:共视图,是一个无向有权图(Graph),这个概念最早来自2010的文章[Closing Loops Without Places]。在共视图中将每个关键帧作为一个节点,如果两个关键帧有相同的地图点(即它们有共视点),就把这两个节点连接起来,连接边的权重就是两个关键帧共享的地图点的个数。局部BA优化依赖的就是一个局部的共视图,全局BA优化依赖的就是一个全局的共视图。
由于共视图中边的数量较多,我们创建共视图的子图-本质图,保留全部的节点,但是选择更少的边。ORB-SLAM系统在第一个关键帧开始就维护一个生成树,每个关键帧只与共视点最多的相邻帧产生边。本质图包含生成树、共视地图点数量超过100的边和回环的边。
综上所述,传统的基于特征的SLAM重构的稀疏地图无法为后续工作(如导航、路径规划等)提供足够的有效信息。
发明内容
本发明所要解决的技术问题是如何构建更稠密的地图。
本发明解决上述技术问题的技术方案如下:一种基于特征的构建稠密地图的系统,包括:跟踪线程、滤波线程、局部地图线程和回环检测线程;
所述跟踪线程用于获取图像并提取特征点,通过所述追踪每帧所述图像中的位姿,所述跟踪线程还用于根据所述特征点和所述位姿对所述图像进行关键帧提取得到初始局部地图,并根据所述初始局部地图判断是否需要插入关键帧,所述跟踪线程还用于需要插入关键帧的时候根据预设方案得到插入关键帧的时间点;
所述滤波线程用于根据所述时间点插入关键帧,所述滤波线程还用于提取所述初始局部地图中的关键帧并进行Scharr滤波,得到所述初始局部地图中的关键帧的梯度图,并根据所述梯度图得到梯度信息,所述滤波线程还用于找出梯度信息大于阈值的所述特征点,所述滤波线程还用于根据梯度信息大于所述阈值的所述特征点找到在深度图内对应的深度信息Z,并找到深度值超过预设值的所述特征点作为忽略特征点,所述忽略特征点还包括无效的所述特征点,所述滤波线程还用于对所述图像进行第一次优化,所述第一次优化忽略所述忽略特征点;所述滤波线程还包括统计滤波器和体素滤波器,所述统计滤波器用于利用统计滤波器去除离群点,所述体素滤波器用于对三维空间进行降采样后获得降采样特征点,将所述降采样特征点存入所述初始局部地图得到云地图;
所述云地图线程用于对每帧所述云地图进行局部BA优化,获取共视图已连接的关键帧作为第一关键帧,搜索第一关键帧中未匹配的ORB特征的对应关系,并三角化所述第一关键帧的点云;
所述回环检测线程用于获取并检测每个所述第一关键帧,对形成闭环的所述第一关键帧计算相似变换得到闭环的累计误差,融合形成闭环的所述第一关键帧对应的点云中的重合部分,所述回环检测线程还用于对相似约束的位姿进行图优化。
本发明的有益效果是:通过增加滤波线程,为初始局部地图增加了特征点来表达更多的场景信息,通过具有更高梯度的图像重建稠密地图。
在上述技术方案的基础上,本发明还可以做如下改进。
进一步,所述跟踪线程包括位置识别模块,所述位置识别模块用于全局重定位,获取所述图像的特征点和最初相机位姿,并进行关键帧提取得到初始局部地图。
采用上述进一步方案的有益效果是,这样设置后,在跟踪线程出现跟踪丢失的情况后,能够通过位置识别模块对全局重新进行定位跟踪,完成初始局部地图的提取。
进一步,所述局部地图线程还用于根据点云筛选策略删除冗余关键帧。
进一步,所述阈值为10000。
进一步,所述滤波线程还用于根据下述相机模型
Figure BDA0002193334420000051
恢复该点在相机坐标系下的位置Pc=[X,Y,Z]T,Pc∈3×1,并利用所述Pc进行坐标变换得到变换矩阵,结合所述变换矩阵和所述统计滤波去除所述离群点;
其中[fx,fy]是沿xy轴的图像焦距,
Figure BDA0002193334420000054
是镜头光心在图像中的位置,Pw是指某一点的世界坐标。[u,v]为该点在图像像素平面的坐标,Z为深度信息Z。
进一步,所述坐标变换通过公式
Figure BDA0002193334420000052
将Puv变换成Pw,其中
Figure BDA0002193334420000053
称为变换矩阵。表示从世界坐标系W到相机坐标系C的变换,K为内参矩阵。
本发明附加的方面的优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本发明实践了解到。
附图说明
图1为本发明基于特征的构建稠密地图的系统的实施例的系统结构示意图。
具体实施方式
以下结合附图对本发明的原理和特征进行描述,所举实例只用于解释本发明,并非用于限定本发明的范围。
实施例基本如附图1所示:
本实施例中基于特征的构建稠密地图的系统,包括:跟踪线程、滤波线程、局部地图线程和回环检测线程;
跟踪线程用于获取图像并提取特征点,通过追踪每帧图像中的位姿,跟踪线程还用于根据特征点和位姿对图像进行关键帧提取得到初始局部地图,并根据初始局部地图判断是否需要插入关键帧,跟踪线程还用于需要插入关键帧的时候根据预设方案得到插入关键帧的时间点,本实施例中的预设方案为关键帧筛选准则,关键帧筛选准则具体为:
(1)距离上一次全局重定位超过20帧;
(2)局部建图线程处于空闲,或者距离上一次关键帧插入超过20帧;
(3)当前帧至少能追踪50个地图点;
(4)当前帧能追踪到的地图点要少于参考关键帧Kf中地图点的90%。
其中条件1确保一个良好的重定位,条件3保证一个良好的追踪,条件4保证了一个最小的视角变化。其中跟踪线程除了计算每帧的位姿,还有一个很重要的目的是确定当前帧是否可作为关键帧。由于在局部建图线程中会剔除冗余的关键帧,所以在关键帧插入时应该尽可能的迅速,从而使得追踪线程对相机的运动(尤其是旋转运动)更具有鲁棒性。图像插入频率过高会导致信息冗余度快速增加,而这些冗余的信息对系统的精度却十分有限,甚至没有提高,反而消耗了更多的计算资源;
滤波线程用于根据时间点插入关键帧,滤波线程还用于提取初始局部地图中的关键帧并进行Scharr滤波,得到初始局部地图中的关键帧的梯度图,并根据梯度图得到梯度信息,滤波线程还用于找出梯度信息大于阈值的特征点,滤波线程还用于根据梯度信息大于阈值的特征点找到在深度图内对应的深度信息Z,本实施例中的系统只适配有RGBD信息的系统,从RGBD信息中获取深度图;并找到深度值超过预设值的特征点作为忽略特征点,忽略特征点还包括无效的特征点,滤波线程还用于对图像进行第一次优化,第一次优化忽略忽略特征点;滤波线程还包括统计滤波器和体素滤波器,统计滤波器用于利用统计滤波器去除离群点,体素滤波器用于对三维空间进行降采样后获得降采样特征点,将降采样特征点存入初始局部地图得到云地图;
云地图线程用于对每帧云地图进行局部BA优化,获取共视图已连接的关键帧作为第一关键帧,搜索第一关键帧中未匹配的ORB特征的对应关系,并三角化第一关键帧的点云;
回环检测线程用于获取并检测每个第一关键帧,对形成闭环的第一关键帧计算相似变换得到闭环的累计误差,融合形成闭环的第一关键帧对应的点云中的重合部分,回环检测线程还用于对相似约束的位姿进行图优化。
本发明的有益效果是:通过增加滤波线程,为初始局部地图增加了特征点来表达更多的场景信息,通过具有更高梯度的图像重建稠密地图。
在上述技术方案的基础上,本发明还可以做如下改进。
可选的,在一些其它实施例中,跟踪线程包括位置识别模块,位置识别模块用于全局重定位,获取图像的特征点和最初相机位姿,并进行关键帧提取得到初始局部地图。
这样设置后,在跟踪线程出现跟踪丢失的情况后,能够通过位置识别模块对全局重新进行定位跟踪,完成初始局部地图的提取。
可选的,在一些其它实施例中,局部地图线程还用于根据点云筛选策略删除冗余关键帧,本实施例中的点云筛选策略包括两个条件:(1)超过25%的帧数在理论上可以观察到该地图点;(2)该地图点创建后能够被至少三个连续关键帧追踪到。本实施例中的删除冗余关键帧具体为:选择局部建图线程中正在处理的共视关键帧作为候选的关键帧,不包括第一帧关键帧与当前关键帧。具体如下:如果一个关键帧检测到的90%的地图点,在其他不少于三个关键帧里面都被检测到,就认定该关键帧冗余(该关键帧的存在提供的地图点观测信息有限),并剔除。
可选的,在一些其它实施例中,阈值为10000。
可选的,在一些其它实施例中,滤波线程还用于根据下述相机模型
Figure BDA0002193334420000081
恢复该点在相机坐标系下的位置Pc=[X,Y,Z]T,Pc∈3×1,并利用Pc进行坐标变换得到变换矩阵,结合变换矩阵和统计滤波去除离群点;
其中[fx,fy]是沿xy轴的图像焦距,
Figure BDA0002193334420000084
是镜头光心在图像中的位置,Pw是指某一点的世界坐标。[u,v]为该点在图像像素平面的坐标,Z为深度信息Z。
可选的,在一些其它实施例中,坐标变换通过公式
Figure BDA0002193334420000082
将Puv变换成Pw,其中
Figure BDA0002193334420000083
称为变换矩阵。表示从世界坐标系W到相机坐标系C的变换,K为内参矩阵。
需要说明的是,上述各实施例是与上述各方法实施例对应的产品实施例,对于本实施例中各结构装置及可选实施方式的说明可以参考上述各方法实施例中的对应说明,在此不再赘述。
读者应理解,在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不必针对的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任一个或多个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,上述描述的装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
以上,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到各种等效的修改或替换,这些修改或替换都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以权利要求的保护范围为准。

Claims (6)

1.一种基于特征的构建稠密地图的系统,其特征在于,包括:
跟踪线程、滤波线程、局部地图线程和回环检测线程;
所述跟踪线程用于获取图像并提取特征点,通过追踪每帧所述图像中的位姿,所述跟踪线程还用于根据所述特征点和所述位姿对所述图像进行关键帧提取得到初始局部地图,并根据所述初始局部地图判断是否需要插入关键帧,所述跟踪线程还用于需要插入关键帧的时候根据预设方案得到插入关键帧的时间点;
所述滤波线程用于根据所述时间点插入关键帧,所述滤波线程还用于提取所述初始局部地图中的关键帧并进行Scharr滤波,得到所述初始局部地图中的关键帧的梯度图,并根据所述梯度图得到梯度信息,所述滤波线程还用于找出梯度信息大于阈值的所述特征点,所述滤波线程还用于根据梯度信息大于所述阈值的所述特征点找到在深度图内对应的深度信息Z,并找到深度值超过预设值的所述特征点作为忽略特征点,所述忽略特征点还包括无效的所述特征点,所述滤波线程还用于对所述图像进行第一次优化,所述第一次优化忽略所述忽略特征点;所述滤波线程还包括统计滤波器和体素滤波器,所述统计滤波器用于利用统计滤波器去除离群点,所述体素滤波器用于对三维空间进行降采样后获得降采样特征点,将所述降采样特征点存入所述初始局部地图得到云地图;
所述云地图线程用于对每帧所述云地图进行局部BA优化,获取共视图已连接的关键帧作为第一关键帧,搜索第一关键帧中未匹配的ORB特征的对应关系,并三角化所述第一关键帧的点云;
所述回环检测线程用于获取并检测每个所述第一关键帧,对形成闭环的所述第一关键帧计算相似变换得到闭环的累计误差,融合形成闭环的所述第一关键帧对应的点云中的重合部分,所述回环检测线程还用于对相似约束的位姿进行图优化。
2.根据权利要求1所述的基于特征的构建稠密地图的系统,其特征在于:所述跟踪线程包括位置识别模块,所述位置识别模块用于全局重定位,获取所述图像的特征点和最初相机位姿,并进行关键帧提取得到初始局部地图。
3.根据权利要求1所述的基于特征的构建稠密地图的系统,其特征在于:所述局部地图线程还用于根据点云筛选策略删除冗余关键帧。
4.根据权利要求1所述的基于特征的构建稠密地图的系统,其特征在于:所述阈值为10000。
5.根据权利要求1所述的基于特征的构建稠密地图的系统,其特征在于:
所述滤波线程还用于根据下述相机模型
Figure FDA0002193334410000021
恢复该点在相机坐标系下的位置Pc=[X,Y,Z]T,Pc∈3×1,并利用所述Pc进行坐标变换得到变换矩阵,结合所述变换矩阵和所述统计滤波去除所述离群点;
其中[fx,fy]是沿xy轴的图像焦距,
Figure FDA0002193334410000022
是镜头光心在图像中的位置,Pw是指某一点的世界坐标, [u,v]为该点在图像像素平面的坐标,Z为深度信息Z。
6.根据权利要求5所述的基于特征的构建稠密地图的系统,其特征在于:
所述坐标变换通过公式
Figure FDA0002193334410000031
将Puv变换成Pw,其中
Figure FDA0002193334410000032
称为变换矩阵, 表示从世界坐标系W到相机坐标系C的变换,K为内参矩阵。
CN201910839830.6A 2019-09-06 2019-09-06 一种基于特征的构建稠密地图的系统 Active CN110599545B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910839830.6A CN110599545B (zh) 2019-09-06 2019-09-06 一种基于特征的构建稠密地图的系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910839830.6A CN110599545B (zh) 2019-09-06 2019-09-06 一种基于特征的构建稠密地图的系统

Publications (2)

Publication Number Publication Date
CN110599545A CN110599545A (zh) 2019-12-20
CN110599545B true CN110599545B (zh) 2022-12-02

Family

ID=68857841

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910839830.6A Active CN110599545B (zh) 2019-09-06 2019-09-06 一种基于特征的构建稠密地图的系统

Country Status (1)

Country Link
CN (1) CN110599545B (zh)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113091767B (zh) * 2020-01-09 2022-08-30 舜宇光学(浙江)研究院有限公司 滤波式后端回环校正方法及其系统和电子设备
CN111539982B (zh) * 2020-04-17 2023-09-15 北京维盛泰科科技有限公司 一种移动平台中基于非线性优化的视觉惯导初始化方法
CN111784841A (zh) * 2020-06-05 2020-10-16 中国人民解放军军事科学院国防科技创新研究院 重建三维图像的方法、装置、电子设备及介质
CN111998862B (zh) * 2020-07-02 2023-05-16 中山大学 一种基于bnn的稠密双目slam方法
CN112581590B (zh) * 2020-12-28 2021-06-08 广东工业大学 一种5g安防救援网联的无人机云边端协同控制方法
CN113058175B (zh) * 2021-04-22 2022-08-30 河北地质大学 火场地图动态重构及危险品边缘检测的消防面罩

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105976391A (zh) * 2016-05-27 2016-09-28 西北工业大学 基于orb-slam的多摄像机标定方法
CN107657640A (zh) * 2017-09-30 2018-02-02 南京大典科技有限公司 基于orb slam的智能巡防巡检管理方法
CN107808407A (zh) * 2017-10-16 2018-03-16 亿航智能设备(广州)有限公司 基于双目相机的无人机视觉slam方法、无人机及存储介质
CN108520554A (zh) * 2018-04-12 2018-09-11 无锡信捷电气股份有限公司 一种基于orb-slam2的双目三维稠密建图方法
CN108648270A (zh) * 2018-05-12 2018-10-12 西北工业大学 基于eg-slam的无人机实时三维场景重建方法
JP2018205949A (ja) * 2017-06-01 2018-12-27 株式会社豊田中央研究所 環境地図生成方法、環境地図生成装置、及び環境地図生成プログラム
CN109509230A (zh) * 2018-11-13 2019-03-22 武汉大学 一种应用于多镜头组合式全景相机的slam方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11199414B2 (en) * 2016-09-14 2021-12-14 Zhejiang University Method for simultaneous localization and mapping
CA3000134C (en) * 2017-11-27 2019-07-02 Cae Inc. Method and system for simulating a radar image

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105976391A (zh) * 2016-05-27 2016-09-28 西北工业大学 基于orb-slam的多摄像机标定方法
JP2018205949A (ja) * 2017-06-01 2018-12-27 株式会社豊田中央研究所 環境地図生成方法、環境地図生成装置、及び環境地図生成プログラム
CN107657640A (zh) * 2017-09-30 2018-02-02 南京大典科技有限公司 基于orb slam的智能巡防巡检管理方法
CN107808407A (zh) * 2017-10-16 2018-03-16 亿航智能设备(广州)有限公司 基于双目相机的无人机视觉slam方法、无人机及存储介质
CN108520554A (zh) * 2018-04-12 2018-09-11 无锡信捷电气股份有限公司 一种基于orb-slam2的双目三维稠密建图方法
CN108648270A (zh) * 2018-05-12 2018-10-12 西北工业大学 基于eg-slam的无人机实时三维场景重建方法
CN109509230A (zh) * 2018-11-13 2019-03-22 武汉大学 一种应用于多镜头组合式全景相机的slam方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
融合直接法与特征法的快速双目SLAM算法;张国良等;《机器人》;20171115(第06期);全文 *

Also Published As

Publication number Publication date
CN110599545A (zh) 2019-12-20

Similar Documents

Publication Publication Date Title
CN110599545B (zh) 一种基于特征的构建稠密地图的系统
CN111968129B (zh) 具有语义感知的即时定位与地图构建系统及方法
Sattler et al. Benchmarking 6dof outdoor visual localization in changing conditions
CN109631855B (zh) 基于orb-slam的高精度车辆定位方法
CN112785702A (zh) 一种基于2d激光雷达和双目相机紧耦合的slam方法
CN112634451A (zh) 一种融合多传感器的室外大场景三维建图方法
CN111340922A (zh) 定位与地图构建的方法和电子设备
CN112419497A (zh) 基于单目视觉的特征法与直接法相融合的slam方法
Bethmann et al. Semi-global matching in object space
CN113223045A (zh) 基于动态物体语义分割的视觉与imu传感器融合定位系统
Alcantarilla et al. Large-scale dense 3D reconstruction from stereo imagery
Zhan et al. A slam map restoration algorithm based on submaps and an undirected connected graph
Tao et al. Automated processing of mobile mapping image sequences
Fehr et al. Reshaping our model of the world over time
CN107358624B (zh) 单目稠密即时定位与地图重建方法
Rothermel et al. Fast and robust generation of semantic urban terrain models from UAV video streams
Zhu et al. PairCon-SLAM: Distributed, online, and real-time RGBD-SLAM in large scenarios
Griffith et al. Survey registration for long‐term natural environment monitoring
Shao A Monocular SLAM System Based on the ORB Features
CN107194334B (zh) 基于光流模型的视频卫星影像密集匹配方法及系统
Li et al. Feature-based SLAM for dense mapping
Yang et al. Road detection by RANSAC on randomly sampled patches with slanted plane prior
CN111583331B (zh) 用于同时定位和地图构建的方法及装置
CN111127474B (zh) 机载LiDAR点云辅助的正射影像镶嵌线自动选取方法及系统
Ding et al. Stereo vision SLAM-based 3D reconstruction on UAV development platforms

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant