CN109615698A - 基于互回环检测的多无人机slam地图融合算法 - Google Patents
基于互回环检测的多无人机slam地图融合算法 Download PDFInfo
- Publication number
- CN109615698A CN109615698A CN201811476993.4A CN201811476993A CN109615698A CN 109615698 A CN109615698 A CN 109615698A CN 201811476993 A CN201811476993 A CN 201811476993A CN 109615698 A CN109615698 A CN 109615698A
- Authority
- CN
- China
- Prior art keywords
- map
- algorithm
- information
- point
- uav
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000004804 winding Methods 0.000 title claims abstract description 18
- 238000001514 detection method Methods 0.000 title claims abstract description 15
- 238000002156 mixing Methods 0.000 title claims abstract description 14
- 230000033001 locomotion Effects 0.000 claims abstract description 17
- 230000004927 fusion Effects 0.000 claims abstract description 16
- 238000012545 processing Methods 0.000 claims description 11
- 238000005457 optimization Methods 0.000 claims description 8
- 239000011159 matrix material Substances 0.000 claims description 7
- 238000013519 translation Methods 0.000 claims description 3
- 238000011160 research Methods 0.000 description 9
- 238000000034 method Methods 0.000 description 6
- 238000004891 communication Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 238000009825 accumulation Methods 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000005265 energy consumption Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 206010033799 Paralysis Diseases 0.000 description 1
- 230000002411 adverse Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 239000000155 melt Substances 0.000 description 1
- 230000010181 polygamy Effects 0.000 description 1
- 230000009897 systematic effect Effects 0.000 description 1
- 239000002699 waste material Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/05—Geographic models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Geometry (AREA)
- Data Mining & Analysis (AREA)
- Software Systems (AREA)
- Computer Graphics (AREA)
- Remote Sensing (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
本发明提供了一种基于互回环检测的多无人机SLAM地图融合算法,对来自不同无人机的关键帧信息,使用BOW算法快速比较其图像特征,检测出两个UAV或者更多UAV到过相同的位置,通过检测建立2个或者更多关键帧之间的关联信息。在特征的选择上,使用ORB特征代替BOW算法中使用的SIFT特征来优化词袋模型。当检测出相似场景时,对特征点进行匹配,并且去除错误匹配,然后执行点云地图的融合,使用增强版迭代最邻近点算法,其中包括曲面法线和切线信息的匹配,改善对运动方程的估算结果。本发明通过利用来自不同无人机的地图信息,融合地图,增加回环的个数,提高全了局地图精度和提高整个系统鲁棒性。
Description
技术领域
本发明涉及多无人机即时定位与地图构建技术领域,尤其涉及一种多无人机SLAM地图融合算法。
背景技术
在未知环境下,无人机可以对自身位置和姿态进行估计,是能够有效完成任务的关键技术。当无人机在低空,低速行驶时,使用全球定位系统(Global PositioningSystem,GPS)和惯性导航系统(Inertial Navigation System,INS)等方法可以获得飞行所需的位置、速度等信息,满足在城市中的飞行需求。但是GPS和INS存在使用的局限性,GPS的误差范围为3-10米,而且在室内环境和高山、峡谷等恶劣环境下由于信号弱导致无法正常工作。同时,INS会随着无人机的不断运动,造成误差的逐渐积累。在这种情况下,使用同步定位与建图(Simultaneous Localization and Mapping,SLAM)可以解决无人机在未知环境下,对位置和姿态的估计。对位姿的估计是实现无人机自主飞行和自主导航等智能化飞行的关键环节。
按照搭载使用传感器的不同,可以分成激光SLAM和视觉SLAM,使用SLAM对位姿进行估计,需要对环境信息进行采集,在研究的过程中,人们使用了很多种传感器,例如将声呐,激光,红外和视觉等应用在SLAM算法当中。由于激光传感器具有能够精确测量出与被观测对象之间的距离和角度信息的优点,在很长的研究过程中,激光传感器都是SLAM算法研究的首选研究对象。因此,有关激光SLAM算法相关研究已经较为成熟,其中一些优秀的解决方案已经投入商用。视觉传感器,具有重量轻便、体积较小、能耗低、价格低廉等优势,同时在地图的构建中可能提取更多的信息量。相对比于机器人来说,无人机的运动场景更加灵活,具有质量轻便,按照功能可以设计的较小,价格较为廉价等优点。可以适用于户外、野外等环境恶劣的条件下进行勘测。同样的由于无人机的负载能力有限,也造成了不能搭载过多的传感器,因此,在传感器有限的环境下,无人机可以较好的实现对自身位姿进行估计显得格外重要。视觉SLAM逐渐成为SLAM研究的主流方向。
搭载激光传感器的SLAM长期作为SLAM算法研究的主流方向,但如果将激光搭载在无人机上,无人机负载能力有限,电池的续航也不如地面机器人,因此,激光传感器也同样存在体积大、能耗高、成本过高等缺点,在小型飞行器和低成本的设计方案中难以使用。因此,近几年有关视觉SLAM的研究引起了广泛的关注。视觉SLAM面临的问题是,随着无人机的不断运行,定位漂移会逐渐累积,造成地图的大面积失真。虽然后端单机的回环检测可以有效缓解误差的积累。但是为了增加回环的次数,就会造成无人机大量的环路运动,转弯次数增多,同时单位时间内的覆盖区域也显著减小。因此如何采用多无人机协作完成SLAM是很有必要的。
在现有的研究中,多无人机的协作没有成熟、系统的研究成果,在机器人的研究领域主要将多机协作分成集中式和分布式两种。更多的研究停留在基于卡尔曼滤波作为后端优化的多机协作,随着无人机的运动,使用滤波作为后端处理的方案的计算量成指数型上升,不适合应用在工程中。
集中式系统是指有一个主无人机承担中央处理器的任务,其他无人机会将自身信息传递给住无人机,这种协作方式会造成一旦中央处理器出现故障,整个系统将陷入瘫痪,随着代理机的增多,中央模块的计算量增大,通信也需要很大的带宽,可靠性也会降低,整个多无人机系统的鲁棒性很差。
分布式系统是指每个无人机可以从不同的位置出发,无人机需要向周边其他无人机共享自身信息,这种方案每个无人机都能得到一个全局地图,分布式的灵活性和鲁棒性更好。但是和集中式的只需要无人机都和中央处理器保持通信相比较而言,分布式需要保证所有无人机之间通信正常,不适合环境较为复杂的场景,信号遮挡较为严重。同时分布式系统,来自其他无人机的信息全部转化为自身坐标系下的地图,这样就需要每个无人机系统都搭载高速度,计算能力很强的处理器,这本身也会造成资源的浪费。
发明内容
针对多无人机未知环境下的即时定位和地图的构建,本发明提出一种基于互回环检测的协作方式,在有重合地点被检测的同时,融合地图并对全局地图进行优化。
本发明具体通过如下技术方案实现:
一种基于互回环检测的多无人机SLAM地图融合算法,无人机i与无人机j分别独立运动,在进行地图构建的同时进行位姿估计,当中央处理器检测出两个相关联关键帧图片时,在中央处理器执行所述融合算法,得到全局地图;所述算法包括:
S1、对来自不同无人机的关键帧信息,使用BOW算法快速比较其图像特征,检测出两个UAV或者更多UAV到过相同的位置,通过检测建立2个或者更多关键帧之间的关联信息;
S2、当检测出相似场景时,对特征点进行匹配,并且去除错误匹配,然后执行点云地图的融合;此时,来自不同无人机的地图将被合并为一个全局地图;
S3、采用光束平差优化算法对全局地图进行优化,关键帧图像的更新姿势被反馈到每个UAV,以依次改进其局部估计和局部地图。
作为本发明的进一步改进,使用ORB特征代替BOW算法中使用的SIFT特征来优化词袋模型。。
作为本发明的进一步改进,所述步骤S2中,使用增强版迭代最邻近点算法,其中包括曲面法线和切线信息的匹配,改善对运动方程的估算结果;所述增强版迭代最邻近点算法具体包括:当通过相对运动对两组二维或三维点进行配准和对准时,采用迭代连续求解最优值,通过找到下式中所示的最小二乘问题的最优解来建模上述问题:
其中P={pi|i=1,...,n}和Q={qi|i=1,...,n}分别是来自不同无人机的3D特征点集,其3D坐标为通过连续迭代旋转矩阵R和平移矩阵t,可以得到运动变换矩阵T=[R,t];通过运动变换矩阵T,可以得到从源点集Q到目标点集P的合并映射。
本发明的有益效果是:为了解决现有技术中的单无人机SLAM算法局限性和分布式集中式各自存在的弊端,本发明采用多无人机系统和视觉SLAM相结合,以集中式算法设计出发,设计一种基于多无人机互回环检测来融合地图的算法,通过利用来自不同无人机的地图信息,融合地图,增加回环的个数,提高全了局地图精度和提高整个系统鲁棒性。
附图说明
图1是地图融合示意图;
图2是基于MLC的地图融合总体流程示意图;
图3是单独的UAV的位姿图和点云图;
图4是点云融合地图;
图5是位姿融合地图;
图6是点云数目对比结果;
图7是关键帧数目对比结果。
具体实施方式
下面结合附图说明及具体实施方式对本发明进一步说明。
首先,给出本文涉及的若干概念定义:
KeyFrame:关键帧图片,与相邻图片具有一定差异性,避免所有采集照片都进行处理;
Link-node:相关节点,相同位置建立关联性的节点;
uavLabel:无人机的编号;
Pose graph:无人机的位姿图,位姿矩阵在图像中的变化。
图1所示的是地图融合的示例,无人机1与无人机2分别单独运动,在进行地图构建的同时进行位姿估计,当中央处理器检测出两个相关联关键帧图片时,在中央处理器执行融合优化算法,得到全局地图;并将全局地图共享到单独的每一个无人机,对每个无人机的定位信息作出调整。
中央处理器可由云服务器承担,无人机和云端保持通信,可以减小因为某个无人机破坏对整个任务的影响。在云端完成了关键帧的检测和融合后,将全局地图反馈到每个无人机,提高整个系统的可靠性和鲁棒性。
本发明提出的基于互回环检测(Mutually Loop Closing,MLC)的地图融合算法,对来自不同无人机的关键帧信息,本发明使用Bag of Word(BOW)技术快速比较其图像特征,检测出两个UAV或者更多UAV到过相同的位置,通过检测建立2个或者更多关键帧之间的关联信息。在特征的选择上,本发明可以使用ORB特征代替BOW算法中使用的SIFT特征来优化词袋模型。当检测出相似场景时,对特征点进行匹配,并且去除错误匹配,然后执行点云地图的融合,使用增强版迭代最邻近点(Iterative Closest Point,ICP),其中包括曲面法线和切线信息的匹配,改善对运动方程的估算结果。
此时,来自不同无人机的地图将被合并为一个全局地图。在算法的最后,对全局地图进行优化,运行光束平差优化(Bundle Adjustment,BA,又称为捆集优化)算法。关键帧图像的更新姿势被反馈到每个UAV,以依次改进其局部估计和局部地图。
算法的伪代码描述如表1:
表1基于MLC的地图融合算法
当用于通过相对运动对两组二维或三维点进行配准和对准时,ICP可以通过迭代连续求解最优值。可以通过找到式(1)中所示的最小二乘问题的最优解来建模该问题:
其中P={pi|i=1,...,n}和Q={qi|i=1,...,n}分别是来自不同无人机的3D特征点集,其3D坐标为通过连续迭代旋转矩阵R和平移矩阵t,可以得到运动变换矩阵T=[R,t]。通过运动变换矩阵T,可以得到从源点集Q到目标点集P的合并映射。
在ICP程序之后,需要建立不同无人机地图之间的关系。然后,使用这些图像对几何特征点进行三角剖分。构造的三角形可以确定三维点的位置。最后,计算三维点的坐标以重新投影相机矩阵。这个问题可以在式(2)中显示:
其中,R∈SO(3)表示相机方向优化,是相机位置。和分别表示世界坐标和关键点中匹配的3D点之间的最小化重投影误差。单目相机或立体相机i∈χ表示具有所有匹配的集合。基于MLC的地图融合的整体执行流程框图如图2所示。
每个单独无人机的位姿图和点云图如图3所示,根据MLC地图融合算法,两个平台的关键帧数据,基于相互回环检测,地图的融合结果如图4所示,可以清楚地看到通过多机融合获得的地图,多机融合优于独立,并且可以使用地图,观察到的环境信息。
它显示了图4中的合并点云图。根据协同可视SLAM框架合并算法,来自不同代理的点云图被合并为相对完整的全局点云图。在图5中可以看到,通过信息的融合,路径图增加了循环次数,并提高了定位精度。
图6和图7分别描述了单机系统和多机系统中的地图点的数量和生成的关键帧的数量。在相同的环境中,多UAV系统的地图点数量多于独立系统的数量。相反,关键帧的数量少于独立系统的数量。可以得出结论,多机系统可以减少提取的关键帧的数量和算法的复杂性。然而,多机系统具有更多的地图点,更多的融合地图信息和更高的地图精度。
表2描述了闭环的次数,其中,在多机系统中通过多机信息融合可以增加往复循环的数量,从而提高整个系统的定位精度和鲁棒性。
表2闭环次数对比
单个无人机 | 多无人机系统 | |
回环个数 | 6 | 13 |
互回环个数 | - | 7 |
综上所述,本发明设计了一种基于互回环检测的地图融合算法,对于关键点检测和地图融合给出了详细的方案和算法描述。算法通过利用来自不同无人机的地图信息,融合地图,增加回环的个数,提高全了局地图精度和提高整个系统鲁棒性。通过对算法的实验和仿真,得出本文算法适用于多无人机系统的SLAM。计算功能更强大的中央服务器会聚合他们各自的位置信息和地图,检测回环和合并地图。最后将合并和优化的信息传递回代理,代理能够对更新的信息进行操作,从而实现更好的一致性估计。
以上所述仅为本发明的优选实施例,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本发明的专利保护范围内。对于本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干简单推演或替换,都应当视为属于本发明的保护范围。
Claims (3)
1.一种基于互回环检测的多无人机SLAM地图融合算法,无人机i与无人机j分别独立运动,在进行地图构建的同时进行位姿估计,当中央处理器检测出两个相关联关键帧图片时,在中央处理器执行所述融合算法,得到全局地图;其特征在于:所述算法包括:
S1、对来自不同无人机的关键帧信息,使用BOW算法快速比较其图像特征,检测出两个UAV或者更多UAV到过相同的位置,通过检测建立2个或者更多关键帧之间的关联信息;
S2、当检测出相似场景时,对特征点进行匹配,并且去除错误匹配,然后执行点云地图的融合;此时,来自不同无人机的地图将被合并为一个全局地图;
S3、采用光束平差优化算法对全局地图进行优化,关键帧图像的更新姿势被反馈到每个UAV,以依次改进其局部估计和局部地图。
2.根据权利要求1所述的地图融合算法,其特征在于:使用ORB特征代替BOW算法中使用的SIFT特征来优化词袋模型。
3.根据权利要求1所述的地图融合算法,其特征在于:所述步骤S2中,使用增强版迭代最邻近点算法,其中包括曲面法线和切线信息的匹配,改善对运动方程的估算结果;所述增强版迭代最邻近点算法具体包括:当通过相对运动对两组二维或三维点进行配准和对准时,采用迭代连续求解最优值,通过找到下式中所示的最小二乘问题的最优解来建模上述问题:
其中P={pi|i=1,...,n}和Q={qi|i=1,...,n}分别是来自不同无人机的3D特征点集,其3D坐标为通过连续迭代旋转矩阵R和平移矩阵t,可以得到运动变换矩阵T=[R,t];通过运动变换矩阵T,可以得到从源点集Q到目标点集P的合并映射。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811476993.4A CN109615698A (zh) | 2018-12-03 | 2018-12-03 | 基于互回环检测的多无人机slam地图融合算法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811476993.4A CN109615698A (zh) | 2018-12-03 | 2018-12-03 | 基于互回环检测的多无人机slam地图融合算法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109615698A true CN109615698A (zh) | 2019-04-12 |
Family
ID=66006560
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811476993.4A Pending CN109615698A (zh) | 2018-12-03 | 2018-12-03 | 基于互回环检测的多无人机slam地图融合算法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109615698A (zh) |
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110243381A (zh) * | 2019-07-11 | 2019-09-17 | 北京理工大学 | 一种陆空机器人协同感知监测方法 |
CN110580740A (zh) * | 2019-08-27 | 2019-12-17 | 清华大学 | 多智能体协同三维建模方法及装置 |
CN111080659A (zh) * | 2019-12-19 | 2020-04-28 | 哈尔滨工业大学 | 一种基于视觉信息的环境语义感知方法 |
CN111176324A (zh) * | 2019-12-31 | 2020-05-19 | 航天时代飞鸿技术有限公司 | 一种多无人机分布式协同编队规避动态障碍的方法 |
CN111325794A (zh) * | 2020-02-23 | 2020-06-23 | 哈尔滨工业大学 | 一种基于深度卷积自编码器的视觉同时定位与地图构建方法 |
CN111462141A (zh) * | 2020-05-19 | 2020-07-28 | 北京爱笔科技有限公司 | 点云平面的获取方法及装置、设备、计算机可读存储介质 |
CN111553975A (zh) * | 2020-04-27 | 2020-08-18 | 武汉易维晟医疗科技有限公司 | 一种手持式三维扫描系统的实时回环检测方法 |
CN111812978A (zh) * | 2020-06-12 | 2020-10-23 | 哈尔滨工业大学(深圳)(哈尔滨工业大学深圳科技创新研究院) | 一种多无人机协作slam方法与系统 |
CN111881233A (zh) * | 2020-06-28 | 2020-11-03 | 广州文远知行科技有限公司 | 分布式点云地图构建方法和装置、服务器、计算机可读存储介质 |
CN112000130A (zh) * | 2020-09-07 | 2020-11-27 | 哈尔滨工业大学 | 一种无人机的多机协同高精度建图定位系统 |
CN112949292A (zh) * | 2021-01-21 | 2021-06-11 | 中国人民解放军61540部队 | 集群无人机回传数据处理方法和装置、设备及存储介质 |
CN113091767A (zh) * | 2020-01-09 | 2021-07-09 | 舜宇光学(浙江)研究院有限公司 | 滤波式后端回环校正方法及其系统和电子设备 |
JP2022518810A (ja) * | 2019-06-27 | 2022-03-16 | 浙江商▲湯▼科技▲開▼▲発▼有限公司 | 共有地図に基づいた測位方法及び装置、電子機器並びに記憶媒体 |
CN114964269A (zh) * | 2022-08-01 | 2022-08-30 | 成都航空职业技术学院 | 一种无人机路径规划方法 |
CN115631319A (zh) * | 2022-11-02 | 2023-01-20 | 北京科技大学 | 一种基于交叉注意力网络的回环检测方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106595659A (zh) * | 2016-11-03 | 2017-04-26 | 南京航空航天大学 | 城市复杂环境下多无人机视觉slam的地图融合方法 |
CN108227717A (zh) * | 2018-01-30 | 2018-06-29 | 中国人民解放军陆军装甲兵学院 | 基于orb特征的多移动机器人地图融合方法及融合平台 |
-
2018
- 2018-12-03 CN CN201811476993.4A patent/CN109615698A/zh active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106595659A (zh) * | 2016-11-03 | 2017-04-26 | 南京航空航天大学 | 城市复杂环境下多无人机视觉slam的地图融合方法 |
CN108227717A (zh) * | 2018-01-30 | 2018-06-29 | 中国人民解放军陆军装甲兵学院 | 基于orb特征的多移动机器人地图融合方法及融合平台 |
Non-Patent Citations (7)
Title |
---|
SCHMUCK, PATRIK等: "Multi-UAV Collaborative Monocular SLAM", 《2017 IEEE INTERNATIONAL CONFERENCE ON ROBOTICS AND AUTOMATION (ICRA)(2017)》 * |
SCHMUCK, PATRIK等: "Multi-UAV Collaborative Monocular SLAM", 《2017 IEEE INTERNATIONAL CONFERENCE ON ROBOTICS AND AUTOMATION (ICRA)(2017)》, 31 December 2017 (2017-12-31) * |
刘彤等: "基于结构持久图和视觉定位的多机器人编队生成与控制", 《信息与控制》, vol. 47, no. 3, pages 2 * |
沈燕芬等: "ORB-SLAM2车载双目视觉的自主导航性能评估", 《导航定位学报》, vol. 6, no. 2, pages 2 * |
赵彤等: "三阶段局部双目光束法平差视觉里程计", 《光电工程》, vol. 34, no. 11, pages 3 * |
钟莹等: "基于改进ICP算法的点云自动配准技术", 《控制工程》 * |
钟莹等: "基于改进ICP算法的点云自动配准技术", 《控制工程》, vol. 24, no. 01, 20 January 2014 (2014-01-20), pages 3 * |
Cited By (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7261889B2 (ja) | 2019-06-27 | 2023-04-20 | 浙江商▲湯▼科技▲開▼▲発▼有限公司 | 共有地図に基づいた測位方法及び装置、電子機器並びに記憶媒体 |
JP2022518810A (ja) * | 2019-06-27 | 2022-03-16 | 浙江商▲湯▼科技▲開▼▲発▼有限公司 | 共有地図に基づいた測位方法及び装置、電子機器並びに記憶媒体 |
CN110243381A (zh) * | 2019-07-11 | 2019-09-17 | 北京理工大学 | 一种陆空机器人协同感知监测方法 |
CN110243381B (zh) * | 2019-07-11 | 2020-10-30 | 北京理工大学 | 一种陆空机器人协同感知监测方法 |
CN110580740B (zh) * | 2019-08-27 | 2021-08-20 | 清华大学 | 多智能体协同三维建模方法及装置 |
CN110580740A (zh) * | 2019-08-27 | 2019-12-17 | 清华大学 | 多智能体协同三维建模方法及装置 |
CN111080659A (zh) * | 2019-12-19 | 2020-04-28 | 哈尔滨工业大学 | 一种基于视觉信息的环境语义感知方法 |
CN111176324A (zh) * | 2019-12-31 | 2020-05-19 | 航天时代飞鸿技术有限公司 | 一种多无人机分布式协同编队规避动态障碍的方法 |
CN111176324B (zh) * | 2019-12-31 | 2023-08-11 | 航天时代飞鸿技术有限公司 | 一种多无人机分布式协同编队规避动态障碍的方法 |
CN113091767B (zh) * | 2020-01-09 | 2022-08-30 | 舜宇光学(浙江)研究院有限公司 | 滤波式后端回环校正方法及其系统和电子设备 |
CN113091767A (zh) * | 2020-01-09 | 2021-07-09 | 舜宇光学(浙江)研究院有限公司 | 滤波式后端回环校正方法及其系统和电子设备 |
CN111325794B (zh) * | 2020-02-23 | 2023-05-26 | 哈尔滨工业大学 | 一种基于深度卷积自编码器的视觉同时定位与地图构建方法 |
CN111325794A (zh) * | 2020-02-23 | 2020-06-23 | 哈尔滨工业大学 | 一种基于深度卷积自编码器的视觉同时定位与地图构建方法 |
CN111553975A (zh) * | 2020-04-27 | 2020-08-18 | 武汉易维晟医疗科技有限公司 | 一种手持式三维扫描系统的实时回环检测方法 |
CN111553975B (zh) * | 2020-04-27 | 2022-04-22 | 武汉易维晟医疗科技有限公司 | 一种手持式三维扫描系统的实时回环检测方法 |
CN111462141A (zh) * | 2020-05-19 | 2020-07-28 | 北京爱笔科技有限公司 | 点云平面的获取方法及装置、设备、计算机可读存储介质 |
CN111462141B (zh) * | 2020-05-19 | 2024-01-12 | 北京爱笔科技有限公司 | 点云平面的获取方法及装置、设备、计算机可读存储介质 |
CN111812978A (zh) * | 2020-06-12 | 2020-10-23 | 哈尔滨工业大学(深圳)(哈尔滨工业大学深圳科技创新研究院) | 一种多无人机协作slam方法与系统 |
CN111881233B (zh) * | 2020-06-28 | 2022-01-18 | 广州文远知行科技有限公司 | 分布式点云地图构建方法和装置、服务器、计算机可读存储介质 |
CN111881233A (zh) * | 2020-06-28 | 2020-11-03 | 广州文远知行科技有限公司 | 分布式点云地图构建方法和装置、服务器、计算机可读存储介质 |
CN112000130A (zh) * | 2020-09-07 | 2020-11-27 | 哈尔滨工业大学 | 一种无人机的多机协同高精度建图定位系统 |
CN112949292A (zh) * | 2021-01-21 | 2021-06-11 | 中国人民解放军61540部队 | 集群无人机回传数据处理方法和装置、设备及存储介质 |
CN112949292B (zh) * | 2021-01-21 | 2024-04-05 | 中国人民解放军61540部队 | 集群无人机回传数据处理方法和装置、设备及存储介质 |
CN114964269A (zh) * | 2022-08-01 | 2022-08-30 | 成都航空职业技术学院 | 一种无人机路径规划方法 |
CN114964269B (zh) * | 2022-08-01 | 2022-11-08 | 成都航空职业技术学院 | 一种无人机路径规划方法 |
CN115631319A (zh) * | 2022-11-02 | 2023-01-20 | 北京科技大学 | 一种基于交叉注意力网络的回环检测方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109615698A (zh) | 基于互回环检测的多无人机slam地图融合算法 | |
Feng et al. | 2d3d-matchnet: Learning to match keypoints across 2d image and 3d point cloud | |
CN111561923B (zh) | 基于多传感器融合的slam制图方法、系统 | |
Strecha et al. | Dynamic and scalable large scale image reconstruction | |
CN105678754B (zh) | 一种无人机实时地图重建方法 | |
CN112734852B (zh) | 一种机器人建图方法、装置及计算设备 | |
US10269148B2 (en) | Real-time image undistortion for incremental 3D reconstruction | |
Xu et al. | Indoor localization via multi-modal sensing on smartphones | |
Majdik et al. | Air‐ground matching: Appearance‐based GPS‐denied urban localization of micro aerial vehicles | |
US20180315232A1 (en) | Real-time incremental 3d reconstruction of sensor data | |
CN103646391A (zh) | 一种针对动态变化场景的实时摄像机跟踪方法 | |
CN113168717A (zh) | 一种点云匹配方法及装置、导航方法及设备、定位方法、激光雷达 | |
Honegger et al. | Embedded real-time multi-baseline stereo | |
CN110599545B (zh) | 一种基于特征的构建稠密地图的系统 | |
Lin et al. | R $^ 3$ LIVE++: A Robust, Real-time, Radiance reconstruction package with a tightly-coupled LiDAR-Inertial-Visual state Estimator | |
Zhao et al. | RTSfM: Real-time structure from motion for mosaicing and DSM mapping of sequential aerial images with low overlap | |
Zhang | LILO: A Novel Lidar–IMU SLAM System With Loop Optimization | |
Wen et al. | Joint optimization based on direct sparse stereo visual-inertial odometry | |
Dai et al. | A review of common techniques for visual simultaneous localization and mapping | |
Morales et al. | Real-time adaptive obstacle detection based on an image database | |
Sheikh et al. | Geodetic alignment of aerial video frames | |
CN115830116A (zh) | 一种鲁棒视觉里程计方法 | |
Porzi et al. | An automatic image-to-DEM alignment approach for annotating mountains pictures on a smartphone | |
CN115597592B (zh) | 一种应用于无人机巡检的综合定位方法 | |
Meyer et al. | Long-term visual localization in large scale urban environments exploiting street level imagery |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20190412 |
|
RJ01 | Rejection of invention patent application after publication |