CN111369628A - 一种多相机集中式协同slam方法及系统 - Google Patents
一种多相机集中式协同slam方法及系统 Download PDFInfo
- Publication number
- CN111369628A CN111369628A CN202010147198.1A CN202010147198A CN111369628A CN 111369628 A CN111369628 A CN 111369628A CN 202010147198 A CN202010147198 A CN 202010147198A CN 111369628 A CN111369628 A CN 111369628A
- Authority
- CN
- China
- Prior art keywords
- map
- server
- client
- camera
- message
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 40
- 238000004891 communication Methods 0.000 claims description 48
- 230000000007 visual effect Effects 0.000 claims description 37
- 238000005457 optimization Methods 0.000 claims description 27
- 230000009466 transformation Effects 0.000 claims description 24
- 238000013507 mapping Methods 0.000 claims description 13
- 238000001514 detection method Methods 0.000 claims description 11
- 238000005516 engineering process Methods 0.000 abstract description 7
- 230000003190 augmentative effect Effects 0.000 abstract description 3
- 230000005540 biological transmission Effects 0.000 description 3
- 238000004422 calculation algorithm Methods 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 239000013598 vector Substances 0.000 description 3
- 238000012897 Levenberg–Marquardt algorithm Methods 0.000 description 2
- 230000004807 localization Effects 0.000 description 2
- 230000007774 longterm Effects 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012856 packing Methods 0.000 description 2
- 238000013519 translation Methods 0.000 description 2
- 241000274965 Cyrestis thyodamas Species 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013523 data management Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/20—Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
- G06F16/29—Geographical information databases
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
- G06T7/248—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/292—Multi-camera tracking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/579—Depth or shape recovery from multiple images from motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/77—Determining position or orientation of objects or cameras using statistical methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Databases & Information Systems (AREA)
- Data Mining & Analysis (AREA)
- Remote Sensing (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Probability & Statistics with Applications (AREA)
- Processing Or Creating Images (AREA)
Abstract
本发明公开了一种多相机集中式协同SLAM方法及系统,包括服务端和多个客户端,服务端根据客户端局部地图及其更新信息建立、更新服务端地图,对服务端地图进行地图内位置识别,并对存在重叠部分的服务端地图进行地图匹配、地图合并。本发明将多个客户端的局部地图合并为统一的地图,并在该地图中同时对每个相机进行定位。本发明通过服务端合并地图,每个客户端能够利用更多的场景信息,因此定位精度更高;可用于室内外环境的相机定位,可应用在手机、平板等移动客户端,是多人增强现实应用中的核心技术,奠定了实现多人AR的基础。
Description
技术领域
本发明涉及同时定位与地图构建,尤其是一种多相机集中式协同SLAM方法及系统。
背景技术
SLAM(Simultaneous Localization and Mapping,多客户端协同同时定位与地图构建)最早源于机器人领域,其目标是在一个未知的环境中实时重建环境的三维结构并同时对机器人自身进行定位。其主要思想是:一方面,依靠已创建的地图信息进行自定位;另一方面,根据定位结果对地图进行更新。视觉SLAM技术根据拍摄的视频信息推断出相机在未知环境中的位姿,并同时构建环境地图,其基本原理为多视图几何原理。视觉SLAM的目标为同时恢复出每帧图像对应的相机运动参数C1...Cm,以及场景三维结构X1...Xn。其中每个相机运动参数Ci包含了相机的位置和方向信息,通常表示为一个3×3的旋转矩阵Ri和一个三维平移向量Pi。
随着AR领域的火热发展,作为AR领域核心技术之一的视觉SLAM技术也需要进行改进以满足上层应用新的需求。例如,多人AR游戏这种新的娱乐形式,需要多个用户同时对叠加在真实场景中的虚拟物体进行操作。因此为了满足这种应用的需求,底层的SLAM方法需要将多个客户端对应的多个地图合并为一个共同的地图,并在该地图下同时对每个客户端进行定位。当然,多相机协作亦可用于搜索、救援以及农业等应用,正是这些应用催生了各种协同SLAM方法。
多相机协作有望提高定位、建图任务的鲁棒性和效率,在多人增强现实应用中具有巨大潜力。SLAM正是实现协作的核心技术,它使得每个客户端可以共同定位并构建环境地图。然而,这个技术的关键挑战在于强大的通信、高效的数据管理以及客户端之间的有效信息共享。
发明内容
发明目的:针对上述现有技术存在的缺陷,本发明旨在提供一种能够满足多人AR需求的用于单目、双目和RGB-D相机的集中式协同SLAM方法。
技术方案:一种多相机集中式协同SLAM方法,包括如下步骤:
服务端获取各客户端局部地图及其更新信息;
服务端根据客户端局部地图及其更新信息建立、更新服务端地图,对服务端地图进行地图内位置识别,并对存在重叠部分的服务端地图进行地图匹配、地图合并。
进一步的,所述服务端获取各客户端局部地图及其更新信息前,还包括如下步骤:
相机将拍摄的图像序列传输至其所属客户端的视觉里程计;
视觉里程计根据图像序列估计每帧图像的相机位姿,并建立、更新局部地图;
客户端的通信模块将局部地图及其更新信息发送至服务端;所述更新信息包括新关键帧和地图点。
为使得客户端能够进行长期定位,进一步的,所述视觉里程计根据图像序列估计每帧图像的相机位姿,并建立、更新局部地图的方法包括:在视觉里程计根据图像序列估计每帧图像的相机位姿时,若某一帧图像跟踪丢失,则通过重定位恢复正常的跟踪流程;
进一步的,客户端的通信模块还将最接近客户端当前位置的参考关键帧发送至服务端,服务端的通信模块还将与参考关键帧具有最强共视关系的共视关键帧及共视关键帧观察到的共视地图点发送至客户端;客户端的视觉里程计根据共视关键帧和共视地图点进行位姿估计。
进一步的,所述服务端根据客户端局部地图及其更新信息建立、更新服务端地图,包括对服务端地图中关键帧的冗余检测,具体采用如下方法:
从服务端地图中随机选取关键帧,在共视图中遍历该关键帧的所有相邻关键帧,检查每个相邻关键帧观察到的地图点;
当多个其他关键帧观察到到某一相邻关键帧所有地图点的θ%时,判定该相邻关键帧是冗余的,并从服务端地图中移除;其中,其他关键帧的数量以及θ值均为预设。
进一步的,所述服务端对存在重叠部分的服务端地图进行地图匹配、地图合并的方法为:
检测两个服务端地图之间的重叠;
对于存在重叠部分的两个服务端地图,求解Sim(3)变换、并添加约束;
使用Sim(3)变换将存在重叠部分的两个服务端地图合并为一个地图。
进一步的,对服务端地图进行地图内位置识别和地图匹配后,进行服务端优化;优化步骤包括:服务端位姿图优化和全局捆集调整。
进一步的,所述服务端获取各客户端局部地图及其更新信息的通信模式为:
客户端主动发送消息,服务端被动接收消息;
客户端主动向服务端申请消息,服务端根据申请发送消息至客户端,服务端不主动发送消息至客户端;
消息的大小设有上限值,超过上限值的消息被拆分成多个消息发送。
一种多相机集中式协同SLAM系统,包括服务端和多个客户端,所述服务端包括:
通信模块,用于获取各客户端局部地图及其更新信息;
建图模块,用于根据客户端局部地图及其更新信息建立、更新服务端地图;
地图内位置识别模块,用于对服务端地图进行地图内位置识别;
地图匹配合并模块,用于对存在重叠部分的服务端地图进行地图匹配、地图合并。
进一步的,每个所述客户端均配置有相机,客户端内设有视觉里程计和通信模块,所述相机用于将拍摄的图像序列传输至其所属客户端的视觉里程计;视觉里程计用于根据图像序列估计每帧图像的相机位姿,并建立、更新局部地图。由于每个客户端都能够运行视觉里程计,因此确保了它们能够独立运行。
客户端的通信模块用于将局部地图及其更新信息发送至服务端;所述更新信息包括新关键帧和地图点。
进一步的,所述客户端还包括重定位模块,用于在视觉里程计根据图像序列估计每帧图像的相机位姿、某一帧图像跟踪丢失时,恢复正常的跟踪流程。
进一步的,所述客户端的通信模块还用于将最接近客户端当前位置的参考关键帧发送至服务端,服务端的通信模块还用于将与参考关键帧具有最强共视关系的共视关键帧及共视关键帧观察到的共视地图点发送至客户端;客户端的视觉里程计根据共视关键帧和共视地图点进行位姿估计。
进一步的,所述地图匹配合并模块包括:
重叠检测单元,用于检测两个服务端地图之间的重叠;
求解变换单元,用于对于存在重叠部分的两个服务端地图,求解Sim(3)变换、并添加约束;
合并单元,用于使用Sim(3)变换将存在重叠部分的两个服务端地图合并为一个地图。
进一步的,所述服务端还包括优化模块,优化模块用于对服务端位姿图进行优化和全局捆集调整。
进一步的,所述服务端的通信模块和客户端的通信模块被配置为如下通信模式:
客户端主动发送消息,服务端被动接收消息;
客户端主动向服务端申请消息,服务端根据申请发送消息至客户端,服务端不主动发送消息至客户端;
消息的大小设有上限值,超过上限值的消息被拆分成多个消息发送。
有益效果:本发明利用多个相机拍摄的图像序列,将多个客户端的局部地图合并为统一的地图,并通过位姿估计实现在统一的地图中同时对每个相机进行定位。本发明能够兼容支持单目、双目和RGB-D相机,通过服务端合并地图,每个客户端能够利用更多的场景信息,因此定位精度更高;可用于室内外环境的相机定位,可应用在手机、平板等移动客户端,是多人增强现实应用中的核心技术,奠定了实现多人AR的基础。此外,每个客户端都配置相机、通信模块和视觉里程计,可确保它们能够独立运行,而具有更大计算能力的服务端通过收集客户端的所有信息,在适当情况下合并且优化它们的地图,或向客户端传输信息来实现它们的协作。并且由于在客户端实现了重定位功能,使得客户端能够进行长期定位。
附图说明
图1是本发明的结构示意图。
具体实施方式
下面通过实施例结合附图对本技术方案进行详细说明。
如图1所示,本实施例提供一种多相机集中式协同SLAM方法及使用该方法的系统,利用多个相机拍摄的图像序列来计算统一的环境地图,并在该地图中同时定位这些相机。
多相机集中式协同SLAM方法,包括如下步骤:
相机将拍摄的图像序列传输至其所属客户端的视觉里程计;
视觉里程计根据图像序列估计每帧图像的相机位姿,并建立、更新局部地图;所述视觉里程计根据图像序列估计每帧图像的相机位姿,并建立、更新局部地图,具体包括跟踪和局部建图步骤,跟踪是通过寻找图像和局部地图之间匹配的特征点对,使用运动参数的捆集调整最小重投影误差,来估计每一帧图像的相机位姿。而局部建图是维护局部地图,并执行局部捆集调整来优化局部地图。也可以直接采用现有技术中ORB-SLAM2的视觉里程计实现方法。
位姿估计能够对该客户端的相机进行定位,之后在服务端合并地图后,能够实现在统一的地图中同时对每个相机进行定位。
在视觉里程计根据图像序列估计每帧图像的相机位姿时,若某一帧图像跟踪丢失,则通过重定位恢复正常的跟踪流程;
重定位的方法为:
将丢失的此帧图像转换成词袋形式,并在识别数据库中查找与其对应的候选关键帧;识别数据库是在线建立的,内容是关键帧及每个关键帧对应的词袋形式的向量。
对每个关键帧,都计算其地图点与当前帧ORB特征的匹配;
接着对每个关键帧执行RANSAC迭代,并使用PnP算法计算相机位姿;若在该位姿下拥有满足预设数量的内点,则优化该位姿且搜索与候选关键帧地图点更多的匹配点对;
最后再次优化该位姿,这时若内点满足阈值,则判定重定位成功,恢复正常的跟踪流程。
客户端的通信模块将局部地图及其更新信息发送至服务端;所述更新信息包括新关键帧和地图点。此处新关键帧和地图点是指客户端局部地图中自上一次发送消息以来的所有更新关键帧和地图点,包括新增的或更改的关键帧和相应地图点。
客户端的通信模块还将最接近客户端当前位置的参考关键帧发送至服务端,服务端的通信模块还将与参考关键帧具有最强共视关系的共视关键帧及共视关键帧观察到的共视地图点发送至客户端;客户端的视觉里程计根据共视关键帧和共视地图点进行位姿估计。本实施例服务端发送给客户端的每条消息都包含k个与参考关键帧具有最强共视关系的关键帧,以及它们观察到的地图点,用这些数据扩充客户端局部地图。这些信息对于客户端上的位姿估计是最有价值的,因此视觉里程计用的正是参考关键帧的共视关键帧来计算当前帧的相机位姿。这k个关键帧是根据它们的共视权重来选择的,无论它们来自哪个客户端。
在所述客户端的通信模块将局部地图及其更新信息发送至服务端后,服务端的通信模块在接收关键帧和地图点时,使用Sim(3)变换将客户端坐标系下的数据转换至服务端坐标系。
服务端的通信模块向客户端发送消息前,先使用Sim(3)变换将服务端坐标系下的数据转换至客户端坐标系,再进行发送。
服务端获取各客户端局部地图及其更新信息;
服务端根据客户端局部地图及其更新信息建立、更新服务端地图,对服务端地图进行地图内位置识别,并对存在重叠部分的服务端地图进行地图匹配、地图合并。
其中,服务端根据客户端局部地图及其更新信息建立、更新服务端地图具体采用如下方法:
利用客户端局部地图及其更新信息建立、更新服务端地图的关键帧数据库;服务端地图是由多个关键帧和地图点构成,建立、更新服务端地图也可以理解为建立、更新服务端地图中的关键帧、地图点以及关键帧数据库,关键帧中包含与之相关的地图点信息。
本实施例中建图模块将新来的关键帧转发到关键帧数据库、地图内位置识别和地图匹配模块。
确定局部地图更新信息所对应的服务端位姿图;即:建立客户端局部地图的更新信息和对应服务端位姿图的连接。
对服务端地图中关键帧的冗余检测;具体采用如下方法:
从服务端地图中随机选取关键帧,在共视图中遍历该关键帧的所有相邻关键帧,检查每个相邻关键帧观察到的地图点;
当多个其他关键帧观察到到某一相邻关键帧所有地图点的θ%时,判定该相邻关键帧是冗余的,并从服务端地图中移除,同时也会将该关键帧从关键帧数据库中移除;其中,其他关键帧的数量以及θ值均为预设,本实施例中其他关键帧的数量预设为3个。
所述服务端对服务端地图进行地图内位置识别的方法为:使用关键帧数据库检测服务端地图堆栈中位置之间的重叠;即:检测一个服务器地图内先前访问过的位置,检测轨迹重叠、向位姿图添加约束;
所述服务端对存在重叠部分的服务端地图进行地图匹配、地图合并的方法为:
检测两个服务端地图之间的重叠;
对于存在重叠部分的两个服务端地图,求解Sim(3)变换、并添加约束;
使用Sim(3)变换将存在重叠部分的两个服务端地图合并为一个地图。
特别地,若单目客户端与双目或RGB-D客户端对应的地图在服务端进行合并,则最终的尺度以双目或RGB-D为准。
其中,Sim(3)是使用3对匹配点来进行相似变换(similarity transformation)的求解,进而解出两个坐标系之间的旋转矩阵、平移向量和尺度,具体算法为现有技术。
成功的地图内位置识别和地图匹配会触发优化模块,对服务端地图进行地图内位置识别和地图匹配后,进行服务端优化;
优化步骤包括:服务端位姿图优化和全局捆集调整。
所述服务端位姿图优化具体方法为:在开始全局捆集调整之前,先使用共视图的子图在服务端位姿图上执行位姿图优化,所述子图仅包含权重w大于100的强共视边,这样能显著改善优化的效率和准确性。
所述全局捆集调整具体是通过最小化所有关键帧和地图点的重投影误差来优化服务端地图,以提高图的准确性。对于一个大型的地图,该优化可能需要几秒钟的时间,由于其他模块在优化执行期间无法访问地图,因此,在进行所述服务端优化时,服务端的通信模块将接收数据存储在缓冲区中,并在优化完成时处理。本实施例中使用g2o库中的Levenberg-Marquardt算法来做全局捆集调整。
所述服务端获取各客户端局部地图及其更新信息的通信模式为:
客户端主动发送消息,服务端被动接收消息;
客户端主动向服务端申请消息,服务端根据申请发送消息至客户端,服务端不主动发送消息至客户端;
消息的大小设有上限值,超过上限值的消息被拆分成多个消息发送,以防止在与服务端连接中断几秒钟时将地图打包成一条消息。由于多线程之间存在竞争,在消息打包期间,视觉里程计无法访问本地局部地图,过大的消息大小可能会长时间阻碍跟踪,因此在这种情况下需要发送到服务端的信息被分成几个消息。
由于客户端局部地图不断变化,本实施例中消息发布速率设为最大值,每条新消息都包含自上一条消息以来的所有更改。
本实施例提供的使用上述方法的多相机集中式协同SLAM系统,包括服务端和多个客户端,每个所述客户端均配置有相机,客户端内设有视觉里程计、通信模块和重定位模块;
相机,用于将拍摄的图像序列传输至其所属客户端的视觉里程计;
视觉里程计,用于根据图像序列估计每帧图像的相机位姿,并建立、更新局部地图;
重定位模块,用于在视觉里程计根据图像序列估计每帧图像的相机位姿、某一帧图像跟踪丢失时,恢复正常的跟踪流程。
其中,视觉里程计用于根据图像序列估计每帧图像的相机位姿,并建立、更新局部地图,具体是采用ORB-SLAM2的视觉里程计实现,包括跟踪模块和局部建图模块,跟踪模块用于通过寻找图像和局部地图之间匹配的特征点对,使用运动参数的捆集调整最小重投影误差,来估计每一帧图像的相机位姿。而局部建图模块用于维护局部地图,并执行局部捆集调整来优化局部地图。
所述重定位模块具体包括:
候选关键帧查找单元,用于将丢失的此帧图像转换成词袋形式,并在识别数据库中查找与其对应的候选关键帧;
特征匹配单元,用于对每个关键帧,都计算其地图点与当前帧ORB特征的匹配;
优化位姿单元,用于对每个关键帧执行RANSAC迭代,并使用PnP算法计算相机位姿;若在该位姿下拥有满足预设数量的内点,则优化该位姿且搜索与候选关键帧地图点更多的匹配点对;
判定单元,用于最后再次优化该位姿,这时若内点满足阈值,则判定重定位成功,恢复正常的跟踪流程。
客户端的通信模块用于将局部地图及其更新信息发送至服务端;所述更新信息包括新关键帧和地图点。此处新关键帧和地图点是指客户端局部地图中自上一次发送消息以来的所有更新关键帧和地图点,包括新增的或更改的关键帧和相应地图点。
在所述客户端的通信模块将局部地图及其更新信息发送至服务端后,服务端的通信模块在接收关键帧和地图点时,使用Sim(3)变换将客户端坐标系下的数据转换至服务端坐标系;
服务端的通信模块向客户端发送消息前,先使用Sim(3)变换将服务端坐标系下的数据转换至客户端坐标系,再进行发送。
客户端的通信模块还用于将最接近客户端当前位置的参考关键帧发送至服务端,服务端的通信模块还用于将与参考关键帧具有最强共视关系的共视关键帧及共视关键帧观察到的共视地图点发送至客户端;客户端的视觉里程计根据共视关键帧和共视地图点进行位姿估计。本实施例中,服务端发送给客户端的每条消息都包含k个与参考关键帧具有最强共视关系的关键帧,以及它们观察到的地图点,用这些数据扩充客户端局部地图。这些信息对于客户端上的位姿估计是最有价值的,因此视觉里程计用的正是参考关键帧的共视关键帧来计算当前帧的相机位姿。这k个关键帧是根据它们的共视权重来选择的,无论它们来自哪个客户端。
所述服务端包括:
通信模块,用于获取各客户端局部地图及其更新信息;
建图模块,用于根据客户端局部地图及其更新信息建立、更新服务端地图;
地图内位置识别模块,用于对服务端地图进行地图内位置识别;
地图匹配合并模块,用于对存在重叠部分的服务端地图进行地图匹配、地图合并;
优化模块,优化模块用于对服务端位姿图进行优化和全局捆集调整。
其中,所述建图模块,具体是用于利用客户端局部地图及其更新信息建立、更新关键帧数据库;确定局部地图更新信息所对应的服务端位姿图。
建图模块还将客户端局部地图及其更新信息传输至地图内位置识别模块以及地图匹配合并模块;或者是将关键帧数据库传输至地图内位置识别模块以及地图匹配合并模块。
建图模块还包括冗余检测模块,用于对服务端地图中关键帧进行冗余检测;
冗余检测模块包括:
相邻关键帧遍历单元,用于从服务端地图中随机选取关键帧,在共视图中遍历该关键帧的所有相邻关键帧,检查相邻关键帧观察到的地图点;
冗余移除单元,用于当多个其他关键帧观察到到某一相邻关键帧所有地图点的θ%时,判定该相邻关键帧是冗余的,并从服务端地图中移除;其中,其他关键帧的数量以及θ值均为预设。
本实施例的建图模块有三个主要职责。首先,它将新来的关键帧转发到关键帧数据库、地图内位置识别和地图匹配模块。第二个任务是建立新关键帧、地图点和对应服务端位姿图的连接。第三个任务是服务器地图中关键帧的冗余检测。此关键帧剔除方案从服务端地图中随机选取关键帧KFi,在共视图中遍历KFi的所有相邻关键帧KFj,检查它们观察到的地图点。若对于预设的阈值,至少三个其他关键帧观察到KFj所有地图点的θ%,则认为KFj是冗余的并且从服务器地图中移除;此处是指至少存在三个其他关键帧,每个关键帧观察到的地图点都能单独达到KFj所有地图点的θ%。
所述地图内位置识别模块包括堆栈检测单元,用于使用关键帧数据库检测服务端地图堆栈中位置之间的重叠;该位置识别模式的一个重要特性是它能够将来自多个相机传感器的测量与不同的相机参数相匹配,这使得该方案成为一个通用的系统,可以与配备不同相机的异构客户端一起使用。
对于到达服务端的每个新关键帧,使用关键帧数据库执行两种类型的位置识别查询:地图内位置识别和地图匹配。
地图内位置识别检测一个服务器地图内先前访问过的位置,检测轨迹重叠、向位姿图添加约束。检测到这样的轨迹重叠就可以向位姿图添加新的约束,其可以在优化步骤中使用以提高地图的整体精度。地图内位置识别之后执行捆集调整。
所述地图匹配合并模块包括:
重叠检测单元,用于检测两个服务端地图之间的重叠;
求解变换单元,用于对于存在重叠部分的两个服务端地图,求解Sim(3)变换、并添加约束;
合并单元,用于使用Sim(3)变换将存在重叠部分的两个服务端地图合并为一个地图。
特别地,若单目客户端与双目或RGB-D客户端对应的地图在服务端进行合并,则最终的尺度以双目或RGB-D为准。
成功的地图内位置识别和地图匹配会触发优化模块,所述优化模块包括:
位姿图优化单元,用于使用共视图的子图在服务端位姿图上执行位姿图优化,共视图是指当前新的关键帧的共视图,所述子图仅包含权重w大于100的强共视边;这样能显著改善优化的效率和准确性。
全局捆集调整单元,用于通过最小化所有关键帧和地图点的重投影误差来优化服务端地图,以提高图的准确性。对于一个大型的地图,该优化可能需要几秒钟的时间,由于其他模块在优化执行期间无法访问地图,因此,所述服务端的通信模块包括缓冲区,用于在优化模块执行优化期间存储接收数据,并在优化完成时处理。本实施例使用g2o库中的Levenberg-Marquardt算法来做全局捆集调整。
客户端和服务端都含有通信模块,用于客户端与服务端之间的信息传递。为了确保用户的信息安全,本实施例所述服务端的通信模块和客户端的通信模块被配置为如下通信模式:
客户端主动发送消息,服务端被动接收消息;
客户端主动向服务端申请消息,服务端根据申请发送消息至客户端,服务端不主动发送消息至客户端;
消息的大小设有上限值,超过上限值的消息被拆分成多个消息发送,以防止在与服务端连接中断几秒钟时将地图打包成一条消息。由于多线程之间存在竞争,在消息打包期间,视觉里程计无法访问本地局部地图,过大的消息大小可能会长时间阻碍跟踪,因此在这种情况下需要发送到服务端的信息被分成几个消息。
由于客户端局部地图不断变化,本实施例中消息发布速率设为最大值,每条新消息都包含自上一条消息以来的所有更改。
实施例2:
本实施例的服务端结构与实施例1略有不同,本实施例服务端包括多个客户端处理器、一个地图匹配合并模块及优化模块,各客户端处理器与客户端一一对应,用于收发、处理对应客户端的数据;每个客户端处理器均包括通信模块、建图模块和地图内位置识别模块,各模块功能与处理方法与实施例1中所记载的一致。
实施例3:本实施例与实施例2相比,不同之处在于,服务端还包括优化模块,优化模块具体功能和实现方法与实施例1中所记载的一致。
以上仅是本发明的优选实施方式,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。
Claims (15)
1.一种多相机集中式协同SLAM方法,其特征在于,包括如下步骤:
服务端获取各客户端局部地图及其更新信息;
服务端根据客户端局部地图及其更新信息建立、更新服务端地图,
对服务端地图进行地图内位置识别,
并对存在重叠部分的服务端地图进行地图匹配、地图合并。
2.根据权利要求1所述的一种多相机集中式协同SLAM方法,其特征在于,所述服务端获取各客户端局部地图及其更新信息前,还包括如下步骤:
相机将拍摄的图像序列传输至其所属客户端的视觉里程计;
视觉里程计根据图像序列估计每帧图像的相机位姿,并建立、更新局部地图;
客户端的通信模块将局部地图及其更新信息发送至服务端;所述更新信息包括新关键帧和地图点。
3.根据权利要求2所述的一种多相机集中式协同SLAM方法,其特征在于,所述视觉里程计根据图像序列估计每帧图像的相机位姿,并建立、更新局部地图的方法包括:在视觉里程计根据图像序列估计每帧图像的相机位姿时,若某一帧图像跟踪丢失,则通过重定位恢复正常的跟踪流程。
4.根据权利要求2所述的一种多相机集中式协同SLAM方法,其特征在于,所述客户端的通信模块还将最接近客户端当前位置的参考关键帧发送至服务端,服务端的通信模块还将与参考关键帧具有最强共视关系的共视关键帧及共视关键帧观察到的共视地图点发送至客户端;客户端的视觉里程计根据共视关键帧和共视地图点进行位姿估计。
5.根据权利要求1所述的一种多相机集中式协同SLAM方法,其特征在于,所述服务端根据客户端局部地图及其更新信息建立、更新服务端地图,包括对服务端地图中关键帧的冗余检测,具体采用如下方法:
从服务端地图中随机选取关键帧,在共视图中遍历该关键帧的所有相邻关键帧,检查每个相邻关键帧观察到的地图点;
当多个其他关键帧观察到到某一相邻关键帧所有地图点的θ%时,判定该相邻关键帧是冗余的,并从服务端地图中移除;其中,其他关键帧的数量以及θ值均为预设。
6.根据权利要求1所述的一种多相机集中式协同SLAM方法,其特征在于,所述服务端对存在重叠部分的服务端地图进行地图匹配、地图合并的方法为:
检测两个服务端地图之间的重叠;
对于存在重叠部分的两个服务端地图,求解Sim(3)变换、并添加约束;
使用Sim(3)变换将存在重叠部分的两个服务端地图合并为一个地图。
7.根据权利要求1所述的一种多相机集中式协同SLAM方法,其特征在于,所述对服务端地图进行地图内位置识别和地图匹配后,进行服务端优化;优化步骤包括:服务端位姿图优化和全局捆集调整。
8.根据权利要求1所述的一种多相机集中式协同SLAM方法,其特征在于,所述服务端获取各客户端局部地图及其更新信息的通信模式为:
客户端主动发送消息,服务端被动接收消息;
客户端主动向服务端申请消息,服务端根据申请发送消息至客户端,服务端不主动发送消息至客户端;
消息的大小设有上限值,超过上限值的消息被拆分成多个消息发送。
9.一种多相机集中式协同SLAM系统,其特征在于,包括服务端和多个客户端,所述服务端包括:
通信模块,用于获取各客户端局部地图及其更新信息;
建图模块,用于根据客户端局部地图及其更新信息建立、更新服务端地图;
地图内位置识别模块,用于对服务端地图进行地图内位置识别;
地图匹配合并模块,用于对存在重叠部分的服务端地图进行地图匹配、地图合并。
10.根据权利要求9所述的一种多相机集中式协同SLAM系统,其特征在于,每个所述客户端均配置有相机,客户端内设有视觉里程计和通信模块,所述相机用于将拍摄的图像序列传输至其所属客户端的视觉里程计;视觉里程计用于根据图像序列估计每帧图像的相机位姿,并建立、更新局部地图。
客户端的通信模块用于将局部地图及其更新信息发送至服务端;所述更新信息包括新关键帧和地图点。
11.根据权利要求10所述的一种多相机集中式协同SLAM系统,其特征在于,所述客户端还包括重定位模块,用于在视觉里程计根据图像序列估计每帧图像的相机位姿、某一帧图像跟踪丢失时,恢复正常的跟踪流程。
12.根据权利要求10所述的一种多相机集中式协同SLAM系统,其特征在于,所述客户端的通信模块还用于将最接近客户端当前位置的参考关键帧发送至服务端,服务端的通信模块还用于将与参考关键帧具有最强共视关系的共视关键帧及共视关键帧观察到的共视地图点发送至客户端;客户端的视觉里程计根据共视关键帧和共视地图点进行位姿估计。
13.根据权利要求9所述的一种多相机集中式协同SLAM系统,其特征在于,所述地图匹配合并模块包括:
重叠检测单元,用于检测两个服务端地图之间的重叠;
求解变换单元,用于对于存在重叠部分的两个服务端地图,求解Sim(3)变换、并添加约束;
合并单元,用于使用Sim(3)变换将存在重叠部分的两个服务端地图合并为一个地图。
14.根据权利要求9所述的一种多相机集中式协同SLAM系统,其特征在于,所述服务端还包括优化模块,优化模块用于对服务端位姿图进行优化和全局捆集调整。
15.根据权利要求10所述的一种多相机集中式协同SLAM系统,其特征在于,所述服务端的通信模块和客户端的通信模块被配置为如下通信模式:
客户端主动发送消息,服务端被动接收消息;
客户端主动向服务端申请消息,服务端根据申请发送消息至客户端,服务端不主动发送消息至客户端;
消息的大小设有上限值,超过上限值的消息被拆分成多个消息发送。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010147198.1A CN111369628A (zh) | 2020-03-05 | 2020-03-05 | 一种多相机集中式协同slam方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010147198.1A CN111369628A (zh) | 2020-03-05 | 2020-03-05 | 一种多相机集中式协同slam方法及系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111369628A true CN111369628A (zh) | 2020-07-03 |
Family
ID=71208610
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010147198.1A Pending CN111369628A (zh) | 2020-03-05 | 2020-03-05 | 一种多相机集中式协同slam方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111369628A (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112541970A (zh) * | 2020-11-30 | 2021-03-23 | 北京华捷艾米科技有限公司 | 一种集中式协同SlAM中的重定位方法及装置 |
CN112734850A (zh) * | 2021-01-22 | 2021-04-30 | 北京华捷艾米科技有限公司 | 一种协同slam方法、装置、计算机设备及存储介质 |
WO2021088497A1 (zh) * | 2019-11-08 | 2021-05-14 | 华为技术有限公司 | 虚拟物体显示方法、全局地图更新方法以及设备 |
CN113793379A (zh) * | 2021-08-12 | 2021-12-14 | 视辰信息科技(上海)有限公司 | 相机姿态求解方法及系统、设备和计算机可读存储介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140323148A1 (en) * | 2013-04-30 | 2014-10-30 | Qualcomm Incorporated | Wide area localization from slam maps |
US20160179830A1 (en) * | 2014-12-19 | 2016-06-23 | Qualcomm Incorporated | Scalable 3d mapping system |
CN109559277A (zh) * | 2018-11-28 | 2019-04-02 | 中国人民解放军国防科技大学 | 一种面向数据共享的多无人机协同地图构建方法 |
CN109682385A (zh) * | 2018-11-05 | 2019-04-26 | 天津大学 | 一种基于orb特征的即时定位与地图构建的方法 |
CN110070615A (zh) * | 2019-04-12 | 2019-07-30 | 北京理工大学 | 一种基于多相机协同的全景视觉slam方法 |
-
2020
- 2020-03-05 CN CN202010147198.1A patent/CN111369628A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140323148A1 (en) * | 2013-04-30 | 2014-10-30 | Qualcomm Incorporated | Wide area localization from slam maps |
US20160179830A1 (en) * | 2014-12-19 | 2016-06-23 | Qualcomm Incorporated | Scalable 3d mapping system |
CN109682385A (zh) * | 2018-11-05 | 2019-04-26 | 天津大学 | 一种基于orb特征的即时定位与地图构建的方法 |
CN109559277A (zh) * | 2018-11-28 | 2019-04-02 | 中国人民解放军国防科技大学 | 一种面向数据共享的多无人机协同地图构建方法 |
CN110070615A (zh) * | 2019-04-12 | 2019-07-30 | 北京理工大学 | 一种基于多相机协同的全景视觉slam方法 |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021088497A1 (zh) * | 2019-11-08 | 2021-05-14 | 华为技术有限公司 | 虚拟物体显示方法、全局地图更新方法以及设备 |
CN112541970A (zh) * | 2020-11-30 | 2021-03-23 | 北京华捷艾米科技有限公司 | 一种集中式协同SlAM中的重定位方法及装置 |
CN112734850A (zh) * | 2021-01-22 | 2021-04-30 | 北京华捷艾米科技有限公司 | 一种协同slam方法、装置、计算机设备及存储介质 |
CN113793379A (zh) * | 2021-08-12 | 2021-12-14 | 视辰信息科技(上海)有限公司 | 相机姿态求解方法及系统、设备和计算机可读存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111369628A (zh) | 一种多相机集中式协同slam方法及系统 | |
Schmuck et al. | Multi-uav collaborative monocular slam | |
CN109087359B (zh) | 位姿确定方法、位姿确定装置、介质和计算设备 | |
CN107990899B (zh) | 一种基于slam的定位方法和系统 | |
CN110310333B (zh) | 定位方法及电子设备、可读存储介质 | |
Forster et al. | Collaborative monocular slam with multiple micro aerial vehicles | |
US8644859B2 (en) | Apparatus to provide augmented reality service using location-based information and computer-readable medium and method of the same | |
Chen et al. | Rise of the indoor crowd: Reconstruction of building interior view via mobile crowdsourcing | |
CN110310326A (zh) | 一种位姿数据处理方法、装置、终端及计算机可读存储介质 | |
CN110246147A (zh) | 视觉惯性里程计方法、视觉惯性里程计装置及移动设备 | |
CN112115874B (zh) | 一种融合云端的视觉slam系统及方法 | |
CN102142081B (zh) | 图像处理设备、图像处理方法、以及程序 | |
CN109255749B (zh) | 自主和非自主平台中的地图构建优化 | |
WO2011118282A1 (ja) | 世界座標系データベースを利用したサーバ及び端末 | |
CN102193625A (zh) | 图像处理设备、图像处理方法、程序以及图像处理系统 | |
JP5234476B2 (ja) | グラフ構造を用いてパノラマイメージに対するイメージマッチングを遂行するための方法、システムおよびコンピュータ読取可能な記録媒体 | |
CN112734850A (zh) | 一种协同slam方法、装置、计算机设备及存储介质 | |
CN112015187B (zh) | 一种用于智能移动机器人的语义地图构建方法及系统 | |
CN112541970A (zh) | 一种集中式协同SlAM中的重定位方法及装置 | |
Ouyang et al. | A collaborative visual SLAM framework for service robots | |
Feng et al. | Visual Map Construction Using RGB‐D Sensors for Image‐Based Localization in Indoor Environments | |
Wen et al. | Edge computing-based collaborative vehicles 3D mapping in real time | |
Vemprala et al. | Monocular vision based collaborative localization for micro aerial vehicle swarms | |
Morrison et al. | Scalable multirobot localization and mapping with relative maps: Introducing MOARSLAM | |
CN114266823A (zh) | 一种结合SuperPoint网络特征提取的单目SLAM方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20200703 |