CN112308921B - 一种基于语义和几何的联合优化动态slam方法 - Google Patents

一种基于语义和几何的联合优化动态slam方法 Download PDF

Info

Publication number
CN112308921B
CN112308921B CN202011241578.8A CN202011241578A CN112308921B CN 112308921 B CN112308921 B CN 112308921B CN 202011241578 A CN202011241578 A CN 202011241578A CN 112308921 B CN112308921 B CN 112308921B
Authority
CN
China
Prior art keywords
mask
feature point
dynamic
semantic
geometric
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202011241578.8A
Other languages
English (en)
Other versions
CN112308921A (zh
Inventor
仲元红
黄关
胡双双
邓迪杭
李瑾
张靖怡
陈霞
周宇杰
张晨旭
徐乾锋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chongqing University
Original Assignee
Chongqing University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chongqing University filed Critical Chongqing University
Priority to CN202011241578.8A priority Critical patent/CN112308921B/zh
Publication of CN112308921A publication Critical patent/CN112308921A/zh
Application granted granted Critical
Publication of CN112308921B publication Critical patent/CN112308921B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • G06V10/267Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于语义和几何的联合优化动态SLAM方法,包括:将原始图像进行语义分割及几何分割得到二进制掩模maskseg与二进制掩模maskmvg;计算特征点权重;基于特征点权重确定语义和几何均为静态的特征点;初始化位姿;基于特征点权重对位姿进行优化求解;利用位姿优化的结果检测关键帧,利用关键帧进行局部建图及回环检测。与现有技术相比,本发明重点研究动态环境下的SLAM系统,综合分析几何分割和语义分割的优势与不足,将语义分割结果紧耦合进几何分割,提高动态特征点识别的准确率。此外,本发明提出了特征点权重的概念,基于动态特征点分割的结果初始化权重后,联合优化特征点权重和位姿,在优化相机位姿估计值的同时进一步权衡特征点的动态率。

Description

一种基于语义和几何的联合优化动态SLAM方法
技术领域
本发明涉及图像检测领域,具体涉及一种基于语义和几何的联合优化动态SLAM方法。
背景技术
视觉SLAM(同时定位与建图)是指在没有先验信息的情况下,利用搭载在机器人上的相机感知周围环境,在运动过程中建立环境模型,同时估计自身定位的技术。相机结构简单,安装方式多元化,无传感器探测距离的限制,应用范围广、成本低,可提取语义信息、地图信息丰富,视觉SLAM相对激光SLAM能获取更加准确和鲁棒的定位信息和环境地图。随着计算机硬件性能和图像处理相关算法的不断改进,近年来视觉SLAM以其独有的优点迅速发展,一系列应用视觉SLAM技术的产品也逐渐走进大众的视野中,如无人车、虚拟现实(VR)/增强现实(AR)、无人机、家用智能扫地机器人等等。
目前最广为人知的一些视觉SLAM,如ORB-SLAM2、LSD-SLAM等都是基于静态假设。但实际应用中必然会面对动态环境,如行走的人、行驶的汽车等,这些动态的物体会影响SLAM的特征点关联,进而降低运动估计的精度和算法的稳健性。为了处理动态物体,传统SLAM算法框架中常用随机抽样一致性检测(RANSAC)的方法迭代优化位姿,每次迭代过程中根据极线距离区分内点和外点,在后续位姿估计过程中将外点视为虚假数据滤除。但如果环境中动态物体占多数时,大多数的特征点位于动态物体上,RANSAC不能很好的区分出外点,进而影响估计的相机位姿。
因此,如何扩展静态假设下的SLAM以适应动态的环境成为了本领域技术人员急需解决的问题。
发明内容
本发明实际解决的技术问题为:如何扩展静态假设下的SLAM以适应动态的环境。
本发明采用了如下的技术方案:
一种基于语义和几何的联合优化动态SLAM方法,包括:
S1、将原始图像进行语义分割得到二进制掩模maskseg
S2、将原始图像进行几何分割得到二进制掩模maskmvg,几何分割过程中去除与二进制掩模maskseg中语义动态物体像素对应的特征点;
S3、基于二进制掩模maskseg与maskmvg计算特征点权重;
S4、提取原始图像中的特征点,基于特征点权重确定语义和几何均为静态的特征点;
S5、基于与原始图像对应的深度图及语义和几何均为静态的特征点初始化位姿;
S6、基于特征点权重对位姿进行优化求解;
S7、利用位姿优化的结果检测关键帧,利用关键帧进行局部建图及回环检测。
优选地,原始图像为RGB图像,原始图像的尺寸为m*n*3,步骤S1包括:
将原始图像输入Mask R-CNN,输出尺寸为m*n*l的矩阵,l为检测到的物体的个数,将每个物体的矩阵结合得到二进制掩模maskseg,二进制掩模maskseg中值为1的像素为语义静态物体像素,值为0的像素为语义动态物体像素。
优选地,步骤S2包括:
对原始图像进行特征点匹配;
去除与二进制掩模maskseg中语义动态物体像素对应的特征点;
基于剩余特征点求解矩阵F,并利用极线约束和矩阵F判别特征点为几何静态或几何动态;
生成二进制掩模maskmvg,二进制掩模maskmvg中值为1的像素为几何静态物体像素,值为0的像素为几何动态物体像素。
优选地,第i个特征点xi的权重值为wi,wi按下式计算:
wi=α*maskseg(u,v)+β*maskmvg(u,v)
式中,(u,v)表示第i个特征点xi的坐标,α表示语义权重系数,β表示几何权重系数,maskseg(u,v)表示二进制掩模maskseg中坐标为(u,v)的点的值,maskmvg(u,v)表示二进制掩模maskmvg中坐标为(u,v)的点的值。
优选地,步骤S6中:
将特征点权重引入Bundle Adjustmet进行求解,目标函数为
式中,R*表示求解的最优旋转矩阵,t*表示求解的最优平移矩阵,wi *表示特征点权重值,R表示旋转矩阵,t表示平移矩阵,Xi表示世界坐标系下3D点坐标。
综上所述,本发明公开了一种基于语义和几何的联合优化动态SLAM方法,包括:将原始图像进行语义分割得到二进制掩模maskseg;将原始图像进行几何分割得到二进制掩模maskmvg,几何分割过程中去除与二进制掩模maskseg中语义动态物体像素对应的特征点;基于二进制掩模maskseg与maskmvg计算特征点权重;提取原始图像中的特征点,基于特征点权重确定语义和几何均为静态的特征点;基于与原始图像对应的深度图及语义和几何均为静态的特征点初始化位姿;基于特征点权重对位姿进行优化求解;利用位姿优化的结果检测关键帧,利用关键帧进行局部建图及回环检测。与现有技术相比,本发明重点研究动态环境下的SLAM系统,综合分析几何分割和语义分割的优势与不足,将语义分割结果紧耦合进几何分割,提高动态特征点识别的准确率。此外,本发明提出了特征点权重的概念,基于动态特征点分割的结果初始化权重后,联合优化特征点权重和位姿,在优化相机位姿估计值的同时进一步权衡特征点的动态率。
附图说明
为了使发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明作进一步的详细描述,其中:
图1为本发明公开的一种基于语义和几何的联合优化动态SLAM方法的流程示意图;
图2为Mask R-CNN架构示意图;
图3(a)及图3(b)分别为极线约束中连续帧间3D点和图像关系示意图及实际的极线约束示意图;
图4(a)和图4(b)分别为ORB-SLAM2获取的特征点及本发明的方法获取的特征点。
具体实施方式
下面结合附图对本发明作进一步的详细说明。
如图1所示,本发明公开了一种基于语义和几何的联合优化动态SLAM方法,包括:
S1、将原始图像进行语义分割得到二进制掩模maskseg
S2、将原始图像进行几何分割得到二进制掩模maskmvg,几何分割过程中去除与二进制掩模maskseg中语义动态物体像素对应的特征点;
S3、基于二进制掩模maskseg与maskmvg计算特征点权重;
S4、提取原始图像中的特征点,基于特征点权重确定语义和几何均为静态的特征点;
S5、基于与原始图像对应的深度图及语义和几何均为静态的特征点初始化位姿;
S6、基于特征点权重对位姿进行优化求解;
S7、利用位姿优化的结果检测关键帧,利用关键帧进行局部建图及回环检测。
本发明中,始化位姿、关键帧检测以及关键帧检测后的步骤的实现均为现有技术,在此不再赘述。
动态SLAM问题的关键是如何精确检测动态物体并合理处理动态物体。图像语义分割以图像流作为输入,输出场景中物体的分类语义信息,同时检测物体的边缘。但语义分割并不是完美的,其一,语义分割不能实时运行;其二,物体的边缘检测不准确,部分边缘会被当做背景;其三,语义分割只能检测语义上动态的物体,而不能区分语义静态,实际动态的物体,如被扔出去的书。相反,几何分割刚好能弥补语义分割的缺点,实时运行且提供准确的物体边缘,同时几何分割也存在过分割的不足。
本发明采用语义信息和几何分割紧耦合的方式,将语义分割的结果作为先验信息,融合进几何分割的运算过程中,进一步提高定位的鲁棒性和精度。
另一方面,SLAM的位姿估计过程无差别对待每个特征点,通过最小化重投影误差和来优化位姿,对于存在潜在动态物体的环境来说,这样的处理策略可以进一步优化。因此,本发明的另一个创新点是为每个特征点设置权重值,根据前述语义和几何分割的结果设置初始值,将其和位姿估计一起作为联合估计的变量进行优化。
综上所述,与现有技术相比,本发明重点研究动态环境下的SLAM系统,综合分析几何分割和语义分割的优势与不足,将语义分割结果紧耦合进几何分割,提高动态特征点识别的准确率。此外,本发明提出了特征点权重的概念,基于动态特征点分割的结果初始化权重后,联合优化特征点权重和位姿,在优化相机位姿估计值的同时进一步权衡特征点的动态率。
具体实施时,原始图像为RGB图像,原始图像的尺寸为m*n*3,步骤S1包括:
将原始图像输入Mask R-CNN,输出尺寸为m*n*l的矩阵,l为检测到的物体的个数,将每个物体的矩阵结合得到二进制掩模maskseg,二进制掩模maskseg中值为1的像素为语义静态物体像素,值为0的像素为语义动态物体像素。
随着深度学习、计算机视觉等技术的深入研究,语义分割算法得到快速的发展。多层卷积神经网络可以自动学习抽取抽象的图像特征,在高维度上描述图像的本质,相对于传统图像分割准确率于效率都得到了较大提升。
本发明可采用Mask R-CNN框架实施语义分割,获取图像的先验信息。Mask R-CNN是一个非常灵活的框架,可以用于实现目标分类、目标检测、语义分割、实例分割等多个任务。Mask R-CNN以原始RGB图像作为输入,输出物体的掩模、物体检测框、分类ID。其中物体的掩模实际为二进制矩阵,区分了环境中哪些物体为潜在动态,如人、汽车、飞机、火车、猫、狗等。为得到最终的掩模,Mask R-CNN输出尺寸为m*n*l的矩阵,其中输入的原始图像尺寸为m*n*3,l为检测到的物体的个数,对于每个通道,其m*n的矩阵都为二进制掩模。通过结合这l个二进制掩模,可得到最终需要的m*n尺寸二进制掩模。
Mask R-CNN的网络结构是在经典目标检测算法Faster RCNN的基础上,融合进语义分割算法FCN来产生对应的Mask分支,使其可以获得高准确率。Faster RCNN作为目标检测领域的经典算法,利用一个神经网络将目标检测框架中关键模块:征提取网络、生成ROI、ROI分类、ROI回归融合,融合到一起。FCN是经典的语义分割算法,其总体架构是一个端到端的网络,首先对图像进行卷积和池化,使其特征图的尺寸不断减小,然后进行反卷积操作,不断增大特征图的尺寸,最后对每个像素值进行分类,从而实现对输入图像的准确分割。
图2为Mask R-CNN架构图,对于每个感兴趣区域(RoI)添加一个用于预测分割掩膜的分支。预测语义掩膜的分支是一个应用于RoI的小FCN,以像素到像素的的方式预测分割掩模。
具体实施时,步骤S2包括:
对原始图像进行特征点匹配;
去除与二进制掩模maskseg中语义动态物体像素对应的特征点;
基于剩余特征点求解矩阵F,并利用极线约束和矩阵F判别特征点为几何静态或几何动态;
生成二进制掩模maskmvg,二进制掩模maskmvg中值为1的像素为几何静态物体像素,值为0的像素为几何动态物体像素。
通过使用Mask R-CNN网络,大部分动态物体可以被分割出来,但分割的边缘准确性有待提高,同时一些静态语义但实际运动的物体无法被检测到,几何分割则刚好可以弥补上述两个问题。
极线约束可以用于判断一个特征点是静态或是动态,即静态的特征点一定会满足极线约束。极线约束可以表述为图3(a)和图3(b),对于连续的两个图像帧I1和I2,C1和C2分别为两个图像帧的光心,C1和C2的连线被称为基线。3D点X在帧I1和I2上的投影分别为x1和x2。X和C1、C2决定的平面为极面π,π和图像平面I1和I2的交线为极线,即为图中的L1和L2。基线和图像平面I1和I2的交点为极点e1和e2。
如图3(b)中所示,假设已知I1中的特征点x1,试图找出I2中的对应的特征点x2,此时若深度信息未知,则只能推断出X点在C1,x1的延长线上,具体位置未知,由此可以推断出x2在I2的极线L2上相应的移动,称为对极约束。极限约束的物理意义是C1、X、C2共面,另外也描述了两个匹配点的空间位置关系,用基础矩阵F可表述为:
p2TFp1=0
其中,基础矩阵F是极线约束的关键,可表示为:
F矩阵有9个未知数,由于F的尺度缩放特性,其自由度可以被减少为8个,即只需要8对匹配的特征点就可以计算F。
求解F之后,根据是否满足极线约束可以判定图像帧的任意一对特征点x1、x2属于动态或静态。对于其次表达式下的特征点x1(u1,v1,1)、x2(u2,v2,1),极线L1可以表示为:
则,帧I2中匹配点x2到对应极线L2的极线距离为:
上述利用极线约束的几何分割方法中,对于每个输入的帧,可以通过当前帧和上一帧的多对匹配到的特征点计算F矩阵,然后利用所得到的F矩阵计算像素点的极线距离来判定该特征点是否为动态。几何分割的关键问题在于如何选择成对的特征点,特征点匹配通常可以用光流法实现,但由于环境中存在动态物体,一旦选择的特征点位于动态物体上,后续估计F矩阵的准确性必然降低,进而导致无法准确识别物体的动静态。因此,本发明将语义分割的结果紧耦合进几何分割,提高F矩阵的估计准确性,从而确保几何分割的有效性。
语义分割之后,会得到m*n尺寸的二进制掩模maskseg,值为1表示对应的像素为有效的像素,即为语义静态物体像素;值为0表示对应的像素可能无效,即为语义动态物体像素。本发明中可采用LK稀疏光流匹配特征点,之后,对比语义分割的结果,摒弃掉对应掩模为0对应的特征点,即仅使用语义静态的物体特征点进行F矩阵估计。F矩阵求解后,利用极线约束可以计算极线距离,找到实际动态的特征点。在算法中选择1作为极线距离判定的阈值。几何分割的结果描述为语义分割类似的二进制掩膜maskmvg,1表示几何上静态,0表示结合上动态。最终动态特征点的检测结果是几何掩膜和语义掩膜的结合。
具体实施时,第i个特征点xi的权重值为wi,wi按下式计算:
wi=α*maskseg(u,v)+β*maskmvg(u,v)
式中,(u,v)表示第i个特征点xi的坐标,α表示语义权重系数,β表示几何权重系数,maskseg(u,v)表示二进制掩模maskseg中坐标为(u,v)的点的值,maskmvg(u,v)表示二进制掩模maskmvg中坐标为(u,v)的点的值。
本发明中,wi可取值为0、0.5和1。
在SLAM的位姿估计部分,提取特征点后对特征点对应的权重值进行判定,若权重值等于1则说明该点语义和几何均为静态,则将其用于后续位姿估计部分,若特征点权重小于1摒弃。
具体实施时,步骤S6中:
将特征点权重引入Bundle Adjustmet进行求解,目标函数为
式中,R*表示求解的最优旋转矩阵,t*表示求解的最优平移矩阵,wi *表示特征点权重值,R表示旋转矩阵,t表示平移矩阵,Xi表示世界坐标系下3D点坐标。
SLAM位姿估计可以用Bundle Adjustmet,即BA进行求解,这里BA是通过最小化图像帧中所有特征点的重投影误差总和来达到优化相机位姿的目的,即:
在这种做法中,所用的特征点,无论其运动状态如何都是平等的,对重投影误差的贡献一样大。而由于前述特征点动态检测不能保证百分百的准确,用于BA的特征点中难免会存在少量动态物体对应的特征点,该特征点的重投影误差会对位姿的估计产生一定的消极影响。
因此,本发明提出基于特征点权重BA的位姿估计算法,该算法引入特征点权重值wi,将目标函数更新为带权重的重投影误差,即:
联合优化相机的位姿和图像中特征点权重矩阵W,通过给特征点附加权重值合理分配该特征点对目标函数的贡献,提高位姿估计的精确度,另一方面优化后的权重矩阵W更精确的表明了该特征点的为动态物体的可靠性,取值越大则说明越可靠。
带权重BA问题求解可理解为联合BA问题,若将位姿用李代数ξ表示,首先需要计算每个误差项e对优化变量位姿ξ和特征点权重值wi分别求偏导数,偏导数的结果如下式所示,最后用高斯牛顿或列文伯格-马夸尔特方法求解。
为验证本发明公开的方法在动态环境下的可行性和有效性,本发明对所构建的算法在动态场景下进行位姿定位精度进行试验。实验运行平台配置为:CPU为Intel i7-8700K处理器,12核,主频为3.2GHz,内存为15.6GiB,使用GPU(GTX1080Ti)加速,操作系统为Ubuntu 16.04发行版。
本发明采取ORB-SLAM2作为对比基准,另外采取如下几个动态SLAM算法进行对比试验:
DynaSLAM:RGB-D数据集下,用几何分割补充语义分割产生的掩膜,取二者分割结果的并集作为最终分割结果。
DS-SLAM:将SegNet分割的像素级语义标签和极线约束相结合,二者均为动态时把对应的特征点看作动态并滤除。
Detect-SLAM:用物体检测网络SSD检测可移动的物体,不管实际运动状态如何,把落在该物体上的特征点删除。
为定量比较我们的系统在动态环境下对ORB-SLAM2框架的提升,我们采取绝对轨迹误差(Absolute Trajectory Error,ATE)RMSE作为我们的定量评价指标之一。实验中我们在每个数据集序列上进行5次实验,记录中值、平均、最大和最小RMSE结果。
此外,针对主流的动态SLAM算法对比试验中,除了用RMSE ATE之外,还采取相对旋转误差(Relative Rotation Error,RRE)和相对平移误差(Relative Translation Error,RTE)作为评价指标。
TUM RGB-D数据集由39个视频序列组成,这些序列是在不同室内环境下用Microsoft Kinect传感器采集的,采集的频率是30Hz。每个序列由RGB图像集、深度图集以及真实轨迹值三部分组成。以sitting为开头命名的序列中是两个人坐在桌子前聊天,以walking开头的序列是两个人前景和背景中走动,也会坐在桌子前面,相对而言walking开头的序列比sitting开头的序列动态率更好,环境更具有挑战。无论是sitting还是walking开头的序列都有四个类型:相机围绕着x-y-z轴运动的xyz序列、相机旋转的rpy序列、相机保持大致静态的static序列、以及相机在1m为直径的半圆轨迹上运动的halfsphere序列。
本发明在TUM RGB-D数据集进上分别进行定性和定量实验。首先,定性的观察和对比本发明的SLAM算法和ORB-SLAM2算法所选择的特征点,以动态率较高的walking-xyz序列中的特征点选择结果为例,图4(a)为ORB-SLAM2的特征点选择,图4(b)为本发明SLAM算法的选择结果。从图中可以看出,本发明公开的方法在特征点选择中能较好的区分动态物体,如图中运动的人,几乎所有的特征点均落在静态部分。
此外,本发明以RMSE ATE作为评价指标,在多个视频序列中分别用ORB-SLAM2和本发明SLAM算法重复进行5次实验。下表1中分别记录了ORB-SLAM2和本发明SLAM算法平均值、中值、最大和最小RMSE结果以及对应的提升百分比,表2中则分别记录了二者的RPE和RRE的结果。提升百分比η定义为:
其中o表示原始ORB-SLAM2的值,a表示本发明SLAM算法的值。
表1ORB-SLAM2和本发明算法的RMSE ATE对比
表2ORB-SLAM2和本发明算法的RPE、RRE对比
从表中可看出动态率较高的序列,如walking_xyz,walking_rpy等,本发明所提出的SLAM算法对原始ORB-SLAM2有相当大的提升。对于平均RMSE ATE指标而言,提升率最高可达到98.15%,最低也能达到93.2%,而对于RTE、RRE指标最高提升率分别为99.84%和97.80%。另外,我们也发现相对静态的序列,如表中的sitting_xyz序列,本发明的SLAM算法相对ORB-SLAM2来说表现稍差。分析原因,本发明认为是原始ORB-SLAM2算法能很好的应对静态环境,表现为RMSE ATE、RTE和RRE指标值均很小。而本发明提出的算法会摒弃语义上动态的特征点,在静态物体占大多数的环境中,这样的做法相对原始ORB-SLAM2会滤掉部分特征点,对定位精度有一定的消极影响。
此外,本发明将我们的SLAM算法和最先进的动态SLAM算法,即DynaSLAM、DS-SLAM和Detetect-SLAM等进行对比试验,下表3中记录中若干个序列中RMSE ATE结果对比。其中,DynaSLAM、DS-SLAM和Detetect-SLAM的RMSE ATE结果采用原论文中给出的数据。
表3本发明SLAM算法和最先进的SLAM算法RMSE ATE对比
序列名 DynaSLAM DS-SLAM Detetect-SLAM 本发明SLAM
w_xyz 0.015 0.0247 0.0241 0.0138
w_rpy 0.035 0.3768 0.2959 0.0278
w_static 0.006 0.0073 - 0.0070
w_half 0.025 0.0222 0.0514 0.0271
s_xyz 0.015 0.0065 0.0201 0.015
对比分析表3,我们可以发现在动态率较低的环境中,即sitting_xyz序列,本发明SLAM算法的表现只比DS-SLAM差,和DynaSLAM算法相当且均优于Detetect-SLAM。分析其原因是DS-SLAM趋于将几何和语义分割中只有一种为动态的特征点进行保留,而本发明SLAM算法则趋于摒弃。在动态率较低的环境中,动态特征点的占比少,对定位精度的影响更小,因此更多的特征点在一定程度上意味着更高的定位精度。在动态率较高的剩下四个序列中,本发明算法在其中2个序列中表现最好,在walking_static序列中只比DynaSLAM略差,并且在这个序列上所有算法精度都较高。
最后说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管通过参照本发明的优选实施例已经对本发明进行了描述,但本领域的普通技术人员应当理解,可以在形式上和细节上对其作出各种各样的改变,而不偏离所附权利要求书所限定的本发明的精神和范围。

Claims (1)

1.一种基于语义和几何的联合优化动态SLAM方法,其特征在于,包括:
S1、将原始图像进行语义分割得到二进制掩模maskseg;原始图像为RGB图像,原始图像的尺寸为m*n*3,步骤S1包括:
将原始图像输入Mask R-CNN,输出尺寸为m*n*l的矩阵,l为检测到的物体的个数,将每个物体的矩阵结合得到二进制掩模maskseg,二进制掩模maskseg中值为1的像素为语义静态物体像素,值为0的像素为语义动态物体像素;
S2、将原始图像进行几何分割得到二进制掩模maskmvg,几何分割过程中去除与二进制掩模maskseg中语义动态物体像素对应的特征点;步骤S2包括:
对原始图像进行特征点匹配;
去除与二进制掩模maskseg中语义动态物体像素对应的特征点;
基于剩余特征点求解矩阵F,并利用极线约束和矩阵F判别特征点为几何静态或几何动态;
生成二进制掩模maskmvg,二进制掩模maskmvg中值为1的像素为几何静态物体像素,值为0的像素为几何动态物体像素;
S3、基于二进制掩模maskseg与maskmvg计算特征点权重;第i个特征点xi的权重值为wi,wi按下式计算:
wi=α*maskseg(u,v)+β*maskmvg(u,v)
式中,(u,v)表示第i个特征点xi的坐标,α表示语义权重系数,β表示几何权重系数,maskseg(u,v)表示二进制掩模maskseg中坐标为(u,v)的点的值,maskmvg(u,v)表示二进制掩模maskmvg中坐标为(u,v)的点的值;
S4、提取原始图像中的特征点,基于特征点权重确定语义和几何均为静态的特征点;
S5、基于与原始图像对应的深度图及语义和几何均为静态的特征点初始化位姿;
S6、基于特征点权重对位姿进行优化求解;步骤S6中:
将特征点权重引入Bundle Adjustmet进行求解,目标函数为
式中,R*表示求解的最优旋转矩阵,t*表示求解的最优平移矩阵,wi *表示特征点权重值,R表示旋转矩阵,t表示平移矩阵,Xi表示世界坐标系下3D点坐标;
S7、利用位姿优化的结果检测关键帧,利用关键帧进行局部建图及回环检测。
CN202011241578.8A 2020-11-09 2020-11-09 一种基于语义和几何的联合优化动态slam方法 Active CN112308921B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011241578.8A CN112308921B (zh) 2020-11-09 2020-11-09 一种基于语义和几何的联合优化动态slam方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011241578.8A CN112308921B (zh) 2020-11-09 2020-11-09 一种基于语义和几何的联合优化动态slam方法

Publications (2)

Publication Number Publication Date
CN112308921A CN112308921A (zh) 2021-02-02
CN112308921B true CN112308921B (zh) 2024-01-12

Family

ID=74325435

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011241578.8A Active CN112308921B (zh) 2020-11-09 2020-11-09 一种基于语义和几何的联合优化动态slam方法

Country Status (1)

Country Link
CN (1) CN112308921B (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113240623B (zh) * 2021-03-18 2023-11-07 中国公路工程咨询集团有限公司 一种路面病害检测方法及装置
CN112966633B (zh) * 2021-03-19 2021-10-01 中国测绘科学研究院 一种语义与结构信息双约束的倾斜影像特征点过滤方法
CN113223045A (zh) * 2021-05-19 2021-08-06 北京数研科技发展有限公司 基于动态物体语义分割的视觉与imu传感器融合定位系统
CN114913235B (zh) * 2022-07-18 2022-10-14 合肥工业大学 一种位姿估计方法、装置及智能机器人

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110533720A (zh) * 2019-08-20 2019-12-03 西安电子科技大学 基于联合约束的语义slam系统及方法
CN111462135A (zh) * 2020-03-31 2020-07-28 华东理工大学 基于视觉slam与二维语义分割的语义建图方法
CN111581313A (zh) * 2020-04-25 2020-08-25 华南理工大学 一种基于实例分割的语义slam鲁棒性改进方法
CN111797688A (zh) * 2020-06-02 2020-10-20 武汉大学 一种基于光流和语义分割的视觉slam方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180161986A1 (en) * 2016-12-12 2018-06-14 The Charles Stark Draper Laboratory, Inc. System and method for semantic simultaneous localization and mapping of static and dynamic objects
US10685446B2 (en) * 2018-01-12 2020-06-16 Intel Corporation Method and system of recurrent semantic segmentation for image processing

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110533720A (zh) * 2019-08-20 2019-12-03 西安电子科技大学 基于联合约束的语义slam系统及方法
CN111462135A (zh) * 2020-03-31 2020-07-28 华东理工大学 基于视觉slam与二维语义分割的语义建图方法
CN111581313A (zh) * 2020-04-25 2020-08-25 华南理工大学 一种基于实例分割的语义slam鲁棒性改进方法
CN111797688A (zh) * 2020-06-02 2020-10-20 武汉大学 一种基于光流和语义分割的视觉slam方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
WF-SLAM: A Robust VSLAM for Dynamic Scenarios via Weighted Features;Yuanhong Zhong 等;IEEE;全文 *
基于SLAM算法和深度神经网络的语义地图构建研究;白云汉;;计算机应用与软件(第01期);全文 *
基于语义信息和边缘一致性的鲁棒SLAM算法;姚二亮 等;机器人(第06期);全文 *

Also Published As

Publication number Publication date
CN112308921A (zh) 2021-02-02

Similar Documents

Publication Publication Date Title
CN112308921B (zh) 一种基于语义和几何的联合优化动态slam方法
Zhan et al. Visual odometry revisited: What should be learnt?
CN111311666B (zh) 一种融合边缘特征和深度学习的单目视觉里程计方法
Zhou et al. Efficient road detection and tracking for unmanned aerial vehicle
Herbst et al. Toward object discovery and modeling via 3-d scene comparison
Boniardi et al. Robot localization in floor plans using a room layout edge extraction network
CN111291714A (zh) 一种基于单目视觉和激光雷达融合的车辆检测方法
Košecka Detecting changes in images of street scenes
Kong et al. A method for learning matching errors for stereo computation.
CN111797688A (zh) 一种基于光流和语义分割的视觉slam方法
CN112686952A (zh) 一种图像光流计算系统、方法及应用
WO2015181179A1 (en) Method and apparatus for object tracking and segmentation via background tracking
Fang et al. Sewer defect instance segmentation, localization, and 3D reconstruction for sewer floating capsule robots
CN116434088A (zh) 基于无人机航拍图像的车道线检测及车道辅助保持方法
Yu et al. Drso-slam: A dynamic rgb-d slam algorithm for indoor dynamic scenes
CN116385660A (zh) 室内单视图场景语义重建方法及系统
CN115018999A (zh) 一种多机器人协作的稠密点云地图构建方法及装置
Wang et al. Recurrent neural network for learning densedepth and ego-motion from video
CN116188550A (zh) 一种基于几何约束的自监督深度视觉里程计
Guo et al. DeblurSLAM: A novel visual SLAM system robust in blurring scene
Kim et al. Fast stereo matching of feature links
Zhuang et al. Amos-SLAM: An Anti-Dynamics Two-stage SLAM Approach
CN116664851A (zh) 一种基于人工智能的自动驾驶数据提取方法
CN114067240A (zh) 一种融合行人特性的在线更新策略行人单目标跟踪方法
Staszak et al. Kinematic structures estimation on the RGB-D images

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant