CN108596974A - 动态场景机器人定位建图系统及方法 - Google Patents

动态场景机器人定位建图系统及方法 Download PDF

Info

Publication number
CN108596974A
CN108596974A CN201810298042.6A CN201810298042A CN108596974A CN 108596974 A CN108596974 A CN 108596974A CN 201810298042 A CN201810298042 A CN 201810298042A CN 108596974 A CN108596974 A CN 108596974A
Authority
CN
China
Prior art keywords
semantic
thread
dynamic
key frame
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201810298042.6A
Other languages
English (en)
Other versions
CN108596974B (zh
Inventor
刘辛军
于超
乔飞
谢福贵
王智杰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tsinghua University
Original Assignee
Tsinghua University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tsinghua University filed Critical Tsinghua University
Priority to CN201810298042.6A priority Critical patent/CN108596974B/zh
Publication of CN108596974A publication Critical patent/CN108596974A/zh
Application granted granted Critical
Publication of CN108596974B publication Critical patent/CN108596974B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/005Tree description, e.g. octree, quadtree
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20016Hierarchical, coarse-to-fine, multiscale or multiresolution image processing; Pyramid transform

Abstract

本发明公开了一种动态场景机器人定位建图系统及方法,其中,系统包括:语义分割线程用于根据RGB图像获取语义分割结果,生成带有语义信息的语义图像;位姿估测线程用于根据RGB图像获取ORB特征点,通过运动型一致性检测获得运动区域,结合语义图像的语义信息剔除动态目标上的外点,并通过匹配剩余稳定目标的特征点得到变换矩阵,生成语义图像关键帧;稠密语义八叉树地图建立线程用于根据语义图像关键帧生成带语义标签的3D稠密八叉树地图。该系统通过将语义分割网络与运动一致性检测法相结合,完成对动态物体的剔除,并且构建的语义稠密八叉树地图,能够服务于更高层次的工作,从而有效提高了定位建图的适用性、实用性和鲁棒性。

Description

动态场景机器人定位建图系统及方法
技术领域
本发明涉及机器人定位建图技术领域,特别涉及一种动态场景机器人定位建图系统及方法。
背景技术
机器人定位建图系统主要依赖SLAM(Simultaneous Localization and Mapping,实时定位与地图构建)技术,该技术被视作移动智能机器人的一项重要技术,最早于1988年提出。机器人通过传感器获取周围环境的相关数据进行地图构建,然后将当前所感知到的环境特征与地图中的特征进行匹配,从而完成定位。
根据传感器类型的不同,SLAM技术主要可以分为激光SLAM和视觉SLAM。由于图像在信息存储上的丰富性,以及图像对于一些更高层次工作(如语义分割与物体检测)的服务型,视觉SLAM技术在近年来被广泛研究。此外,当下的视觉SLAM技术往往都是一个完整的架构,包含了特征提取、回环检测等部分,如ORB-SLAM2,LSD-SLAM等现有的视觉SLAM技术已经在某些环境下取得了较好的试验结果。
但在现有的机器人定位建图系统中,所应用的SLAM技术仍然存在着一些问题。一方面是如何让机器人的定位系统能够适应复杂多变的环境,例如环境中存在动态物体;另一方面是如何依靠SLAM技术构建更有价值的地图,提供更多的信息来服务于系统的高层次的应用。
发明内容
本发明旨在至少在一定程度上解决相关技术中的技术问题之一。
为此,本发明的一个目的在于提出一种动态场景机器人定位建图系统,该系统可以有效提高了定位建图的适用性、实用性和鲁棒性。
本发明的另一个目的在于提出一种动态场景机器人定位建图方法。
为达到上述目的,本发明一方面实施例提出了一种动态场景机器人定位建图系统,为5线程架构,包括:语义分割线程,采用深度学习技术实时的获取语义分割结果,以生成带有语义信息的语义图像;位姿估测线程,根据RGB图像获取ORB特征点,通过运动一致性检测获得运动区域,结合语义分割的信息剔除动态区域上的外点,并通过匹配剩余稳定目标的特征点得到变换矩阵,生成语义图像关键帧;稠密语义八叉树地图线程,用于根据所述语义图像的关键帧生成带语义标签的3D稠密语义八叉树地图,完成动态目标的剔除,可用于高级复杂任务。后端优化线程,用于对所述关键帧进行局部优化和关键帧筛选;回环线程,用于对局部优化和关键帧筛选的结果进行整体优化和回环检测。
本发明实施例的动态场景机器人定位建图系统,通过将语义分割网络与运动一致性检测法相结合,并对动态物体的剔除,减少了环境中运动物体对实时定位与地图构建的影响,提高了在动态环境下的定位精度,并且构建的稠密八叉树地图,能够服务于更高层次的工作,从而有效提高了定位建图的适用性、实用性和鲁棒性。
另外,根据本发明上述实施例的动态场景机器人定位建图系统还可以具有以下附加的技术特征:
进一步地,在本发明的一个实施例中,所述语义分割线程与所述位姿估测线程进行数据交流,与运动一致性检测相结合剔除环境中的动态目标。
进一步地,在本发明的一个实施例中,所述稠密语义八叉树地图建立线程还用于通过概率融合法建立稳定的3D八叉树地图,将动态目标剔除,并与语义信息相融合,该地图可以用于导航以及机器人完成高级复杂任务。
进一步地,在本发明的一个实施例中,所述位姿估测线程进一步用于:获取当前帧到达匹配特征点的LK光流金字塔;通过多个样本点和RANSAC得到基础矩阵;根据所述基础矩阵得到所述当前帧的极线;判断匹配点到所述极线的距离是否小于预设阈值;如果所述距离大于所述预设阈值,则所述匹配点为移动点。
进一步地,在本发明的一个实施例中,所述稠密语义八叉树地图建立线程还用于通过逻辑回归值法构建稳定的3D八叉树地图,并将所述3D八叉树地图与所述语义信息相融合。
为达到上述目的,本发明另一方面实施例提出了一种动态场景机器人定位建图方法,包括以下步骤:采用深度学习技术实时的获取语义分割结果,以生成带有语义信息的语义图像;根据RGB图像获取ORB特征点,通过运动一致性检测获得运动区域,结合语义分割的信息剔除动态区域上的外点,并通过匹配剩余稳定目标的特征点得到变换矩阵,生成语义图像关键帧;根据所述语义图像的关键帧生成带语义标签的3D稠密语义八叉树地图,完成动态目标的剔除,可用于高级复杂任务;对所述关键帧进行局部优化和关键帧筛选;对局部优化和关键帧筛选的结果进行整体优化和回环检测。
本发明实施例的动态场景机器人定位建图方法,通过将语义分割网络与运动一致性检测法相结合,并对动态物体的剔除,减少了环境中运动物体对实时定位与地图构建的影响,提高了在动态环境下的定位精度,并且构建的稠密八叉树地图,能够服务于更高层次的工作,从而有效提高了定位建图的适用性、实用性和鲁棒性。
另外,根据本发明上述实施例的动态场景机器人定位建图方法还可以具有以下附加的技术特征:
进一步地,在本发明的一个实施例中,所述用于根据RGB图像获取语义分割结果,以生成带有语义信息的语义图像,进一步包括:通过与运动一致性检测相结合的实时语义分割网络剔除面向动态环境下的动态目标。
进一步地,在本发明的一个实施例中,所述稠密语义八叉树地图建立线程,用于根据所述语义图像的关键帧生成带语义标签的3D稠密语义八叉树地图,进一步包括:通过概率融合法构建稳定的3D八叉树地图,并将所述3D八叉树地图与所述语义信息相融合。
进一步地,在本发明的一个实施例中,所述根据RGB图像获取ORB特征点,并根据所述语义图像的语义信息和运动一致性检测剔除动态目标上的特征点,并通过匹配剩余的稳定目标的动态点得到变换矩阵,以得到所述语义图像的关键帧,进一步包括:获取当前帧到达匹配特征点的LK光流金字塔;通过多个样本点和RANSAC得到基础矩阵;根据所述基础矩阵得到所述当前帧的极线;判断匹配点到所述极线的距离是否小于预设阈值;如果所述距离大于所述预设阈值,则所述匹配点为移动点。
本发明附加的方面和优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本发明的实践了解到。
附图说明
本发明上述的和/或附加的方面和优点从下面结合附图对实施例的描述中将变得明显和容易理解,其中:
图1为根据本发明一个实施例的动态场景机器人定位建图系统的结构示意图;
图2为根据本发明一个具体实施例的动态场景机器人定位建图系统的结构示意图;
图3为根据本发明一个实施例的动态场景机器人定位建图系统的功能示意图;
图4为根据本发明一个实施例的运动一致性检测流程图;
图5为根据本发明一个实施例的动态目标剔除流程图;
图6为根据本发明一个实施例的数据集测试结果示意图;
图7为根据本发明一个实施例的真实环境实验示意图;
图8为根据本发明一个实施例的语义八叉树地图构建实验示意图;
图9为根据本发明一个实施例的动态场景机器人定位建图方法的流程图。
具体实施方式
下面详细描述本发明的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,旨在用于解释本发明,而不能理解为对本发明的限制。
在介绍动态场景机器人定位建图系统及方法之前,先简单介绍一下相关技术的语义分割技术和SLAM技术。
在人机交互的过程中,机器人主要完成的工作主要有二:一是理解人的指令,二是对指令作出反应。相关技术的机器人定位建图系统与其依托视觉SLAM技术构建的地图,所提供的信息往往只包含地理信息,提供语义信息对于提高机器人的人机交互性便显得尤为重要。另外,相关技术的系统架构往往是适用于一些特定的环境(如空旷地带等)。但在实际应用中,环境通常是动态多变的,图像中出现的人、车等动态物体都会影响机器人建图的准确性,这对系统的鲁棒性提出了更高的要求。
解决上述问题的技术基础是语义分割技术。传统的语义分割技术主要依靠手工标记特征点,这种方法的计算消耗较小,但精度并不能让人满意。随着深度学习的发展,不少基于卷积神经网络的语义分割技术问世,如FCN(Fully Convolutional Networks,全卷积网络)。在实际的机器人应用里,实时指令发布是机器人系统的一个关键因素,因此语义分割网络的实时表现与精度是至关重要的。然而,大部分的语义分割网络并不能满足这些要求。
在相关技术中,一种针对语义分割的深度完全卷积神经网络模型——SegNet。SegNet的设计考虑了存储与运算的高效性,所需要的训练集数目也远远小于其他模型。有了语义分割网络,就可以使用语义视觉SLAM技术。语义SLAM技术构建的地图包含了语义信息,能够被用于机器人系统更高层次的工作,也能用于提高动态环境下的系统稳定性。
正是基于上述原因,本发明实施例提出了一种动态场景机器人定位建图系统及方法。
下面参照附图描述根据本发明实施例提出的动态场景机器人定位建图系统及方法,首先将参照附图描述根据本发明实施例提出的动态场景机器人定位建图系统。
图1是本发明一个实施例的动态场景机器人定位建图系统的结构示意图。
如图1所示,该动态场景机器人定位建图系统10包括:语义分割线程100、位姿估测线程200和稠密语义八叉树地图建立线程300。
其中,语义分割线程100用于根据RGB图像获取语义分割结果,以生成带有语义信息的语义图像。位姿估测线程200用于根据RGB图像获取ORB特征,以得到潜在外值,并根据语义图像的语义信息和潜在外值剔除动态目标上的特征点,并通过匹配剩余的稳定目标的动态点得到变换矩阵,以得到语义图像的关键帧。稠密语义八叉树地图建立线程300用于根据语义图像的关键帧生成带语义标签的3D稠密语义八叉树地图。本发明实施例的系统10通过将语义分割网络与运动一致性检测法相结合,并对动态物体的剔除,并且构建的稠密八叉树地图,能够服务于更高层次的工作,从而有效提高了定位建图的适用性、实用性和鲁棒性。
可以理解的是,本发明实施例的系统10基于ORB-SLAM2,为5线程架构,语义分割得到的结果能够作为地图信息的补充,本发明实施例的系统10可以根据语义分割的结果,对符合条件的动态物体进行剔除,保证了建图的准确性。在本发明实施例的语义分割线程100中,包含了一个与运动一致性检测相结合的实时语义分割网络,用于剔除面向动态环境下的一些动态目标,如人等,并据剔除后的结果提升了系统的定位精度;稠密语义八叉树地图线程300利用了概率融合法(log-odds score method)对动态目标进行剔除,并将地图与语义信息相融合。
具体而言,如图2和图3所示,本发明实施例利用传感器获取RGB图像,并将RGB图像同时送入语义分割线程100与位姿估测线程200。位姿估测线程200首先进行ORB特征点检测与运动一致性检测,待语义分割线程100产生语义图像后,根据语义图像结果进行外点剔除,从而得到位置模拟结果并生成关键帧。得到语义图像与关键帧后,语义八叉树构建线程300产生3D稠密语义八叉树地图。以上三个线程为并发执行,并辅以ORB-SLAM2中的后端优化线程与回环线程,构成了本发明实施例的基本系统架构与执行流程。
进一步地,在本发明的一个实施例中,语义分割线程100还用于通过与运动一致性检测相结合的实时语义分割网络剔除面向动态环境下的动态目标。
具体而言,如图3所示,在语义分割线程100中,由于本发明实施例是设计用于真实场景下的,因此需要平衡精度与实时性,通过利用基于caffe的SegNet来做到实时语义分割。SegNet采用PASCAL VOC数据集进行训练,能够对20种类型的数据进行分割。
进一步地,在本发明的一个实施例中,位姿估测线程200进一步用于:获取当前帧到达匹配特征点的LK光流金字塔;通过多个样本点和RANSAC得到基础矩阵;根据基础矩阵得到当前帧的极线;判断匹配点到极线的距离是否小于预设阈值;如果距离大于预设阈值,则匹配点为移动点。
具体而言,如图4所示,由于运动一致性检测是需要消耗时间的,再加上语义分割的结果可以从其他线程中获取,从而只需要确定哪些分割结果中的哪些关键点是移动的。如果分割后的一个物体里含有一些动态的关键点,那么这个物体就可以被认为是动态的。本发明实施例中移动关键点的判断是很直接的。具体包括:
第一步先计算出当前帧到达匹配特征点的LK光流金字塔(opticalflowpyramid),如果匹配对与图像的边缘太过接近,或者匹配对中央3×3大小的图块的像素差过大,那么匹配对将会被忽略。随后需要选取大多数样本点,利用RANSAC找出基础矩阵。然后需要用基础矩阵来计算出当前帧的极线(epipolarline)。最后,需要判断匹配点到它相关的极线的距离是否小于阈值,如果该距离大于阈值,那么该匹配点将被认为是移动的。
基础矩阵标记了上一帧中的关键点到与之相关的当前帧的匹配范围,即极线。让p1、p2分别代表上一帧与当前帧的匹配点,P1、P2是他们的齐次坐标形式:
P1=[u1,v1,1],P2=[u2,v2,1],
p1=[u1,v1],P2=[u2,v2]。
极线被定义为I1,它的计算方式如下:
X、Y、Z代表线向量,F代表基础矩阵。那么匹配点到它相关的极线的距离可以定义为:
D代表距离。以下是运动一致性检测的算法与动态点的定义,ε是阈值。
输入:前一帧F1,前一帧的特征点P1,当前帧F2
输出:动态点集S
1.判断当前帧是否为第一帧,如是则跳过。
2.获取ORB特征点。
3.计算LK光流金字塔
4.剔除当前帧特征点的异常值
5.利用RANSAC算法计算基础矩阵
6.计算到极线的距离
7.判断该距离是否小于阈值,是则将当前帧归入动态点集
进一步地,如图5所示,由于移动物体(例如人)会产生复杂且易变形的动作,因此运动一致性检测法不容易确定动态物体的完整边界,时间上也会增加不少耗费。在本发明实施例中,有了语义分割网络的存在,物体的轮廓可以被快速确定。本发明实施例可以考虑将运动一致性检测法与语义信息相结合,来构成两种基础语义信息:移动物体或非移动物体。如果物体被判为移动的,那么将移除该物体边界的所有特征点,从而动态物体的剔除便简化了许多。
等待语义分割线程100完成的时间将被用来做运动一致性检测,时间的利用率得到大幅提升。在语义分割结果产生之后,如果没有检测到动态物体(人),那么所有的ORB特征点都会被用于匹配上一帧并作定位预测。此外,判断人是否移动依靠的是运动一致性检测的结果。如果人被判定为静止的,那么预测结果将会立刻提供,如果人是移动的,则需要先进行动态目标剔除。
进一步地,在本发明的一个实施例中,稠密语义八叉树地图建立线程300还用于通过逻辑回归值法对动态目标进行剔除,并将3D八叉树地图与语义信息相融合。
可以理解的是,如图3所示,本发明实施例从视觉跟踪进程中获取新的关键帧,从语义线程获取语义图,并对每一帧关键帧计算本地点云,本地点云将会被用于全局八叉树地图。其中,八叉树地图的构建采用逻辑回归值法构建的八叉树地图能够高效存储,且易用于导航。
具体而言,本发明实施例将语义分割得到的语义信息融入八叉树地图中。八叉树地图中的每一个三位像素点都由一种特殊的颜色代替,而每一种颜色代表一种语义标签。同时由于八叉树地图存储结构的优势,可以用于大场景建图,实时性较好。
本发明实施例是设计面向动态场景的稳定建图,最后留存的地图应该是由全部静态物体组成。但语义分割结果的精度是有限的,在复杂场景或者物体重叠较多的情况下,会存在分割错误或者不能完整分割的情况,同时,被分割物体的边缘通常并不能被完美处理。为了解决该问题,本发明实施例采用逻辑回归来处理这种问题,尽可能地减少动态物体对地图的影响,实现动态建模。逻辑回归值(logoddsscore)来描述某一个独立的三维像素点是否被占据。定义p∈[0,1]为每一个三维像素点被占用的概率,定义l∈R为概率的逻辑回归值,l的计算概率如下:
对上式进行变化可得:
定义zt为像素点n在t时刻的观察结果,它在t时刻的逻辑回归值是L(n|Z1:t),那么在t+1时刻,该像素点的逻辑回归值可由下式得到:
L(n|Z1:t+1)=L(n|Z1:t-1)+L(n|Zt)。
当t时刻像素点n被观察到为占有状态时,L(n|Zt)与τ相等,否则为0(增量τ的大小是预先设定的)。观察该公式可知,当一个像素点被重复观察到为占有状态时,逻辑回归值将会增大。只有当一个像素点的概率p大于预先设置的阈值时,该像素点将会被是为占有的且在八叉树地图中可视。换言之,只有当一个像素点被多次观察到时才可以被看作稳定出现,从而本发明实施例可以很好地完成动态环境下的建图。
进一步地,在本发明的一个实施例中,本发明实施例的装置10还包括:后端优化线程400和回环线程500。
其中,后端优化线程400用于对关键帧进行局部优化和关键帧筛选。回环线程500用于对局部优化和关键帧筛选的结果进行整体优化和回环检测。
综上,本发明实施例利用视觉传感器获取RGB图像,并将之送至位姿估测线程与语义分割线程。位姿估测线程首先获取ORB特征点,随后对特征点进行粗略的运动一致性检测,并记录潜在的外值(动态点)。当语义分割的结果产生后,位姿估测线程得到带有语义信息的图像,并根据语义信息与先前得到的潜在外值,剔除动态目标上的特征点。之后,线程将会通过匹配剩余的稳定目标的动态点来计算变换矩阵。后端优化线程与回环线程同ORB-SLAM2相同。稠密语义八叉树地图建立线程用于建立带语义标签的3D八叉树地图,从而使机器人能适应更高层次的工作。
在本发明的一个具体实施例中,如图6所示,为了验证本发明实施例的使用效果,分为两步进行验证。首先使用TUM RGB-D进行验证,该数据集提供了多种不同的动态环境,包含了行走、坐等动作以及桌子等静态物体。本发明实施例以ORB-SLAM2为基础,因此将本发明实施例的试验结果与其进行比较,以ATE(Absolute Trajectory Error,绝对轨迹误差)与RPE(Relative Pose Error,相对位置误差)作为主要指标。对照附图5为测试结果,其中上方为ORB-SLAM2的实验结果,下方为本发明实施例的实验结果。其中左边为ATE的测试结果,由真实值(ground truth)、模拟值(estimated)、相对误差(difference)构成;右图为RPE的测试结果,纵轴代表相对位置误差距离。由结果可见,本发明实施例在两项指标上均有较大幅度的提升,而且在实时性上的表现也更好。
为了进一步测试本发明实施例的系统10的鲁棒性和实时表现效果,本发明实施例还利用Kinect V2摄像头(960×540)作为图像采集源,在ROS系统下进行了真实环境测试。如图7所示,从上至下每行分别代表ORB特征点检测结果、基于光流法的运动一致性检测、语义分割结果、动态目标剔除后的图像。图中的绿点代表ORB特征点、红线代表光流方向。可见经过本发明实施例的系统10的处理后,人作为动态物体被剔除,且显示效果较好。如图8所示,可见八叉树地图建图效果,红色的像素块代表沙发,蓝色的像素块代表显示器。其中,沙发和显示器均以数据库中特定颜色显示。地图中展示的是概率融合法筛选后的像素块,可见走动的人作为动态物体并不会影响建图效果。
综上,本发明实施例阐述了一种实时的、鲁棒性较好的、针对动态环境的语义SLAM技术。本发明实施例系统10基于ROS(Robot Operating System,机器人操作系统)系统,它包含了五个部分:视觉跟踪、语义分割、本地建图、回环检测以及稠密八叉树地图构建,并通过TUM RGB-D数据集验证,较于ORB-SLAM2在动态环境下的建图精度与鲁棒性有较为显著的提升。此外,本发明实施例的效果也在现实环境下得到了测试,效果较好。具体地,本发明实施例利用TUM数据集的测试结果与ORB-SLAM2相比,ATE与RPE的根均方误差与标准差有90%以上的提升,提升了近一个量级;此外,在真实环境实验中,本发明实施例对于移动物体的剔除做的较好,建图也较精确,验证了系统的可用性和实时性。
根据本发明实施例提出的动态场景机器人定位建图系统,通过将语义分割网络与运动一致性检测法相结合,并对动态物体的剔除,减少了环境中运动物体对实时定位与地图构建的影响,提高了在动态环境下的定位精度,并且构建的稠密八叉树地图,能够服务于更高层次的工作,从而有效提高了定位建图的适用性、实用性和鲁棒性。
其次参照附图描述根据本发明实施例提出的动态场景机器人定位建图方法的流程图。
如图9所示,该动态场景机器人定位建图方法包括以下步骤:
在步骤S901中,采用深度学习技术实时的获取语义分割结果,以生成带有语义信息的语义图像。
在步骤S902中,根据RGB图像获取ORB特征点,通过运动一致性检测获得运动区域,结合语义分割的信息剔除动态区域上的外点,并通过匹配剩余稳定目标的特征点得到变换矩阵,生成语义图像关键帧。
在步骤S903中,根据语义图像的关键帧生成带语义标签的3D稠密语义八叉树地图,完成动态目标的剔除,可用于高级复杂任务。
在步骤S904中,对关键帧进行局部优化和关键帧筛选。
在步骤S905中,对局部优化和关键帧筛选的结果进行整体优化和回环检测。
进一步地,在本发明的一个实施例中,用于根据Raw图像获取语义分割结果,以生成带有语义信息的语义图像,进一步包括:通过与运动一致性检测相结合的实时语义分割网络剔除面向动态环境下的动态目标。
进一步地,在本发明的一个实施例中,稠密语义八叉树地图建立线程,用于根据语义图像的关键帧生成带语义标签的3D稠密语义八叉树地图,进一步包括:通过概率融合法建立稳定的3D八叉树地图,并将3D八叉树地图与语义信息相融合。
进一步地,在本发明的一个实施例中,根据RGB图像获取ORB特征点并根据语义图像的语义信息和运动一致性检测剔除动态目标上的特征点,并通过匹配剩余的稳定目标的动态点得到变换矩阵,以得到语义图像的关键帧,进一步包括:获取当前帧到达匹配特征点的LK光流金字塔;通过多个样本点和RANSAC得到基础矩阵;根据基础矩阵得到当前帧的极线;判断匹配点到极线的距离是否小于预设阈值;如果距离大于预设阈值,则匹配点为移动点。
需要说明的是,前述对动态场景机器人定位建图系统实施例的解释说明也适用于该实施例的动态场景机器人定位建图方法,此处不再赘述。
根据本发明实施例提出的动态场景机器人定位建图方法,通过将语义分割网络与运动一致性检测法相结合,并对动态物体的剔除,减少了环境中运动物体对实时定位与地图构建的影响,提高了在动态环境下的定位精度,并且构建的稠密八叉树地图,能够服务于更高层次的工作,从而有效提高了定位建图的适用性、实用性和鲁棒性。
在本发明的描述中,需要理解的是,术语“中心”、“纵向”、“横向”、“长度”、“宽度”、“厚度”、“上”、“下”、“前”、“后”、“左”、“右”、“竖直”、“水平”、“顶”、“底”“内”、“外”、“顺时针”、“逆时针”、“轴向”、“径向”、“周向”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。
此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括至少一个该特征。在本发明的描述中,“多个”的含义是至少两个,例如两个,三个等,除非另有明确具体的限定。
在本发明中,除非另有明确的规定和限定,术语“安装”、“相连”、“连接”、“固定”等术语应做广义理解,例如,可以是固定连接,也可以是可拆卸连接,或成一体;可以是机械连接,也可以是电连接;可以是直接相连,也可以通过中间媒介间接相连,可以是两个元件内部的连通或两个元件的相互作用关系,除非另有明确的限定。对于本领域的普通技术人员而言,可以根据具体情况理解上述术语在本发明中的具体含义。
在本发明中,除非另有明确的规定和限定,第一特征在第二特征“上”或“下”可以是第一和第二特征直接接触,或第一和第二特征通过中间媒介间接接触。而且,第一特征在第二特征“之上”、“上方”和“上面”可是第一特征在第二特征正上方或斜上方,或仅仅表示第一特征水平高度高于第二特征。第一特征在第二特征“之下”、“下方”和“下面”可以是第一特征在第二特征正下方或斜下方,或仅仅表示第一特征水平高度小于第二特征。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不必须针对的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任一个或多个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。
尽管上面已经示出和描述了本发明的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本发明的限制,本领域的普通技术人员在本发明的范围内可以对上述实施例进行变化、修改、替换和变型。

Claims (4)

1.一种动态场景机器人视觉定位建图系统,其特征在于,包括:
语义分割线程,用于采用深度学习技术实时的获取语义分割结果,以生成带有语义信息的语义图像;
位姿估测线程,用于根据RGB图像获取ORB特征点,通过运动一致性检测获得运动区域,结合语义分割的信息剔除动态区域上的外点,并通过匹配剩余稳定目标的特征点得到变换矩阵,生成语义图像关键帧;
稠密语义八叉树地图线程,用于根据所述语义图像的关键帧生成带语义标签的3D稠密语义八叉树地图,完成动态目标的剔除,可用于高级复杂任务;
后端优化线程,用于对所述关键帧进行局部优化和关键帧筛选;
回环线程,用于对局部优化和关键帧筛选的结果进行整体优化和回环检测。
2.根据权利要求1所述的动态场景机器人定位建图系统,其特征在于,所述语义分割线程与所述位姿估测线程进行数据交流,与运动一致性检测相结合剔除环境中的动态目标。
3.根据权利要求1所述的动态场景机器人定位建图系统,其特征在于,所述稠密语义八叉树地图建立线程还用于通过概率融合法建立稳定的3D八叉树地图,将动态目标剔除,并与语义信息相融合,该地图可以用于导航以及机器人完成高级复杂任务。
4.一种动态场景机器人定位建图方法,其特征在于,包括以下步骤:
采用深度学习技术实时的获取语义分割结果,以生成带有语义信息的语义图像;
根据RGB图像获取ORB特征点,通过运动一致性检测获得运动区域,结合语义分割的信息剔除动态区域上的外点,并通过匹配剩余稳定目标的特征点得到变换矩阵,生成语义图像关键帧;
根据所述语义图像的关键帧生成带语义标签的3D稠密语义八叉树地图,完成动态目标的剔除,可用于高级复杂任务;
对所述关键帧进行局部优化和关键帧筛选;
对局部优化和关键帧筛选的结果进行整体优化和回环检测。
CN201810298042.6A 2018-04-04 2018-04-04 动态场景机器人定位建图系统及方法 Active CN108596974B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810298042.6A CN108596974B (zh) 2018-04-04 2018-04-04 动态场景机器人定位建图系统及方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810298042.6A CN108596974B (zh) 2018-04-04 2018-04-04 动态场景机器人定位建图系统及方法

Publications (2)

Publication Number Publication Date
CN108596974A true CN108596974A (zh) 2018-09-28
CN108596974B CN108596974B (zh) 2020-08-04

Family

ID=63625497

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810298042.6A Active CN108596974B (zh) 2018-04-04 2018-04-04 动态场景机器人定位建图系统及方法

Country Status (1)

Country Link
CN (1) CN108596974B (zh)

Cited By (49)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109341694A (zh) * 2018-11-12 2019-02-15 哈尔滨理工大学 一种移动探测机器人的自主定位导航方法
CN109460267A (zh) * 2018-11-05 2019-03-12 贵州大学 移动机器人离线地图保存与实时重定位方法
CN109583329A (zh) * 2018-11-13 2019-04-05 杭州电子科技大学 基于道路语义路标筛选的回环检测方法
CN109584302A (zh) * 2018-11-27 2019-04-05 北京旷视科技有限公司 相机位姿优化方法、装置、电子设备和计算机可读介质
CN110097553A (zh) * 2019-04-10 2019-08-06 东南大学 基于即时定位建图与三维语义分割的语义建图系统
CN110146080A (zh) * 2019-04-24 2019-08-20 佛山科学技术学院 一种基于移动机器人的slam回环检测方法及装置
CN110175576A (zh) * 2019-05-29 2019-08-27 电子科技大学 一种结合激光点云数据的行驶车辆视觉检测方法
CN110264563A (zh) * 2019-05-23 2019-09-20 武汉科技大学 一种基于orbslam2的八叉树建图方法
CN110298320A (zh) * 2019-07-01 2019-10-01 北京百度网讯科技有限公司 一种视觉定位方法、装置及存储介质
CN110349250A (zh) * 2019-06-28 2019-10-18 浙江大学 一种基于rgbd相机的室内动态场景的三维重建方法
CN110363816A (zh) * 2019-06-25 2019-10-22 广东工业大学 一种基于深度学习的移动机器人环境语义建图方法
CN110378997A (zh) * 2019-06-04 2019-10-25 广东工业大学 一种基于orb-slam2的动态场景建图与定位方法
CN110458863A (zh) * 2019-06-25 2019-11-15 广东工业大学 一种基于rgbd与编码器融合的动态slam系统
CN110533720A (zh) * 2019-08-20 2019-12-03 西安电子科技大学 基于联合约束的语义slam系统及方法
CN110599522A (zh) * 2019-09-18 2019-12-20 成都信息工程大学 一种视频序列中动态目标检测剔除方法
CN110781262A (zh) * 2019-10-21 2020-02-11 中国科学院计算技术研究所 基于视觉slam的语义地图的构建方法
CN110807782A (zh) * 2019-10-25 2020-02-18 中山大学 一种视觉机器人的地图表示系统及其构建方法
CN110827317A (zh) * 2019-11-04 2020-02-21 西安邮电大学 一种基于fpga的四目运动目标检测与识别设备及方法
CN110827395A (zh) * 2019-09-09 2020-02-21 广东工业大学 一种适用于动态环境的即时定位与地图构建方法
CN110956651A (zh) * 2019-12-16 2020-04-03 哈尔滨工业大学 一种基于视觉和振动触觉融合的地形语义感知方法
CN111060924A (zh) * 2019-12-02 2020-04-24 北京交通大学 一种slam与目标跟踪方法
CN111145251A (zh) * 2018-11-02 2020-05-12 深圳市优必选科技有限公司 一种机器人及其同步定位与建图方法和计算机存储设备
CN111238465A (zh) * 2018-11-28 2020-06-05 台达电子工业股份有限公司 地图建置设备及其地图建置方法
WO2020118545A1 (en) * 2018-12-12 2020-06-18 Intel Corporation Time-aware occupancy grid mapping for robots in dynamic environments
CN111325843A (zh) * 2020-03-09 2020-06-23 北京航空航天大学 一种基于语义逆深度滤波的实时语义地图构建方法
CN111340881A (zh) * 2020-02-18 2020-06-26 东南大学 一种动态场景下基于语义分割的直接法视觉定位方法
CN111368759A (zh) * 2020-03-09 2020-07-03 河海大学常州校区 基于单目视觉的移动机器人语义地图构建系统
CN111402336A (zh) * 2020-03-23 2020-07-10 中国科学院自动化研究所 基于语义slam的动态环境相机位姿估计及语义地图构建方法
CN111413691A (zh) * 2020-03-10 2020-07-14 杭州电子科技大学 一种采用分布式结构的语义定位和建图的方法
CN111553181A (zh) * 2019-02-12 2020-08-18 上海欧菲智能车联科技有限公司 车载相机语义识别方法、系统及装置
CN111581313A (zh) * 2020-04-25 2020-08-25 华南理工大学 一种基于实例分割的语义slam鲁棒性改进方法
CN111670417A (zh) * 2019-07-05 2020-09-15 深圳市大疆创新科技有限公司 语义地图的构建方法、系统、可移动平台和存储介质
CN111709982A (zh) * 2020-05-22 2020-09-25 浙江四点灵机器人股份有限公司 一种动态环境三维重建方法
CN111724439A (zh) * 2019-11-29 2020-09-29 中国科学院上海微系统与信息技术研究所 一种动态场景下的视觉定位方法及装置
CN111754388A (zh) * 2019-03-28 2020-10-09 北京初速度科技有限公司 一种建图方法及车载终端
CN111797938A (zh) * 2020-07-15 2020-10-20 燕山大学 用于扫地机器人的语义信息与vslam融合方法
CN111814683A (zh) * 2020-07-09 2020-10-23 北京航空航天大学 一种基于语义先验和深度学习特征的鲁棒视觉slam方法
CN111950561A (zh) * 2020-08-25 2020-11-17 桂林电子科技大学 一种基于语义分割的剔除语义slam动态点的方法
CN112017188A (zh) * 2020-09-09 2020-12-01 上海航天控制技术研究所 一种空间非合作目标语义识别与重构方法
CN112013841A (zh) * 2020-08-26 2020-12-01 南京工业大学 一种室内动态环境下的语义slam服务机器人导航方法
CN112037268A (zh) * 2020-09-02 2020-12-04 中国科学技术大学 一种动态场景下的基于概率传递模型的环境感知方法
CN112116657A (zh) * 2020-08-07 2020-12-22 中国科学院深圳先进技术研究院 基于表检索的同时定位与建图方法和装置
CN112381841A (zh) * 2020-11-27 2021-02-19 广东电网有限责任公司肇庆供电局 一种动态场景下基于gms特征匹配的语义slam方法
CN112446885A (zh) * 2020-11-27 2021-03-05 广东电网有限责任公司肇庆供电局 一种动态环境下基于改进的语义光流法的slam方法
CN112465974A (zh) * 2020-12-08 2021-03-09 中国科学院深圳先进技术研究院 3d语义地图构建方法和模块、机器人交互方法和系统
WO2021129597A1 (zh) * 2019-12-24 2021-07-01 广州视源电子科技股份有限公司 描述子地图生成方法、定位方法、装置、设备和存储介质
CN113674416A (zh) * 2021-08-26 2021-11-19 中国电子科技集团公司信息科学研究院 三维地图的构建方法、装置、电子设备及存储介质
CN114742967A (zh) * 2022-05-13 2022-07-12 盈嘉互联(北京)科技有限公司 一种基于建筑数字孪生语义图的视觉定位方法及装置
CN113674416B (zh) * 2021-08-26 2024-04-26 中国电子科技集团公司信息科学研究院 三维地图的构建方法、装置、电子设备及存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015042891A1 (zh) * 2013-09-27 2015-04-02 华为技术有限公司 图像语义分割的方法和装置
CN107160395A (zh) * 2017-06-07 2017-09-15 中国人民解放军装甲兵工程学院 地图构建方法及机器人控制系统
CN107240129A (zh) * 2017-05-10 2017-10-10 同济大学 基于rgb‑d相机数据的物体及室内小场景恢复与建模方法
CN107833236A (zh) * 2017-10-31 2018-03-23 中国科学院电子学研究所 一种动态环境下结合语义的视觉定位系统和方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015042891A1 (zh) * 2013-09-27 2015-04-02 华为技术有限公司 图像语义分割的方法和装置
CN107240129A (zh) * 2017-05-10 2017-10-10 同济大学 基于rgb‑d相机数据的物体及室内小场景恢复与建模方法
CN107160395A (zh) * 2017-06-07 2017-09-15 中国人民解放军装甲兵工程学院 地图构建方法及机器人控制系统
CN107833236A (zh) * 2017-10-31 2018-03-23 中国科学院电子学研究所 一种动态环境下结合语义的视觉定位系统和方法

Non-Patent Citations (7)

* Cited by examiner, † Cited by third party
Title
ARMIN HORNUNG等: "OctoMap:an efficient probabilistic 3D mapping framework based on octrees", 《AUTONOMOUS ROBOTS》 *
MUHAMAD RISQI U等: "Visual SLAM and Structure from Motion in Dynamic Environments:A Survey", 《ACM COMPUTING SURVEY》 *
RAUL MUR-ARTAL等: "ORB-SLAM2:an Open-Source SLAM System for Monocular,Stereo and RGB-D Cameras", 《IEEE TRANSATIONS ON ROBOTICS》 *
RENATO F.SALAS-MORENO等: "SLAM++:Simultaneous Localisation and Mapping at the Level of Objects", 《2013 IEEE CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION》 *
SID YINGZE BAO等: "Semantic structure from motion with points,regions,and objects", 《2012 IEEE CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION》 *
YUXIANG SUN等: "Improving RGB-D SLAM in dynamic environments:A motion removal approach", 《ROBOTICS AND AUTONOMOUS SYSTEMS》 *
赵洋等: "基于深度学习的视觉SLAM综述", 《机器人》 *

Cited By (72)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111145251B (zh) * 2018-11-02 2024-01-02 深圳市优必选科技有限公司 一种机器人及其同步定位与建图方法和计算机存储设备
CN111145251A (zh) * 2018-11-02 2020-05-12 深圳市优必选科技有限公司 一种机器人及其同步定位与建图方法和计算机存储设备
CN109460267B (zh) * 2018-11-05 2021-06-25 贵州大学 移动机器人离线地图保存与实时重定位方法
CN109460267A (zh) * 2018-11-05 2019-03-12 贵州大学 移动机器人离线地图保存与实时重定位方法
CN109341694A (zh) * 2018-11-12 2019-02-15 哈尔滨理工大学 一种移动探测机器人的自主定位导航方法
CN109583329A (zh) * 2018-11-13 2019-04-05 杭州电子科技大学 基于道路语义路标筛选的回环检测方法
CN109584302A (zh) * 2018-11-27 2019-04-05 北京旷视科技有限公司 相机位姿优化方法、装置、电子设备和计算机可读介质
CN109584302B (zh) * 2018-11-27 2023-12-01 北京旷视科技有限公司 相机位姿优化方法、装置、电子设备和计算机可读介质
CN111238465A (zh) * 2018-11-28 2020-06-05 台达电子工业股份有限公司 地图建置设备及其地图建置方法
WO2020118545A1 (en) * 2018-12-12 2020-06-18 Intel Corporation Time-aware occupancy grid mapping for robots in dynamic environments
CN111553181A (zh) * 2019-02-12 2020-08-18 上海欧菲智能车联科技有限公司 车载相机语义识别方法、系统及装置
CN111754388A (zh) * 2019-03-28 2020-10-09 北京初速度科技有限公司 一种建图方法及车载终端
CN110097553A (zh) * 2019-04-10 2019-08-06 东南大学 基于即时定位建图与三维语义分割的语义建图系统
CN110146080B (zh) * 2019-04-24 2024-01-19 佛山科学技术学院 一种基于移动机器人的slam回环检测方法及装置
CN110146080A (zh) * 2019-04-24 2019-08-20 佛山科学技术学院 一种基于移动机器人的slam回环检测方法及装置
CN110264563A (zh) * 2019-05-23 2019-09-20 武汉科技大学 一种基于orbslam2的八叉树建图方法
CN110175576B (zh) * 2019-05-29 2022-09-16 电子科技大学 一种结合激光点云数据的行驶车辆视觉检测方法
CN110175576A (zh) * 2019-05-29 2019-08-27 电子科技大学 一种结合激光点云数据的行驶车辆视觉检测方法
CN110378997A (zh) * 2019-06-04 2019-10-25 广东工业大学 一种基于orb-slam2的动态场景建图与定位方法
CN110378997B (zh) * 2019-06-04 2023-01-20 广东工业大学 一种基于orb-slam2的动态场景建图与定位方法
CN110458863B (zh) * 2019-06-25 2023-12-01 广东工业大学 一种基于rgbd与编码器融合的动态slam系统
CN110363816A (zh) * 2019-06-25 2019-10-22 广东工业大学 一种基于深度学习的移动机器人环境语义建图方法
CN110458863A (zh) * 2019-06-25 2019-11-15 广东工业大学 一种基于rgbd与编码器融合的动态slam系统
CN110363816B (zh) * 2019-06-25 2023-05-26 广东工业大学 一种基于深度学习的移动机器人环境语义建图方法
CN110349250A (zh) * 2019-06-28 2019-10-18 浙江大学 一种基于rgbd相机的室内动态场景的三维重建方法
CN110349250B (zh) * 2019-06-28 2020-12-22 浙江大学 一种基于rgbd相机的室内动态场景的三维重建方法
CN110298320A (zh) * 2019-07-01 2019-10-01 北京百度网讯科技有限公司 一种视觉定位方法、装置及存储介质
CN111670417A (zh) * 2019-07-05 2020-09-15 深圳市大疆创新科技有限公司 语义地图的构建方法、系统、可移动平台和存储介质
CN110533720B (zh) * 2019-08-20 2023-05-02 西安电子科技大学 基于联合约束的语义slam系统及方法
CN110533720A (zh) * 2019-08-20 2019-12-03 西安电子科技大学 基于联合约束的语义slam系统及方法
CN110827395A (zh) * 2019-09-09 2020-02-21 广东工业大学 一种适用于动态环境的即时定位与地图构建方法
CN110827395B (zh) * 2019-09-09 2023-01-20 广东工业大学 一种适用于动态环境的即时定位与地图构建方法
CN110599522B (zh) * 2019-09-18 2023-04-11 成都信息工程大学 一种视频序列中动态目标检测剔除方法
CN110599522A (zh) * 2019-09-18 2019-12-20 成都信息工程大学 一种视频序列中动态目标检测剔除方法
CN110781262A (zh) * 2019-10-21 2020-02-11 中国科学院计算技术研究所 基于视觉slam的语义地图的构建方法
CN110807782A (zh) * 2019-10-25 2020-02-18 中山大学 一种视觉机器人的地图表示系统及其构建方法
CN110827317B (zh) * 2019-11-04 2023-05-12 西安邮电大学 一种基于fpga的四目运动目标检测与识别设备及方法
CN110827317A (zh) * 2019-11-04 2020-02-21 西安邮电大学 一种基于fpga的四目运动目标检测与识别设备及方法
CN111724439A (zh) * 2019-11-29 2020-09-29 中国科学院上海微系统与信息技术研究所 一种动态场景下的视觉定位方法及装置
CN111060924A (zh) * 2019-12-02 2020-04-24 北京交通大学 一种slam与目标跟踪方法
CN110956651A (zh) * 2019-12-16 2020-04-03 哈尔滨工业大学 一种基于视觉和振动触觉融合的地形语义感知方法
WO2021129597A1 (zh) * 2019-12-24 2021-07-01 广州视源电子科技股份有限公司 描述子地图生成方法、定位方法、装置、设备和存储介质
CN111340881B (zh) * 2020-02-18 2023-05-19 东南大学 一种动态场景下基于语义分割的直接法视觉定位方法
CN111340881A (zh) * 2020-02-18 2020-06-26 东南大学 一种动态场景下基于语义分割的直接法视觉定位方法
CN111368759B (zh) * 2020-03-09 2022-08-30 河海大学常州校区 基于单目视觉的移动机器人语义地图构建系统
CN111325843B (zh) * 2020-03-09 2022-04-08 北京航空航天大学 一种基于语义逆深度滤波的实时语义地图构建方法
CN111325843A (zh) * 2020-03-09 2020-06-23 北京航空航天大学 一种基于语义逆深度滤波的实时语义地图构建方法
CN111368759A (zh) * 2020-03-09 2020-07-03 河海大学常州校区 基于单目视觉的移动机器人语义地图构建系统
CN111413691A (zh) * 2020-03-10 2020-07-14 杭州电子科技大学 一种采用分布式结构的语义定位和建图的方法
CN111402336B (zh) * 2020-03-23 2024-03-12 中国科学院自动化研究所 基于语义slam的动态环境相机位姿估计及语义地图构建方法
CN111402336A (zh) * 2020-03-23 2020-07-10 中国科学院自动化研究所 基于语义slam的动态环境相机位姿估计及语义地图构建方法
CN111581313A (zh) * 2020-04-25 2020-08-25 华南理工大学 一种基于实例分割的语义slam鲁棒性改进方法
CN111581313B (zh) * 2020-04-25 2023-05-23 华南理工大学 一种基于实例分割的语义slam鲁棒性改进方法
CN111709982A (zh) * 2020-05-22 2020-09-25 浙江四点灵机器人股份有限公司 一种动态环境三维重建方法
CN111814683A (zh) * 2020-07-09 2020-10-23 北京航空航天大学 一种基于语义先验和深度学习特征的鲁棒视觉slam方法
CN111797938A (zh) * 2020-07-15 2020-10-20 燕山大学 用于扫地机器人的语义信息与vslam融合方法
CN111797938B (zh) * 2020-07-15 2022-03-15 燕山大学 用于扫地机器人的语义信息与vslam融合方法
CN112116657A (zh) * 2020-08-07 2020-12-22 中国科学院深圳先进技术研究院 基于表检索的同时定位与建图方法和装置
CN112116657B (zh) * 2020-08-07 2023-12-19 中国科学院深圳先进技术研究院 基于表检索的同时定位与建图方法和装置
CN111950561A (zh) * 2020-08-25 2020-11-17 桂林电子科技大学 一种基于语义分割的剔除语义slam动态点的方法
CN112013841B (zh) * 2020-08-26 2021-08-06 南京工业大学 一种室内动态环境下的语义slam服务机器人导航方法
CN112013841A (zh) * 2020-08-26 2020-12-01 南京工业大学 一种室内动态环境下的语义slam服务机器人导航方法
CN112037268A (zh) * 2020-09-02 2020-12-04 中国科学技术大学 一种动态场景下的基于概率传递模型的环境感知方法
CN112037268B (zh) * 2020-09-02 2022-09-02 中国科学技术大学 一种动态场景下的基于概率传递模型的环境感知方法
CN112017188A (zh) * 2020-09-09 2020-12-01 上海航天控制技术研究所 一种空间非合作目标语义识别与重构方法
CN112017188B (zh) * 2020-09-09 2024-04-09 上海航天控制技术研究所 一种空间非合作目标语义识别与重构方法
CN112381841A (zh) * 2020-11-27 2021-02-19 广东电网有限责任公司肇庆供电局 一种动态场景下基于gms特征匹配的语义slam方法
CN112446885A (zh) * 2020-11-27 2021-03-05 广东电网有限责任公司肇庆供电局 一种动态环境下基于改进的语义光流法的slam方法
CN112465974A (zh) * 2020-12-08 2021-03-09 中国科学院深圳先进技术研究院 3d语义地图构建方法和模块、机器人交互方法和系统
CN113674416A (zh) * 2021-08-26 2021-11-19 中国电子科技集团公司信息科学研究院 三维地图的构建方法、装置、电子设备及存储介质
CN113674416B (zh) * 2021-08-26 2024-04-26 中国电子科技集团公司信息科学研究院 三维地图的构建方法、装置、电子设备及存储介质
CN114742967A (zh) * 2022-05-13 2022-07-12 盈嘉互联(北京)科技有限公司 一种基于建筑数字孪生语义图的视觉定位方法及装置

Also Published As

Publication number Publication date
CN108596974B (zh) 2020-08-04

Similar Documents

Publication Publication Date Title
CN108596974A (zh) 动态场景机器人定位建图系统及方法
KR102145109B1 (ko) 지도 생성 및 운동 객체 위치 결정 방법 및 장치
CN110956651B (zh) 一种基于视觉和振动触觉融合的地形语义感知方法
CN111563442B (zh) 基于激光雷达的点云和相机图像数据融合的slam方法及系统
CN111486855B (zh) 一种具有物体导航点的室内二维语义栅格地图构建方法
Yu et al. DS-SLAM: A semantic visual SLAM towards dynamic environments
US9940749B2 (en) Method and system for generating three-dimensional garment model
CN106296812B (zh) 同步定位与建图方法
CN111080659A (zh) 一种基于视觉信息的环境语义感知方法
CN109387204A (zh) 面向室内动态环境的移动机器人同步定位与构图方法
CN111060924B (zh) 一种slam与目标跟踪方法
CN110443898A (zh) 一种基于深度学习的ar智能终端目标识别系统及方法
CN109559320A (zh) 基于空洞卷积深度神经网络实现视觉slam语义建图功能的方法及系统
CN109544636A (zh) 一种融合特征点法和直接法的快速单目视觉里程计导航定位方法
CN110335337A (zh) 一种基于端到端半监督生成对抗网络的视觉里程计的方法
CN113393522B (zh) 一种基于单目rgb相机回归深度信息的6d位姿估计方法
CN110062871A (zh) 用于基于视频的定位及映射的方法及系统
CN112950645B (zh) 一种基于多任务深度学习的图像语义分割方法
CN105930819A (zh) 基于单目视觉和gps组合导航系统的实时城区交通灯识别系统
CN108388882A (zh) 基于全局-局部rgb-d多模态的手势识别方法
CN108648194A (zh) 基于cad模型三维目标识别分割和位姿测量方法及装置
CN112598796A (zh) 基于广义点云的三维建筑物信息模型构建与自动更新的方法
CN106030610A (zh) 移动设备的实时3d姿势识别和跟踪系统
CN110223351A (zh) 一种基于卷积神经网络的深度相机定位方法
CN107622247A (zh) 一种快递运单的定位与提取方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant