CN107833236A - 一种动态环境下结合语义的视觉定位系统和方法 - Google Patents

一种动态环境下结合语义的视觉定位系统和方法 Download PDF

Info

Publication number
CN107833236A
CN107833236A CN201711040037.7A CN201711040037A CN107833236A CN 107833236 A CN107833236 A CN 107833236A CN 201711040037 A CN201711040037 A CN 201711040037A CN 107833236 A CN107833236 A CN 107833236A
Authority
CN
China
Prior art keywords
dynamic
module
characteristic
threshold value
detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201711040037.7A
Other languages
English (en)
Other versions
CN107833236B (zh
Inventor
王金戈
邹旭东
仇晓松
曹天扬
蔡浩原
李彤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Institute of Electronics of CAS
Original Assignee
Institute of Electronics of CAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Institute of Electronics of CAS filed Critical Institute of Electronics of CAS
Priority to CN201711040037.7A priority Critical patent/CN107833236B/zh
Publication of CN107833236A publication Critical patent/CN107833236A/zh
Application granted granted Critical
Publication of CN107833236B publication Critical patent/CN107833236B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras

Abstract

本发明公开了一种动态环境中的单目视觉定位系统和方法,结合语义信息,实现对动态物体特征的剔除。通过单目摄像机实时采集环境图像,图像通过卷积神经网络实现物体检测,得到物体的语义信息,再进一步结合先验知识实现动态物体判定。使用ORB算法提取图像中的特征,并根据动态物体的位置剔除动态物体特征点。使用非线性优化的方法对相机位姿和3D点坐标进行局部集束调整,从而消除动态物体特征点的影响并提高定位精度。

Description

一种动态环境下结合语义的视觉定位系统和方法
技术领域
本发明涉及计算机视觉及移动机器人定位领域,尤其涉及一种动态环境下结合语义的视觉定位系统和方法。
背景技术
同时定位与地图构建(Simultaneous Localization And Mapping,SLAM)是一种利用传感器信息建立环境地图并确定自身位姿的方法。使用相机作为传感器时称为视觉SLAM。建立实时、精确且鲁棒的SLAM系统对机器人、无人车等设备的定位具有重大意义,是实现导航和自主移动的基础。
传统的SLAM技术建立在静态环境下,不考虑环境物体的运动。而实际环境中,人的走动、车辆的来往都会造成环境动态变化,从而使SLAM系统建立的地图无法保持长时间的一致性,基于视觉的特征也会因为物体的运动而变得不稳定,SLAM系统在动态环境下的鲁棒性亟待提升。
为了使SLAM在动态环境下正常工作,需要避免使用处于动态物体上的特征点,因此需要事先计算出动态物体的位置。目前常用的动态物体提取方法都基于几何特征,当面对更加极端的动态环境时,比如人靠近镜头的走动,依然会失效。
目前,动态环境下的视觉定位的方法介绍如下,以场流法为例,流程图如图1所示。
该方法通过双目摄像机实时采集环境图像,通过特征提取算法提取图像中的特征点,对双目摄像机前后两个时刻采集的四幅图像进行立体匹配。利用双视几何原理恢复特征点三维信息。以回环匹配的方式提高匹配准确度。使用场流法剔除位于动态物体上的特征点。考虑可能引起误差的因素并通过计算协方差矩阵改善场流法效果。使用高斯牛顿迭代的方法由特征点位置信息求得机器人运动参数。使用RANSAC算法进一步提高视觉定位准确度。整个过程不断迭代,实现对机器人姿态和位置的实时计算。
在实现本发明的过程中,申请人发现上述现有技术存在如下技术缺陷:
(1)待删除的动态物体特征点根据场流法误差模型计算得出的马氏距离来决定,对不同运动形态和不同运动速度的物体使用固定的阈值会导致误差增大,无法正确判定物体的动态特性。
(2)场流法误差模型做了静态背景假设,只对小区域的运动物体具有检测能力,无法处理大型运动物体出现在视野中的情况。
(3)只把相邻帧之间发生运动的物体认做动态物体,而没有考虑物体本身的动态特性。比如人在相机前运动时,即使某个时刻处于静止状态,但仍应该看做动态物体予以剔除。
发明内容
(一)要解决的技术问题
有鉴于此,本发明提出一种动态环境下结合语义的视觉定位系统和方法,以期解决上述问题。
(二)技术方案
一种动态环境中的单目视觉定位系统,包括:物体检测模块,用于检测输入图像中物体的种类及所在位置,并输出检测结果;语义校正模块,用于接收所述检测结果,并根据物体种类将物体判定为动态物体或静态物体,输出判定结果;定位与建图模块,用于接收所述判定结果,并在图像中剔除所述动态物体。
在本发明一些示例性实施例中,所述语义校正模块包括:先验知识模块,包括动态物体判定模型,用于判定图像中的物体对应的动态特性分数;动态判定模块,用于比较所述动态特性分数和预先设定的阈值的大小,动态特性分数高于阈值的物体判定为动态物体,动态特性分数低于阈值的物体判定为静态物体。
在本发明一些示例性实施例中,所述动态物体判定模型用于结合先验知识设定多种物体的动态特性分数。
在本发明一些示例性实施例中,还包括漏检补偿模块,用于根据相邻帧图像中各个物体的位置坐标检测图像中是否存在漏检的物体。
在本发明一些示例性实施例中,所述物体检测模块用于采用多层神经网络构成的分类器检测图像中的各个物体的种类;所述多层神经网络为SSD物体检测网络,采用VGG16的基础网络结构,保留前5层不变,fc6和fc7层转化成两个卷积层,并增加三个卷积层和一个平均池化层。
在本发明一些示例性实施例中,所述定位与建图模块包括跟踪模块、建图模块和回环检测模块;所述跟踪模块用于对输入图像提取ORB特征点,根据所述判定结果对特征点分类,剔除位于动态物体上的特征点,只保留静态物体上的特征点,并判定所述输入图像是否作为关键帧加入关键帧列表;所述建图模块用于利用关键帧和关键帧观测到的地图点执行集束调整优化;所述回环检测部分用于消除定位与建图模块在大场景下的累积误差。
一种动态环境中的单目视觉定位方法,包括:检测当前帧图像中物体的种类及位置坐标;根据物体种类将物体判定为动态物体或静态物体;在当前帧图像中剔除所述动态物体。
在本发明一些示例性实施例中,所述根据物体种类将物体判定为动态物体或静态物体进一步包括:根据先验知识判定图像中的物体对应的动态特性分数;比较所述动态特性分数和预先设定的阈值的大小,将动态特性分数高于阈值的物体判定为动态物体,动态特性分数低于阈值的物体判定为静态物体。
在本发明一些示例性实施例中,还包括:检测当前帧图像中是否存在漏检的物体;其中,检测公式为:若存在则没有漏检,否则,将X0j作为漏检物体加入当前帧的检测结果中,式中,X1i为当前帧图像中任一物体的坐标,X0j为前一帧图像中任一物体的坐标,v_threshold为动态物体运动速度的阈值,FPS为帧率。
在本发明一些示例性实施例中,所述在当前帧图像中剔除所述动态物体进一步包括:对当前帧图像提取ORB特征点;根据所述动态物体和静态物体的判定结果对特征点进行分类;剔除位于动态物体上的特征点,保留静态物体上的特征点。
(三)有益效果
(1)从语义层面检测到的动态物体,与其当前时刻是否在运动无关。将动态看做物体的本质属性,而不是某一时刻的状态,可以有效地解决机器人定位在长时间的一致性。
(2)增加了漏检补偿过程,提高了物体检测的精度,从而能够稳定、有效地剔除动态特征点。
(3)使用深度卷积神经网络从语义层面检测动态物体,通过多个层次的池化操作,可以将不同尺度的图像特征检测出来,使得网络能够检测到不同尺度的物体,解决了传统方法中大型动态物体无法成功检测的问题。
附图说明
图1是现有的场流法流程图。
图2本发明实施例的动态环境下结合语义的视觉定位系统流程图。
图3本发明实施例的动态环境下结合语义的视觉定位系统系统各模块详细流程图。
图4本发明实施例的SSD网络结构。
图5本发明实施例的常见物体在动态特性区间上所处的位置示意图。
图6所示为本发明实施例的动态环境中的单目视觉定位方法流程图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚明白,以下结合具体实施例,并参照附图,对本发明作进一步的详细说明。
本发明第一实施例提供一种动态环境中的单目视觉定位系统,如图2所示为本发明实施例的动态环境中的单目视觉定位系统结构示意图,包括物体检测模块、语义校正模块和SLAM定位与建图模块,其中,物体检测模块用于检测输入图像中物体的种类及所在位置,并输出检测结果;语义校正模块用于接收物体检测模块输出的检测结果,并根据物体种类将物体判定为动态物体或静态物体,输出判定结果;定位与建图模块用于接收语义校正模块输出的判定结果,并在图像中剔除动态物体,保留静态物体。
采用单目相机实时采集图像,并将该图像作为SLAM定位与建图模块和物体检测模块的输入,物体检测模块的输出经过语义校正模块后实时反馈给SLAM定位与建图模块,SLAM定位与建图模块最后给出定位和建图结果。各个模块内部的详细流程如图3所示。
物体检测模块首先接收当前帧作为输入,经过一个多层神经网络构成的分类器,输出检测到的各个物体的类别及其所在位置坐标。多层神经网络采用SSD(Single ShotMultiBox Detector)物体检测网络,图4所示为SSD物体检测网络模型图,如图4所示,该网络使用VGG16的基础网络结构,保留前5层不变,然后利用astrous算法将fc6和fc7层转化成两个卷积层,最后再额外增加三个卷积层和一个平均池化层。使用不同网络层的信息来模拟不同尺度下的图像特征,最后通过非最大抑制得到最终的检测结果。由于舍弃了最初的候选框生成阶段,使得整个物体检测流程能够在单一网络下完成,从而实现较高的检测效率(46fps,Titan X)和检测精度(77.2%)。
得到物体检测结果后,由于存在漏检的可能,因此,在本发明一些实施例中,还包括漏检补偿模块,用于根据相邻帧图像中各个物体的位置坐标检测图像中是否存在漏检的物体。这是因为,在动态环境SLAM中,动态物体检测的成功与否直接决定了系统的其它模块是否能够正常执行。一旦发生漏检,相邻两张图间的巨大差异将会导致特征点数量急剧变化,从而导致系统的不稳定。为了能够稳定、有效地剔除动态特征点,必须在物体检测这一步获得足够高的检测精度。在常规的物体检测任务中,由于各个图片间不具有明显的关联,因此无法通过上下文信息提高检测精度。但在SLAM中,由于视频帧按照时间序列抵达,我们可以借助前若干帧的检测结果预测下一次的检测结果,从而弥补下一次可能出现的漏检或误检。该漏检补偿模块包括相邻帧漏检补偿模型,本发明提供的相邻帧漏检补偿模型基于一个合理的假设:“动态物体的运动速度不会超过某个固定的值。”。用X表示动态物体的坐标,v_threshold表示动态物体运动速度的阈值,FPS表示帧率,它们之间应该满足ΔX<v_threshold/FPS的关系。在设置v_threshold时,既不能设置的太小,太小会使系统过于敏感,导致正确检测被认做漏检;也不能设置的太大,太大则可能使多个动态物体的检测区域重叠。若存在则认为没有漏检,否则,认为出现漏检,将X0j作为漏检物体加入当前帧的检测结果中。最后,修正后的检测结果列表作为语义校正模块的原始数据。
语义校正模块接收物体检测模块输出的检测结果,并根据物体种类获得物体的动态特性分数,根据动态特性分数判定物体为动态物体或静态物体。语义校正模块接收检测到的各个物体的种类和位置坐标,结合先验知识对这些物体进行动态物体判定,从而提取出其中的动态物体。
语义校正模块具体包括:先验知识模块和动态判定模块,先验知识模块包括动态物体判定模型,用于判定图像中的各个物体对应的动态特性分数;动态判定模块,用于比较物体的动态特性分数和预先设定的阈值之间的大小,动态特性分数高于阈值的物体判定为动态物体,动态特性分数低于阈值的物体判定为静态物体。其中,动态物体判定模型用于结合先验知识设定多种物体的动态特性分数。
本发明在语义的层面上提出了基于先验知识的动态物体判定方法。环境物体的语义是人基于经验对环境做出的解释。处于陌生环境中的人其实并非对周围环境一无所知,人的先验知识会把眼前的景物分为建筑物、草木、车辆、行人等等,自动忽略车辆、行人等运动的物体,同时记住建筑物、草木等静止的物体,这是人处理动态环境的天赋。而SLAM系统如果不从语义层面理解周围的环境,就无法真正区分哪些是动态的,哪些是静态的,只能在短时间内找出运动的物体,而无法保证长时间的一致性。因此,我们将物体检测的结果与先验知识相结合,给出动态物体判定模型。根据人的先验知识,对物体的动态特性评分,0分为静态物体,10分为动态物体,常见物体在该区间上所处的位置大致如图5所示。将物体分数与一个事先定义的阈值相比较,分数高于阈值时判定为动态物体,低于阈值时则判定为静态物体。阈值的大小由经验给定,通常设为5。
如图3所示,SLAM定位与建图模块共分为三部分,分别是追踪模块(Tracking)、局部建图模块(Local Mapping)和回环检测模块(Loop Closing)。
追踪模块可以作为一个基于ORB特征的前端视觉里程计。首先对输入图像提取ORB特征点并计算描述子,然后根据语义校正模块的判定结果对ORB特征点进行分类,剔除位于动态物体上的特征点,只保留静态物体上的特征点。接下来进行跟踪过程,利用ORB描述子与前一关键帧进行特征匹配,使用集束调整(Bundle Adjustment)方法估计相机位姿,并估计地图点位置,建立局部地图。最后,根据重叠区大小决定当前帧是否作为关键帧加入关键帧列表。
局部建图模块用于对追踪模块计算出的位姿进行优化并建立3D点的地图。首先将关键帧插入地图中,对于每一个新的关键帧,三角化该帧上的特征点,得到3D的地图点。然后对局部区域内的若干个关键帧的位姿和这些帧观测到的3D地图点进行局部集束调整(局部BA),使得关键帧中所有可观测到的3D点在相机位姿下的重投影误差最小。最后,分析优化后的关键帧,如果距离太近或视差太小,则剔除该关键帧。
回环检测模块用于消除SLAM在大场景下的累积误差。包括回环检测和回环修正,首先利用视觉词袋模型,将当前帧的特征与所有关键帧的特征做比较,如果描述子之间的海明距离低于某个阈值,则认为发现回环,此时局部位姿图的连接方式被修改,系统经过一次位姿图优化从而进一步降低系统的累积误差。
本发明第二实施例提供一种动态环境中的单目视觉定位方法,如图6所示为本发明实施例的动态环境中的单目视觉定位方法流程图,包括:
步骤S1:检测当前帧图像中物体的种类及位置坐标。
采用单目相机实时采集图像,并将该图像作为输入图像,本发明实施例采用多层神经网络构成的分类器对当前帧图像中的物体进行检测,输出检测到的各个物体的类别及其所在位置坐标。多层神经网络采用SSD(Single Shot MultiBox Detector)物体检测网络,图4所示为SSD物体检测网络模型图,如图4所示,该网络使用VGG16的基础网络结构,保留前5层不变,然后利用astrous算法将fc6和fc7层转化成两个卷积层,最后再额外增加三个卷积层和一个平均池化层。使用不同网络层的信息来模拟不同尺度下的图像特征,最后通过非最大抑制得到最终的检测结果。由于舍弃了最初的候选框生成阶段,使得整个物体检测流程能够在单一网络下完成,从而实现较高的检测效率(46fps,Titan X)和检测精度(77.2%)。
在本发明一些实施例中,还包括步骤:检测当前帧图像中是否存在漏检的物体。检测过程具体如下:
(1)当前帧K1进入SSD网络,输出检测到的物体列表,列表中的每一项包括检测出的物体的类型和位置坐标Xli(0<i<n1,n1为K1检测结果的数量)。
(2)若对于前一帧K0的检测结果中的每一项X0j(0<j<n0,n0为K0检测结果的数量),在当前帧检测结果中若存在则认为没有漏检,若不存在则认为出现漏检,此时认为出现漏检,需要把X0j添加进当前帧的检测结果列表中。
步骤S2:根据物体种类将物体判定为动态物体或静态物体。
结合先验知识对步骤S1检测得到的各个物体进行动态物体判定,从而提取出其中的动态物体,步骤S2进一步包括以下子步骤:
子步骤S21:根据先验知识判定图像中的物体对应的动态特性分数;
子步骤S22:比较所述动态特性分数和预先设定的阈值的大小,将动态特性分数高于阈值的物体判定为动态物体,动态特性分数低于阈值的物体判定为静态物体。
根据人的先验知识,对物体的动态特性评分,0分为静态物体,10分为动态物体,将物体分数与一个事先定义的阈值相比较,分数高于阈值时判定为动态物体,低于阈值时则判定为静态物体。阈值的大小由经验给定,通常设为5。
步骤S3:在当前帧图像中剔除所述动态物体。
步骤S3进一步包括以下子步骤:
子步骤S31:对当前帧图像提取ORB特征点;
子步骤S32:根据所述动态物体和静态物体的判定结果对特征点进行分类;
子步骤S33:剔除位于动态物体上的特征点,保留静态物体上的特征点。
在本发明一些实施例中,动态环境中的单目视觉定位方法还包括:
步骤S4:判定所述输入图像是否作为关键帧加入关键帧列表。
利用ORB描述子与前一关键帧进行特征匹配,使用集束调整(Bundle Adjustment)方法估计相机位姿,并估计地图点位置,建立局部地图。最后,根据重叠区大小决定当前帧是否作为关键帧加入关键帧列表。
步骤S5:利用关键帧和关键帧观测到的地图点执行集束调整优化。
使用当前帧附近的关键帧和3D地图点执行集束调整优化,使得关键帧中所有可观测到的3D点在相机位姿下的重投影误差最小。
步骤S6:消除定位与建图模块在大场景下的累积误差。
消除SLAM在大场景下的累积误差,利用视觉词袋模型,将当前帧的特征与所有关键帧的特征做比较,如果描述子之间的海明距离低于某个阈值,则认为发现回环,此时局部位姿图的连接方式被修改,系统经过一次位姿图优化从而进一步降低系统的累积误差。
以上所述的具体实施例,对本发明的目的、技术方案和有益效果进行了进一步详细说明,应理解的是,以上所述仅为本发明的具体实施例而已,并不用于限制本发明,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (10)

1.一种动态环境中的单目视觉定位系统,包括:
物体检测模块,用于检测输入图像中物体的种类及所在位置,并输出检测结果;
语义校正模块,用于接收所述检测结果,并根据物体种类将物体判定为动态物体或静态物体,输出判定结果;
定位与建图模块,用于接收所述判定结果,并在图像中剔除所述动态物体。
2.根据权利要求1所述的动态环境中的单目视觉定位系统,其中,所述语义校正模块包括:
先验知识模块,包括动态物体判定模型,用于判定图像中的物体对应的动态特性分数;
动态判定模块,用于比较所述动态特性分数和预先设定的阈值的大小,动态特性分数高于阈值的物体判定为动态物体,动态特性分数低于阈值的物体判定为静态物体。
3.根据权利要求2所述的动态环境中的单目视觉定位系统,其中,所述动态物体判定模型用于结合先验知识设定多种物体的动态特性分数。
4.根据权利要求1所述的动态环境中的单目视觉定位系统,其中,还包括漏检补偿模块,用于根据相邻帧图像中各个物体的位置坐标检测图像中是否存在漏检的物体。
5.根据权利要求1所述的动态环境中的单目视觉定位系统,其中,所述物体检测模块用于采用多层神经网络构成的分类器检测图像中的各个物体的种类;
所述多层神经网络为SSD物体检测网络,采用VGG16的基础网络结构,保留前5层不变,fc6和fc7层转化成两个卷积层,并增加三个卷积层和一个平均池化层。
6.根据权利要求1所述的动态环境中的单目视觉定位系统,其中,所述定位与建图模块包括跟踪模块、建图模块和回环检测模块;
所述跟踪模块用于对输入图像提取ORB特征点,根据所述判定结果对特征点分类,剔除位于动态物体上的特征点,只保留静态物体上的特征点,并判定所述输入图像是否作为关键帧加入关键帧列表;
所述建图模块用于利用关键帧和关键帧观测到的地图点执行集束调整优化;
所述回环检测部分用于消除定位与建图模块在大场景下的累积误差。
7.一种动态环境中的单目视觉定位方法,包括:
检测当前帧图像中物体的种类及位置坐标;
根据物体种类将物体判定为动态物体或静态物体;
在当前帧图像中剔除所述动态物体。
8.根据权利要求7所述的动态环境中的单目视觉定位方法,其中,所述根据物体种类将物体判定为动态物体或静态物体进一步包括:
根据先验知识判定图像中的物体对应的动态特性分数;
比较所述动态特性分数和预先设定的阈值的大小,将动态特性分数高于阈值的物体判定为动态物体,动态特性分数低于阈值的物体判定为静态物体。
9.根据权利要求7所述的动态环境中的单目视觉定位方法,其中,还包括:检测当前帧图像中是否存在漏检的物体;
其中,检测公式为:若存在则没有漏检,否则,将X0j作为漏检物体加入当前帧的检测结果中,式中,X1i为当前帧图像中任一物体的坐标,X0j为前一帧图像中任一物体的坐标,v_threshold为动态物体运动速度的阈值,FPS为帧率。
10.根据权利要求7所述的动态环境中的单目视觉定位方法,其中,所述在当前帧图像中剔除所述动态物体进一步包括:
对当前帧图像提取ORB特征点;
根据所述动态物体和静态物体的判定结果对特征点进行分类;
剔除位于动态物体上的特征点,保留静态物体上的特征点。
CN201711040037.7A 2017-10-31 2017-10-31 一种动态环境下结合语义的视觉定位系统和方法 Active CN107833236B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201711040037.7A CN107833236B (zh) 2017-10-31 2017-10-31 一种动态环境下结合语义的视觉定位系统和方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201711040037.7A CN107833236B (zh) 2017-10-31 2017-10-31 一种动态环境下结合语义的视觉定位系统和方法

Publications (2)

Publication Number Publication Date
CN107833236A true CN107833236A (zh) 2018-03-23
CN107833236B CN107833236B (zh) 2020-06-26

Family

ID=61650162

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201711040037.7A Active CN107833236B (zh) 2017-10-31 2017-10-31 一种动态环境下结合语义的视觉定位系统和方法

Country Status (1)

Country Link
CN (1) CN107833236B (zh)

Cited By (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108596974A (zh) * 2018-04-04 2018-09-28 清华大学 动态场景机器人定位建图系统及方法
CN108885459A (zh) * 2018-06-08 2018-11-23 珊口(深圳)智能科技有限公司 导航方法、导航系统、移动控制系统及移动机器人
CN108921893A (zh) * 2018-04-24 2018-11-30 华南理工大学 一种基于在线深度学习slam的图像云计算方法及系统
CN109034237A (zh) * 2018-07-20 2018-12-18 杭州电子科技大学 基于卷积神经元网络路标和序列搜索的回环检测方法
CN109074083A (zh) * 2018-06-08 2018-12-21 珊口(深圳)智能科技有限公司 移动控制方法、移动机器人及计算机存储介质
CN109141395A (zh) * 2018-07-10 2019-01-04 深圳市沃特沃德股份有限公司 一种基于视觉回环校准陀螺仪的扫地机定位方法及装置
CN109186586A (zh) * 2018-08-23 2019-01-11 北京理工大学 一种面向动态泊车环境的同时定位及混合地图构建方法
CN109583329A (zh) * 2018-11-13 2019-04-05 杭州电子科技大学 基于道路语义路标筛选的回环检测方法
CN109670423A (zh) * 2018-12-05 2019-04-23 依通(北京)科技有限公司 一种基于深度学习的图像识别系统、方法及介质
CN109711365A (zh) * 2018-12-29 2019-05-03 佛山科学技术学院 一种融合语义信息的视觉slam回环检测方法及装置
CN109766769A (zh) * 2018-12-18 2019-05-17 四川大学 一种基于单目视觉与深度学习的道路目标检测识别方法
CN110084850A (zh) * 2019-04-04 2019-08-02 东南大学 一种基于图像语义分割的动态场景视觉定位方法
CN110163914A (zh) * 2018-08-01 2019-08-23 京东方科技集团股份有限公司 基于视觉的定位
CN110298320A (zh) * 2019-07-01 2019-10-01 北京百度网讯科技有限公司 一种视觉定位方法、装置及存储介质
CN110335319A (zh) * 2019-06-26 2019-10-15 华中科技大学 一种语义驱动的相机定位与地图重建方法和系统
CN110349250A (zh) * 2019-06-28 2019-10-18 浙江大学 一种基于rgbd相机的室内动态场景的三维重建方法
CN110648354A (zh) * 2019-09-29 2020-01-03 电子科技大学 一种动态环境下的slam方法
CN110673607A (zh) * 2019-09-25 2020-01-10 优地网络有限公司 动态场景下的特征点提取方法、装置、及终端设备
CN110706248A (zh) * 2019-08-20 2020-01-17 广东工业大学 一种基于slam的视觉感知建图算法及移动机器人
CN110838145A (zh) * 2019-10-09 2020-02-25 西安理工大学 一种室内动态场景的视觉定位与建图方法
WO2020043081A1 (zh) * 2018-08-28 2020-03-05 北京三快在线科技有限公司 定位技术
CN111060924A (zh) * 2019-12-02 2020-04-24 北京交通大学 一种slam与目标跟踪方法
CN111105695A (zh) * 2019-12-31 2020-05-05 智车优行科技(上海)有限公司 地图制作方法、装置、电子设备及计算机可读存储介质
CN111256693A (zh) * 2018-12-03 2020-06-09 北京初速度科技有限公司 一种计算位姿变化方法及车载终端
CN111311708A (zh) * 2020-01-20 2020-06-19 北京航空航天大学 一种基于语义光流和逆深度滤波的视觉slam方法
CN111754388A (zh) * 2019-03-28 2020-10-09 北京初速度科技有限公司 一种建图方法及车载终端
CN111783457A (zh) * 2020-07-28 2020-10-16 北京深睿博联科技有限责任公司 一种基于多模态图卷积网络的语义视觉定位方法及装置
CN111798475A (zh) * 2020-05-29 2020-10-20 浙江工业大学 一种基于点云深度学习的室内环境3d语义地图构建方法
CN112001968A (zh) * 2019-05-27 2020-11-27 浙江商汤科技开发有限公司 相机定位方法及装置、存储介质
CN113326716A (zh) * 2020-02-28 2021-08-31 北京创奇视界科技有限公司 面向装配现场环境装配指导ar应用定位的回环检测方法
CN113345020A (zh) * 2021-06-22 2021-09-03 西南科技大学 一种动态场景下的即时定位方法、装置、设备和存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103149939A (zh) * 2013-02-26 2013-06-12 北京航空航天大学 一种基于视觉的无人机动态目标跟踪与定位方法
CN104330090A (zh) * 2014-10-23 2015-02-04 北京化工大学 机器人分布式表征智能语义地图创建方法
US20150235447A1 (en) * 2013-07-12 2015-08-20 Magic Leap, Inc. Method and system for generating map data from an image
CN106210450A (zh) * 2016-07-20 2016-12-07 罗轶 基于slam的影视人工智能
CN107063258A (zh) * 2017-03-07 2017-08-18 重庆邮电大学 一种基于语义信息的移动机器人室内导航方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103149939A (zh) * 2013-02-26 2013-06-12 北京航空航天大学 一种基于视觉的无人机动态目标跟踪与定位方法
US20150235447A1 (en) * 2013-07-12 2015-08-20 Magic Leap, Inc. Method and system for generating map data from an image
CN104330090A (zh) * 2014-10-23 2015-02-04 北京化工大学 机器人分布式表征智能语义地图创建方法
CN106210450A (zh) * 2016-07-20 2016-12-07 罗轶 基于slam的影视人工智能
CN107063258A (zh) * 2017-03-07 2017-08-18 重庆邮电大学 一种基于语义信息的移动机器人室内导航方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
LAURA SEVILLA-LARA ET AL.: "Optical Flow with Semantic Segmentation and Localized Layers", 《2016 IEEE CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION》 *
RA´UL MUR-ARTAL ET AL.: "ORB-SLAM: A Versatile and Accurate Monocular SLAM System", 《IEEE TRANSACTIONS ON ROBOTICS》 *
WEI LIU ET AL.: "SSD: Single Shot MultiBox Detector", 《ARXIV》 *

Cited By (50)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108596974B (zh) * 2018-04-04 2020-08-04 清华大学 动态场景机器人定位建图系统及方法
CN108596974A (zh) * 2018-04-04 2018-09-28 清华大学 动态场景机器人定位建图系统及方法
CN108921893A (zh) * 2018-04-24 2018-11-30 华南理工大学 一种基于在线深度学习slam的图像云计算方法及系统
CN108921893B (zh) * 2018-04-24 2022-03-25 华南理工大学 一种基于在线深度学习slam的图像云计算方法及系统
US10518414B1 (en) 2018-06-08 2019-12-31 Ankobot (Shenzhen) Smart Technologies Co., Ltd. Navigation method, navigation system, movement control system and mobile robot
CN109074083A (zh) * 2018-06-08 2018-12-21 珊口(深圳)智能科技有限公司 移动控制方法、移动机器人及计算机存储介质
US11130238B2 (en) 2018-06-08 2021-09-28 Ankobot (Shenzhen) Smart Technologies Co., Ltd. Mobile control method, mobile robot and computer storage medium
CN109074083B (zh) * 2018-06-08 2022-02-18 珊口(深圳)智能科技有限公司 移动控制方法、移动机器人及计算机存储介质
CN108885459A (zh) * 2018-06-08 2018-11-23 珊口(深圳)智能科技有限公司 导航方法、导航系统、移动控制系统及移动机器人
CN109141395A (zh) * 2018-07-10 2019-01-04 深圳市沃特沃德股份有限公司 一种基于视觉回环校准陀螺仪的扫地机定位方法及装置
CN109141395B (zh) * 2018-07-10 2020-06-09 深圳市无限动力发展有限公司 一种基于视觉回环校准陀螺仪的扫地机定位方法及装置
CN109034237B (zh) * 2018-07-20 2021-09-17 杭州电子科技大学 基于卷积神经元网络路标和序列搜索的回环检测方法
CN109034237A (zh) * 2018-07-20 2018-12-18 杭州电子科技大学 基于卷积神经元网络路标和序列搜索的回环检测方法
CN110163914A (zh) * 2018-08-01 2019-08-23 京东方科技集团股份有限公司 基于视觉的定位
CN110163914B (zh) * 2018-08-01 2021-05-25 京东方科技集团股份有限公司 基于视觉的定位
CN109186586B (zh) * 2018-08-23 2022-03-18 北京理工大学 一种面向动态泊车环境的同时定位及混合地图构建方法
CN109186586A (zh) * 2018-08-23 2019-01-11 北京理工大学 一种面向动态泊车环境的同时定位及混合地图构建方法
WO2020043081A1 (zh) * 2018-08-28 2020-03-05 北京三快在线科技有限公司 定位技术
CN109583329A (zh) * 2018-11-13 2019-04-05 杭州电子科技大学 基于道路语义路标筛选的回环检测方法
CN111256693A (zh) * 2018-12-03 2020-06-09 北京初速度科技有限公司 一种计算位姿变化方法及车载终端
CN109670423A (zh) * 2018-12-05 2019-04-23 依通(北京)科技有限公司 一种基于深度学习的图像识别系统、方法及介质
CN109766769A (zh) * 2018-12-18 2019-05-17 四川大学 一种基于单目视觉与深度学习的道路目标检测识别方法
CN109711365A (zh) * 2018-12-29 2019-05-03 佛山科学技术学院 一种融合语义信息的视觉slam回环检测方法及装置
CN111754388A (zh) * 2019-03-28 2020-10-09 北京初速度科技有限公司 一种建图方法及车载终端
CN110084850A (zh) * 2019-04-04 2019-08-02 东南大学 一种基于图像语义分割的动态场景视觉定位方法
CN112001968B (zh) * 2019-05-27 2022-07-15 浙江商汤科技开发有限公司 相机定位方法及装置、存储介质
CN112001968A (zh) * 2019-05-27 2020-11-27 浙江商汤科技开发有限公司 相机定位方法及装置、存储介质
CN110335319A (zh) * 2019-06-26 2019-10-15 华中科技大学 一种语义驱动的相机定位与地图重建方法和系统
CN110335319B (zh) * 2019-06-26 2022-03-18 华中科技大学 一种语义驱动的相机定位与地图重建方法和系统
CN110349250A (zh) * 2019-06-28 2019-10-18 浙江大学 一种基于rgbd相机的室内动态场景的三维重建方法
CN110349250B (zh) * 2019-06-28 2020-12-22 浙江大学 一种基于rgbd相机的室内动态场景的三维重建方法
CN110298320A (zh) * 2019-07-01 2019-10-01 北京百度网讯科技有限公司 一种视觉定位方法、装置及存储介质
CN110298320B (zh) * 2019-07-01 2021-06-22 北京百度网讯科技有限公司 一种视觉定位方法、装置及存储介质
CN110706248B (zh) * 2019-08-20 2024-03-12 广东工业大学 一种基于slam的视觉感知建图方法及移动机器人
CN110706248A (zh) * 2019-08-20 2020-01-17 广东工业大学 一种基于slam的视觉感知建图算法及移动机器人
CN110673607A (zh) * 2019-09-25 2020-01-10 优地网络有限公司 动态场景下的特征点提取方法、装置、及终端设备
CN110648354A (zh) * 2019-09-29 2020-01-03 电子科技大学 一种动态环境下的slam方法
CN110648354B (zh) * 2019-09-29 2022-02-01 电子科技大学 一种动态环境下的slam方法
CN110838145A (zh) * 2019-10-09 2020-02-25 西安理工大学 一种室内动态场景的视觉定位与建图方法
CN110838145B (zh) * 2019-10-09 2020-08-18 西安理工大学 一种室内动态场景的视觉定位与建图方法
CN111060924A (zh) * 2019-12-02 2020-04-24 北京交通大学 一种slam与目标跟踪方法
CN111105695A (zh) * 2019-12-31 2020-05-05 智车优行科技(上海)有限公司 地图制作方法、装置、电子设备及计算机可读存储介质
CN111311708A (zh) * 2020-01-20 2020-06-19 北京航空航天大学 一种基于语义光流和逆深度滤波的视觉slam方法
CN113326716A (zh) * 2020-02-28 2021-08-31 北京创奇视界科技有限公司 面向装配现场环境装配指导ar应用定位的回环检测方法
CN113326716B (zh) * 2020-02-28 2024-03-01 北京创奇视界科技有限公司 面向装配现场环境装配指导ar应用定位的回环检测方法
CN111798475A (zh) * 2020-05-29 2020-10-20 浙江工业大学 一种基于点云深度学习的室内环境3d语义地图构建方法
CN111798475B (zh) * 2020-05-29 2024-03-22 浙江工业大学 一种基于点云深度学习的室内环境3d语义地图构建方法
CN111783457B (zh) * 2020-07-28 2021-05-11 北京深睿博联科技有限责任公司 一种基于多模态图卷积网络的语义视觉定位方法及装置
CN111783457A (zh) * 2020-07-28 2020-10-16 北京深睿博联科技有限责任公司 一种基于多模态图卷积网络的语义视觉定位方法及装置
CN113345020A (zh) * 2021-06-22 2021-09-03 西南科技大学 一种动态场景下的即时定位方法、装置、设备和存储介质

Also Published As

Publication number Publication date
CN107833236B (zh) 2020-06-26

Similar Documents

Publication Publication Date Title
CN107833236A (zh) 一种动态环境下结合语义的视觉定位系统和方法
CN113450408B (zh) 一种基于深度相机的非规则物体位姿估计方法及装置
CN112734852B (zh) 一种机器人建图方法、装置及计算设备
CN105405154B (zh) 基于颜色-结构特征的目标对象跟踪方法
CA3094424C (en) Safety monitoring and early-warning method for man-machine interaction behavior of underground conveyor belt operator
CN110717927A (zh) 基于深度学习和视惯融合的室内机器人运动估计方法
CN110587597B (zh) 一种基于激光雷达的slam闭环检测方法及检测系统
CN104517095B (zh) 一种基于深度图像的人头分割方法
CN112883820B (zh) 基于激光雷达点云的道路目标3d检测方法及系统
CN111998862B (zh) 一种基于bnn的稠密双目slam方法
CN112528974B (zh) 测距方法、装置、电子设备及可读存储介质
CN109063625A (zh) 一种基于级联深度网络的人脸关键点检测方法
CN104331901A (zh) 一种基于tld的多视角目标跟踪装置及方法
CN113744315B (zh) 一种基于双目视觉的半直接视觉里程计
KR20200056905A (ko) 3d 모델 정렬 방법 및 장치
CN112446882A (zh) 一种动态场景下基于深度学习的鲁棒视觉slam方法
Yu et al. Drso-slam: A dynamic rgb-d slam algorithm for indoor dynamic scenes
Liu et al. 360ST-mapping: An online semantics-guided topological mapping module for omnidirectional visual SLAM
Zhang et al. Moving pedestrian detection based on motion segmentation
Sun et al. Real-time and fast RGB-D based people detection and tracking for service robots
CN116563341A (zh) 一种处理复杂环境下动态物体的视觉定位与建图方法
CN104751487A (zh) 一种基于彩色rgb三平面色变帧差的运动目标检测方法
CN112069997B (zh) 一种基于DenseHR-Net的无人机自主着陆目标提取方法及装置
CN115995075A (zh) 一种车辆自适应导航方法、装置、电子设备及存储介质
CN115719436A (zh) 模型训练方法、目标检测方法、装置、设备以及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant