CN110378345B - 基于yolact实例分割模型的动态场景slam方法 - Google Patents

基于yolact实例分割模型的动态场景slam方法 Download PDF

Info

Publication number
CN110378345B
CN110378345B CN201910481706.7A CN201910481706A CN110378345B CN 110378345 B CN110378345 B CN 110378345B CN 201910481706 A CN201910481706 A CN 201910481706A CN 110378345 B CN110378345 B CN 110378345B
Authority
CN
China
Prior art keywords
pixel
feature points
map
dynamic
points
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910481706.7A
Other languages
English (en)
Other versions
CN110378345A (zh
Inventor
李丹
蔡述庭
龙土志
李翔宇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangdong University of Technology
Original Assignee
Guangdong University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangdong University of Technology filed Critical Guangdong University of Technology
Priority to CN201910481706.7A priority Critical patent/CN110378345B/zh
Publication of CN110378345A publication Critical patent/CN110378345A/zh
Application granted granted Critical
Publication of CN110378345B publication Critical patent/CN110378345B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • G06V10/267Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching

Abstract

本发明公开了一种基于YOLACT实例分割模型的动态场景SLAM方法,首先采用YOLACT实例分割模型对当前帧图像进行实例分割处理,从而区分得到图像中的动态像素和静态像素;对于当前帧图像中的静态像素部分,提取出该部分的特征点;在提取的特征点的基础上选取关键帧;针对选出的关键帧再次剔除动态像素,留下静态像素构造地图,并进行地图初始化;对于剩余下来的静态像素区域,提取该区域的ORB特征点,更新关键帧;在关键帧之间进行特征点的匹配,利用ORB特征点更新局部地图;用局部集束调整优化关键帧的位姿;利用回环检测来优化位姿,更正漂移误差。本方法在动态场景下能快速识别出动态物体,并实时建图导航,具有广泛的应用场景。

Description

基于YOLACT实例分割模型的动态场景SLAM方法
技术领域
本发明涉及移动机器人导航领域,具体涉及一种基于YOLACT实例分割模型的动态场景SLAM方法。
背景技术
SLAM(simultaneous localization and mapping),也称为CML(ConcurrentMapping and Localization),即时定位与地图构建,或并发建图与定位,具体是指将机器人放入未知环境中的未知位置,可以让机器人一边移动一边描绘出此环境完全的地图。根据传感器的种类不同,SLAM主要包括激光SLAM和视觉SLAM两大类,目前SLAM技术可以与多种传感器,如车轮编码器、IMU等融合来更好地实现机器的自主定位、建图、路径规划等功能。随着SLAM技术在服务机器人、无人驾驶、AR等许多领域的广泛应用,SLAM问题成为了移动机器人领域的研究热点,并日益受到学术界的密切关注。
YOLACT是一种快速、单阶段的实例分割模型,在单个Titan Xp上实现了30帧以上的实例分割速度,并在MS COCO上实现了约30mAP的表现,YOLACT实例分割模型没有采用传统方法的定位步骤,而是分为了两个并行的进程,这样可以大大节省网络运行时间:一边在整幅图像上生成一系列模板mask,一边预测每个实例mask的系数,随后对于图中的每个实例,基于线性叠加模板mask和实例mask系数,并与预测的b-box进行裁剪实现最后的实例输出。
传统的SLAM算法都会假设场景是固定不变的,然而对于实际环境而言,该假设过于理想,如在真实场景中,往往有许多动态物体,比如移动的人、行驶的车,在这样的动态场景下传统的视觉SLAM就会产生较大的误差,限制了目前流行的SLAM系统在服务机器人和自动驾驶等领域的应用;而现有的基于深度学习的动态SLAM要么运行速度缓慢,不能实时,要么就识别精度过低。
发明内容
本发明的目的在于提供了一种基于YOLACT实例分割模型的动态场景SLAM方法,针对目前在实际应用中实例分割在精度上和速度上的不足之处,对实例分割模型进行改进,在动态场景下能实时识别动态物体,并对于重叠的物体表现依旧优异。
为了实现上述任务,本发明采用以下技术方案:
基于YOLACT实例分割模型的动态场景SLAM方法,包括以下步骤:
步骤1,获取机器人运动过程中通过相机拍摄的RGB-D图像作为当前帧图像;
步骤2,采用YOLACT实例分割模型对当前帧图像进行实例分割处理,从而区分得到图像中的动态像素和静态像素;
步骤3,对于当前帧图像中的静态像素部分,提取出该部分的特征点;
步骤4,在提取的特征点的基础上选取关键帧;
步骤5,针对步骤4选出的关键帧再次剔除动态像素,留下静态像素构造地图,并进行地图初始化,包括:
步骤5.1,对于步骤4筛选出的关键帧,采用YOLACT实例分割方法区分得到图像中的动态像素和静态像素;
步骤5.2,对于步骤5.1区分得到的静态像素,进行以下处理以再次检测动态像素并剔除:
(1)使用关键帧的深度图像中的深度z和机器人位姿将像素u反投影到世界坐标下的3D点pw
(2)将3D点pw投影到关键帧附近的第j个关键帧的彩色图像上;
(3)如果第j个关键帧的像素u′在对应的深度图像上存在有效的深度值z′,则像素u′反投影到世界坐标下的3D点pw′
(4)通过将pw′和pw之间的距离d与设定的阈值dmth比较来判断像素u是否为动态的:
通过搜索u′周围的正方形区域内的像素,使得d取最小值dmin;如果dmin大于阈值dmth,则初步判断像素u判断为静态的,否则初步判断它是动态的;
将上述初步判断过程依次应用于新关键帧的所有附近关键帧最后,像素u的最终情况由投票来决定:假设像素u在所有附近关键帧的初步判断结果中,静态结果的数量是NS,动态结果的数量是Nd,像素u的最终属性如下:
如果(NS≥Nd,NS>0),则像素u为静态像素,进行保留;
如果(Nd≥Ns,Nd>0),则像素u为动态像素,进行剔除;
步骤6,对于步骤5剩余下来的静态像素区域,提取该区域的ORB特征点,更新关键帧;
步骤7,在关键帧之间进行特征点的匹配,利用ORB特征点更新局部地图;
步骤8,用局部集束调整优化步骤7中的关键帧的位姿;
步骤9,利用回环检测来优化位姿,更正漂移误差。
进一步地,所述的对于当前帧图像中的静态像素部分,提取出该部分的特征点,包括:
对静态像素部分进行金字塔分层,每一层都要进行FAST特征点提取,然后排除不稳定特征点,留下较好的特征点,判断方法为:
判断以特征点p为中心的一个邻域内,若有多个特征点,则判断每个特征点的强度值;所述的强度值计算公式如下:
Figure GDA0003787246110000031
上式中,V表示特征点处的强度值,t表示阈值,I(x)表示邻域内点x的像素值,I(p)为中心点p像素值;若特征点p是邻域所有特征点中强度值最大的,则保留;否则进行排除;若邻域内只有一个特征点,则保留,最后这些保留下来的特征点就是提取出的静态部分特征点。
进一步地,所述的在提取的特征点的基础上选取关键帧,包括:
根据当前帧图像的深度信息将特征点转换为世界坐标系下的三维地图点;
将所述地图点放入局部地图中,将当前图像帧设为关键帧,并选取k个关键帧;其中第i个关键帧的选取原则为:
①距第i-1个关键帧插入已经超过20帧;②当前帧的特征点与地图点成功匹配上了至少50个点。
进一步地,所述的在关键帧之间进行特征点的匹配,利用ORB特征点更新局部地图,包括:
1)给定阈值τ,关键帧与关键帧间的ORB特征点进行匹配后,删除两帧间匹配差异值大于τ的特征点;
2)当匹配上的特征点小于等于τ时,则将当前帧的所有的ORB特征点转换成地图点,存入局部地图;
3)计算出存入局部地图的第i(1≤i≤k)帧图像的ORB特征点的相似变换矩阵T,相似变换矩阵T由旋转矩阵R和平移向量t组成;并将第1至第k帧的R和t利用步骤8进行后端优化。
本发明具有以下技术特点:
1.本发明对目前移动机器人导航在实际应用中精度上和速度上的不足之处,对实例分割模型进行改进,在动态场景下能快速识别出动态物体,并实时建图导航,具有广泛的应用场景,比如在公路,在马路上或者任何动态场景。
2.本发明基于YOLACT实例分割模型的动态场景SLAM在ORB-SLAM2的基础上添加了高速的动态目标检测技术,在动态场景中的精度优于标准视觉SLAM系统架构,并且由于其高速的YOLACT实例分割模型,整体运行速度优于现有的基于Mask_RCNN网络DynaSLAM,而快速性与高精度正是SLAM在真实环境中实时定位与建图所必需的。
3.在SLAM中加入第四个并行线程,引入YOLACT实例分割模型,并将YOLACT实例分割模型与多视图几何约束的方法结合应用到分割动态像素点中,选择将像素投影到已选关键帧附近的关键帧,然后将有效深度和投影深度差值设与设定的阈值比较,如大于阈值,则将像素标记为动态像素。
附图说明
图1为本发明方法的流程框图;
图2为SLAM四个线程的结构示意图。
具体实施方式
本发明针对基于实例分割算法的移动机器人导航,提出一种利用高速度、高精度的YOLACT实例分割模型对传统的视觉SLAM进行改进,在复杂的动态场景下利用YOLACT检测出动态目标,并在此基础上得到一个场景的静态地图。
本发明的一种基于YOLACT实例分割模型的SLAM动态场景目标检测方法,具体步骤如下:
步骤1,获取机器人运动过程中通过相机拍摄的RGB-D图像作为当前帧图像;
步骤2,采用YOLACT实例分割模型对当前帧图像进行实例分割处理,从而区分得到图像中的动态像素和静态像素;
在该步骤中,将移动机器人运动过程中通过相机拍摄的RGB-D图像(包括彩色图像和深度图像)输入YOLACT实例分割模型进行实时目标识别与检测,一边生成候选区域RoI,一边实时对这些RoI进行分类和分割,将mask coefficients值大于0.75的RoI记为动态像素,并记录模型输出的此帧的(x,,y,w,h);一帧图像除了动态像素其它区域均记为静态像素。
所述mask coefficients为置信分数,四维向量(x,,y,w,h)分别表示窗口的中心点坐标和宽高,边框(x,y)用于移动,边框大小(w,h)用于缩放。将x,y,w,h值组成的区域记为区域RoI。
步骤3,对于当前帧图像中的静态像素部分,提取出该部分的特征点
在该步骤中,因步骤2已知了RoI的(x,,y,w,h),先对每一帧图像剔除区域RoI,然后对剩余部分进行金字塔分层(4层均值金字塔),每一层都要进行FAST特征点提取,然后排除不稳定特征点,留下较好的特征点,判断方法为:
判断以特征点p为中心的一个邻域内,若有多个特征点,则判断每个特征点的强度值;所述的强度值计算公式如下:
Figure GDA0003787246110000051
上式中,V表示特征点处的强度值,t表示阈值,I(x)表示邻域内点x的像素值,I(p)为中心点p像素值;即特征点的强度值定义为特征点p与邻域内特征点的像素差值的绝对值累加和。
若特征点p是邻域所有特征点中强度值最大的,则保留;否则进行排除;若邻域内只有一个特征点,则保留,最后这些保留下来的特征点就是提取出的静态部分特征点。
步骤4,在提取的特征点的基础上选取关键帧
在该步骤中,根据当前帧图像的深度信息将特征点转换为世界坐标系下的三维地图点:
Figure GDA0003787246110000052
该式中,pw是世界坐标系下的三维地图点,
Figure GDA0003787246110000061
是从世界坐标系w到机器人坐标系r的变换矩阵,
Figure GDA0003787246110000062
是从机器人坐标系r到相机坐标系c的变换矩阵,z是深度图像中的深度,u是像素坐标。
将所述地图点pw放入局部地图中,将当前图像帧设为关键帧,并选取k个关键帧;其中第i(i=1,2,..k)个关键帧的选取原则:
①距第i-1个关键帧插入已经超过20帧;②当前帧的特征点与地图点成功匹配上了至少50个点。
则通过步骤4可得到筛出的k个关键帧。
步骤5,因在步骤2中可能有的没有先验动态标记而具有移动性的物体没有被分割,我们需要针对步骤4筛选出来的关键帧再次剔除动态像素。
在该步骤中,我们的处理对象是步骤4所筛选出来关键帧,依次对每个关键帧进行以下处理(步骤5.1和步骤5.2),检测出YOLACT实例分割方法未检测到的动态像素并剔除,留下静态像素构造地图,并进行地图初始化。
步骤5.1,对于步骤4筛选出的关键帧,采用YOLACT实例分割方法区分得到图像中的动态像素和静态像素;具体过程与步骤2相同,不同之处在于该步骤针对的是步骤4筛选出来的关键帧。
步骤5.2,对于步骤5.1区分得到的静态像素,进行以下处理以再次检测动态像素并剔除:
(1)使用关键帧的深度图像中的深度z和机器人位姿
Figure GDA0003787246110000063
将像素u反投影到世界坐标下的3D点pw
Figure GDA0003787246110000064
其中Tc r为相机坐标系c到机器人坐标系r的变换矩阵;
Figure GDA0003787246110000065
为从机器人坐标系r到世界坐标系w的变换矩阵,即机器人的位姿;
(2)将3D点pw投影到关键帧附近的第j(j=1,...k)个关键帧(当前关键帧之前的关键帧,本实施例选择投影5帧)的彩色图像上:
Figure GDA0003787246110000066
其中
Figure GDA0003787246110000071
是关键帧附近第j个关键帧的机器人位姿。
(3)如果第j个关键帧的像素u′在对应的深度图像上存在有效的深度值z′,则像素u′反投影到世界坐标下的3D点pw′
Figure GDA0003787246110000072
(4)通过将pw′和pw之间的距离d与设定的阈值dmth比较来判断像素u是否为动态的:
因为关键帧的深度图像和姿势都有误差,u′可能不是与u对应的像素,所以本方案通过搜索u′周围的正方形区域(根据经验将正方形边长S设置为10个像素)内的像素,使得d取最小值dmin;如果dmin大于阈值dmth(阈值dmth设置为与深度值z′线性增长),则初步判断像素u判断为静态的,否则初步判断它是动态的。
由于一个关键帧的结果不够可靠并且可能产生无效结果,本方案将上述初步判断过程(1)-(4)依次应用于新关键帧的所有附近关键帧(本实施例选5帧关键帧),最后,像素u的最终情况由投票来决定:假设像素u在所有附近关键帧的初步判断结果中,静态结果的数量是NS,动态结果的数量是Nd,像素u的最终属性如下:
如果(NS≥Nd,NS>0),则像素u为静态像素,进行保留。
如果(Nd≥Ns,Nd>0),则像素u为动态像素,进行剔除。
通过YOLACT实例分割和上述方法可再次剔除动态域RoI,并用留下的静态部分更新关键帧。
步骤6,对于步骤5剩余下来的静态像素区域,提取该区域的ORB特征点,更新关键帧
在该步骤中,通过遍历所有关键帧,计算关键帧与Covisibility Graph(一种顶点是相机的位姿Pose,而边是Pose-Pose的变换关系的图)中与其相连的关键帧之间词袋的相似程度,计算bow(词袋模型)相似度得分,筛选出词带bow匹配最低得分大于bow相似度得分最小值的作为新关键帧。
步骤7,根据步骤6得到的关键帧,在关键帧之间进行特征点的匹配,利用ORB特征点更新局部地图:
1)给定阈值τ,关键帧与关键帧间的ORB特征点进行匹配后,删除两帧间匹配差异值大于τ的特征点,即删除局部地图中不在当前帧相机视野内的地图点。
2)当匹配上的特征点小于等于τ时,则将当前帧的所有的ORB特征点转换成地图点,存入局部地图。
3)采用3D-2D:PnP方法,计算出存入局部地图的第i(1≤i≤k)帧图像的ORB特征点的相似变换矩阵T(由旋转矩阵R和平移向量t组成),并将第1至第k帧的R和t利用步骤8进行后端优化。
步骤8,用局部集束调整local BA优化步骤7中的关键帧的位姿
在该步骤中,通过local BA优化关键帧的旋转矩阵R、平移向量t和局部地图上的地图点,得到优化后的旋转矩阵R、平移矩阵t和局部地图上的地图点,调整相似变换矩阵T完成重建。
步骤9,在步骤8即使进行了local BA优化,仍然会存在累积误差,因此该步骤利用回环检测来优化位姿,更正漂移误差。
在该步骤中,首先遍历每一个关键帧,对关键帧基于词袋模型进行回环检测,判断是否能闭环,若能则构造sim3求解器,通过求解的sim3以及相对姿态关系,调整与当前帧相连的关键帧位姿T和关键点的位置,用当前帧闭环匹配地图点更新当前帧之前的匹配地图点,对本质地图进行优化,最终实现在动态场景中构造静态地图。

Claims (4)

1.基于YOLACT实例分割模型的动态场景SLAM方法,其特征在于,包括以下步骤:
步骤1,获取机器人运动过程中通过相机拍摄的RGB-D图像作为当前帧图像;
步骤2,采用YOLACT实例分割模型对当前帧图像进行实例分割处理,从而区分得到图像中的动态像素和静态像素;
步骤3,对于当前帧图像中的静态像素部分,提取出该部分的特征点;
步骤4,在提取的特征点的基础上选取关键帧;
步骤5,针对步骤4选出的关键帧再次剔除动态像素,留下静态像素构造地图,并进行地图初始化,包括:
步骤5.1,对于步骤4筛选出的关键帧,采用YOLACT实例分割方法区分得到图像中的动态像素和静态像素;
步骤5.2,对于步骤5.1区分得到的静态像素,进行以下处理以再次检测动态像素并剔除:
(1)使用关键帧的深度图像中的深度z和机器人位姿将像素u反投影到世界坐标下的3D点pw
(2)将3D点pw投影到关键帧附近的第j个关键帧的彩色图像上;
(3)如果第j个关键帧的像素u′在对应的深度图像上存在有效的深度值z′,则像素u′反投影到世界坐标下的3D点pw′
(4)通过将pw′和pw之间的距离d与设定的阈值dmth比较来判断像素u是否为动态的:
通过搜索u′周围的正方形区域内的像素,使得d取最小值dmin;如果dmin大于阈值dmth,则初步判断像素u判断为静态的,否则初步判断它是动态的;
将上述初步判断过程依次应用于新关键帧的所有附近关键帧最后,像素u的最终情况由投票来决定:假设像素u在所有附近关键帧的初步判断结果中,静态结果的数量是NS,动态结果的数量是Nd,像素u的最终属性如下:
如果NS≥Nd,NS>0,则像素u为静态像素,进行保留;
如果Nd≥Ns,Nd>0,则像素u为动态像素,进行剔除;
步骤6,对于步骤5剩余下来的静态像素区域,提取该区域的ORB特征点,更新关键帧;
步骤7,在关键帧之间进行特征点的匹配,利用ORB特征点更新局部地图;
步骤8,用局部集束调整优化步骤7中的关键帧的位姿;
步骤9,利用回环检测来优化位姿,更正漂移误差。
2.如权利要求1所述的基于YOLACT实例分割模型的动态场景SLAM方法,其特征在于,所述的对于当前帧图像中的静态像素部分,提取出该部分的特征点,包括:
对静态像素部分进行金字塔分层,每一层都要进行FAST特征点提取,然后排除不稳定特征点,留下较好的特征点,判断方法为:
判断以特征点p为中心的一个邻域内,若有多个特征点,则判断每个特征点的强度值;所述的强度值计算公式如下:
Figure FDA0003787246100000021
上式中,V表示特征点处的强度值,t表示阈值,I(x)表示邻域内点x的像素值,I(p)为中心点p像素值;若特征点p是邻域所有特征点中强度值最大的,则保留;否则进行排除;若邻域内只有一个特征点,则保留,最后这些保留下来的特征点就是提取出的静态部分特征点。
3.如权利要求1所述的基于YOLACT实例分割模型的动态场景SLAM方法,其特征在于,所述的在提取的特征点的基础上选取关键帧,包括:
根据当前帧图像的深度信息将特征点转换为世界坐标系下的三维地图点;
将所述地图点放入局部地图中,将当前图像帧设为关键帧,并选取k个关键帧;其中第i个关键帧的选取原则为:
①距第i-1个关键帧插入已经超过20帧;②当前帧的特征点与地图点成功匹配上了至少50个点。
4.如权利要求3所述的基于YOLACT实例分割模型的动态场景SLAM方法,其特征在于,所述的在关键帧之间进行特征点的匹配,利用ORB特征点更新局部地图,包括:
1)给定阈值τ,关键帧与关键帧间的ORB特征点进行匹配后,删除两帧间匹配差异值大于τ的特征点;
2)当匹配上的特征点小于等于τ时,则将当前帧的所有的ORB特征点转换成地图点,存入局部地图;
3)计算出存入局部地图的第i帧图像的ORB特征点的相似变换矩阵T,相似变换矩阵T由旋转矩阵R和平移向量t组成,其中1≤i≤k;并将第1至第k帧的R和t利用步骤8进行优化。
CN201910481706.7A 2019-06-04 2019-06-04 基于yolact实例分割模型的动态场景slam方法 Active CN110378345B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910481706.7A CN110378345B (zh) 2019-06-04 2019-06-04 基于yolact实例分割模型的动态场景slam方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910481706.7A CN110378345B (zh) 2019-06-04 2019-06-04 基于yolact实例分割模型的动态场景slam方法

Publications (2)

Publication Number Publication Date
CN110378345A CN110378345A (zh) 2019-10-25
CN110378345B true CN110378345B (zh) 2022-10-04

Family

ID=68249724

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910481706.7A Active CN110378345B (zh) 2019-06-04 2019-06-04 基于yolact实例分割模型的动态场景slam方法

Country Status (1)

Country Link
CN (1) CN110378345B (zh)

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111047553B (zh) * 2019-11-07 2023-04-07 电子科技大学 一种面向非接触式人体参数测量的特征点定位方法
CN110930519B (zh) * 2019-11-14 2023-06-20 华南智能机器人创新研究院 基于环境理解的语义orb-slam感知方法及装置
CN111161318A (zh) * 2019-12-30 2020-05-15 广东工业大学 一种基于yolo算法及gms特征匹配的动态场景slam方法
CN111738085B (zh) * 2020-05-22 2023-10-24 华南理工大学 实现自动驾驶同时定位与建图的系统构建方法及装置
CN111531546B (zh) * 2020-05-22 2023-06-16 山东浪潮科学研究院有限公司 一种机器人位姿估计方法、装置、设备及存储介质
CN111798456A (zh) * 2020-05-26 2020-10-20 苏宁云计算有限公司 一种实例分割模型的训练方法、装置、实例分割方法
CN111914832B (zh) * 2020-06-03 2023-06-13 华南理工大学 一种rgb-d相机在动态场景下的slam方法
CN111795704B (zh) * 2020-06-30 2022-06-03 杭州海康机器人技术有限公司 一种视觉点云地图的构建方法、装置
CN111915565B (zh) * 2020-07-03 2022-04-12 太原理工大学 一种基于yolact算法对输变电线路瓷瓶裂缝实时分析方法
CN111966110A (zh) * 2020-09-08 2020-11-20 天津海运职业学院 一种港口无人运输车自动导航方法及系统
CN112164077B (zh) * 2020-09-25 2023-12-29 陕西师范大学 基于自下而上路径增强的细胞实例分割方法
CN112258575B (zh) * 2020-10-13 2022-12-02 浙江大学 一种同步定位和地图构建中物体的快速识别方法
CN112435278B (zh) * 2021-01-26 2021-05-04 华东交通大学 一种基于动态目标检测的视觉slam方法及装置
CN112802053B (zh) * 2021-01-27 2023-04-11 广东工业大学 一种面向动态环境稠密建图的动态物体检测方法
CN113012197B (zh) * 2021-03-19 2023-07-18 华南理工大学 一种适用于动态交通场景的双目视觉里程计定位方法
CN113066129A (zh) * 2021-04-12 2021-07-02 北京理工大学 基于动态环境下的目标检测的视觉定位与建图系统
CN113052907B (zh) * 2021-04-12 2023-08-15 深圳大学 一种动态环境移动机器人的定位方法
CN114332233B (zh) * 2022-03-17 2022-05-31 北京理工大学 一种激光slam回环检测方法和系统
CN116071690B (zh) * 2023-04-03 2023-06-09 江西师范大学 一种基于场景关键帧的情景特征提取方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1553708A (zh) * 2003-05-26 2004-12-08 矽统科技股份有限公司 临界值可调的动态图象像素检测方法
JP2005094465A (ja) * 2003-09-18 2005-04-07 Fuji Photo Film Co Ltd 撮影装置
CN103826122A (zh) * 2013-10-25 2014-05-28 广东工业大学 一种复杂度均衡的视频编码方法及其解码方法
CN109387204A (zh) * 2018-09-26 2019-02-26 东北大学 面向室内动态环境的移动机器人同步定位与构图方法
CN109559320A (zh) * 2018-09-18 2019-04-02 华东理工大学 基于空洞卷积深度神经网络实现视觉slam语义建图功能的方法及系统

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180005015A1 (en) * 2016-07-01 2018-01-04 Vangogh Imaging, Inc. Sparse simultaneous localization and matching with unified tracking

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1553708A (zh) * 2003-05-26 2004-12-08 矽统科技股份有限公司 临界值可调的动态图象像素检测方法
JP2005094465A (ja) * 2003-09-18 2005-04-07 Fuji Photo Film Co Ltd 撮影装置
CN103826122A (zh) * 2013-10-25 2014-05-28 广东工业大学 一种复杂度均衡的视频编码方法及其解码方法
CN109559320A (zh) * 2018-09-18 2019-04-02 华东理工大学 基于空洞卷积深度神经网络实现视觉slam语义建图功能的方法及系统
CN109387204A (zh) * 2018-09-26 2019-02-26 东北大学 面向室内动态环境的移动机器人同步定位与构图方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
面向室内动态环境的半直接法RGB-D SLAM算法;高成强等;《机器人》;20190531;全文 *

Also Published As

Publication number Publication date
CN110378345A (zh) 2019-10-25

Similar Documents

Publication Publication Date Title
CN110378345B (zh) 基于yolact实例分割模型的动态场景slam方法
CN112258618B (zh) 基于先验激光点云与深度图融合的语义建图与定位方法
CN110738673A (zh) 基于实例分割的视觉slam方法
Delmerico et al. Building facade detection, segmentation, and parameter estimation for mobile robot localization and guidance
CN111046856B (zh) 基于动静态特征提取并行位姿跟踪与地图创建的方法
CN111696118A (zh) 动态场景下基于语义分割与图像修复的视觉回环检测方法
He et al. Robust road detection from a single image using road shape prior
Ahmad et al. An edge-less approach to horizon line detection
CN112101160B (zh) 一种面向自动驾驶场景的双目语义slam方法
CN103106409A (zh) 一种针对头肩检测的混合特征提取方法
CN111161318A (zh) 一种基于yolo算法及gms特征匹配的动态场景slam方法
JP4567660B2 (ja) 電子画像内で物体のセグメントを求める方法
Long et al. A real-time dense stereo matching method for critical environment sensing in autonomous driving
Chen et al. Monocular semantic SLAM in dynamic street scene based on multiple object tracking
CN111862147A (zh) 视频中多车辆和多行人目标的跟踪方法
CN116563341A (zh) 一种处理复杂环境下动态物体的视觉定位与建图方法
KR102462733B1 (ko) 샴 네트워크를 활용하는 강인한 다중 객체 검출 장치 및 방법
CN115239902A (zh) 移动设备的周边地图建立方法、装置、设备及存储介质
CN111178158B (zh) 一种骑车人检测方法及系统
Sheikh et al. A combined rgb and depth descriptor for slam with humanoids
Qu et al. Statistical classification based fast drivable region detection for indoor mobile robot
CN110781769A (zh) 一种快速行人检测与跟踪的方法
Su et al. An illumination-invariant nonparametric model for urban road detection using monocular camera and single-line lidar
Zhou et al. An anti-occlusion tracking system for UAV imagery based on Discriminative Scale Space Tracker and Optical Flow
CN116740477B (zh) 基于稀疏光流的动态像素点分布识别方法、系统及设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant