CN110516527A - 一种基于实例分割的视觉slam回环检测改进方法 - Google Patents

一种基于实例分割的视觉slam回环检测改进方法 Download PDF

Info

Publication number
CN110516527A
CN110516527A CN201910609461.1A CN201910609461A CN110516527A CN 110516527 A CN110516527 A CN 110516527A CN 201910609461 A CN201910609461 A CN 201910609461A CN 110516527 A CN110516527 A CN 110516527A
Authority
CN
China
Prior art keywords
winding
segmentation
winding detection
mask
cnn
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910609461.1A
Other languages
English (en)
Other versions
CN110516527B (zh
Inventor
赖瑨
刘治
章云
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangdong University of Technology
Original Assignee
Guangdong University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangdong University of Technology filed Critical Guangdong University of Technology
Priority to CN201910609461.1A priority Critical patent/CN110516527B/zh
Publication of CN110516527A publication Critical patent/CN110516527A/zh
Application granted granted Critical
Publication of CN110516527B publication Critical patent/CN110516527B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/30Computing systems specially adapted for manufacturing

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于实例分割的视觉SLAM回环检测改进方法,提出通过Mask R‑CNN框架对图像进行实例分割,并提出三种结合实例分割的改进措施,以此来解决移动智能型机器人在视觉导航中遇到的回环检测问题,从而使得机器人在移动建图上更加准确;本发明与现有技术相比,使用Mask R‑CNN进行离线的训练,将图像中的实例进行精细分割。并将分割出的相关性较低的实例进行选择并去除,使得整个回环检测的稳定性以及准确率得到提高,以此来提高智能移动机器人导航的高效性和准确性;另外,在回环检测中通过三种结合实例分割框架的检测方法,用来对图像空间关系进行描述,从而进一步对回环检测进行检验。本发明中的这两大特征使得整个系统的准确性得到显著的提高。

Description

一种基于实例分割的视觉SLAM回环检测改进方法
技术领域
本发明涉及实例分割及视觉SLAM技术领域,具体涉及一种基于实例分割的视觉SLAM回环检测改进方法。
背景技术
目前,随着移动机器人系统的进一步发展,使得视觉同步定位与建图(视觉SLAM)受到了政府、社会、企业的高度重视,更是吸引了相关产业链与环节众多厂家的积极参与。视觉SLAM通过双目摄像头获取图像信息,以达到在没有环境先验信息的情况下,实现运动过程中建立环境并估计自身运动等功能。在复杂环境的干扰下,如何保证并提升移动机器人的建图准确性是视觉SLAM产业化过程的关键应用基础问题。
SLAM即Simultaneous Localization and mapping,中文译作“同时定位与地图构建”,它是指搭载特定传感器的主体,在没有环境先验信息的情况下,于运动过程中建立环境的模型,同时估计自身的运动。
在经典视觉SLAM框架中,主要由传感器数据、视觉里程计、后端优化、回环检测、最终建图这些方面组成;其中回环检测方面,传统回环检测方法采用的是视觉词袋模型(BoW),词袋模型对图像中视觉特征描述子进行聚类,建立词典,然后对于给定的图像在词袋中找到对应的单词。常见的视觉特征SIFT、SURF、ORB等被广泛应用。但是其方法有着有很大的应用局限性,这些特征的提取耗费大量的时间,同时在光照变化明显的场景中,这些方法忽略了环境中有用的信息,造成闭环检测的准确度不高。BoW方法在实际应用中需要人为的设定一些字典,并且在准确性上相对于机器学习来说并不高;而且回环检测实际上就是聚类的问题,而此类问题在机器学习方面已经得到了很好的解决,所以机器学习代替BoW这类算法成为主流回环检测方法将是一大趋势,而MASK R-CNN则是当今机器学习中的热点之一,其能够在像素层面识别目标轮廓。
发明内容
本发明的目的在于克服现有技术的缺点与不足,提供一种基于实例分割的视觉SLAM回环检测改进方法,该方法将MASK R-CNN与SLAM回环检测问题相互结合,并提出实例SLAM回环检测中只适用于实例分割的改进方法,使得回环检测的准确性和稳定性得到提升。
本发明的目的通过下述技术方案实现:
一种基于实例分割的视觉SLAM回环检测改进方法,包括下述步骤:
(1)使用RGB-D摄像头获取RGB信息以及深度的信息,将采集到的数据集样本分成多个同等份的数据集;
(2)将数据集中的每一张图片分别送入CNN,进行特征提取;
(3)在最后一层卷积featuremap上,通过RPN生成ROI,每张图片固定n个建议窗口;
(4)通过RoIAlign层使得每个建议窗口生成固定大小的featuremap;
(5)得到三个输出向量,第一个是softmax分类,第二个是每一类的bounding box回归,第三个是每一个ROI的二进制掩码Mask;通过这三个输出向量,从而得到实例分割的结果;
(6)将实例分割的结果进行过滤,即将分割出的相关性较低的实例进行选择并去除,只留下能区分图像特征的实例;
(7)将第A帧图像与第B帧图像所得到的实例分割过滤后的结果进行对比,规定A、B在全部帧中随机取,且A+1<B,当最终聚类中心的对比在误差范围之内,并达到了一定的数量时,便看作是达到了回环的效果;
(8)得到MASK R-CNN的实例分割结果后,一方面可以直接通过最终的特征进行回环检测;另一方面,也可以使用结合实例分割与视觉SLAM的回环检测方法。
优选地,所述结合实例分割与视觉SLAM的回环检测方法具体为:
①将步骤(6)所得到的结果进行再次回环检测检验,由于移动机器人中回环检测问题主要研究图像间的相似性,而当背景实例相同但前后景不同时,应当判定为没有达到回环效果,为此可通过前后景对比的方式,而这一判定依据只能结合MASK R-CNN来进行判断;
②通过MASK R-CNN对实例进行前后景区分,随后对实例前后景进行统计,将前景的实例集合作为字典D1,后景的实例集合作为字典D2,其中前后景作为key,前后景的实例列表作为value;针对第A帧图像与第B帧图像得到的D1、D2进行前后景对比,从而对回环检测进行进一步的检测。
优选地,所述结合实例分割与视觉SLAM的回环检测方法具体为:
①将步骤(6)所得到的结果进行再次回环检测检验,由于当机器人在道路移动时,实际上图像中的事物都是由远到近的,所以实例和前后景经常都是相同的,为此可对每个实例进行图形面积计算,而这一判定依据只能结合MASK R-CNN来进行判断;
②通过对图像中每个实例进行像素点总和的计算,总和数记作n,将不同实例的面积进行区分和统计,可以得到每个实例的面积总和并进行图像之间的对比,从而对回环检测进行进一步的检测。
优选地,所述结合实例分割与视觉SLAM的回环检测方法具体为:
①将步骤(6)所得到的结果进行再次回环检测检验,由于机器人在运动过程中,有可能同一场景从不同角度拍摄,而此时实例面积很可能不起作用,为此可通过计算实例的中心位置,而这一判定依据只能结合MASK R-CNN来进行判断;
②在通过RGB-D相机得到数据的同时,对此时得到的像素平面进行位置处理,给定每个像素(x,y)位置信息,x轴为横向,y轴为纵向;
③对每个实例中的总和像素点n进行像素位置的x、y总和计算,x坐标总和记为X,y坐标总和记为Y,最后将总和X、Y分别除以总像素点n,得到每个实例的中心点位置,从而通过不同实例的中心点位置对回环检测进行进一步的检测。
本发明与现有技术相比具有以下的有益效果:
(1)本发明提出将MASK R-CNN与视觉SLAM回环检测相互结合,使得整个移动机器人在回环检测问题上能够以更加清晰的判别方式进行;
(2)本发明提出三种结合实例分割与视觉SLAM回环检测的改进方法,分别为:前后景对比方法、实例面积对比方法、实例位置对比方法;其方法只与MASK R-CNN相结合使用,能够有效的提高回环检测的稳定性与准确性,使得机器人在移动建图方面更加高效。
附图说明
图1为本发明的具体流程图;
图2为本发明的实例分割网络框架图。
具体实施方式
下面结合实施例及附图对本发明作进一步详细的描述,但本发明的实施方式不限于此。
如图1~2所示,一种基于实例分割的视觉SLAM回环检测改进方法,包括下述步骤:
(1)使用RGB-D摄像头获取RGB信息以及深度的信息,将采集到的数据集样本分成多个同等份的数据集;
(2)将数据集中的每一张图片分别送入CNN,进行特征提取;
(3)在最后一层卷积featuremap上,通过RPN生成ROI,每张图片固定n个建议窗口,这里设n为300;
(4)通过RoIAlign层使得每个建议窗口生成固定大小的featuremap;
(5)得到三个输出向量,第一个是softmax分类,第二个是每一类的bounding box回归,第三个是每一个ROI的二进制掩码Mask(FCN生成);通过这三个输出向量,从而得到实例分割的结果;
(6)将实例分割的结果进行过滤,即将分割出的相关性较低的实例进行选择并去除,只留下能区分图像特征的实例;
(7)将第A帧图像与第B帧图像所得到的实例分割过滤后的结果进行对比,规定A、B在全部帧中随机取,且A+1<B,当最终聚类中心的对比在误差范围之内,并达到了一定的数量时,便看作是达到了回环的效果;
(8)得到MASK R-CNN的实例分割结果后,一方面可以直接通过最终的特征进行回环检测;另一方面,也可以使用结合实例分割与视觉SLAM的回环检测方法。
本发明提出三种结合实例分割与视觉SLAM的回环检测方法,这三种方法是并行运行的,如图1所示,具体如下:
所述结合实例分割与视觉SLAM的回环检测方法之一:
①将步骤(6)所得到的结果进行再次回环检测检验,由于移动机器人中回环检测问题主要研究图像间的相似性,而当背景实例相同但前后景不同时,应当判定为没有达到回环效果,为此可通过前后景对比的方式,而这一判定依据只能结合MASK R-CNN来进行判断;
②通过MASK R-CNN对实例进行前后景区分,随后对实例前后景进行统计,将前景的实例集合作为字典D1,后景的实例集合作为字典D2,其中前后景作为key,前后景的实例列表作为value;针对第A帧图像与第B帧图像得到的D1、D2进行前后景对比,从而对回环检测进行进一步的检测。
所述结合实例分割与视觉SLAM的回环检测方法之二:
①将步骤(6)所得到的结果进行再次回环检测检验,由于当机器人在道路移动时,实际上图像中的事物都是由远到近的,所以实例和前后景经常都是相同的,为此可对每个实例进行图形面积计算,而这一判定依据只能结合MASK R-CNN来进行判断;
②通过对图像中每个实例进行像素点总和的计算,总和数记作n,将不同实例的面积进行区分和统计,可以得到每个实例的面积总和并进行图像之间的对比,从而对回环检测进行进一步的检测。
所述结合实例分割与视觉SLAM的回环检测方法之三:
①将步骤(6)所得到的结果进行再次回环检测检验,由于机器人在运动过程中,有可能同一场景从不同角度拍摄,而此时实例面积很可能不起作用,为此可通过计算实例的中心位置,而这一判定依据只能结合MASK R-CNN来进行判断;
②在通过RGB-D相机得到数据的同时,对此时得到的像素平面进行位置处理,给定每个像素(x,y)位置信息,x轴为横向,y轴为纵向;
③对每个实例中的总和像素点n进行像素位置的x、y总和计算,x坐标总和记为X,y坐标总和记为Y,最后将总和X、Y分别除以总像素点n,得到每个实例的中心点位置,从而通过不同实例的中心点位置对回环检测进行进一步的检测。
本发明提出将MASK R-CNN与视觉SLAM回环检测相互结合,使得整个移动机器人在回环检测问题上能够以更加清晰的判别方式进行;提出三种结合实例分割与视觉SLAM回环检测的改进方法,分别为:前后景对比方法、实例面积对比方法、实例位置对比方法;其方法只与MASK R-CNN相结合使用,能够有效的提高回环检测的稳定性与准确性,使得机器人在移动建图方面更加高效。
上述为本发明较佳的实施方式,但本发明的实施方式并不受上述内容的限制,其他的任何未背离本发明的精神实质与原理下所作的改变、修饰、替代、组合、简化,均应为等效的置换方式,都包含在本发明的保护范围之内。

Claims (4)

1.一种基于实例分割的视觉SLAM回环检测改进方法,其特征在于,包括下述步骤:
(1)使用RGB-D摄像头获取RGB信息以及深度的信息,将采集到的数据集样本分成多个同等份的数据集;
(2)将数据集中的每一张图片分别送入CNN,进行特征提取;
(3)在最后一层卷积featuremap上,通过RPN生成ROI,每张图片固定n个建议窗口;
(4)通过RoIAlign层使得每个建议窗口生成固定大小的feature map;
(5)得到三个输出向量,第一个是softmax分类,第二个是每一类的bounding box回归,第三个是每一个ROI的二进制掩码Mask;通过这三个输出向量,从而得到实例分割的结果;
(6)将实例分割的结果进行过滤,即将分割出的相关性较低的实例进行选择并去除,只留下能区分图像特征的实例;
(7)将第A帧图像与第B帧图像所得到的实例分割过滤后的结果进行对比,规定A、B在全部帧中随机取,且A+1<B,当最终聚类中心的对比在误差范围之内,并达到了一定的数量时,便看作是达到了回环的效果;
(8)得到MASK R-CNN的实例分割结果后,一方面可以直接通过最终的特征进行回环检测;另一方面,也可以使用结合实例分割与视觉SLAM的回环检测方法。
2.根据权利要求1所述的基于实例分割的视觉SLAM回环检测改进方法,其特征在于,所述结合实例分割与视觉SLAM的回环检测方法具体为:
①将步骤(6)所得到的结果进行再次回环检测检验,由于移动机器人中回环检测问题主要研究图像间的相似性,而当背景实例相同但前后景不同时,应当判定为没有达到回环效果,为此可通过前后景对比的方式,而这一判定依据只能结合MASK R-CNN来进行判断;
②通过MASK R-CNN对实例进行前后景区分,随后对实例前后景进行统计,将前景的实例集合作为字典D1,后景的实例集合作为字典D2,其中前后景作为key,前后景的实例列表作为value;针对第A帧图像与第B帧图像得到的D1、D2进行前后景对比,从而对回环检测进行进一步的检测。
3.根据权利要求1所述的基于实例分割的视觉SLAM回环检测改进方法,其特征在于,所述结合实例分割与视觉SLAM的回环检测方法具体为:
①将步骤(6)所得到的结果进行再次回环检测检验,由于当机器人在道路移动时,实际上图像中的事物都是由远到近的,所以实例和前后景经常都是相同的,为此可对每个实例进行图形面积计算,而这一判定依据只能结合MASK R-CNN来进行判断;
②通过对图像中每个实例进行像素点总和的计算,总和数记作n,将不同实例的面积进行区分和统计,可以得到每个实例的面积总和并进行图像之间的对比,从而对回环检测进行进一步的检测。
4.根据权利要求1所述的基于实例分割的视觉SLAM回环检测改进方法,其特征在于,所述结合实例分割与视觉SLAM的回环检测方法具体为:
①将步骤(6)所得到的结果进行再次回环检测检验,由于机器人在运动过程中,有可能同一场景从不同角度拍摄,而此时实例面积很可能不起作用,为此可通过计算实例的中心位置,而这一判定依据只能结合MASK R-CNN来进行判断;
②在通过RGB-D相机得到数据的同时,对此时得到的像素平面进行位置处理,给定每个像素(x,y)位置信息,x轴为横向,y轴为纵向;
③对每个实例中的总和像素点n进行像素位置的x、y总和计算,x坐标总和记为X,y坐标总和记为Y,最后将总和X、Y分别除以总像素点n,得到每个实例的中心点位置,从而通过不同实例的中心点位置对回环检测进行进一步的检测。
CN201910609461.1A 2019-07-08 2019-07-08 一种基于实例分割的视觉slam回环检测改进方法 Active CN110516527B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910609461.1A CN110516527B (zh) 2019-07-08 2019-07-08 一种基于实例分割的视觉slam回环检测改进方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910609461.1A CN110516527B (zh) 2019-07-08 2019-07-08 一种基于实例分割的视觉slam回环检测改进方法

Publications (2)

Publication Number Publication Date
CN110516527A true CN110516527A (zh) 2019-11-29
CN110516527B CN110516527B (zh) 2023-05-23

Family

ID=68622582

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910609461.1A Active CN110516527B (zh) 2019-07-08 2019-07-08 一种基于实例分割的视觉slam回环检测改进方法

Country Status (1)

Country Link
CN (1) CN110516527B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111179377A (zh) * 2019-12-31 2020-05-19 深圳市优必选科技股份有限公司 机器人建图方法、相应的机器人及存储介质
CN111241943A (zh) * 2019-12-31 2020-06-05 浙江大学 自动驾驶场景下基于背景目标检测与三元组损失的场景识别与回环检测方法
CN112308867A (zh) * 2020-11-10 2021-02-02 上海商汤智能科技有限公司 牙齿图像的处理方法及装置、电子设备和存储介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170161901A1 (en) * 2015-12-08 2017-06-08 Mitsubishi Electric Research Laboratories, Inc. System and Method for Hybrid Simultaneous Localization and Mapping of 2D and 3D Data Acquired by Sensors from a 3D Scene
WO2017220815A1 (en) * 2016-06-24 2017-12-28 Robert Bosch Gmbh Rgb-d camera based tracking system and method thereof
CN108108764A (zh) * 2017-12-26 2018-06-01 东南大学 一种基于随机森林的视觉slam回环检测方法
CN109272021A (zh) * 2018-08-22 2019-01-25 广东工业大学 一种基于宽度学习的智能移动机器人导航方法
US20190057507A1 (en) * 2017-08-18 2019-02-21 Samsung Electronics Co., Ltd. System and method for semantic segmentation of images
CN109816686A (zh) * 2019-01-15 2019-05-28 山东大学 基于物体实例匹配的机器人语义slam方法、处理器及机器人

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170161901A1 (en) * 2015-12-08 2017-06-08 Mitsubishi Electric Research Laboratories, Inc. System and Method for Hybrid Simultaneous Localization and Mapping of 2D and 3D Data Acquired by Sensors from a 3D Scene
WO2017220815A1 (en) * 2016-06-24 2017-12-28 Robert Bosch Gmbh Rgb-d camera based tracking system and method thereof
US20190057507A1 (en) * 2017-08-18 2019-02-21 Samsung Electronics Co., Ltd. System and method for semantic segmentation of images
CN108108764A (zh) * 2017-12-26 2018-06-01 东南大学 一种基于随机森林的视觉slam回环检测方法
CN109272021A (zh) * 2018-08-22 2019-01-25 广东工业大学 一种基于宽度学习的智能移动机器人导航方法
CN109816686A (zh) * 2019-01-15 2019-05-28 山东大学 基于物体实例匹配的机器人语义slam方法、处理器及机器人

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
王召东等: "一种动态场景下语义分割优化的ORB_SLAM2", 《大连海事大学学报》 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111179377A (zh) * 2019-12-31 2020-05-19 深圳市优必选科技股份有限公司 机器人建图方法、相应的机器人及存储介质
CN111241943A (zh) * 2019-12-31 2020-06-05 浙江大学 自动驾驶场景下基于背景目标检测与三元组损失的场景识别与回环检测方法
CN111241943B (zh) * 2019-12-31 2022-06-21 浙江大学 基于背景目标与三元组损失的场景识别与回环检测方法
CN111179377B (zh) * 2019-12-31 2024-04-26 深圳市优必选科技股份有限公司 机器人建图方法、相应的机器人及存储介质
CN112308867A (zh) * 2020-11-10 2021-02-02 上海商汤智能科技有限公司 牙齿图像的处理方法及装置、电子设备和存储介质

Also Published As

Publication number Publication date
CN110516527B (zh) 2023-05-23

Similar Documents

Publication Publication Date Title
CN111798475B (zh) 一种基于点云深度学习的室内环境3d语义地图构建方法
Han et al. Dynamic scene semantics SLAM based on semantic segmentation
CN107392964B (zh) 基于室内特征点和结构线结合的室内slam方法
CN110688905B (zh) 一种基于关键帧的三维物体检测与跟踪方法
CN109934862A (zh) 一种点线特征结合的双目视觉slam方法
CN108830171B (zh) 一种基于深度学习的智能物流仓库引导线视觉检测方法
CN109241982A (zh) 基于深浅层卷积神经网络的目标检测方法
CN114565900A (zh) 基于改进YOLOv5和双目立体视觉的目标检测方法
CN112784736B (zh) 一种多模态特征融合的人物交互行为识别方法
CN111640136B (zh) 一种复杂环境中的深度目标跟踪方法
CN114424250A (zh) 结构建模
CN113506318B (zh) 一种车载边缘场景下的三维目标感知方法
CN113516664A (zh) 一种基于语义分割动态点的视觉slam方法
CN110516527A (zh) 一种基于实例分割的视觉slam回环检测改进方法
CN112434723B (zh) 一种基于注意力网络的日/夜间图像分类及物体检测方法
CN112446882A (zh) 一种动态场景下基于深度学习的鲁棒视觉slam方法
CN112396655B (zh) 一种基于点云数据的船舶目标6d位姿估计方法
CN112766136A (zh) 一种基于深度学习的空间车位检测方法
CN117274515A (zh) 基于ORB和NeRF映射的视觉SLAM方法及系统
Li et al. Ddn-slam: Real-time dense dynamic neural implicit slam with joint semantic encoding
Min et al. Coeb-slam: A robust vslam in dynamic environments combined object detection, epipolar geometry constraint, and blur filtering
CN116797789A (zh) 一种基于注意力架构的场景语义分割方法
Zhao et al. A review of visual SLAM for dynamic objects
CN115719363A (zh) 可进行二维动态检测和三维重建的环境感知方法与系统
CN116912670A (zh) 基于改进yolo模型的深海鱼类识别方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant