CN111368759A - 基于单目视觉的移动机器人语义地图构建系统 - Google Patents

基于单目视觉的移动机器人语义地图构建系统 Download PDF

Info

Publication number
CN111368759A
CN111368759A CN202010156120.6A CN202010156120A CN111368759A CN 111368759 A CN111368759 A CN 111368759A CN 202010156120 A CN202010156120 A CN 202010156120A CN 111368759 A CN111368759 A CN 111368759A
Authority
CN
China
Prior art keywords
map
mobile robot
image
semantic
key frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010156120.6A
Other languages
English (en)
Other versions
CN111368759B (zh
Inventor
范新南
顾亚飞
倪建军
史朋飞
罗成名
田斌
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hohai University HHU
Original Assignee
Hohai University HHU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hohai University HHU filed Critical Hohai University HHU
Priority to CN202010156120.6A priority Critical patent/CN111368759B/zh
Publication of CN111368759A publication Critical patent/CN111368759A/zh
Application granted granted Critical
Publication of CN111368759B publication Critical patent/CN111368759B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/005Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 with correlation of navigation data from several sources, e.g. map or contour matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Evolutionary Computation (AREA)
  • Computational Linguistics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Software Systems (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Molecular Biology (AREA)
  • Multimedia (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • Automation & Control Theory (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Image Analysis (AREA)

Abstract

本发明采用基于单目视觉的移动机器人语义地图构建系统,其步骤包括:机器人视为一个智能体,单目视觉传感器,计算机,进行图像采集与环境地图构建工作;在构建环境语义地图之前,机器人先利用在线筛选策略来获取可靠的图像数据集,并将该数据集作为50层残差网络模型的输入进行训练,得到场景的分类模型;移动机器人利用改进的ORB_SLAM系统进行环境地图的构建,并得到由关键帧图像组成的环境映射地图;利用场景分类模型将关键帧图像进行分类,获得带有语义标签的关键帧图像,最终生成环境语义地图;移动机器人可以实现语义地图保存、加载功能以及自身重定位功能,大大提高了工作效率。

Description

基于单目视觉的移动机器人语义地图构建系统
技术领域
本发明属于机器人的定位与建图领域,是机器人技术与深度学习方法相结合的应用。
背景技术
对于移动机器人而言,在面对未知环境时,需要使用自身所配备的传感装置来感知周围环境,通过移动来构建环境映射地图并明确自己在地图中的位置。因此,实现机器人自身定位并同时建立环境地图是研究机器人的关键技术之一。机器人SLAM技术的基本原理是移动机器人对自身所处的位置环境进行感知,建立一个连续的环境映射地图,并在地图完成自身的精确定位。
然而,传统的SLAM方法构建的地图仅适用与机器人自身的定位和导航,而人类却不能理解地图的含义,针对这一不足,语义地图的构建有效解决了这个问题。语义地图不仅提供了环境空间映射,帮助机器人完成自身定位和导航,而且提供了环境语义信息,便于人类理解机器人所构建的地图,有效解决了人机交互障碍的问题。因此,实现环境语义地图的构建对机器人技术的发展、友好的人机互动以及各种复杂任务的顺利完成具有重要的意义。
发明内容
本发明提供了一种系统复杂度低、实时性好以及准确度较高的基于单目视觉的移动机器人语义地图构建系统。
本发明实现上述发明目的的技术方案是:基于单目视觉的移动机器人语义地图构建系统,其创新点在于:包括如下步骤:
(1)、移动机器人语义地图构建系统中,移动机器人视为一个智能体,配备有视觉传感器,计算机,进行环境语义地图的构建工作;
(2)、移动机器人在构建环境语义地图时,先需要对场景图像进行采集和处理,利用图像在线筛选策略来获取可靠的数据集;
(3)、移动机器人采用一种改进的ORB_SLAM方法,在提取ORB特征时采用一种自适应角点检测方法,同时在关键帧筛选过程中,利用一种基于机器人旋转度的关键帧插入方法,最终建立出用于描述环境的映射地图;
(4)、移动机器人采用深度学习方法对不同场景的图像进行分类训练,并用训练好的模型对环境映射地图中的关键帧图像作分类识别,从而为映射地图添加语义标签;
(5)、移动机器人在完成语义地图构建之后,需要保存语义地图,并实现地图加载与重定位功能。
上述步骤(2)中采用图片在线筛选策略来降低噪声干扰,具体方法如下:
(2a)、移动机器人以固定的时间间隔在各个场景中进行图片采集,首先初始化选取n张静态场景作为参考图片存入数据集img中;
(2b)、移动机器人继续移动并采集图像,对于当前所拍摄的图像imgc,依次计算图像imgc与数据集中的图像imgi之间的相似性S,取相似性指数最高值与阈值进行比较,若大于阈值则存放至数据集中,以此方法直至数据集采集完毕;
图像相似性S计算方法如下:
S(imgc,imgi)=max(SSIM(imgc,imgi)),i=1,2,...,N
Figure BDA0002404103180000021
其中,N为场景数据集中已有图片的数量;x为imgc,y为imgi;μx,σx分别为当前图像x的像素平均值与方差;μy,σy为图像y的像素均值和方差;σxy为两图像的协方差;c1,c2为常系数。
上述步骤(3)中改进的ORB_SLAM算法如下:
(3a)、移动机器人利用摄像头提取场景的ORB特征,采用一种基于图像对比度的自适应阈值选取方法,使得算法在特征点提取过程中,能够根据实际场景对比度的不同,对阈值t进行自适应调整,具体公式如下:
Figure BDA0002404103180000022
其中,α为比例系数;I(xi)为图像各个像素点的灰度值;I(x)为图像的灰度均值;
(3b)、选取两帧图像并计算两者之间的相对位置,来对地图进行初始化,若成功追踪到上一帧的图像,则计算出机器人当前位置;反之,需要利用索引技术在构建的词袋模型数据库中对当前帧进行匹配,找到最相似的场景图像并进行优化;
(3c)、采用基于机器人旋转度的关键帧插入方法,来确保机器人在转弯处进行旋转移动时不会丢失跟踪;使用一个四元素来表示机器人在三维空间中的旋转;假设物体绕单位向量n=[nx,ny,nz]T旋转了θ角度,则四元素的基本数学方程可表示为:
Figure BDA0002404103180000031
机器人的转弯过程能够视为绕z轴进行旋转,利用四元素向量求出旋转角度θ,并计算出相邻两帧图像的旋转角度差的绝对值Δθ,用来表示机器人旋转度;定义任意两帧图像i、j之间的旋转度为中间所有相邻两帧图像的旋转度之和,表示为:
Figure BDA0002404103180000032
(3d)、将满足判定机制的图像帧插入到关键帧序列中,并对关键帧中的点云进行预处理来建立匹配关系,然后剔除不满足条件的部分地图云点来建立新的地图云点,再对前面所有的变量进行局部BA优化并删除部分无效观测点,最后将冗余的关键帧删除,避免产生过多的关键帧;
(3e)、当地图中存在的关键帧数量大于10帧或从上次闭环检测之后经过多于10帧图像时,系统需要作一个闭环回路检测,将局部地图中优化后的关键帧与之前的关键帧作相似判断,判断相机当前运动是否存在闭合回路;若存在闭合回路,需要对回路进行修正,将地图中重复的云点进行融合,并向共视图里插入与回环相关联的新边缘;为了能够有效地实现闭环回路,选择在本质图上进行优化,使得回环过程中的累积误差分散至位姿图中;使用相似转换矩阵进行优化,纠正尺度偏差,最后地图云点根据相应的关键帧来更新其三维信息。
上述步骤(4)中利用深度学习方法为环境映射地图添加语义标签的方法如下:
(4a)、采用深度学习方法中的ResNet残差网络,并采用50层的网络结构模型对步骤(2)中所采集的各个场景图像进行训练,得到最终的场景分类模型;
(4b)、在步骤(3)中所构建的环境映射地图是由多张关键帧图像组成,每个关键帧包含了相机位姿Tiw,相机内部参数M和关键帧中所有ORB特征V,将这些关键帧作为步骤(4a)中分类模型的输入,得到每个关键帧的类别信息k及所属类别的活性值Α,得到的语义关键帧表示为:
kFrame={Tiw,M,V,k,Α}
(4c)、由于场景的分类结果存在着一定误差,为了降低语义地图的错误率,采用关键帧活性值连续性判定机制,将活性值低于某一阈值的当前关键帧,找出当前关键帧之前连续30帧图像中个数最多的类别,并将该类别赋予当前关键帧。
上述步骤(5)中方便移动机器人在相同的环境下进行二次任务是指:当移动机器人下一次在相同环境下执行其它任务时,无需再重复构建环境地图,能够直接利用保存好的语义地图。此外,地图加载与重定位功能可以帮助机器人确定自身所处位置,增强人机交互体验,大大提高了工作效率。
与现有技术相比,本发明具有如下优点:
(1)、本发明只利用视觉传感器作为系统的输入,无需任何人工路标辅助以及其它设备;
(2)、本发明以系统复杂度低以及实时性较好的ORB_SLAM系统为基础,并对其存在不足加以改进,在保证了该系统优点的同时,又提高了系统的稳定性和所构建地图的准确性;
(3)、本发明将传统的SLAM系统与深度学习技术相结合,实现了环境语义地图的构建,有助于人机交互,从而解决各种复杂任务;
(4)、本发明将机器人构建的环境语义地图进行保存,当机器人在相同环境下再次进行任务时,可以直接加载语义地图并实现自身在地图中的定位,大大提高机器人的工作效率;
附图说明
图1为本发明中特征点提取方法改进前后的结果对比图;
图2为本发明中基于机器人旋转度的关键帧插入法流程图;
图3为本发明中ResNet残差网络模型中的残差模块单元结构图;
图4为本发明中基于深度学习的语义地图构建方法结构图。
具体实施方式
以下结合附图对本发明作进一步详细说明。
本发明基于单目视觉的移动机器人语义地图构建系统,其流程图如附图4所示,具体包括如下步骤:
(1)、首先,移动机器人需要对场景图像进行采集和处理,利用图像在线筛选策略来获取可靠的图像数据集;
(2)、系统将步骤(1)中的数据集作为50层残差网络模型的输入,通过训练得到场景分类模型;
(3)、移动机器人利用改进的ORB_SLAM系统进行环境地图的构建,并得到由关键帧图像组成的环境映射地图;
(4)、将步骤(3)中的关键帧图像作为步骤(2)中场景分类模型的输入,得到具有语义标签的关键帧图像;
(5)、系统利用步骤(4)中带有语义标签的关键帧图像,最终生成环境语义地图,同时实现语义地图的加载与重定位功能。
上述步骤(2)中采用图片在线筛选策略来降低噪声干扰,具体方法如下:
(2a)、移动机器人以固定的时间间隔在各个场景中进行图片采集,首先初始化选取n张静态场景作为参考图片存入数据集img中;
(2b)、移动机器人继续移动并采集图像,对于当前所拍摄的图像imgc,依次计算图像imgc与数据集中的图像imgi之间的相似性S,取相似性指数最高值与阈值进行比较,若大于阈值则存放至数据集中,以此方法直至数据集采集完毕;
图像相似性S计算方法如下:
S(imgc,imgi)=max(SSIM(imgc,imgi)),i=1,2,...,N
Figure BDA0002404103180000051
其中,N为场景数据集中已有图片的数量;x为imgc,y为imgi;μx,σx分别为当前图像x的像素平均值与方差;μy,σy为图像y的像素均值和方差;σxy为两图像的协方差;c1,c2为常系数。
上述步骤(3)中改进的ORB_SLAM算法如下:
(3a)、移动机器人利用摄像头提取场景的ORB特征,采用一种基于图像对比度的自适应阈值选取方法,使得算法在特征点提取过程中,能够根据实际场景对比度的不同,对阈值t进行自适应调整,具体公式如下:
Figure BDA0002404103180000061
其中,α为比例系数;I(xi)为图像各个像素点的灰度值;I(x)为图像的灰度均值;
(3b)、选取两帧图像并计算两者之间的相对位置,来对地图进行初始化,若成功追踪到上一帧的图像,则计算出机器人当前位置;反之,需要利用索引技术在构建的词袋模型数据库中对当前帧进行匹配,找到最相似的场景图像并进行优化;
(3c)、采用基于机器人旋转度的关键帧插入方法,来确保机器人在转弯处进行旋转移动时不会丢失跟踪;使用一个四元素来表示机器人在三维空间中的旋转;假设物体绕单位向量n=[nx,ny,nz]T旋转了θ角度,则四元素的基本数学方程可表示为:
Figure BDA0002404103180000062
机器人的转弯过程能够视为绕z轴进行旋转,利用四元素向量求出旋转角度θ,并计算出相邻两帧图像的旋转角度差的绝对值Δθ,用来表示机器人旋转度;定义任意两帧图像i、j之间的旋转度为中间所有相邻两帧图像的旋转度之和,表示为:
Figure BDA0002404103180000063
(3d)、将满足判定机制的图像帧插入到关键帧序列中,并对关键帧中的点云进行预处理来建立匹配关系,然后剔除不满足条件的部分地图云点来建立新的地图云点,再对前面所有的变量进行局部BA优化并删除部分无效观测点,最后将冗余的关键帧删除,避免产生过多的关键帧;
(3e)、当地图中存在的关键帧数量大于10帧或从上次闭环检测之后经过多于10帧图像时,系统需要作一个闭环回路检测,将局部地图中优化后的关键帧与之前的关键帧作相似判断,判断相机当前运动是否存在闭合回路;若存在闭合回路,需要对回路进行修正,将地图中重复的云点进行融合,并向共视图里插入与回环相关联的新边缘;为了能够有效地实现闭环回路,选择在本质图上进行优化,使得回环过程中的累积误差分散至位姿图中;使用相似转换矩阵进行优化,纠正尺度偏差,最后地图云点根据相应的关键帧来更新其三维信息。
上述步骤(4)中利用深度学习方法为环境映射地图添加语义标签的方法如下:
(4a)、采用深度学习方法中的ResNet残差网络,并采用50层的网络结构模型对步骤(2)中所采集的各个场景图像进行训练,得到最终的场景分类模型;
(4b)、在步骤(3)中所构建的环境映射地图是由多张关键帧图像组成,每个关键帧包含了相机位姿Tiw,相机内部参数M和关键帧中所有ORB特征V,将这些关键帧作为步骤(4a)中分类模型的输入,得到每个关键帧的类别信息k及所属类别的活性值Α,得到的语义关键帧表示为:
kFrame={Tiw,M,V,k,Α}
(4c)、由于场景的分类结果存在着一定误差,为了降低语义地图的错误率,采用关键帧活性值连续性判定机制,将活性值低于某一阈值的当前关键帧,找出当前关键帧之前连续30帧图像中个数最多的类别,并将该类别赋予当前关键帧。
上述步骤(5)中方便移动机器人在相同的环境下进行二次任务是指:当移动机器人下一次在相同环境下执行其它任务时,无需再重复构建环境地图,能够直接利用保存好的语义地图。此外,地图加载与重定位功能可以帮助机器人确定自身所处位置,增强人机交互体验,大大提高了工作效率。
附图1给出了改进前后的图像特征点提取方法的结果对比表图,在相同的环境条件下,改进方法所提取的特征点数量明显多于传统的算法。
附图2给出了基于机器人旋转度的关键帧插入法流程图,当移动机器人旋转到一定的程度时,为了增强转弯时机器人跟踪的稳定性,需要尽快插入关键帧以确保跟踪不会丢失,即在距离上一次关键帧的插入不足20帧图像的情况下,只要相机当前帧图像与上一关键帧之间的旋转度大于设定阈值,则向地图中插入关键帧。考虑到相机旋转过程中,两帧图像间匹配跟踪的难度相对较大,所以当满足旋转度条件之后只要求当前帧能够跟踪到25个以上的地图云点。
附图3给出了ResNet残差网络的模块单元结构,将1*1、3*3和1*1这样三个卷积核串接起来。对于50层的残差网络模型,采用这种结构不仅保证了算法精度,还能够大大减少计算和参数数量。
本发明只利用单目视觉传感器作为系统输入,无需事先设置任何人工路标及其它传感设备;本发明在线筛选策略来获取可靠的图像数据集;本发明采用50层的残差网络模型进行数据训练,最后得到场景分类模型;本发明采用改进的ORB_SLAM系统进行环境地图的构建,得到环境映射地图;本发明实现了语义地图的加载与重定位功能,大大提高了移动机器人的工作效率。

Claims (5)

1.基于单目视觉的移动机器人语义地图构建系统,包括如下步骤:
(1)、移动机器人语义地图构建系统中,移动机器人视为一个智能体,配备有摄像头,计算机设备;
(2)、移动机器人在构建环境语义地图时,先需要对场景图像进行采集和处理,利用图像在线筛选策略来获取可靠的数据集;
(3)、移动机器人采用改进的ORB_SLAM方法,建立出环境的映射地图;
(4)、移动机器人采用深度学习方法对不同场景的图像进行分类训练,并用深度学习训练模型,对环境映射地图中的关键帧图像作分类识别,从而为映射地图添加语义标签;
(5)、移动机器人在完成语义地图构建之后,保存语义地图,并实现地图加载与重定位功能,方便移动机器人在相同的环境下进行二次任务。
2.根据权利要求1所描述的基于单目视觉的移动机器人语义地图构建系统,其特征在于:所述步骤(2)中采用图片在线筛选策略来降低噪声干扰,具体方法如下:
(2a)、移动机器人以固定的时间间隔在各个场景中进行图片采集,首先初始化选取n张静态场景作为参考图片存入数据集img中;
(2b)、移动机器人继续移动并采集图像,对于当前所拍摄的图像imgc,依次计算图像imgc与数据集中的图像imgi之间的相似性S,取相似性指数最高值与阈值进行比较,若大于阈值则存放至数据集中,以此方法直至数据集采集完毕;图像相似性S计算方法如下:
S(imgc,imgi)=max(SSIM(imgc,imgi)),i=1,2,...,N
Figure FDA0002404103170000011
其中,N为场景数据集中已有图片的数量;x为imgc,y为imgi;μx,σx分别为当前图像x的像素平均值与方差;μy,σy为图像y的像素均值和方差;σxy为两图像的协方差;c1,c2为常系数。
3.根据权利要求1所描述的基于单目视觉的移动机器人语义地图构建系统,其特征在于:所述步骤(3)中改进的ORB_SLAM算法如下:
(3a)、移动机器人利用摄像头提取场景的ORB特征,采用一种基于图像对比度的自适应阈值选取方法,使得算法在特征点提取过程中,能够根据实际场景对比度的不同,对阈值t进行自适应调整,具体公式如下:
Figure FDA0002404103170000021
其中,α为比例系数;I(xi)为图像各个像素点的灰度值;
Figure FDA0002404103170000022
为图像的灰度均值;
(3b)、选取两帧图像并计算两者之间的相对位置,来对地图进行初始化,若成功追踪到上一帧的图像,则计算出机器人当前位置;反之,需要利用索引技术在构建的词袋模型数据库中对当前帧进行匹配,找到最相似的场景图像并进行优化;
(3c)、采用基于机器人旋转度的关键帧插入方法,来确保机器人在转弯处进行旋转移动时不会丢失跟踪;使用一个四元素来表示机器人在三维空间中的旋转;假设物体绕单位向量n=[nx,ny,nz]T旋转了θ角度,则四元素的基本数学方程可表示为:
Figure FDA0002404103170000023
机器人的转弯过程能够视为绕z轴进行旋转,利用四元素向量求出旋转角度θ,并计算出相邻两帧图像的旋转角度差的绝对值Δθ,用来表示机器人旋转度;定义任意两帧图像i、j之间的旋转度为中间所有相邻两帧图像的旋转度之和,表示为:
Figure FDA0002404103170000024
(3d)、将满足判定机制的图像帧插入到关键帧序列中,并对关键帧中的点云进行预处理来建立匹配关系,然后剔除不满足条件的部分地图云点来建立新的地图云点,再对前面所有的变量进行局部BA优化并删除部分无效观测点,最后将冗余的关键帧删除,避免产生过多的关键帧;
(3e)、当地图中存在的关键帧数量大于10帧或从上次闭环检测之后经过多于10帧图像时,系统需要作一个闭环回路检测,将局部地图中优化后的关键帧与之前的关键帧作相似判断,判断相机当前运动是否存在闭合回路;若存在闭合回路,需要对回路进行修正,将地图中重复的云点进行融合,并向共视图里插入与回环相关联的新边缘;为了能够有效地实现闭环回路,选择在本质图上进行优化,使得回环过程中的累积误差分散至位姿图中;使用相似转换矩阵进行优化,纠正尺度偏差,最后地图云点根据相应的关键帧来更新其三维信息。
4.据权利要求1所描述的基于单目视觉的移动机器人语义地图构建系统,其特征在于:所述步骤(4)中利用深度学习方法为环境映射地图添加语义标签的方法如下:
(4a)、采用深度学习方法中的ResNet残差网络,并采用50层的网络结构模型对步骤(2)中所采集的各个场景图像进行训练,得到最终的场景分类模型;
(4b)、在步骤(3)中所构建的环境映射地图是由多张关键帧图像组成,每个关键帧包含了相机位姿Tiw,相机内部参数M和关键帧中所有ORB特征V,将这些关键帧作为步骤(4a)中分类模型的输入,得到每个关键帧的类别信息k及所属类别的活性值Α,得到的语义关键帧表示为:
kFrame={Tiw,M,V,k,Α}
(4c)、由于场景的分类结果存在着一定误差,为了降低语义地图的错误率,采用关键帧活性值连续性判定机制,将活性值低于某一阈值的当前关键帧,找出当前关键帧之前连续30帧图像中个数最多的类别,并将该类别赋予当前关键帧。
5.据权利要求1所描述的基于单目视觉的移动机器人语义地图构建系统,其特征在于:所述步骤(5)中方便移动机器人在相同的环境下进行二次任务是指:当移动机器人下一次在相同环境下执行其它任务时,无需再重复构建环境地图,能够直接利用保存好的语义地图。
CN202010156120.6A 2020-03-09 2020-03-09 基于单目视觉的移动机器人语义地图构建系统 Active CN111368759B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010156120.6A CN111368759B (zh) 2020-03-09 2020-03-09 基于单目视觉的移动机器人语义地图构建系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010156120.6A CN111368759B (zh) 2020-03-09 2020-03-09 基于单目视觉的移动机器人语义地图构建系统

Publications (2)

Publication Number Publication Date
CN111368759A true CN111368759A (zh) 2020-07-03
CN111368759B CN111368759B (zh) 2022-08-30

Family

ID=71210485

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010156120.6A Active CN111368759B (zh) 2020-03-09 2020-03-09 基于单目视觉的移动机器人语义地图构建系统

Country Status (1)

Country Link
CN (1) CN111368759B (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111860651A (zh) * 2020-07-22 2020-10-30 河海大学常州校区 一种基于单目视觉的移动机器人半稠密地图构建方法
CN112991436A (zh) * 2021-03-25 2021-06-18 中国科学技术大学 基于物体尺寸先验信息的单目视觉slam方法
CN113673484A (zh) * 2021-09-09 2021-11-19 上海融进电子商务有限公司 一种无人驾驶场景中的路况识别与决策的方法
CN114708392A (zh) * 2022-03-22 2022-07-05 重庆大学 一种基于闭环轨迹的八叉树地图构建方法
WO2022193193A1 (zh) * 2021-03-17 2022-09-22 深圳市大疆创新科技有限公司 数据处理方法和设备
WO2023124948A1 (zh) * 2021-12-31 2023-07-06 华为技术有限公司 一种三维地图的创建方法及电子设备

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108596974A (zh) * 2018-04-04 2018-09-28 清华大学 动态场景机器人定位建图系统及方法
CN109165680A (zh) * 2018-08-01 2019-01-08 东南大学 基于视觉slam的室内场景下单一目标物体字典模型改进方法
CN110322511A (zh) * 2019-06-28 2019-10-11 华中科技大学 一种基于物体和平面特征的语义slam方法和系统
CN110335319A (zh) * 2019-06-26 2019-10-15 华中科技大学 一种语义驱动的相机定位与地图重建方法和系统

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108596974A (zh) * 2018-04-04 2018-09-28 清华大学 动态场景机器人定位建图系统及方法
CN109165680A (zh) * 2018-08-01 2019-01-08 东南大学 基于视觉slam的室内场景下单一目标物体字典模型改进方法
CN110335319A (zh) * 2019-06-26 2019-10-15 华中科技大学 一种语义驱动的相机定位与地图重建方法和系统
CN110322511A (zh) * 2019-06-28 2019-10-11 华中科技大学 一种基于物体和平面特征的语义slam方法和系统

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111860651A (zh) * 2020-07-22 2020-10-30 河海大学常州校区 一种基于单目视觉的移动机器人半稠密地图构建方法
CN111860651B (zh) * 2020-07-22 2022-09-13 河海大学常州校区 一种基于单目视觉的移动机器人半稠密地图构建方法
WO2022193193A1 (zh) * 2021-03-17 2022-09-22 深圳市大疆创新科技有限公司 数据处理方法和设备
CN112991436A (zh) * 2021-03-25 2021-06-18 中国科学技术大学 基于物体尺寸先验信息的单目视觉slam方法
CN112991436B (zh) * 2021-03-25 2022-09-06 中国科学技术大学 基于物体尺寸先验信息的单目视觉slam方法
CN113673484A (zh) * 2021-09-09 2021-11-19 上海融进电子商务有限公司 一种无人驾驶场景中的路况识别与决策的方法
WO2023124948A1 (zh) * 2021-12-31 2023-07-06 华为技术有限公司 一种三维地图的创建方法及电子设备
CN114708392A (zh) * 2022-03-22 2022-07-05 重庆大学 一种基于闭环轨迹的八叉树地图构建方法
CN114708392B (zh) * 2022-03-22 2024-05-14 重庆大学 一种基于闭环轨迹的八叉树地图构建方法

Also Published As

Publication number Publication date
CN111368759B (zh) 2022-08-30

Similar Documents

Publication Publication Date Title
CN111368759B (zh) 基于单目视觉的移动机器人语义地图构建系统
CN110097639B (zh) 一种三维人体姿态估计方法
Fang et al. Visual SLAM for robot navigation in healthcare facility
CN105069413B (zh) 一种基于深度卷积神经网络的人体姿势识别方法
CN103295242B (zh) 一种多特征联合稀疏表示的目标跟踪方法
CN107680133A (zh) 一种基于改进闭环检测算法的移动机器人视觉slam方法
CN111931764B (zh) 一种目标检测方法、目标检测框架及相关设备
CN111462207A (zh) 一种融合直接法与特征法的rgb-d同时定位与地图创建方法
CN112258580B (zh) 基于深度学习的视觉slam回环检测方法
CN110363816A (zh) 一种基于深度学习的移动机器人环境语义建图方法
CN110766746B (zh) 一种基于联合2d-3d神经网络的3d驾驶员姿态估计方法
US12277717B2 (en) Object detection method and system, and non-transitory computer-readable medium
CN114937083B (zh) 一种应用于动态环境的激光slam系统及方法
CN109048918B (zh) 一种轮椅机械臂机器人的视觉引导方法
CN111462210A (zh) 一种基于极线约束的单目线特征地图构建方法
CN111860651B (zh) 一种基于单目视觉的移动机器人半稠密地图构建方法
CN110363817A (zh) 目标位姿估计方法、电子设备和介质
CN112750198A (zh) 一种基于非刚性点云的稠密对应预测方法
CN111376273A (zh) 一种类脑启发的机器人认知地图构建方法
CN106548194B (zh) 二维图像人体关节点定位模型的构建方法及定位方法
CN112686952A (zh) 一种图像光流计算系统、方法及应用
CN110490933A (zh) 基于单点ransac的非线性状态空间中心差分滤波器方法
CN114387513A (zh) 机器人抓取方法、装置、电子设备及存储介质
CN116935486A (zh) 基于骨骼关节点和图像模态融合的手语识别方法及系统
Kang et al. Yolo-6d+: single shot 6d pose estimation using privileged silhouette information

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant