CN111368759B - 基于单目视觉的移动机器人语义地图构建系统 - Google Patents

基于单目视觉的移动机器人语义地图构建系统 Download PDF

Info

Publication number
CN111368759B
CN111368759B CN202010156120.6A CN202010156120A CN111368759B CN 111368759 B CN111368759 B CN 111368759B CN 202010156120 A CN202010156120 A CN 202010156120A CN 111368759 B CN111368759 B CN 111368759B
Authority
CN
China
Prior art keywords
map
mobile robot
image
semantic
robot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010156120.6A
Other languages
English (en)
Other versions
CN111368759A (zh
Inventor
范新南
顾亚飞
倪建军
史朋飞
罗成名
田斌
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Changzhou Campus of Hohai University
Original Assignee
Changzhou Campus of Hohai University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Changzhou Campus of Hohai University filed Critical Changzhou Campus of Hohai University
Priority to CN202010156120.6A priority Critical patent/CN111368759B/zh
Publication of CN111368759A publication Critical patent/CN111368759A/zh
Application granted granted Critical
Publication of CN111368759B publication Critical patent/CN111368759B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/005Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 with correlation of navigation data from several sources, e.g. map or contour matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Evolutionary Computation (AREA)
  • Computational Linguistics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Software Systems (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • Automation & Control Theory (AREA)
  • Multimedia (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Image Analysis (AREA)

Abstract

本发明采用基于单目视觉的移动机器人语义地图构建系统,其步骤包括:机器人视为一个智能体,单目视觉传感器,计算机,进行图像采集与环境地图构建工作;在构建环境语义地图之前,机器人先利用在线筛选策略来获取可靠的图像数据集,并将该数据集作为50层残差网络模型的输入进行训练,得到场景的分类模型;移动机器人利用改进的ORB_SLAM系统进行环境地图的构建,并得到由关键帧图像组成的环境映射地图;利用场景分类模型将关键帧图像进行分类,获得带有语义标签的关键帧图像,最终生成环境语义地图;移动机器人可以实现语义地图保存、加载功能以及自身重定位功能,大大提高了工作效率。

Description

基于单目视觉的移动机器人语义地图构建系统
技术领域
本发明属于机器人的定位与建图领域,是机器人技术与深度学习方法相结合的应用。
背景技术
对于移动机器人而言,在面对未知环境时,需要使用自身所配备的传感装置来感知周围环境,通过移动来构建环境映射地图并明确自己在地图中的位置。因此,实现机器人自身定位并同时建立环境地图是研究机器人的关键技术之一。机器人SLAM技术的基本原理是移动机器人对自身所处的位置环境进行感知,建立一个连续的环境映射地图,并在地图完成自身的精确定位。
然而,传统的SLAM方法构建的地图仅适用于机器人自身的定位和导航,而人类却不能理解地图的含义,针对这一不足,语义地图的构建有效解决了这个问题。语义地图不仅提供了环境空间映射,帮助机器人完成自身定位和导航,而且提供了环境语义信息,便于人类理解机器人所构建的地图,有效解决了人机交互障碍的问题。因此,实现环境语义地图的构建对机器人技术的发展、友好的人机互动以及各种复杂任务的顺利完成具有重要的意义。
发明内容
本发明提供了一种系统复杂度低、实时性好以及准确度较高的基于单目视觉的移动机器人语义地图构建系统。
本发明实现上述发明目的的技术方案是:基于单目视觉的移动机器人语义地图构建系统,其创新点在于:包括如下步骤:
(1)、移动机器人语义地图构建系统中,移动机器人视为一个智能体,配备有视觉传感器,计算机,进行环境语义地图的构建工作;
(2)、移动机器人在构建环境语义地图时,先需要对场景图像进行采集和处理,利用图像在线筛选策略来获取可靠的数据集;
(3)、移动机器人采用一种改进的ORB_SLAM方法,在提取ORB特征时采用一种自适应角点检测方法,同时在关键帧筛选过程中,利用一种基于机器人旋转度的关键帧插入方法,最终建立出用于描述环境的映射地图;
(4)、移动机器人采用深度学习方法对不同场景的图像进行分类训练,并用训练好的模型对环境映射地图中的关键帧图像作分类识别,从而为映射地图添加语义标签;
(5)、移动机器人在完成语义地图构建之后,需要保存语义地图,并实现地图加载与重定位功能。
上述步骤(2)中采用图片在线筛选策略来降低噪声干扰,具体方法如下:
(2a)、移动机器人以固定的时间间隔在各个场景中进行图片采集,首先初始化选取n张静态场景作为参考图片存入数据集img中;
(2b)、移动机器人继续移动并采集图像,对于当前所拍摄的图像imgc,依次计算图像imgc与数据集中的图像imgi之间的相似性S,取相似性指数最高值与阈值进行比较,若大于阈值则存放至数据集中,以此方法直至数据集采集完毕;
图像相似性S计算方法如下:
S(imgc,imgi)=max(SSIM(imgc,imgi)),i=1,2,...,N
Figure GDA0003746143660000031
其中,N为场景数据集中已有图片的数量;x为imgc,y为imgi;μx,σx分别为当前图像x的像素平均值与方差;μy,σy为图像y的像素均值和方差;σxy为两图像的协方差;c1,c2为常系数。
上述步骤(3)中改进的ORB_SLAM算法如下:
(3a)、移动机器人利用摄像头提取场景的ORB特征,采用一种基于图像对比度的自适应阈值选取方法,使得算法在特征点提取过程中,能够根据实际场景对比度的不同,对阈值t进行自适应调整,具体公式如下:
Figure GDA0003746143660000032
其中,α为比例系数;I(xi)为图像各个像素点的灰度值;
Figure GDA0003746143660000033
为图像的灰度均值;
(3b)、选取两帧图像并计算两者之间的相对位置,来对地图进行初始化,若成功追踪到上一帧的图像,则计算出机器人当前位置;反之,需要利用索引技术在构建的词袋模型数据库中对当前帧进行匹配,找到最相似的场景图像并进行优化;
(3c)、采用基于机器人旋转度的关键帧插入方法,来确保机器人在转弯处进行旋转移动时不会丢失跟踪;使用一个四元素来表示机器人在三维空间中的旋转;假设物体绕单位向量n=[nx,ny,nz]T旋转了θ角度,则四元素的数学方程可表示为:
Figure GDA0003746143660000041
机器人的转弯过程能够视为绕z轴进行旋转,利用四元素向量求出旋转角度θ,并计算出相邻两帧图像的旋转角度差的绝对值Δθ,用来表示机器人旋转度;定义任意两帧图像i、j之间的旋转度为中间所有相邻两帧图像的旋转度之和,表示为:
Figure GDA0003746143660000042
(3d)、将满足判定机制的图像帧插入到关键帧序列中,并对关键帧中的点云进行预处理来建立匹配关系,然后剔除不满足条件的部分地图云点来建立新的地图云点,再对前面所有的变量进行局部BA优化并删除部分无效观测点,最后将冗余的关键帧删除,避免产生过多的关键帧;
(3e)、当地图中存在的关键帧数量大于10帧或从上次闭环检测之后经过多于10帧图像时,系统需要作一个闭环回路检测,将局部地图中优化后的关键帧与之前的关键帧作相似判断,判断相机当前运动是否存在闭合回路;若存在闭合回路,需要对回路进行修正,将地图中重复的云点进行融合,并向共视图里插入与回环相关联的新边缘;为了能够有效地实现闭环回路,选择在本质图上进行优化,使得回环过程中的累积误差分散至位姿图中;使用相似转换矩阵进行优化,纠正尺度偏差,最后地图云点根据相应的关键帧来更新其三维信息。
上述步骤(4)中利用深度学习方法为环境映射地图添加语义标签的方法如下:
(4a)、采用深度学习方法中的ResNet残差网络,并采用50层的网络结构模型对步骤(2)中所采集的各个场景图像进行训练,得到最终的场景分类模型;
(4b)、在步骤(3)中所构建的环境映射地图是由多张关键帧图像组成,每个关键帧包含了相机位姿Tiw,相机内部参数M和关键帧中所有ORB特征V,将这些关键帧作为步骤(4a)中分类模型的输入,得到每个关键帧的类别信息k及所属类别的活性值A,得到的语义关键帧表示为:
kFrame={Tiw,M,V,k,A}
(4c)、由于场景的分类结果存在着误差,为了降低语义地图的错误率,采用关键帧活性值连续性判定机制,将活性值低于某一阈值的当前关键帧,找出当前关键帧之前连续30帧图像中个数最多的类别,并将该类别赋予当前关键帧。
上述步骤(5)中方便移动机器人在相同的环境下进行二次任务是指:当移动机器人下一次在相同环境下执行其它任务时,无需再重复构建环境地图,能够直接利用保存好的语义地图。此外,地图加载与重定位功能可以帮助机器人确定自身所处位置,增强人机交互体验,大大提高了工作效率。
与现有技术相比,本发明具有如下优点:
(1)、本发明只利用视觉传感器作为系统的输入,无需任何人工路标辅助以及其它设备;
(2)、本发明以系统复杂度低以及实时性较好的ORB_SLAM系统为基础,并对其存在不足加以改进,在保证了该系统优点的同时,又提高了系统的稳定性和所构建地图的准确性;
(3)、本发明将传统的SLAM系统与深度学习技术相结合,实现了环境语义地图的构建,有助于人机交互,从而解决各种复杂任务;
(4)、本发明将机器人构建的环境语义地图进行保存,当机器人在相同环境下再次进行任务时,可以直接加载语义地图并实现自身在地图中的定位,大大提高机器人的工作效率;
附图说明
图1为本发明中特征点提取方法改进前后的结果对比图;
图2为本发明中基于机器人旋转度的关键帧插入法流程图;
图3为本发明中ResNet残差网络模型中的残差模块单元结构图;
图4为本发明中基于深度学习的语义地图构建方法结构图;
具体实施方式
以下结合附图对本发明作进一步详细说明。
本发明基于单目视觉的移动机器人语义地图构建系统,其流程图如附图4所示,具体包括如下步骤:
(1)、首先,移动机器人需要对场景图像进行采集和处理,利用图像在线筛选策略来获取可靠的图像数据集;
(2)、系统将步骤(1)中的数据集作为50层残差网络模型的输入,通过训练得到场景分类模型;
(3)、移动机器人利用改进的ORB_SLAM系统进行环境地图的构建,并得到由关键帧图像组成的环境映射地图;
(4)、将步骤(3)中的关键帧图像作为步骤(2)中场景分类模型的输入,得到具有语义标签的关键帧图像;
(5)、系统利用步骤(4)中带有语义标签的关键帧图像,最终生成环境语义地图,同时实现语义地图的加载与重定位功能。
上述步骤(2)中采用图片在线筛选策略来降低噪声干扰,具体方法如下:
(2a)、移动机器人以固定的时间间隔在各个场景中进行图片采集,首先初始化选取n张静态场景作为参考图片存入数据集img中;
(2b)、移动机器人继续移动并采集图像,对于当前所拍摄的图像imgc,依次计算图像imgc与数据集中的图像imgi之间的相似性S,取相似性指数最高值与阈值进行比较,若大于阈值则存放至数据集中,以此方法直至数据集采集完毕;
图像相似性S计算方法如下:
S(imgc,imgi)=max(SSIM(imgc,imgi)),i=1,2,...,N
Figure GDA0003746143660000071
其中,N为场景数据集中已有图片的数量;x为imgc,y为imgi;μx,σx分别为当前图像x的像素平均值与方差;μy,σy为图像y的像素均值和方差;σxy为两图像的协方差;c1,c2为常系数。
上述步骤(3)中改进的ORB_SLAM算法如下:
(3a)、移动机器人利用摄像头提取场景的ORB特征,采用一种基于图像对比度的自适应阈值选取方法,使得算法在特征点提取过程中,能够根据实际场景对比度的不同,对阈值t进行自适应调整,具体公式如下:
Figure GDA0003746143660000081
其中,α为比例系数;I(xi)为图像各个像素点的灰度值;
Figure GDA0003746143660000084
为图像的灰度均值;
(3b)、选取两帧图像并计算两者之间的相对位置,来对地图进行初始化,若成功追踪到上一帧的图像,则计算出机器人当前位置;反之,需要利用索引技术在构建的词袋模型数据库中对当前帧进行匹配,找到最相似的场景图像并进行优化;
(3c)、采用基于机器人旋转度的关键帧插入方法,来确保机器人在转弯处进行旋转移动时不会丢失跟踪;使用一个四元素来表示机器人在三维空间中的旋转;假设物体绕单位向量n=[nx,ny,nz]T旋转了θ角度,则四元素的数学方程可表示为:
Figure GDA0003746143660000082
机器人的转弯过程能够视为绕z轴进行旋转,利用四元素向量求出旋转角度θ,并计算出相邻两帧图像的旋转角度差的绝对值Δθ,用来表示机器人旋转度;定义任意两帧图像i、j之间的旋转度为中间所有相邻两帧图像的旋转度之和,表示为:
Figure GDA0003746143660000083
(3d)、将满足判定机制的图像帧插入到关键帧序列中,并对关键帧中的点云进行预处理来建立匹配关系,然后剔除不满足条件的部分地图云点来建立新的地图云点,再对前面所有的变量进行局部BA优化并删除部分无效观测点,最后将冗余的关键帧删除,避免产生过多的关键帧;
(3e)、当地图中存在的关键帧数量大于10帧或从上次闭环检测之后经过多于10帧图像时,系统需要作一个闭环回路检测,将局部地图中优化后的关键帧与之前的关键帧作相似判断,判断相机当前运动是否存在闭合回路;若存在闭合回路,需要对回路进行修正,将地图中重复的云点进行融合,并向共视图里插入与回环相关联的新边缘;为了能够有效地实现闭环回路,选择在本质图上进行优化,使得回环过程中的累积误差分散至位姿图中;使用相似转换矩阵进行优化,纠正尺度偏差,最后地图云点根据相应的关键帧来更新其三维信息。
上述步骤(4)中利用深度学习方法为环境映射地图添加语义标签的方法如下:
(4a)、采用深度学习方法中的ResNet残差网络,并采用50层的网络结构模型对步骤(2)中所采集的各个场景图像进行训练,得到最终的场景分类模型;
(4b)、在步骤(3)中所构建的环境映射地图是由多张关键帧图像组成,每个关键帧包含了相机位姿Tiw,相机内部参数M和关键帧中所有ORB特征V,将这些关键帧作为步骤(4a)中分类模型的输入,得到每个关键帧的类别信息k及所属类别的活性值A,得到的语义关键帧表示为:
kFrame={Tiw,M,V,k,A}
(4c)、由于场景的分类结果存在着误差,为了降低语义地图的错误率,采用关键帧活性值连续性判定机制,将活性值低于某一阈值的当前关键帧,找出当前关键帧之前连续30帧图像中个数最多的类别,并将该类别赋予当前关键帧。
上述步骤(5)中方便移动机器人在相同的环境下进行二次任务是指:当移动机器人下一次在相同环境下执行其它任务时,无需再重复构建环境地图,能够直接利用保存好的语义地图。此外,地图加载与重定位功能可以帮助机器人确定自身所处位置,增强人机交互体验,大大提高了工作效率。
附图1给出了改进前后的图像特征点提取方法的结果对比表图,在相同的环境条件下,改进方法所提取的特征点数量明显多于传统的算法。
附图2给出了基于机器人旋转度的关键帧插入法流程图,当移动机器人旋转到一定的程度时,为了增强转弯时机器人跟踪的稳定性,需要尽快插入关键帧以确保跟踪不会丢失,即在距离上一次关键帧的插入不足20帧图像的情况下,只要相机当前帧图像与上一关键帧之间的旋转度大于设定阈值,则向地图中插入关键帧。考虑到相机旋转过程中,两帧图像间匹配跟踪的难度相对较大,所以当满足旋转度条件之后只要求当前帧能够跟踪到25个以上的地图云点。
附图3给出了ResNet残差网络的模块单元结构,将1*1、3*3和1*1这样三个卷积核串接起来。对于50层的残差网络模型,采用这种结构不仅保证了算法精度,还能够大大减少计算和参数数量。
本发明只利用单目视觉传感器作为系统输入,无需事先设置任何人工路标及其它传感设备;本发明在线筛选策略来获取可靠的图像数据集;本发明采用50层的残差网络模型进行数据训练,最后得到场景分类模型;本发明采用改进的ORB_SLAM系统进行环境地图的构建,得到环境映射地图;本发明实现了语义地图的加载与重定位功能,大大提高了移动机器人的工作效率。

Claims (4)

1.基于单目视觉的移动机器人语义地图构建系统,包括如下步骤:
(1)、移动机器人语义地图构建系统中,移动机器人视为一个智能体,配备有摄像头,计算机设备;
(2)、移动机器人在构建环境语义地图时,先需要对场景图像进行采集和处理,利用图像在线筛选策略来获取可靠的数据集,具体方法如下:
(2a)、移动机器人以固定的时间间隔在各个场景中进行图片采集,首先初始化选取n张静态场景作为参考图片存入数据集img中;
(2b)、移动机器人继续移动并采集图像,对于当前所拍摄的图像imgc,依次计算图像imgc与数据集中的图像imgi之间的相似性S,取相似性指数最高值与阈值进行比较,若大于阈值则存放至数据集中,以此方法直至数据集采集完毕;
图像相似性S计算方法如下:
S(imgc,imgi)=max(SSIM(imgc,imgi)),i=1,2,...,N;
Figure FDA0003746143650000011
其中,N为场景数据集中已有图片的数量;x为imgc,y为imgi;μx,σx分别为当前图像x的像素平均值与方差;μy,σy为图像y的像素均值和方差;σxy为两图像的协方差;c1,c2为常系数;
(3)、移动机器人采用改进的ORB_SLAM方法,建立出环境的映射地图;
(4)、移动机器人采用深度学习方法对不同场景的图像进行分类训练,并用深度学习训练模型,对环境映射地图中的关键帧图像作分类识别,从而为映射地图添加语义标签;
(5)、移动机器人在完成语义地图构建之后,保存语义地图,并实现地图加载与重定位功能,方便移动机器人在相同的环境下进行二次任务。
2.根据权利要求1所描述的基于单目视觉的移动机器人语义地图构建系统,其特征在于:所述步骤(3)中改进的ORB_SLAM算法如下:
(3a)、移动机器人利用摄像头提取场景的ORB特征,采用一种基于图像对比度的自适应阈值选取方法,使得算法在特征点提取过程中,能够根据实际场景对比度的不同,对阈值t进行自适应调整,具体公式如下:
Figure FDA0003746143650000021
其中,α为比例系数;I(xi)为图像各个像素点的灰度值;
Figure FDA0003746143650000022
为图像的灰度均值;
(3b)、选取两帧图像并计算两者之间的相对位置,来对地图进行初始化,若成功追踪到上一帧的图像,则计算出机器人当前位置;反之,需要利用索引技术在构建的词袋模型数据库中对当前帧进行匹配,找到最相似的场景图像并进行优化;
(3c)、采用基于机器人旋转度的关键帧插入方法,来确保机器人在转弯处进行旋转移动时不会丢失跟踪;使用一个四元素来表示机器人在三维空间中的旋转;假设物体绕单位向量n=[nx,ny,nz]T旋转了θ角度,则四元素的数学方程可表示为:
Figure FDA0003746143650000023
机器人的转弯过程能够视为绕z轴进行旋转,利用四元素向量求出旋转角度θ,并计算出相邻两帧图像的旋转角度差的绝对值Δθ,用来表示机器人旋转度;定义任意两帧图像i、j之间的旋转度为中间所有相邻两帧图像的旋转度之和,表示为:
Figure FDA0003746143650000031
(3d)、将满足判定机制的图像帧插入到关键帧序列中,并对关键帧中的点云进行预处理来建立匹配关系,然后剔除不满足条件的部分地图云点来建立新的地图云点,再对前面所有的变量进行局部BA优化并删除部分无效观测点,最后将冗余的关键帧删除,避免产生过多的关键帧;
(3e)、当地图中存在的关键帧数量大于10帧或从上次闭环检测之后经过多于10帧图像时,系统需要作一个闭环回路检测,将局部地图中优化后的关键帧与之前的关键帧作相似判断,判断相机当前运动是否存在闭合回路;若存在闭合回路,需要对回路进行修正,将地图中重复的云点进行融合,并向共视图里插入与回环相关联的新边缘;为了能够有效地实现闭环回路,选择在本质图上进行优化,使得回环过程中的累积误差分散至位姿图中;使用相似转换矩阵进行优化,纠正尺度偏差,最后地图云点根据相应的关键帧来更新其三维信息。
3.据权利要求1所描述的基于单目视觉的移动机器人语义地图构建系统,其特征在于:所述步骤(4)中利用深度学习方法为环境映射地图添加语义标签的方法如下:
(4a)、采用深度学习方法中的ResNet残差网络,并采用50层的网络结构模型对步骤(2)中所采集的各个场景图像进行训练,得到最终的场景分类模型;
(4b)、在步骤(3)中所构建的环境映射地图是由多张关键帧图像组成,每个关键帧包含了相机位姿Tiw,相机内部参数M和关键帧中所有ORB特征V,将这些关键帧作为步骤(4a)中分类模型的输入,得到每个关键帧的类别信息k及所属类别的活性值A,得到的语义关键帧表示为:
kFrame={Tiw,M,V,k,A};
(4c)、由于场景的分类结果存在着误差,为了降低语义地图的错误率,采用关键帧活性值连续性判定机制,将活性值低于某一阈值的当前关键帧,找出当前关键帧之前连续30帧图像中个数最多的类别,并将该类别赋予当前关键帧。
4.据权利要求1所描述的基于单目视觉的移动机器人语义地图构建系统,其特征在于:所述步骤(5)中方便移动机器人在相同的环境下进行二次任务是指:当移动机器人下一次在相同环境下执行其它任务时,无需再重复构建环境地图,能够直接利用保存好的语义地图。
CN202010156120.6A 2020-03-09 2020-03-09 基于单目视觉的移动机器人语义地图构建系统 Active CN111368759B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010156120.6A CN111368759B (zh) 2020-03-09 2020-03-09 基于单目视觉的移动机器人语义地图构建系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010156120.6A CN111368759B (zh) 2020-03-09 2020-03-09 基于单目视觉的移动机器人语义地图构建系统

Publications (2)

Publication Number Publication Date
CN111368759A CN111368759A (zh) 2020-07-03
CN111368759B true CN111368759B (zh) 2022-08-30

Family

ID=71210485

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010156120.6A Active CN111368759B (zh) 2020-03-09 2020-03-09 基于单目视觉的移动机器人语义地图构建系统

Country Status (1)

Country Link
CN (1) CN111368759B (zh)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111860651B (zh) * 2020-07-22 2022-09-13 河海大学常州校区 一种基于单目视觉的移动机器人半稠密地图构建方法
WO2022193193A1 (zh) * 2021-03-17 2022-09-22 深圳市大疆创新科技有限公司 数据处理方法和设备
CN112991436B (zh) * 2021-03-25 2022-09-06 中国科学技术大学 基于物体尺寸先验信息的单目视觉slam方法
CN113673484A (zh) * 2021-09-09 2021-11-19 上海融进电子商务有限公司 一种无人驾驶场景中的路况识别与决策的方法
CN116433830A (zh) * 2021-12-31 2023-07-14 华为技术有限公司 一种三维地图的创建方法及电子设备
CN114708392B (zh) * 2022-03-22 2024-05-14 重庆大学 一种基于闭环轨迹的八叉树地图构建方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108596974A (zh) * 2018-04-04 2018-09-28 清华大学 动态场景机器人定位建图系统及方法
CN109165680A (zh) * 2018-08-01 2019-01-08 东南大学 基于视觉slam的室内场景下单一目标物体字典模型改进方法
CN110322511A (zh) * 2019-06-28 2019-10-11 华中科技大学 一种基于物体和平面特征的语义slam方法和系统
CN110335319A (zh) * 2019-06-26 2019-10-15 华中科技大学 一种语义驱动的相机定位与地图重建方法和系统

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108596974A (zh) * 2018-04-04 2018-09-28 清华大学 动态场景机器人定位建图系统及方法
CN109165680A (zh) * 2018-08-01 2019-01-08 东南大学 基于视觉slam的室内场景下单一目标物体字典模型改进方法
CN110335319A (zh) * 2019-06-26 2019-10-15 华中科技大学 一种语义驱动的相机定位与地图重建方法和系统
CN110322511A (zh) * 2019-06-28 2019-10-11 华中科技大学 一种基于物体和平面特征的语义slam方法和系统

Also Published As

Publication number Publication date
CN111368759A (zh) 2020-07-03

Similar Documents

Publication Publication Date Title
CN111368759B (zh) 基于单目视觉的移动机器人语义地图构建系统
CN108416840B (zh) 一种基于单目相机的三维场景稠密重建方法
CN105069413B (zh) 一种基于深度卷积神经网络的人体姿势识别方法
CN109800689B (zh) 一种基于时空特征融合学习的目标跟踪方法
KR20190038808A (ko) 비디오 데이터의 객체 검출
CN111931764B (zh) 一种目标检测方法、目标检测框架及相关设备
Xia et al. Loop closure detection for visual SLAM using PCANet features
CN112784873B (zh) 一种语义地图的构建方法及设备
CN112784736B (zh) 一种多模态特征融合的人物交互行为识别方法
CN111340881B (zh) 一种动态场景下基于语义分割的直接法视觉定位方法
CN112258580B (zh) 基于深度学习的视觉slam回环检测方法
CN114937083B (zh) 一种应用于动态环境的激光slam系统及方法
CN114187506B (zh) 视点意识的动态路由胶囊网络的遥感图像场景分类方法
CN115147576A (zh) 一种基于关键特征的水下机器人对接单目视觉导引方法
Jin et al. A novel vSLAM framework with unsupervised semantic segmentation based on adversarial transfer learning
CN114612545A (zh) 图像分析方法及相关模型的训练方法、装置、设备和介质
CN117689887A (zh) 基于点云分割的工件抓取方法、装置、设备及存储介质
CN106023256A (zh) 面向增强现实辅助维修系统平面目标粒子滤波跟踪的状态观测方法
CN115810219A (zh) 一种基于rgb摄像头的三维手势追踪方法
CN113724325B (zh) 一种基于图卷积网络的多场景单目相机位姿回归方法
CN112507940A (zh) 一种基于差分指导表示学习网络的骨骼动作识别方法
CN112906432A (zh) 一种应用于人脸关键点定位任务的检错纠错方法
CN111311648A (zh) 基于协作差分进化滤波的人手-物体交互过程跟踪方法
CN118552711B (zh) 用于机器人导航视觉定位的图像处理方法及系统
Ge et al. Optical Flow Estimation from Layered Nearest Neighbor Flow Fields

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant