CN110146099A - 一种基于深度学习的同步定位与地图构建方法 - Google Patents

一种基于深度学习的同步定位与地图构建方法 Download PDF

Info

Publication number
CN110146099A
CN110146099A CN201910467708.0A CN201910467708A CN110146099A CN 110146099 A CN110146099 A CN 110146099A CN 201910467708 A CN201910467708 A CN 201910467708A CN 110146099 A CN110146099 A CN 110146099A
Authority
CN
China
Prior art keywords
key frame
point
image
closed loop
deep learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910467708.0A
Other languages
English (en)
Other versions
CN110146099B (zh
Inventor
王晓华
程禹
李若磊
叶振兴
柯莉红
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xian Polytechnic University
Original Assignee
Xian Polytechnic University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xian Polytechnic University filed Critical Xian Polytechnic University
Priority to CN201910467708.0A priority Critical patent/CN110146099B/zh
Publication of CN110146099A publication Critical patent/CN110146099A/zh
Application granted granted Critical
Publication of CN110146099B publication Critical patent/CN110146099B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • G01C21/30Map- or contour-matching
    • G01C21/32Structuring or formatting of map data

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于深度学习的同步定位与地图构建方法,依据移动机器人的视觉SLAM原理,搭建移动机器人软硬件平台。采用针孔成像原理,求解相机内外参数,完成相机标定,该算法过程简洁易懂。给出了一种基于深度学习的闭环检测方法,通过判断关键帧,利用YOLO模型对场景图像进行特征向量提取,将最后一层的输出作为图像的特征向量提取出来,与上一时刻的特征向量通过余弦相似度判断两幅图像的相似程度,从而判断闭环。将闭环的结果通过粒子滤波算法用于修正地图中的误差,从而减少地图误差,构建精确地图。本发明一种基于深度学习的同步定位与地图构建方法能够应用视觉快速、准确地构建地图,使得移动机器人的自主导航更加精确。

Description

一种基于深度学习的同步定位与地图构建方法
技术领域
本发明属于人工智能技术领域,具体涉及一种基于深度学习的同步定位与地图构建方法。
背景技术
随着机器人、计算机、传感器、自动化控制、人工智能等技术的高速发展,自主移动机器人技术已经成为科技发展最前沿的领域之一。
传统SLAM技术使用激光雷达、声纳等价格昂贵、信息量少的传感器,制约了自主移动机器人的发展。视觉传感器因成本低廉,安装位置不受机械结构的制约,更重要的是可以感知复杂环境信息而应用于自主移动机器人的导航作业中,也可以为目标识别、行为规划等更高层次的应用提供依据。
但随着运动估计的增大,视觉定位方法累积的误差会逐步增加。闭环检测可以实现建图和定位中累积误差的校正,从而达到精准定位,同时,深度学习的出现为图像的描述提供了新的思路,应用深度学习对闭环检测算法进行研究,能够提高SLAM的鲁棒性。目前,国内在这方面尚无成熟技术。
发明内容
本发明的目的是提供一种基于深度学习同步定位与地图构建方法,解决了现有技术中视觉定位方法误差大的问题。
本发明所采用的技术方案是,一种基于深度学习的同步定位与地图构建方法,具体包括如下步骤:
步骤1:对安装在机器人上方的视觉传感器进行标定;
步骤2:视觉传感器实时采集周围环境图像信息,构建地图;
步骤3:通过卷积神经网络对视觉传感器实时采集周围环境图像信息进行特征提取;
步骤4:将当前时刻图像和前一个关键帧的特征进行匹配,判断当前时刻图像是否为关键帧;
假设不是关键帧,则查找新的图片,确定新的关键帧;
假设是关键帧,则将关键帧送入YOLO模型中提取特征向量进行闭环检测,得到闭环结果;
步骤5:将步骤4中闭环结果作为输入,通过粒子滤波算法,修正地图误差。
本发明的特点还在于:
步骤1中标定的具体过程为:
步骤1.1:将场景空间中的点被投影到图像平面上的点;
步骤1.2:将场景物体的空间坐标变换到摄像机坐标系中;
步骤1.3:将图像平面上的点转换到三维场景空间中。
步骤1.1中空间点和图像投影点的关系如下:
式中,x,y,z是场景空间坐标系中的一点P距x,y,z轴的距离;p点是场景空间中的点P(x,y,z)T投影到图像平面上的点;fx=f/px和fy=f/py分别表示水平像素焦距和垂直像素焦距;px和py分别表示图像像素宽度和高度;分别表示图像平面上p点的图像横纵坐标。
步骤1.2中投影中心设置在摄像机坐标系的原点,这是一种理想情况,但实际上由于受相机生产时的精度影响,投影中心往往会偏移图像平面中心几个像素,设(u0,v0)T为主点的图像坐标,公式(1)可以改写为:
其中,令即式中K表示摄像机标定矩阵。
步骤1.3中场景点空间坐标定义在世界坐标系上,此时,场景物体的空间坐标需要经过一个旋转R和平移t变换才能表示在摄像机坐标系中,公式(2)可以改写为:
式中,fx,fy,u0,v0表示摄像机内部参数;R,t表示摄像机外部参数;s是比例系数;
每给定RGB图内的一个像素点(u.v),都可以从对应深度图中得到像素点对应的深度值d,对应的空间三维坐标可由公式(4)求解出。
式中,fx,fy分别代表水平和垂直方向上的像素焦距;s指缩放系数。
步骤4的具体过程为:
步骤4.1:摄像机所捕捉到的第i帧图像作为关键帧m,i的初始值为1;
步骤4.2:对机器人移动过程中获得的第i+1帧图像进行特征提取,并与关键帧m进行特征匹配,具体方法为:
提取两帧图像的局部特征,在尺度空间寻找极值点,并提取出其位置、尺度、方向信息通过计算两组特征点的关键点的欧式距离实现,当欧式距离小于0.67的阈值时,判定匹配成功,则第i+1帧图像成为关键帧n;
若大于0.67的阈值时,则舍弃第i+1帧图像,直到找到第t帧图像符合条件为止;
步骤4.3:将关键帧m、n送入YOLO模型中,提取关键帧m、n的特征向量,通过余弦相似度判断闭环的正确性,余弦相似度公式为:
式中:a,b分别为关键帧m和关键帧n的特征向量,θ为特征向量a,b的夹角,如果相似度cosθ大于0.81的阈值,则关键帧m和关键帧n为闭环;反之,则为非闭环;
步骤4.4:假设非闭环,重复步骤4.2和4.3,直到判断关键帧m和关键帧n是闭环为止;假设为闭环,则进行下一步骤。
步骤5中粒子滤波算法的具体过程为:
步骤5.1:初始化:当t=0s时,根据机器人运动模型先验概率p(x0)选取N个粒子,记为每个粒子对应的权值为计算公式为:
根据目标状态先验概率得到
步骤5.2:采样:根据提议分布π采样,从粒子集合中产生下一代粒子集合通常将里程计运动模型作为提议分布π;
步骤5.3:重要性权重计算:根据重要性采样原则,计算每个粒子的重要性权重为:
步骤5.4:重采样:当有效粒子数小于预先设定的阈值Nth时,进行重采样;重采样后,所有粒子具有相同权重;
步骤5.5:更新地图:根据粒子的位姿和历史观测信息z1:t来更新对应的地图
步骤5.6:将关键帧n赋给关键帧m固定,求取关键帧n,返回步骤4.2,将循环中的i+1变为t+1,直到机器人绕地图循环一圈即停止。
本发明的有益效果是,本发明一种基于深度学习的同步定位与地图构建方法,能够准确快速判断闭环,提高了闭环检测的效率与准确率,提高了地图精度,实现精确定位,提高SLAM的鲁棒性。
附图说明
图1是本发明一种基于深度学习的同步定位与地图构建方法的流程图;
图2是本发明一种基于深度学习的同步定位与地图构建方法中视觉传感器物点和像点的关系图;
图3是本发明一种基于深度学习的同步定位与地图构建方法中视觉传感器世界坐标系与摄像机坐标系的变换原理图;
图4是本发明一种基于深度学习的同步定位与地图构建方法中解决闭环检测的原理图。
具体实施方式
下面结合附图和具体实施方式对本发明进行详细说明。
本发明一种基于深度学习的同步定位与地图构建方法如图1所示,具体包括如下步骤:
步骤1:对安装在机器人上方的视觉传感器进行标定,标定的具体过程如下:
步骤1.1:将场景空间中的点被投影到图像平面上的点;
步骤1.2:将场景物体的空间坐标变换到摄像机坐标系中;
步骤1.3:将图像平面上的点转换到三维场景空间中;
步骤2:视觉传感器实时采集周围环境图像信息,构建地图;
步骤3:通过卷积神经网络对视觉传感器实时采集周围环境图像信息进行特征提取;
步骤4:将当前时刻图像和前一个关键帧的特征进行匹配,判断当前时刻图像是否为关键帧;
假设不是关键帧,则查找新的图片,确定新的关键帧;
假设是关键帧,则将关键帧送入YOLO模型中提取特征向量进行闭环检测,得到闭环结果;
步骤5:将步骤4中闭环结果作为输入,通过粒子滤波算法,修正地图误差。
如图2所示,空间点和图像投影点的关系如下:
式中,x,y,z是场景空间坐标系中的一点P距x,y,z轴的距离;p点是场景空间中的点P(x,y,z)T投影到图像平面上的点;fx=f/px和fy=f/py分别表示水平像素焦距和垂直像素焦距;px和py分别表示图像像素宽度和高度;分别表示图像平面上p点的图像横纵坐标。
投影中心设置在摄像机坐标系的原点,这是一种理想情况,但实际上由于受相机生产时的精度影响,投影中心往往会偏移图像平面中心几个像素。设(u0,v0)T为主点的图像坐标,公式(1)可以改写为:
其中,令即式中K表示摄像机标定矩阵。
如图3所示,场景中的物体空间坐标被定义在摄像机坐标系上,但是实际使用中,摄像机一直在移动,因此场景点空间坐标往往需要定义在的世界坐标系上。此时,场景物体的空间坐标需要经过一个旋转R和平移t变换才能表示在摄像机坐标系中,公式(2)可以改写为:
式中,fx,fy,u0,v0表示摄像机内部参数;R,t表示摄像机外部参数;s是比例系数。
每给定RGB图内的一个像素点(u.v),都可以从对应深度图中得到像素点对应的深度值d,对应的空间三维坐标可由公式(4)求解出。
式中,fx,fy分别代表水平和垂直方向上的像素焦距;s是指缩放系数。
Kinect的内部参数进行标定通过将棋盘格标定板放置在摄像机视场中一个固定位置,记录下标定板上棋盘格各个角点的世界坐标;在获取的棋盘格标定板图像中计算棋盘格标定板中各角点的图像坐标;用公式(3)的标定方法求解摄像机的内部参数。由于Kinect视角比较窄,RGB图像变形较小,因此忽略透镜引发的图像畸变,即不考虑外部参数。
如图4所示,利用深度学习完成闭环检测,主要步骤如下:
步骤4.1:摄像机所捕捉到的第i帧图像作为关键帧m,i的初始值为1;
步骤4.2:对机器人移动过程中获得的第i+1帧图像进行特征提取,并与关键帧m进行特征匹配,具体方法为:
提取两帧图像的局部特征,在尺度空间寻找极值点,并提取出其位置、尺度、方向信息通过计算两组特征点的关键点的欧式距离实现,当欧式距离小于0.67的阈值时,判定匹配成功,则第i+1帧图像成为关键帧n;
若大于0.67的阈值时,则舍弃第i+1帧图像,直到找到第t帧图像符合条件为止;
步骤4.3:将关键帧m、n送入YOLO模型中,提取关键帧m、n的特征向量,通过余弦相似度判断闭环的正确性,余弦相似度公式为:
式中:a,b分别为关键帧m和关键帧n的特征向量,θ为特征向量a,b的夹角,如果相似度cosθ大于0.81的阈值,则关键帧m和关键帧n为闭环;反之,则为非闭环;
步骤4.4:假设非闭环,重复步骤4.2和4.3,直到判断关键帧m和关键帧n是闭环为止;假设为闭环,则进行下一步骤。
步骤5中粒子滤波算法的具体过程为:
步骤5.1:初始化:当t=0s时,根据机器人运动模型先验概率p(x0)选取N个粒子,记为每个粒子对应的权值为计算公式为:
根据目标状态先验概率得到
步骤5.2:采样:根据提议分布π采样,从粒子集合中产生下一代粒子集合通常将里程计运动模型作为提议分布π;
步骤5.3:重要性权重计算:根据重要性采样原则,计算每个粒子的重要性权重为:
步骤5.4:重采样:当有效粒子数小于预先设定的阈值Nth时,进行重采样;重采样后,所有粒子具有相同权重;
步骤5.5:更新地图:根据粒子的位姿和历史观测信息z1:t来更新对应的地图
步骤5.6:将关键帧n赋给关键帧m固定,求取关键帧n,返回步骤4.2,将循环中的i+1变为t+1,直到机器人绕地图循环一圈即停止。
本发明一种基于深度学习的同步定位与地图构建方法依据移动机器人的视觉SLAM原理,搭建移动机器人软硬件平台,采用针孔成像原理,求解相机内外参数,完成相机标定,该算法过程简洁易懂,通过判断关键帧,利用YOLO模型对场景图像进行特征向量提取,将最后一层的输出作为图像的特征向量提取出来,与上一时刻的特征向量通过余弦相似度判断两幅图像的相似程度,从而判断闭环。将闭环的结果通过粒子滤波算法用于修正地图中的误差,从而减少地图误差,构建精确地图。本发明一种基于深度学习的同步定位与地图构建方法能够应用视觉快速、准确地构建地图,使得移动机器人的自主导航更加精确。

Claims (7)

1.一种基于深度学习的同步定位与地图构建方法,其特征在于,具体包括如下步骤:
步骤1:对安装在机器人上方的视觉传感器进行标定;
步骤2:视觉传感器实时采集周围环境图像信息,构建地图;
步骤3:通过卷积神经网络对视觉传感器实时采集周围环境图像信息进行特征提取;
步骤4:将当前时刻图像和前一个关键帧的特征进行匹配,判断当前时刻图像是否为关键帧;
假设不是关键帧,则查找新的图片,确定新的关键帧;
假设是关键帧,则将关键帧送入YOLO模型中提取特征向量进行闭环检测,得到闭环结果;
步骤5:将步骤4中闭环结果作为输入,通过粒子滤波算法,修正地图误差。
2.根据权利要求1所述的一种基于深度学习的同步定位与地图构建方法,其特征在于,所述步骤1中标定的具体过程为:
步骤1.1:将场景空间中的点被投影到图像平面上的点;
步骤1.2:将场景物体的空间坐标变换到摄像机坐标系中;
步骤1.3:将图像平面上的点转换到三维场景空间中。
3.根据权利要求2所述的一种基于深度学习的同步定位与地图构建方法,其特征在于,所述步骤1.1中空间点和图像投影点的关系如下:
式中,x,y,z是场景空间坐标系中的一点P距x,y,z轴的距离;p点是场景空间中的点P(x,y,z)T投影到图像平面上的点;fx=f/px和fy=f/py分别表示水平像素焦距和垂直像素焦距;px和py分别表示图像像素宽度和高度;分别表示图像平面上p点的图像横纵坐标。
4.根据权利要求2所述的一种基于深度学习的同步定位与地图构建方法,其特征在于,所述步骤1.2中投影中心设置在摄像机坐标系的原点,这是一种理想情况,但实际上由于受相机生产时的精度影响,投影中心往往会偏移图像平面中心几个像素,设(u0,v0)T为主点的图像坐标,公式(1)可以改写为:
其中,令即式中K表示摄像机标定矩阵。
5.根据权利要求2所述的一种基于深度学习的同步定位与地图构建方法,其特征在于,所述步骤1.3中场景点空间坐标定义在世界坐标系上,此时,场景物体的空间坐标需要经过一个旋转R和平移t变换才能表示在摄像机坐标系中,公式(2)可以改写为:
式中,fx,fy,u0,v0表示摄像机内部参数;R,t表示摄像机外部参数;s是比例系数;
每给定RGB图内的一个像素点(u.v),都可以从对应深度图中得到像素点对应的深度值d,对应的空间三维坐标可由公式(4)求解出。
式中,fx,fy分别代表水平和垂直方向上的像素焦距;s指缩放系数。
6.根据权利要求2所述的一种基于深度学习的同步定位与地图构建方法,其特征在于,所述步骤4的具体过程为:
步骤4.1:摄像机所捕捉到的第i帧图像作为关键帧m,i的初始值为1;
步骤4.2:对机器人移动过程中获得的第i+1帧图像进行特征提取,并与关键帧m进行特征匹配,具体方法为:
提取两帧图像的局部特征,在尺度空间寻找极值点,并提取出其位置、尺度、方向信息通过计算两组特征点的关键点的欧式距离实现,当欧式距离小于0.67的阈值时,判定匹配成功,则第i+1帧图像成为关键帧n;
若大于0.67的阈值时,则舍弃第i+1帧图像,直到找到第t帧图像符合条件为止;
步骤4.3:将关键帧m、n送入YOLO模型中,提取关键帧m、n的特征向量,通过余弦相似度判断闭环的正确性,余弦相似度公式为:
式中:a,b分别为关键帧m和关键帧n的特征向量,θ为特征向量a,b的夹角,如果相似度cosθ大于0.81的阈值,则关键帧m和关键帧n为闭环;反之,则为非闭环;
步骤4.4:假设非闭环,重复步骤4.2和4.3,直到判断关键帧m和关键帧n是闭环为止;假设为闭环,则进行下一步骤。
7.根据权利要求1所述的一种基于深度学习的同步定位与地图构建方法,所述步骤5中粒子滤波算法的具体过程为:
步骤5.1:初始化:当t=0s时,根据机器人运动模型先验概率p(x0)选取N个粒子,记为每个粒子对应的权值为计算公式为:
根据目标状态先验概率得到
步骤5.2:采样:根据提议分布π采样,从粒子集合中产生下一代粒子集合通常将里程计运动模型作为提议分布π;
步骤5.3:重要性权重计算:根据重要性采样原则,计算每个粒子的重要性权重为:
步骤5.4:重采样:当有效粒子数小于预先设定的阈值Nth时,进行重采样;重采样后,所有粒子具有相同权重;
步骤5.5:更新地图:根据粒子的位姿和历史观测信息z1:t来更新对应的地图
步骤5.6:将关键帧n赋给关键帧m固定,求取关键帧n,返回步骤4.2,将循环中的i+1变为t+1,直到机器人绕地图循环一圈即停止。
CN201910467708.0A 2019-05-31 2019-05-31 一种基于深度学习的同步定位与地图构建方法 Expired - Fee Related CN110146099B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910467708.0A CN110146099B (zh) 2019-05-31 2019-05-31 一种基于深度学习的同步定位与地图构建方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910467708.0A CN110146099B (zh) 2019-05-31 2019-05-31 一种基于深度学习的同步定位与地图构建方法

Publications (2)

Publication Number Publication Date
CN110146099A true CN110146099A (zh) 2019-08-20
CN110146099B CN110146099B (zh) 2020-08-11

Family

ID=67589951

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910467708.0A Expired - Fee Related CN110146099B (zh) 2019-05-31 2019-05-31 一种基于深度学习的同步定位与地图构建方法

Country Status (1)

Country Link
CN (1) CN110146099B (zh)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110531618A (zh) * 2019-08-27 2019-12-03 河海大学 基于有效关键帧的闭环检测机器人自定位误差消除方法
CN110765918A (zh) * 2019-10-17 2020-02-07 北京影谱科技股份有限公司 基于MFANet的vSLAM快速回环检测方法和装置
CN110825079A (zh) * 2019-10-15 2020-02-21 珠海格力电器股份有限公司 一种地图构建方法及装置
CN111812978A (zh) * 2020-06-12 2020-10-23 哈尔滨工业大学(深圳)(哈尔滨工业大学深圳科技创新研究院) 一种多无人机协作slam方法与系统
CN111882663A (zh) * 2020-07-03 2020-11-03 广州万维创新科技有限公司 一种融合语义信息完成视觉slam闭环检测方法
CN113239936A (zh) * 2021-04-26 2021-08-10 大连理工大学 一种基于深度学习与特征点提取的无人机视觉导航方法
CN113781558A (zh) * 2021-08-31 2021-12-10 华中科技大学 一种姿态与位置解耦的机器人视觉寻位方法
CN113950611A (zh) * 2020-01-31 2022-01-18 格步计程车控股私人有限公司 用于预测道路属性的方法和数据处理系统
WO2023060386A1 (zh) * 2021-10-11 2023-04-20 深圳市大疆创新科技有限公司 地图数据处理、地图数据构建方法、装置、车辆及计算机可读存储介质
CN116189145A (zh) * 2023-02-15 2023-05-30 清华大学 一种线形地图要素的提取方法、系统和可读介质
CN117351166A (zh) * 2023-12-04 2024-01-05 山东新科凯邦通信器材有限公司 一种基于大数据的土地管理绘测系统

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106127739A (zh) * 2016-06-16 2016-11-16 华东交通大学 一种结合单目视觉的rgb‑d slam方法
WO2018111920A1 (en) * 2016-12-12 2018-06-21 The Charles Stark Draper Laboratory, Inc. System and method for semantic simultaneous localization and mapping of static and dynamic objects
CN108734737A (zh) * 2018-06-14 2018-11-02 哈尔滨工业大学 基于视觉slam估计空间旋转非合作目标转轴的方法
CN109211241A (zh) * 2018-09-08 2019-01-15 天津大学 基于视觉slam的无人机自主定位方法
CN109341703A (zh) * 2018-09-18 2019-02-15 北京航空航天大学 一种全周期采用CNNs特征检测的视觉SLAM算法
CN109559320A (zh) * 2018-09-18 2019-04-02 华东理工大学 基于空洞卷积深度神经网络实现视觉slam语义建图功能的方法及系统
CN109816686A (zh) * 2019-01-15 2019-05-28 山东大学 基于物体实例匹配的机器人语义slam方法、处理器及机器人

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106127739A (zh) * 2016-06-16 2016-11-16 华东交通大学 一种结合单目视觉的rgb‑d slam方法
WO2018111920A1 (en) * 2016-12-12 2018-06-21 The Charles Stark Draper Laboratory, Inc. System and method for semantic simultaneous localization and mapping of static and dynamic objects
CN108734737A (zh) * 2018-06-14 2018-11-02 哈尔滨工业大学 基于视觉slam估计空间旋转非合作目标转轴的方法
CN109211241A (zh) * 2018-09-08 2019-01-15 天津大学 基于视觉slam的无人机自主定位方法
CN109341703A (zh) * 2018-09-18 2019-02-15 北京航空航天大学 一种全周期采用CNNs特征检测的视觉SLAM算法
CN109559320A (zh) * 2018-09-18 2019-04-02 华东理工大学 基于空洞卷积深度神经网络实现视觉slam语义建图功能的方法及系统
CN109816686A (zh) * 2019-01-15 2019-05-28 山东大学 基于物体实例匹配的机器人语义slam方法、处理器及机器人

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
斯塔赫尼克,: "《机器人地图创建与环境探索》", 31 May 2013, 国防工业出版社 *
赵矿军,: ""基于RGB_D摄像机的室内三维彩色点云地图构建"", 《哈尔滨商业大学学报(自然科学版)》 *
辛冠希,: ""基于 RGB-D 摄像机的同步定位与建图研究"", 《中国优秀硕士学位论文全文数据库 信息科技辑》 *
鲍振强 等,: ""融合多层次卷积神经网络特征的闭环检测算法"", 《激光与光电子学进展》 *

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110531618A (zh) * 2019-08-27 2019-12-03 河海大学 基于有效关键帧的闭环检测机器人自定位误差消除方法
CN110825079A (zh) * 2019-10-15 2020-02-21 珠海格力电器股份有限公司 一种地图构建方法及装置
CN110765918A (zh) * 2019-10-17 2020-02-07 北京影谱科技股份有限公司 基于MFANet的vSLAM快速回环检测方法和装置
CN113950611A (zh) * 2020-01-31 2022-01-18 格步计程车控股私人有限公司 用于预测道路属性的方法和数据处理系统
CN113950611B (zh) * 2020-01-31 2023-01-13 格步计程车控股私人有限公司 用于预测道路属性的方法和数据处理系统
CN111812978A (zh) * 2020-06-12 2020-10-23 哈尔滨工业大学(深圳)(哈尔滨工业大学深圳科技创新研究院) 一种多无人机协作slam方法与系统
CN111882663A (zh) * 2020-07-03 2020-11-03 广州万维创新科技有限公司 一种融合语义信息完成视觉slam闭环检测方法
CN113239936A (zh) * 2021-04-26 2021-08-10 大连理工大学 一种基于深度学习与特征点提取的无人机视觉导航方法
CN113239936B (zh) * 2021-04-26 2024-05-28 大连理工大学 一种基于深度学习与特征点提取的无人机视觉导航方法
CN113781558A (zh) * 2021-08-31 2021-12-10 华中科技大学 一种姿态与位置解耦的机器人视觉寻位方法
CN113781558B (zh) * 2021-08-31 2024-03-19 华中科技大学 一种姿态与位置解耦的机器人视觉寻位方法
WO2023060386A1 (zh) * 2021-10-11 2023-04-20 深圳市大疆创新科技有限公司 地图数据处理、地图数据构建方法、装置、车辆及计算机可读存储介质
CN116189145A (zh) * 2023-02-15 2023-05-30 清华大学 一种线形地图要素的提取方法、系统和可读介质
CN116189145B (zh) * 2023-02-15 2024-06-11 清华大学 一种线形地图要素的提取方法、系统和可读介质
CN117351166A (zh) * 2023-12-04 2024-01-05 山东新科凯邦通信器材有限公司 一种基于大数据的土地管理绘测系统
CN117351166B (zh) * 2023-12-04 2024-03-26 山东新科凯邦通信器材有限公司 一种基于大数据的土地管理绘测系统

Also Published As

Publication number Publication date
CN110146099B (zh) 2020-08-11

Similar Documents

Publication Publication Date Title
CN110146099A (zh) 一种基于深度学习的同步定位与地图构建方法
CN110097553B (zh) 基于即时定位建图与三维语义分割的语义建图系统
CN111076733B (zh) 一种基于视觉与激光slam的机器人室内建图方法及系统
CN113409410B (zh) 一种基于3d激光雷达的多特征融合igv定位与建图方法
CN111462200A (zh) 一种跨视频行人定位追踪方法、系统及设备
CN109509230A (zh) 一种应用于多镜头组合式全景相机的slam方法
CN107657640A (zh) 基于orb slam的智能巡防巡检管理方法
CN105352509B (zh) 地理信息时空约束下的无人机运动目标跟踪与定位方法
CN107680133A (zh) 一种基于改进闭环检测算法的移动机器人视觉slam方法
CN106529587B (zh) 基于目标点识别的视觉航向识别方法
CN103778645B (zh) 一种基于图像的圆形目标实时跟踪方法
CN115388902B (zh) 室内定位方法和系统、ar室内定位导航方法和系统
CN104704384A (zh) 具体用于装置的基于视觉的定位的图像处理方法
CN109520500A (zh) 一种基于终端拍摄图像匹配的精确定位及街景库采集方法
CN110163963B (zh) 一种基于slam的建图装置和建图方法
CN112505065A (zh) 一种实现室内无人机对大部件表面缺陷进行检测的方法
CN108332752B (zh) 机器人室内定位的方法及装置
CN110675453B (zh) 一种已知场景中运动目标的自定位方法
WO2019136613A1 (zh) 机器人室内定位的方法及装置
Zhang et al. Building a partial 3D line-based map using a monocular SLAM
CN109483507B (zh) 一种多个轮式机器人行走的室内视觉定位方法
CN110260866A (zh) 一种基于视觉传感器的机器人定位与避障方法
CN108680177B (zh) 基于啮齿类动物模型的同步定位与地图构建方法及装置
CN110706252B (zh) 运动模型引导下的机器人核相关滤波跟踪算法
CN111998862A (zh) 一种基于bnn的稠密双目slam方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20200811

Termination date: 20210531