CN112991436B - 基于物体尺寸先验信息的单目视觉slam方法 - Google Patents
基于物体尺寸先验信息的单目视觉slam方法 Download PDFInfo
- Publication number
- CN112991436B CN112991436B CN202110319979.9A CN202110319979A CN112991436B CN 112991436 B CN112991436 B CN 112991436B CN 202110319979 A CN202110319979 A CN 202110319979A CN 112991436 B CN112991436 B CN 112991436B
- Authority
- CN
- China
- Prior art keywords
- frame
- scale
- map
- camera
- monocular
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/20—Instruments for performing navigational calculations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Geometry (AREA)
- Automation & Control Theory (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于物体尺寸先验信息的单目视觉SLAM方法,通过目标检测方法获取物体语义信息,并利用先验物体尺度信息降低单目视觉SLAM过程中的尺度不确定性,利用帧间物体信息的轨迹平滑模块在前端检测到新物体时构建局部地图来减少局部地图漂移。结合物体尺度先验信息的集束调整位姿优化框架通过增加物体尺度先验这一约束,联合路标点和相机位姿同时优化,提高系统整体建图精度。该方案仅利用单目相机作为唯一传感器,成本低,且系统可移植性强。
Description
技术领域
本发明涉及智能机器人技术领域,尤其涉及一种基于物体尺寸先验信息的单目视觉SLAM方法。
背景技术
随着科技的发展,机器人与人们生活的关系越来越密切。同步定位与建图(Simultaneous localization and mapping,SLAM)技术是机器人进行自主环境探索与导航的核心技术。单目视觉SLAM系统是将单目相机作为主要的外部传感器的SLAM系统。相比于双目相机和RGB-D相机,单目相机具有价格便宜,外形紧凑以及安装方式灵活的特点,因此普遍应用于当前的视觉SLAM系统中。单目视觉SLAM近年来受到了广泛关注并得到了很大的发展。然而,单目视觉SLAM中由于传感器自身特性导致无法直接从图片中得到场景深度,即单目SLAM的尺度不确定性问题。同时,视觉SLAM的里程计通常通过相邻帧之间的帧间匹配来估计出粗略的相机运动,为后端提供较好的初始值。但是里程计会不可避免的出现误差累计,导致构建的地图在长时间内是不准确的,即单目视觉SLAM的尺度漂移问题。而场景的绝对几何尺度的准确感知对于移动机器人探索环境和执行任务具有重要意义。
因此,现有的单目视觉SLAM依然存在的问题有:
1)尺度恢复方法适用范围受限,泛化性低,存在移植性低的问题。
2)现有的基于物体的SLAM系统计算负担大,实时性难以保证,无法满足实际应用中机器人对场景准确尺度感知的需求。
发明内容
本发明的目的是提供一种基于物体尺寸先验信息的单目视觉SLAM方法,充分考虑机器人运行的实时性与高精度的要求,实现了高精度的实时在线尺度恢复,适用面广,可移植性强。
本发明的目的是通过以下技术方案实现的:
一种基于物体尺寸先验信息的单目视觉SLAM方法,包括:
对于单目相机采集的图像,通过目标检测方法获得物体语义信息,以及通过基于SLAM系统的里程计,获得SLAM系统产生的随机地图尺度下的单目相机位姿与路标点空间坐标;利用物体边框信息提取位于物体表面的路标点空间坐标,并结合物体先验尺寸,计算初始地图真实尺度,完成SLAM系统地图尺度的初始化;
利用相机位姿、路标点空间坐标以及地图尺度构建基于物体语义信息的后端集束调整优化框架,并对相机位姿、路标点空间坐标以及初始地图真实尺度进行联合优化后进行同步定位与建图。
由上述本发明提供的技术方案可以看出,通过目标检测获取物体边框信息,并利用先验物体尺度信息降低单目视觉SLAM过程中的尺度不确定性,利用帧间物体信息的轨迹平滑模块在前端检测到新物体时构建局部地图来消除局部地图漂移。结合物体尺度先验信息的集束调整位姿优化框架通过增加物体尺度先验这一约束,联合路标点和相机位姿同时优化,提高系统整体建图精度。该方案仅利用单目相机作为唯一传感器,成本低,且系统可移植性强。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域的普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他附图。
图1为本发明实施例提供的一种基于物体尺寸先验信息的单目视觉SLAM方法的流程图;
图2为本发明实施例提供的目标检测结果示意图;
图3为本发明实施例提供的车辆建模结果示意图;
图4为本发明实施例提供的SLAM系统的后端集束调整框架的优化过程示意图。
具体实施方式
下面结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明的保护范围。
为了克服以单目相机作为唯一传感器的移动机器人在场景探索中尺度感知方面存在的不足,本发明实施例提供一种基于物体尺寸先验信息的单目视觉SLAM方法,该方案充分考虑机器人运行的实时性与高精度的要求,实现了高精度的实时在线尺度恢复,同时适用面广,可移植性强;如图1所示,该方法主要包括:
对于单目相机采集的图像,通过目标检测方法获得物体语义信息,以及通过基于多视图几何的SLAM系统的里程计,获得SLAM系统产生的随机地图尺度下的单目相机位姿与路标点空间坐标;利用物体边框信息提取位于物体表面的路标点空间坐标,并结合物体先验尺寸,计算初始地图真实尺度,完成SLAM系统地图尺度的初始化;利用相机位姿、路标点空间坐标以及地图真实尺度构建基于物体语义信息的后端集束调整优化框架,并对相机位姿、路标点空间坐标以及初始地图真实尺度进行联合优化后进行同步定位与建图。
相较于现有技术中的单目视觉SLAM系统仅利用特征点坐标以及相机位姿构建重投影误差函数,通过最小化重投影误差来得到优化后的相机位姿以及空间点坐标的方案而言,本发明实施例上述方案引入了地图尺度这一新变量,通过重新构造误差函数来实现对地图真实尺度,相机位姿以及空间点坐标的共同优化,从而提高了视觉SLAM系统的整体精度。
为了便于理解,下面针对整个方案的各个步骤做详细的介绍。
一、目标检测线程。
本发明实施例中,所述目标检测方法可以通过目标检测网络实现,物体语义信息包括:物体边框的几何信息以及物体所属种类。
本发明实施例中,以基于多视图几何的视觉SLAM系统为基础,如ORB-SLAM2,在其前端融合了目标检测网络来提取图片中的物体语义信息。
示例性的,可以采用目标检测框架YOLO进行目标检测,它是一种快速紧凑的开源对象检测模型,其在保证目标检测准确率的前提下同时能保证单目视觉SLAM系统的实时性。图2所示即为YOLO在KITTI 07里程计序列上输入单帧图片的检测结果。图片输入YOLO网络进行目标检测后,输出图片中的检测到的物体在像素坐标系下边框(bounding box)左上角坐标、边框的宽和高(物体边框的几何信息)、以及物体边框所属种类(例如,Car、person)。
二、跟踪线程。
将单目相机采集的图像转换为灰度图,提取ORB特征点,在当前SLAM系统产生的随机地图尺度下,通过帧间特征点匹配以及对极几何和对特征点三角化求得单目相机位姿与路标点空间坐标。利用位于物体表面的路标点与物体的bounding box(边框)在同一平面这一约束,结合物体先验尺寸,恢复出地图的绝对尺度,完成地图初始化,其原理如下:
单目ORB-SLAM2初始过程中会随机给出一个地图尺度,该随机地图尺度和地图真实尺度通常差距较大,本发明在初始化过程中通过利用场景中物体尺度先验信息为SLAM系统初始化提供一个相对精确的地图尺度。具体来说,利用物体边框信息提取位于物体表面的路标点空间坐标,计算出该物体在随机地图尺度下的物体高度horb,结合预先建模的物体先验尺寸hprior,计算初始地图尺度s:
根据初始始地图尺度s完成对地图真实尺度的初始化,即将s作为初始地图真实尺度。
本发明实施例中,所述单目相机可以为鱼眼摄像头,利用棋盘格标定法对鱼眼摄像头进行相机内参标定,获取摄像头的畸变系数(可用于对图像进行畸变校正),同时储存下鱼眼摄像头的内部参数。
本发明实施例中,通过预先对物体尺度建模来提供物体尺寸先验,具体的,可以统计场景中可利用物体的尺寸,通过拟合尺寸的分布建模物体尺度。以KITTI里程计数据集为例,可以观察到无论市区,乡村,还是高速公路来说,车辆该物体在场景中会经常出现,图3是通过对KITTI里程计数据集中的小型车辆长度统计建模得到的结果,通过图3可以看到,小型车辆的长度满足高斯分布,均值μl=2.26,方差同理车辆高度的分布满足均值μh=0.78,方差σh 2=0.04的高斯分布,宽度的分布满足均值μw=0.91,方差的高斯分布。
三、后端优化框架。
本发明实施例中,将地图尺度这一变量融入至SLAM系统的后端集束调整框架(Bundle Adjustment,BA)中,利用场景物体尺寸约束通过构建图优化模型来对以上三个变量进行联合优化,通过海森矩阵的稀疏性加速计算,减少计算资源。
具体来说,结合这个三个变量构建代价函数,通过最小化代价函数来对单目相机位姿,路标点空间坐标以及初始地图真实尺度进行优化,从而整体提高视觉SLAM的定位与建图精度。
本发明实施例中,将任一路标点Pi的空间坐标记为Pi=[Xi,Yi,Zi]T,由下式投影到相机像素平面:
其中,K是单目相机内参矩阵(也即前文提到的内部参数),Tw是单目相机位姿,u和v是Pi在相机坐标系下的坐标,di是路标点深度。
根据投影方程得到:
Pi=K-1Twspi
其中,s为初始地图真实尺度,pi是Pi在像素坐标系下的坐标点;
将目标检测方法得到的某一物体边框O的高度与长度分别记为h和l,像素坐标系下物体bounding box的单侧上下两个(左侧上下两个或者右侧上下两个)顶点pi1与pi2对应的路标点空间坐标为Pi1,Pi2,根据空间中两点距离公式有:
将第w帧中的路标点空间点记为Ρ={Piw},Piw表示在第w帧观测到的第i个路标点,第w帧中单目相机位姿记为Γ={Tw},记第w帧中当前类物体的高度先验为h0其满足h0~N(h,σ2)的正态分布,关于物体尺度的误差函数为:
e2=h0-h(Γ,p)
联合上面两个式子,得到:
其中,hn为第w帧中第n类物体在当前SLAM系统下的高度,p1与p2为像素坐标系下第w帧中当前类物体边框单侧上下两个顶点;
联合路标点和相机位姿的重投影误差代价函数e1,整体的目标优化函数为:
本领域技术人员可以理解,重投影误差代价函数e1是传统的基于特征点的SLAM的目标误差函数,具体可参照常规技术。
上式中,只有e2是相对于物体尺寸相关的误差,e2对单目相机位姿的偏导,根据链式法则有:
利用高斯牛顿法或者L-M法对整体的目标优化函数进行迭代求解,同时利用海森矩阵的稀疏性来加速计算。由于单帧中的物体数量相对路标点数量来说很少,因此在SLAM后端增加物体尺寸这一变量不会带来过多计算负担,保障了SLAM系统的实时性,同时由于增加了物体尺寸信息约束,使得SLAM后端精度得到了整体的提升。图4展示了本方案中前端与后端结合后的新集束优化框架,图4中的CNN为目标检测网络。
四、轨迹平滑。
ORB-SLAM2的轨迹优化部分分为局部BA以及全局BA,其中考虑到全局优化下,关键帧相机位姿以及地图点过多的情况下,为了加速计算,ORB-SLAM2提出了一种较为精简的全局优化框架。但是全局优化只在检测到闭环的情况下才会对整体的对相机位姿以及路标点坐标集中优化,但现实中回环的情况取决于机器人所处的具体环境,因此利用闭环检测对相机位姿进行优化的方法使用场景有限。局部BA过程中,当新的物体信息添加到集束调整框架中时会根据物体尺寸先验对当前帧以及其共视帧的位姿进行局部BA调整,但是该优化并未作用在上一次局部BA中,此时便会出现当前优化后的相机位姿与未被有花的相机位姿之间轨迹不连续的情况,可称之为断点帧。
针对上述情况,本发明提出通过利用基于帧间物体语义信息的轨迹平滑算法消除局部地图漂移以及消除断点帧,保持SLAM系统建图的全局一致性,原理如下:当发现新物体并由基于物体尺寸的局部BA算法得到更新后的相机位姿,路标点空间坐标以及地图真实尺度。通过比较当前帧中局部地图的地图真实尺度与前一帧中局部地图的地图真实尺度,如果差值大于设定的阈值,则当前帧即为断点帧。通过提取断点帧优化前后的相机位姿,得到优化前后的相机位姿差,然后将该误差通过一次位姿图优化(位姿图优化技术是已有的)达到轨迹平滑的效果。
本发明实施例中,局部地图的尺度即为本发明上述方案更新后的地图真实尺度,局部地图是指包含相应物体的地图区域;上述判断所设定的阈值大小可根据实际情况或者经验自行设定,本发明不做数值大小做出限定。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例可以通过软件实现,也可以借助软件加必要的通用硬件平台的方式来实现。基于这样的理解,上述实施例的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个非易失性存储介质(可以是CD-ROM,U盘,移动硬盘等)中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述的方法。
以上所述,仅为本发明较佳的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明披露的技术范围内,可轻易想到的变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应该以权利要求书的保护范围为准。
Claims (6)
1.一种基于物体尺寸先验信息的单目视觉SLAM方法,其特征在于,包括:
对于单目相机采集的图像,通过目标检测方法获得物体语义信息,以及通过基于SLAM系统的里程计,获得SLAM系统产生的随机地图尺度下的单目相机位姿与路标点空间坐标;利用物体边框信息提取位于物体表面的路标点空间坐标,并结合物体先验尺寸,计算初始地图真实尺度,完成SLAM系统地图尺度的初始化;
利用相机位姿、路标点空间坐标以及地图尺度构建基于物体语义信息的后端集束调整优化框架,并将单目相机位姿、路标点空间坐标以及初始地图真实尺度,融合至SLAM系统进行联合优化;
所述将单目相机位姿、路标点空间坐标以及初始地图真实尺度,融合至SLAM系统进行联合优化包括:
在SLAM系统的后端集束调整框架中融入单目相机位姿、路标点空间坐标以及初始地图真实尺度这三个变量,结合这个三个变量构建代价函数,通过最小化代价函数来对单目相机位姿,路标点空间坐标以及初始地图真实尺度进行优化;
将任一路标点Pi的空间坐标记为Pi=[Xi,Yi,Zi]T,由下式投影到相机像素平面:
其中,K是单目相机的内部参数,Tw是单目相机位姿,u和v是Pi在相机坐标系下的坐标,di是路标点深度;
根据投影方程得到:
Pi=K-1Twspi
其中,s为初始地图真实尺度,pi是Pi在像素坐标系下的坐标点;
将目标检测方法得到的某一物体边框O的高度与长度分别记为h和l,像素坐标系下物体边框的单侧上下两个顶点pi1 pi2对应的路标点空间坐标为Pi1,Pi2,根据空间中两点距离公式有:
将第w帧中的路标点空间点记为P={Piw},Piw表示在第w帧观测到的第i个路标点,第w帧中单目相机位姿记为Γ={Tw},记第w帧中当前类物体的高度先验为h0其满足h0~N(h,σ2)的正态分布,关于物体尺度的误差函数为:
e2=h0-h(Γ,p)
联合上面两个式子,得到:
其中,hn为第w帧中第n类物体的高度先验,p1与p2为像素坐标系下第w帧中当前类物体边框单侧上下两个顶点;
联合路标点和相机位姿的重投影误差代价函数e1,整体的目标优化函数为:
上式中,只有e2是相对于物体尺寸相关的误差,e2对单目相机位姿的偏导,根据链式法则有:
利用高斯牛顿法或者L-M法对整体的目标优化函数进行迭代求解,同时利用海森矩阵的稀疏性来加速计算。
2.根据权利要求1所述的一种基于物体尺寸先验信息的单目视觉SLAM方法,其特征在于,对于单目相机,利用棋盘格标定法对摄像头进行相机内参标定,获取摄像头的本质矩阵以及畸变系数,同时储存下摄像头的内部参数。
3.根据权利要求1所述的一种基于物体尺寸先验信息的单目视觉SLAM方法,其特征在于,所述物体语义信息包括:物体边框的几何信息以及物体所属种类。
4.根据权利要求1所述的一种基于物体尺寸先验信息的单目视觉SLAM方法,其特征在于,所述通过基于SLAM系统的里程计,获得SLAM系统产生的随机地图尺度下的单目相机位姿与路标点空间坐标包括:
将单目相机采集的图像转换为灰度图,提取ORB特征点,在当前SLAM系统产生的随机地图尺度下,通过帧间特征点匹配以及对极几何和对特征点三角化求得单目相机位姿与路标点空间坐标。
6.根据权利要求1~5任一项所述的一种基于物体尺寸先验信息的单目视觉SLAM方法,其特征在于,该方法还包括:通过利用基于帧间物体信息的轨迹平滑算法,来保持SLAM系统建图的全局一致性,步骤如下:
当前帧是否为断点帧,判断方式为:对于当前帧中的物体,计算出更新后的相机位姿、路标点空间坐标以及地图真实尺度后,比较当前帧的地图真实尺度与前一帧的地图真实尺度,如果差值大于设定的阈值,则当前帧为断点帧;
如果当前帧为断点帧,则通过提取断点帧优化前后的相机位姿,得到优化前后的相机位姿差,然后将该相机位姿差通过一次位姿图优化实现轨迹平滑。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110319979.9A CN112991436B (zh) | 2021-03-25 | 2021-03-25 | 基于物体尺寸先验信息的单目视觉slam方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110319979.9A CN112991436B (zh) | 2021-03-25 | 2021-03-25 | 基于物体尺寸先验信息的单目视觉slam方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112991436A CN112991436A (zh) | 2021-06-18 |
CN112991436B true CN112991436B (zh) | 2022-09-06 |
Family
ID=76333599
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110319979.9A Active CN112991436B (zh) | 2021-03-25 | 2021-03-25 | 基于物体尺寸先验信息的单目视觉slam方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112991436B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113793251A (zh) * | 2021-08-13 | 2021-12-14 | 北京迈格威科技有限公司 | 位姿确定方法、装置、电子设备和可读存储介质 |
CN118135159B (zh) * | 2024-05-06 | 2024-07-12 | 中国人民解放军国防科技大学 | 面向虚实协同训练的增强现实三维注册方法、装置及设备 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109272493A (zh) * | 2018-08-28 | 2019-01-25 | 中国人民解放军火箭军工程大学 | 一种基于递归卷积神经网络的单目视觉里程计方法 |
CN109405824A (zh) * | 2018-09-05 | 2019-03-01 | 武汉契友科技股份有限公司 | 一种适用于智能网联汽车的多源感知定位系统 |
CN109887032A (zh) * | 2019-02-22 | 2019-06-14 | 广州小鹏汽车科技有限公司 | 一种基于单目视觉slam的车辆定位方法及系统 |
CN110097553A (zh) * | 2019-04-10 | 2019-08-06 | 东南大学 | 基于即时定位建图与三维语义分割的语义建图系统 |
CN110726406A (zh) * | 2019-06-03 | 2020-01-24 | 北京建筑大学 | 一种改进的非线性优化单目惯导slam的方法 |
CN111311666A (zh) * | 2020-05-13 | 2020-06-19 | 南京晓庄学院 | 一种融合边缘特征和深度学习的单目视觉里程计方法 |
CN111368759A (zh) * | 2020-03-09 | 2020-07-03 | 河海大学常州校区 | 基于单目视觉的移动机器人语义地图构建系统 |
CN111462135A (zh) * | 2020-03-31 | 2020-07-28 | 华东理工大学 | 基于视觉slam与二维语义分割的语义建图方法 |
CN111665842A (zh) * | 2020-06-09 | 2020-09-15 | 山东大学 | 一种基于语义信息融合的室内slam建图方法及系统 |
-
2021
- 2021-03-25 CN CN202110319979.9A patent/CN112991436B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109272493A (zh) * | 2018-08-28 | 2019-01-25 | 中国人民解放军火箭军工程大学 | 一种基于递归卷积神经网络的单目视觉里程计方法 |
CN109405824A (zh) * | 2018-09-05 | 2019-03-01 | 武汉契友科技股份有限公司 | 一种适用于智能网联汽车的多源感知定位系统 |
CN109887032A (zh) * | 2019-02-22 | 2019-06-14 | 广州小鹏汽车科技有限公司 | 一种基于单目视觉slam的车辆定位方法及系统 |
CN110097553A (zh) * | 2019-04-10 | 2019-08-06 | 东南大学 | 基于即时定位建图与三维语义分割的语义建图系统 |
CN110726406A (zh) * | 2019-06-03 | 2020-01-24 | 北京建筑大学 | 一种改进的非线性优化单目惯导slam的方法 |
CN111368759A (zh) * | 2020-03-09 | 2020-07-03 | 河海大学常州校区 | 基于单目视觉的移动机器人语义地图构建系统 |
CN111462135A (zh) * | 2020-03-31 | 2020-07-28 | 华东理工大学 | 基于视觉slam与二维语义分割的语义建图方法 |
CN111311666A (zh) * | 2020-05-13 | 2020-06-19 | 南京晓庄学院 | 一种融合边缘特征和深度学习的单目视觉里程计方法 |
CN111665842A (zh) * | 2020-06-09 | 2020-09-15 | 山东大学 | 一种基于语义信息融合的室内slam建图方法及系统 |
Non-Patent Citations (5)
Title |
---|
Object-Aware Bundle Adjustment For Correcting Monocular Scale Drift;Duncan P. Frost等;《2016 IEEE International Conference on Robotics and Automation (ICRA)》;20160609;4770-4776 * |
Recovering Stable Scale in Monocular SLAM Using Object-Supplemented Bundle Adjustment;Duncan Frost等;《IEEE Transactions on Robotics》;20180503;第34卷(第3期);736-747 * |
基于水下图像信息的同步定位与地图构建方法研究;黄靖伟;《中国优秀硕士学位论文全文数据库 工程科技Ⅱ辑》;20190915;第2019年卷(第9期);C036-114 * |
复杂场景下视觉先验信息的地图恢复SLAM;刘盛等;《中国图象图形学报》;20200131;第25卷(第1期);158-170 * |
融合IMU的单目视觉SLAM方法研究;黄鹤;《中国优秀硕士学位论文全文数据库 信息科技辑》;20191215;第2019年卷(第12期);I138-387 * |
Also Published As
Publication number | Publication date |
---|---|
CN112991436A (zh) | 2021-06-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Liao et al. | Kitti-360: A novel dataset and benchmarks for urban scene understanding in 2d and 3d | |
CN110009727B (zh) | 一种具有结构语义的室内三维模型自动重构方法及系统 | |
CN108520554B (zh) | 一种基于orb-slam2的双目三维稠密建图方法 | |
Schöps et al. | Surfelmeshing: Online surfel-based mesh reconstruction | |
RU2713611C2 (ru) | Способ моделирования трехмерного пространства | |
CN105096386B (zh) | 大范围复杂城市环境几何地图自动生成方法 | |
US20180322646A1 (en) | Gaussian mixture models for temporal depth fusion | |
CN104200523B (zh) | 一种融合附加信息的大场景三维重建方法 | |
CN110335316A (zh) | 基于深度信息的位姿确定方法、装置、介质与电子设备 | |
CN111462207A (zh) | 一种融合直接法与特征法的rgb-d同时定位与地图创建方法 | |
WO2018061010A1 (en) | Point cloud transforming in large-scale urban modelling | |
US11367195B2 (en) | Image segmentation method, image segmentation apparatus, image segmentation device | |
CN112991436B (zh) | 基于物体尺寸先验信息的单目视觉slam方法 | |
CN113240734B (zh) | 一种基于鸟瞰图的车辆跨位判断方法、装置、设备及介质 | |
CN112465849B (zh) | 一种无人机激光点云与序列影像的配准方法 | |
CN111652241A (zh) | 融合影像特征与密集匹配点云特征的建筑物轮廓提取方法 | |
US20230049383A1 (en) | Systems and methods for determining road traversability using real time data and a trained model | |
Cui et al. | Dense depth-map estimation based on fusion of event camera and sparse LiDAR | |
CN114494589A (zh) | 三维重建方法、装置、电子设备和计算机可读存储介质 | |
CN115375836A (zh) | 基于多元置信度滤波的点云融合三维重建方法和系统 | |
Chen et al. | PGSR: Planar-based Gaussian Splatting for Efficient and High-Fidelity Surface Reconstruction | |
CN113920254A (zh) | 一种基于单目rgb的室内三维重建方法及其系统 | |
CN110021041B (zh) | 基于双目相机的无人驾驶场景增量式网格化结构重建方法 | |
Ferstl et al. | CP-Census: A Novel Model for Dense Variational Scene Flow from RGB-D Data. | |
Cigla et al. | Gaussian mixture models for temporal depth fusion |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |