CN113203407A - 基于关键平面的视觉惯性里程计方法 - Google Patents
基于关键平面的视觉惯性里程计方法 Download PDFInfo
- Publication number
- CN113203407A CN113203407A CN202110554563.5A CN202110554563A CN113203407A CN 113203407 A CN113203407 A CN 113203407A CN 202110554563 A CN202110554563 A CN 202110554563A CN 113203407 A CN113203407 A CN 113203407A
- Authority
- CN
- China
- Prior art keywords
- plane
- key
- imu
- visual inertial
- residual error
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 26
- 230000000007 visual effect Effects 0.000 claims abstract description 23
- 230000010354 integration Effects 0.000 claims abstract description 11
- 238000005457 optimization Methods 0.000 claims description 9
- 230000008878 coupling Effects 0.000 claims description 5
- 238000010168 coupling process Methods 0.000 claims description 5
- 238000005859 coupling reaction Methods 0.000 claims description 5
- 230000008569 process Effects 0.000 claims description 2
- 238000012216 screening Methods 0.000 abstract description 4
- 230000001133 acceleration Effects 0.000 description 9
- 239000013598 vector Substances 0.000 description 8
- 238000005259 measurement Methods 0.000 description 5
- 230000005484 gravity Effects 0.000 description 4
- 238000001514 detection method Methods 0.000 description 3
- 239000011159 matrix material Substances 0.000 description 3
- 239000011541 reaction mixture Substances 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- NAWXUBYGYWOOIX-SFHVURJKSA-N (2s)-2-[[4-[2-(2,4-diaminoquinazolin-6-yl)ethyl]benzoyl]amino]-4-methylidenepentanedioic acid Chemical compound C1=CC2=NC(N)=NC(N)=C2C=C1CCC1=CC=C(C(=O)N[C@@H](CC(=C)C(O)=O)C(O)=O)C=C1 NAWXUBYGYWOOIX-SFHVURJKSA-N 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000008030 elimination Effects 0.000 description 1
- 238000003379 elimination reaction Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/005—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 with correlation of navigation data from several sources, e.g. map or contour matching
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/10—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
- G01C21/12—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
- G01C21/16—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
- G01C21/165—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/20—Instruments for performing navigational calculations
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C22/00—Measuring distance traversed on the ground by vehicles, persons, animals or other moving solid bodies, e.g. using odometers, using pedometers
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了基于关键平面的视觉惯性里程计方法,包括以下步骤:1、单目相机以一定频率采集图像;IMU以一定频率采集惯性数据;2、对采集到的每帧图像,提取点线特征并且进行跟踪;3、IMU预积分:对连续两帧图像之间的IMU数据进行预积分;4、2D德劳内三角化;生成3D网格;检测平面;对每个检测到平面分配特征;判断是否是关键平面;5、紧耦合视觉惯性定位:根据残差解决最小二乘问题并得出最优估计,实现对目标载体的定位。本发明所提出的方法用于视觉惯性定位,该方法同步视觉与IMU信息,提出了筛选关键平面的策略,通过引入关键平面,增加探测到平面之间的规律性,提高了定位精度。
Description
技术领域
本发明属于SLAM(Simultaneous Localization and Mapping,同步定位与建图)领域,具体涉及一种基于关键平面的视觉惯性里程计方法。
背景技术
传统的基于网格提取平面的视觉惯性里程计(Visual-Inertial Odometry,VIO)方法对每一帧图像使用2D德劳内三角化形成2D网格,当特征点被三角化后生成3D网格,随后建立直方图,超过阈值的平面被筛选出当做面特征。将特征点和线分配到检测到的每个平面,并且在后端优化面特征和点线特征。
这种方法虽然考虑到了特征点线和检测到平面之间的限制,但是没有考虑到平面和平面之间的限制,例如平行和垂直。
发明内容
针对现有VIO技术中的不足与难题,本发明旨在提供一种基于关键平面的视觉惯性里程计方法,在后端中增加平面和平面的限制,提高定位精度。
本发明通过以下技术方案予以实现:
基于关键平面的视觉惯性里程计方法,该方法包括以下步骤:
步骤1、单目相机以一定频率采集图像;IMU以一定频率采集惯性数据;
步骤2、对采集到的每帧图像,提取点线特征并且进行跟踪;
步骤3、IMU预积分:对连续两帧图像之间的IMU数据进行预积分;
步骤4、2D德劳内三角化;生成3D网格;检测平面;对每个检测到平面分配特征;判断是否是关键平面。
步骤5、紧耦合视觉惯性定位:根据残差解决最小二乘问题并得出最有估计,实现对目标载体的定位。
进一步地,步骤2具体如下:
步骤2.1、对图像提取特征点,并在后一帧中建立与这些特征的关系,形成跟踪;
步骤2.2、对图像提取特征线,并在后一帧中建立与这些特征的关系,形成跟踪。
进一步地,步骤3具体为:对任意两帧图像之间的IMU数据,进行预积分,得到三个方向上的积分量;若IMU的零偏改变,则可以直接用现有的预积分来更新。
进一步地,步骤4具体如下:
步骤4.1、2D德劳内三角化:对每一帧图像,根据提取到的点特征和线特征,进行2D德劳内三角化,形成的网格属于2D网格;
步骤4.2、生成3D的网格:对所有2D网格,如果网格中的三角形的三个顶点都被三角化,则计算三个顶点的3D坐标,并且将这个2D三角形变为3D三角面片,许多个三角面片组成3D网格;
步骤4.3、检测平面:对每个3D三角面片,收集他们顶点的三维坐标,随后建立直方图提取水平平面和垂直平面;
步骤4.4、对每个检测到平面分配特征,对每一个已经三角化的特征进行遍历,若它与任何一个平面距离较近,则把该特征分配给平面,将特征-平面残差添加到优化目标函数;
步骤4.5、判断平面是否为关键平面:每次优化后会再进行一次特征分配给平面的过程。若分配给某个平面的特征数量小于一定数值,那么它就被剔除;剔除的时候会进行判断,如果该平面连续一定数量的帧没有被剔除,并且剔除时的帧和被检测时候的帧的视差超过一定阈值,那么将其视为关键平面,将平面-关键平面残差添加到优化目标函数。
进一步地,步骤5中的紧耦合视觉惯性定位具体为:将边缘化先验信息,IMU预积分残差,点和线重投影误差,特征-平面残差,平面-关键平面残差加入目标优化函数进行优化。
与现有技术相比,本发明有益效果包括:
(1)本发明所提出的方法用于视觉惯性定位,所述方法同步视觉与IMU信息,提出了筛选关键平面的策略,通过引入关键平面,增加探测到平面之间的规律性,提高了定位精度。
(2)使用本发明提出的方法,相较于传统的仅仅基于特征点的视觉惯性定位系统,定位精度可提高约16%。
附图说明
图1是本发明基于关键平面视觉惯性里程计流程图;
图2是本发明3D网格建图示意图;
图3是本发明采取关键平面策略建立的光滑平面;
图4是没采取关键平面策略建立的粗糙平面;
图5是本发明2D德劳内三角化示意图。
具体实施方式
下面结合附图,对本发明作进一步地说明。
本技术领域技术人员可以理解的是,除非另外定义,这里使用的所有术语(包括技术术语和科学术语)具有与本发明所属领域中的普通技术人员的一般理解相同的意义。还应该理解的是,诸如通用字典中定义的那些术语应该被理解为具有与现有技术的上下文中的意义一致的意义,并且除非像这里一样定义,不会用理想化或过于正式的含义来解释。
如图1,一种基于关键平面的视觉惯性里程计方法,具体包括下述步骤:
步骤S1、通过双目相机采集图像,其分辨率为752*480,频率为20Hz,实验中只采用左目图像;通过IMU测量角速度和加速度,频率为100Hz。
步骤S2、对每帧图像提取特征并且追踪这些特征;
S2a,对每帧图像提取角点,并且通过Lucas光流法在下一帧图像确定角点的位置进行跟踪,筛选角点的时候用基于基础矩阵的RANSAC(Random Sampling Consistency,随机采样一致性)来剔除离群值;
S2b,对每帧图像提取线特征并追踪,使用LSD(Line Segment Detector,线段检测器)提取线特征,并在每个线特征提取LBD(Line Binary Descriptor,线二进制描述子)描述子来确定在下一帧中的位置。
步骤S3、IMU预积分:根据两帧图像之间的所有惯性数据做预积分,这里的预积分给估计器的IMU残差使用:
IMU测量模型如下:
式(1)中,at和ωt分别为t时刻IMU坐标系下加速度真实值和角速度真实值,am和ωm分别为t时刻加速度与角速度测量值,和分别为t时刻加速度计与陀螺仪零偏,gw是世界坐标系下的重力加速度,Rtw为世界坐标系到t时刻IMU坐标系的旋转矩阵,na和nω分别为加速度计与陀螺仪的高斯噪声。
根据IMU测量模型,计算预积分测量值:
其中:
式(2)、(3)中,和表示第i个IMU数据的三个预积分项,δt为两个惯性数据之间的时间差,表示i时刻IMU坐标系到第k个IMU坐标系的旋转矩阵,和分别表示i时刻加速度与角速度的测量值,表示四元数乘法。
步骤S4、2D德劳内三角化;生成3D网格;检测平面;对每个检测到平面分配特征;判断是否是关键平面:
S4a,2D德劳内三角化:对每一帧图像,提取点特征和线特征后,采取2D限制德劳内三角化;图像中不仅含有点特征的信息还有线特征的信息,因此在构建2D网格的时候还有考虑图像中的线特征。
S4b,生成3D网格:首先将2D德劳内限制三角化后得到的网格的每个三角形剖分下来,对于每个三角形,如果求出三个顶点的位置,那么三角形的3D坐标也能够得到,经过对特征的三角化后,点线特征的3D位置有机会得到;如果某个三角形的三个顶点的三维坐标都已知,我们将该三角形的三维坐标求出,很多个三角面片组成一个3D网格;同时并不是每个3D网格都能被使用,本方法设置了两个条件,两个条件都满足时该三角面片才能被使用,条件(1)为三角面片中最小的角度不得超过十五度;条件(2)为三角面片至少有两个相邻的三角面片。
S4c,检测平面:这里只检测水平和垂直平面;对于水平平面,根据IMU提供的重力加速度方向,找出法向量近似与重力加速度的三角面片,随后将这些三角面片的顶点高度提取出来,建立一维直方图,坐标为顶点高度,超过阈值的量被选为水平平面;对于垂直平面,根据IMU提供的重力加速度方向,找出法向量近似与重力加速度垂直的三角面片,随后将这些三角面片的投影到XY平面,提取出轴角和离原点的距离,建立二维直方图,其中一维坐标为轴角,另一维是离远点的距离,超过阈值的被选为垂直平面。
S4d,对每个检测到的平面分配特征:对滑动窗口的所有的点特征和线特征遍历,若该特征到检测平面的距离低于阈值,则将该特征认定为该平面所属,同时将特征-平面残差添加进入估计器。
S4e,判断是否是关键平面:对每个面特征,我们实行剔除准则:若该平面拥有的点线特征数量低于阈值,则将该面特征删除;删除之后,实行关键帧筛选准侧,(1)该平面连续一定数量的帧没有被剔除;(2)剔除时的帧和被检测时候的帧的视差超过一定阈值,如果上述两个条件都满足,那么将其视为关键平面,将平面-关键平面残差添加到优化目标函数。
步骤S5、紧耦合视觉惯性定位:根据残差解决最小二乘问题并得出最有估计,实现对目标载体的定位;
对滑动窗口所有待估计的状态变量变量如下:
式(4)中,xk为IMU坐标系k时刻的状态,包括该时刻IMU坐标系到世界坐标系的平移、旋转、在世界坐标系下的速度以及零偏;λi表示第i个点特征在第一次被观察到时相机坐标系的逆深度;oi为第i个线特征在世界坐标系下的正交坐标,k表示从0到n的正整数;πi=[ni,di]表示第i个平面的坐标,其中ni为该平面的法向量,di为该平面到原点的距离;
类似的,πki=[nki,dki]表示第i个平面的坐标,其中nki为该平面的法向量,dki为该平面到原点的距离。
最小化以下函数求解状态量:
式(5)中,为bk和bk+1IMU坐标系之间预积分的测量值;和分别表示在第j个相机坐标系下被观测到的第i个点特征和线特征的观测值;B表示窗口中所有预积分项的集合,F和G分别表示被相机观测到的点特征和线特征的集合;H和J分别表示特征-平面以及平面-关键平面的残差集合。
对应的残差表示如下:
式(9)中,λk为该特征点在第一帧观测zj中的逆深度,nj和dj分别为平面的法向量和离原点的距离。
关于平面-关键平面残差,可以分为两种情况:
(1)关键平面为水平平面
式(10)中,nj和nki表示平面与关键平面的法向量,dj和dki表示平面与关键平面到原点的距离。
(2)关键平面为垂直平面
式(11)中,nj和nki表示平面与关键平面的法向量,dj和dki表示平面与关键平面到原点的距离,g表示重力加速度。
本发明的软件具有四个线程:点特征提取与跟踪、线特征提取与跟踪,网格生成与平面提取,估计器优化;四个线程并行运行,实现实时地对相机和IMU数据处理。
使用开源数据集EuRoc进行算法评估,该数据集在一个工厂和室内环境采集惯性和视觉数据,工厂和室内环境有丰富的面结构,以使发明的算法提高性能。其图像采集频率为20Hz,IMU采样频率为200Hz,数据集提供真实轨迹。本实例使用的硬件处理为8G的IntelCore i5-8300笔记本,软件平台为ROS。本方法(表格中记为proposed)实验结果与基于特征点的视觉惯性里程计算法结果作比较。
图2为发明算法建立的网格地图,绿色的表示水平平面,如地板;红色代表垂直平面,如墙壁,地板和墙壁在空间中的分布符合实际规律互相垂直,这得益于本发明的关键平面算法。
图3为基于本发明关键平面算法得到的墙壁网格地图,对比图四表面更加光滑。
图4为基于仅点特征的视觉惯性里程计算法得到的墙壁网格地图,对比图四表面更加粗糙。
图5展示了2D德劳内三角化,红点代表点特征,蓝线段代表线特征,绿色网格代表经过限制德劳内三角化得到的2D网格。
最后给出了Euroc序列在本方法和基于点特征两种方法的均方根定位误差(单位为厘米)定位结果,由表1可知本发明定位精度由于现有算法,定位平均精度提高了约16%。
表1
以上所述仅表达了本发明的优选实施方式,其描述较为具体和详细,但并不能因此而理解为对本发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形、改进及替代,这些都属于本发明的保护范围。因此,本发明专利的保护范围应以所附权利要求为准。
Claims (5)
1.基于关键平面的视觉惯性里程计方法,其特征在于,所述方法包括以下步骤:
步骤1、单目相机以一定频率采集图像;IMU以一定频率采集惯性数据;
步骤2、对采集到的每帧图像,提取点线特征并且进行跟踪;
步骤3、IMU预积分:对连续两帧图像之间的IMU数据进行预积分;
步骤4、2D德劳内三角化;生成3D网格;检测平面;对每个检测到平面分配特征;判断是否是关键平面;
步骤5、紧耦合视觉惯性定位:根据残差解决最小二乘问题并得出最有估计,实现对目标载体的定位。
2.根据权利要求1所述的基于关键平面的视觉惯性里程计方法,其特征在于,所述步骤2具体如下:
步骤2.1、对图像提取特征点,并在后一帧中建立与这些特征的关系,形成跟踪;
步骤2.2、对图像提取特征线,并在后一帧中建立与这些特征的关系,形成跟踪。
3.根据权利要求1所述的基于关键平面的视觉惯性里程计方法,其特征在于,所述步骤3具体为:对任意两帧图像之间的IMU数据,进行预积分,得到三个方向上的积分量;若IMU的零偏改变,则可以直接用现有的预积分来更新。
4.根据权利要求1所述的基于关键平面的视觉惯性里程计方法,其特征在于,所述步骤4具体如下:
步骤4.1、2D德劳内三角化:对每一帧图像,根据提取到的点特征和线特征,进行2D德劳内三角化,形成的网格属于2D网格;
步骤4.2、生成3D的网格:对所有2D网格,如果网格中的三角形的三个顶点都被三角化,则计算三个顶点的3D坐标,并且将这个2D三角形变为3D三角面片,许多个三角面片组成3D网格;
步骤4.3、检测平面:对每个3D三角面片,收集他们顶点的三维坐标,随后建立直方图提取水平平面和垂直平面;
步骤4.4、对每个检测到平面分配特征,对每一个已经三角化的特征进行遍历,若它与任何一个平面距离较近,则把该特征分配给平面,将特征-平面残差添加到优化目标函数;
步骤4.5、判断平面是否为关键平面:每次优化后会再进行一次特征分配给平面的过程;若分配给某个平面的特征数量小于一定数值,那么它就被剔除;剔除的时候会进行判断,如果该平面连续一定数量的帧没有被剔除,并且剔除时的帧和被检测时候的帧的视差超过一定阈值,那么将其视为关键平面,将平面-关键平面残差添加到优化目标函数。
5.根据权利要求1所述的基于关键平面的视觉惯性里程计方法,其特征在于,所述步骤5中的紧耦合视觉惯性定位具体为:将边缘化先验信息、IMU预积分残差、点和线重投影误差、特征-平面残差、平面-关键平面残差加入目标优化函数进行优化。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110554563.5A CN113203407B (zh) | 2021-05-20 | 2021-05-20 | 基于关键平面的视觉惯性里程计方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110554563.5A CN113203407B (zh) | 2021-05-20 | 2021-05-20 | 基于关键平面的视觉惯性里程计方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113203407A true CN113203407A (zh) | 2021-08-03 |
CN113203407B CN113203407B (zh) | 2024-01-02 |
Family
ID=77032036
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110554563.5A Active CN113203407B (zh) | 2021-05-20 | 2021-05-20 | 基于关键平面的视觉惯性里程计方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113203407B (zh) |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103985155A (zh) * | 2014-05-14 | 2014-08-13 | 北京理工大学 | 基于映射法的散乱点云Delaunay三角剖分曲面重构方法 |
CN106441292A (zh) * | 2016-09-28 | 2017-02-22 | 哈尔滨工业大学 | 一种基于众包imu惯导数据的楼宇室内平面图建立方法 |
CN110030994A (zh) * | 2019-03-21 | 2019-07-19 | 东南大学 | 一种基于单目的鲁棒性视觉惯性紧耦合定位方法 |
US20190234746A1 (en) * | 2016-09-14 | 2019-08-01 | Zhejiang University | Method for simultaneous localization and mapping |
CN110375765A (zh) * | 2019-06-28 | 2019-10-25 | 上海交通大学 | 基于直接法的视觉里程计方法、系统及存储介质 |
CN110763251A (zh) * | 2019-10-18 | 2020-02-07 | 华东交通大学 | 视觉惯性里程计优化的方法及系统 |
CN111052183A (zh) * | 2017-09-04 | 2020-04-21 | 苏黎世大学 | 利用事件相机的视觉惯性里程计 |
CN111861874A (zh) * | 2020-07-22 | 2020-10-30 | 苏州大学 | 一种稠密化单目slam特征点地图的方法 |
CN112649016A (zh) * | 2020-12-09 | 2021-04-13 | 南昌大学 | 一种基于点线初始化的视觉惯性里程计方法 |
-
2021
- 2021-05-20 CN CN202110554563.5A patent/CN113203407B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103985155A (zh) * | 2014-05-14 | 2014-08-13 | 北京理工大学 | 基于映射法的散乱点云Delaunay三角剖分曲面重构方法 |
US20190234746A1 (en) * | 2016-09-14 | 2019-08-01 | Zhejiang University | Method for simultaneous localization and mapping |
CN106441292A (zh) * | 2016-09-28 | 2017-02-22 | 哈尔滨工业大学 | 一种基于众包imu惯导数据的楼宇室内平面图建立方法 |
CN111052183A (zh) * | 2017-09-04 | 2020-04-21 | 苏黎世大学 | 利用事件相机的视觉惯性里程计 |
CN110030994A (zh) * | 2019-03-21 | 2019-07-19 | 东南大学 | 一种基于单目的鲁棒性视觉惯性紧耦合定位方法 |
CN110375765A (zh) * | 2019-06-28 | 2019-10-25 | 上海交通大学 | 基于直接法的视觉里程计方法、系统及存储介质 |
CN110763251A (zh) * | 2019-10-18 | 2020-02-07 | 华东交通大学 | 视觉惯性里程计优化的方法及系统 |
CN111861874A (zh) * | 2020-07-22 | 2020-10-30 | 苏州大学 | 一种稠密化单目slam特征点地图的方法 |
CN112649016A (zh) * | 2020-12-09 | 2021-04-13 | 南昌大学 | 一种基于点线初始化的视觉惯性里程计方法 |
Non-Patent Citations (1)
Title |
---|
冯文雯;陈;余虹亮;欧元汉;: "基于约束Delaunay三角形的多视3D重建", 计算机应用与软件, no. 07 * |
Also Published As
Publication number | Publication date |
---|---|
CN113203407B (zh) | 2024-01-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112347840B (zh) | 视觉传感器激光雷达融合无人机定位与建图装置和方法 | |
Nüchter et al. | 6D SLAM—3D mapping outdoor environments | |
Sola et al. | Fusing monocular information in multicamera SLAM | |
CN111047620A (zh) | 一种基于深度点线特征的无人机视觉里程计方法 | |
EP2597620B1 (en) | Structure discovery in a point cloud | |
CN104077809B (zh) | 基于结构性线条的视觉slam方法 | |
CN111595334B (zh) | 基于视觉点线特征与imu紧耦合的室内自主定位方法 | |
CN107462897B (zh) | 基于激光雷达的三维建图的方法 | |
CN111553292A (zh) | 一种基于点云数据的岩体结构面识别与产状分类方法 | |
CN106097431A (zh) | 一种基于三维栅格地图的物体整体识别方法 | |
Alidoost et al. | An image-based technique for 3D building reconstruction using multi-view UAV images | |
Li et al. | Leveraging planar regularities for point line visual-inertial odometry | |
CN112785596B (zh) | 基于dbscan聚类的点云图螺栓分割和高度测量方法 | |
Du et al. | Visual measurement system for roadheaders pose detection in mines | |
CN116449384A (zh) | 基于固态激光雷达的雷达惯性紧耦合定位建图方法 | |
CN113791400A (zh) | 一种基于激光雷达的楼梯参数自主检测方法 | |
CN116772844A (zh) | 一种基于动态环境下的视觉惯性室内机器人的导航方法 | |
Luo et al. | Multisensor integrated stair recognition and parameters measurement system for dynamic stair climbing robots | |
Kostavelis et al. | Visual odometry for autonomous robot navigation through efficient outlier rejection | |
CN115639547A (zh) | 多线激光雷达与gnss_ins联合标定方法、系统及介质 | |
Koch et al. | Wide-area egomotion estimation from known 3d structure | |
CN105205859B (zh) | 一种基于三维栅格地图的环境特征的相似性度量方法 | |
CN113160401B (zh) | 一种面向物体的视觉slam轻量化语义地图创建方法 | |
Rothermel et al. | Fast and robust generation of semantic urban terrain models from UAV video streams | |
CN113393413B (zh) | 基于单目与双目视觉协同的水域面积测量方法和系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |