CN113837277A - 一种基于视觉点线特征优化的多源融合slam系统 - Google Patents
一种基于视觉点线特征优化的多源融合slam系统 Download PDFInfo
- Publication number
- CN113837277A CN113837277A CN202111123551.3A CN202111123551A CN113837277A CN 113837277 A CN113837277 A CN 113837277A CN 202111123551 A CN202111123551 A CN 202111123551A CN 113837277 A CN113837277 A CN 113837277A
- Authority
- CN
- China
- Prior art keywords
- feature
- visual
- line
- point
- depth
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000000007 visual effect Effects 0.000 title claims abstract description 59
- 238000005457 optimization Methods 0.000 title claims abstract description 35
- 230000004927 fusion Effects 0.000 title claims abstract description 24
- 238000000034 method Methods 0.000 claims abstract description 22
- 238000000605 extraction Methods 0.000 claims abstract description 15
- 239000011159 matrix material Substances 0.000 claims description 24
- 230000008859 change Effects 0.000 claims description 8
- 238000005259 measurement Methods 0.000 claims description 8
- 238000004364 calculation method Methods 0.000 claims description 5
- 230000010354 integration Effects 0.000 claims description 3
- 230000008569 process Effects 0.000 claims description 3
- 238000005070 sampling Methods 0.000 claims description 3
- 238000013519 translation Methods 0.000 claims description 3
- 238000010276 construction Methods 0.000 claims 1
- 238000013507 mapping Methods 0.000 abstract description 10
- 230000000694 effects Effects 0.000 abstract description 6
- 230000007547 defect Effects 0.000 description 4
- 238000001914 filtration Methods 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 238000005034 decoration Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 239000000969 carrier Substances 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000009977 dual effect Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 230000000737 periodic effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
Landscapes
- Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于视觉点线特征优化的多源融合SLAM系统。首先提出一种改进尺度空间的视觉线特征提取方法,并利用基于最小二范数的约束匹配策略对前后帧间同一线特征进行约束匹配,为视觉里程计前端提供更为丰富的特征信息。其次将多帧激光点云投影到视觉坐标系中,实现激光点云和视觉特征深度关联,并利用视觉初始位姿估计结果辅助优化激光雷达扫描匹配精度。最后采用基于贝叶斯网络的因子图法搭建激光‑视觉‑惯性里程计系统,并引入GNSS因子和回环因子对激光‑视觉‑惯性里程计进行全局约束。通过实验对比可知,本算法在实时性、定位精度和建图效果方面均优于同类算法,可以在EuROC数据集中实现定位和建图精度均较优的实时位姿估计。
Description
技术领域
本发明属于多传感器即时定位与建图方案领域,具体涉及一种基于视觉点线特征优化的多源融合SLAM系统。
背景技术
基于SLAM(Simultaneous Localization and Mapping,即时定位与建图)的多源融合定位技术是移动载体高精度定位领域的关键技术之一。根据传感器不同,可将其分为激光SLAM和视觉SLAM两类,由于激光雷达扫描角度受限和视觉里程计受光照变化影响显著等单一传感器的固有缺陷,近年来,激光雷达-视觉-惯性里程计(LiDAR-Visual-InertialOdometry,LVIO)因其多传感器异质互补的优势已成为SLAM的研究热点。
现有的LVIO多源融合策略可以从前端和后端两个角度进行阐述,首先是前端融合策略。LVIO常采用激光雷达为单目视觉提供深度信息,改善视觉特征的尺度模糊性;反之,激光雷达利用视觉的特征提取来支持扫描匹配。因此,视觉特征的数量和质量深度影响融合系统的位姿精度。现有融合系统中视觉里程计以提取点特征为主,在弱纹理环境中难以提取丰富的有效特征,导致激光雷达扫描匹配失效。因此,需添加对环境纹理和光度变化更为鲁棒的线特征对激光雷达进行额外特征约束。基于点线特征的的视觉SLAM已有相关研究,如PL-VIO、PL-VINS等,但并未广泛应用至LVIO系统。
从后端融合策略的角度,可根据优化算法不同将LVIO分为基于滤波法和因子图法两类。滤波法虽然易于实现多源融合参数估计,但存在增减传感器需频繁重构的原理性缺陷。而因子图法作为新兴方法,因其即插即用的特性可有效提升单一传感器失效时SLAM系统的鲁棒性,适用于处理LVIO此类异质异构非周期数据融合问题。此外,由于LVIO处于局部坐标系中,存在累计误差等固有缺陷,需采用GNSS(Global Navigation SatelliteSystem,全球卫星导航系统)全局定位信息对其进行校正。而采用扩展卡尔曼滤波的方法将GPS定位信息与激光雷达位姿估计值进行松耦合,但存在单次线性化误差大的弊端。而基于因子图法的融合GNSS因子的LVIO框架,可通过滑窗多次迭代优化位姿估计值,但因子图中单一关键帧的量测信息过多导致信息冗余,计算成本较高。
因此,需提出一种基于视觉点线特征优化的多源融合SLAM系统,利用多传感器异质互补的优势提升融合系统在复杂环境中的精度和普适性。
发明内容
为解决上述问题,本发明公开了一种基于视觉点线特征优化的多源融合SLAM系统,在实时性、定位精度和建图效果方面均优于同类算法,可以在EuROC数据集中实现定位和建图精度均较优的实时位姿估计。
为达到上述目的,本发明的技术方案如下:
一种基于视觉点线特征优化的多源融合SLAM系统,具体方法如下:
(1)改进尺度空间的线特征提取
本发明选用精度较高且无需调节显式参数的LSD算法作为线特征提取算法。根据底层参数优化策略,本发明提出一种改进尺度空间的LSD算法,并提出一种最小几何约束法实现线特征约束匹配。
给定一个N层高斯金字塔作为LSD线特征的尺度空间,定义每层中图像尺度缩放比为s,缩放图像s倍后进行一次降采样,得到所有像素梯度值,并根据同性点密度进行像素梯度矩形合并,得到一个类似矩形的线段l。矩形内的同性点密度d可表示为:
其中,k为矩形内像素点总数,D为同位点密度阈值。不同s和D取值影响在数据集中算法运行精度和实时性,本发明选用s=0.5,D=0.5。
(2)基于最小二范数的线特征约束匹配
考虑到载体移动过程中同一线特征对的角度与平移变化,为保证前后帧间提取的线特征匹配总误差最小,可构建一个最小化的稀疏矩阵模型。
不同于特征提取时同一帧内不同线特征的邻线合并,基于最小二范数的约束匹配的对象是连续两帧间角度与距离改变的同一线特征对。假设两连续帧间匹配所得的所有线特征对:
Fij={(li,lj)|j∈[1,n]} [2]
其中,li和lj分别为前帧和后帧内提取的任一线特征,n为后帧内的线特征总数。
根据帧间线特征变化情况,可设参数矩阵为eij=[θij,μij,ρij,dij]T,θij为前后帧间同一线特征夹角,dij为平移距离,μij和ρij分别为前后帧间线特征投影比和长度比。利用参数矩阵可构建后帧对于li的线性约束矩阵Ai=[ei1,...eij,ein]。设li的匹配判别向量目标向量为mi=[mi1,...mij,...min]T,各分量的值由特征匹配结果决定,匹配为1,不匹配为0。若∑min=1,则满足线性约束Aimi=t,由此,可以将线特征匹配问题优化为一个基于最小二范数的约束匹配方程:
其中,λ为权重系数,t=[0,1,1,0]T为约束目标向量。
(3)激光雷达辅助特征深度关联
为改善单目相机的尺度模糊性,可采用激光雷达辅助深度关联。由于激光雷达分辨率远低于相机,仅使用单帧稀疏点云深度关联将导致大量视觉特征深度缺失。因此,本发明采用叠加多帧稀疏点云的策略获得点云深度值,从而与视觉特征建立深度关联。
其中,和分别为{L}到{Vg}的旋转矩阵和外参矩阵。以f1 V为根节点建立KD树搜索球体上三个最近的深度点d1,d2,d3,连接f1 V与相机中心O交d1,d2,d3于Od,则f1 V的特征深度为f1 VOd。
为解决叠加多帧稀疏点云后导致深度值与特征点云的非单射情况,本发明设定了深度剔除阈值ζ=1.8m,一个视觉特征对应的所有深度点中,大于阈值的深度点将被剔除。
(4)基于因子图的激光-视觉-惯性里程计-GNSS优化框架
构建世界坐标系内的全局状态向量为:
其中,xi表示IMU预积分后提供的位置pi,旋转四元数qi,速度vi和IMU偏置bi;λp表示空间内视觉点特征的逆深度,οl表示视觉线特征的正交化坐标,和分别为激光雷达特征点到与之匹配的边缘线和特征面的距离。由此,可以构造一个最大后验估计问题,即利用高斯-牛顿法最小化所有代价函数,从而对滑动窗口内的状态向量进行非线性优化:
公式中各传感器代价函数的具体含义如下所述。
①视觉线特征因子
②激光雷达因子
激光雷达辅助单目视觉深度关联后,VIO将为激光雷达提供视觉初始位姿估计值,用以校正激光雷达点云的运动畸变,提高扫描匹配精度。本发明涉及的激光雷达相邻关键帧间扫描匹配的误差可由特征点到与之匹配的边缘线和特征面的距离表示:
③GNSS因子及回环因子
当载体运动至GNSS信号良好区域,可添加GNSS因子与局部传感器共同优化。设两帧GNSS观测值时间间隔为△t,给定ENU坐标系中的GNSS测量值LVIO在△t内在的位置增量则GNSS因子可用以下观测残差表示:
基于轻量化原则,本发明仅当GNSS测量值协方差小于LVIO位姿估计值时,才将其视为置信因子加入因子图优化中。回环因子同理,仅当检测到运动轨迹回环时才在因子图中加入回环因子,以提升位姿估计精度和计算效率。
本发明的有益效果是:
本发明提出了一种基于视觉点线特征优化的多源SLAM算法:首先,提出了一种改进尺度空间的线特征提取和基于最小二范数的约束匹配策略,为视觉里程计前端提供更为丰富的特征信息。其次,将多帧激光点云投影到视觉坐标系中实现特征深度关联,并利用视觉初始位姿估计结果辅助优化激光雷达扫描匹配精度。最后,采用基于贝叶斯网络的因子图法搭建LVIO融合系统,并引入GNSS因子和回环因子对LVIO进行全局约束。通过实验对比可知,在EuROC数据集中,本算法在实时性、定位精度和建图效果方面均优于同类算法。
附图说明
图1是本系统建图效果图;
图2是特征深度关联原理图;
图3是本系统与其他算法运行时间对比图。
具体实施方式
下面结合附图和具体实施方式,进一步阐明本发明,应理解下述具体实施方式仅用于说明本发明而不用于限制本发明的范围。
如图所示,本发明所述的一种基于视觉点线特征优化的多源融合SLAM系统,具体方法如下:
(1)改进尺度空间的线特征提取
本发明选用精度较高且无需调节显式参数的LSD算法作为线特征提取算法。根据底层参数优化策略,本发明提出一种改进尺度空间的LSD算法,并提出一种最小几何约束法实现线特征约束匹配。
给定一个N层高斯金字塔作为LSD线特征的尺度空间,定义每层中图像尺度缩放比为s,缩放图像s倍后进行一次降采样,得到所有像素梯度值,并根据同性点密度进行像素梯度矩形合并,得到一个类似矩形的线段l。矩形内的同性点密度d可表示为:
其中,k为矩形内像素点总数,D为同位点密度阈值。不同s和D取值影响在数据集中算法运行精度和实时性,本发明选用s=0.5,D=0.5。
(2)基于最小二范数的线特征约束匹配
考虑到载体移动过程中同一线特征对的角度与平移变化,为保证前后帧间提取的线特征匹配总误差最小,可构建一个最小化的稀疏矩阵模型。
不同于特征提取时同一帧内不同线特征的邻线合并,基于最小二范数的约束匹配的对象是连续两帧间角度与距离改变的同一线特征对。假设两连续帧间匹配所得的所有线特征对:
Fij={(li,lj)|j∈[1,n]} [12]
其中,li和lj分别为前帧和后帧内提取的任一线特征,n为后帧内的线特征总数。
根据帧间线特征变化情况,可设参数矩阵为eij=[θij,μij,ρij,dij]T,θij为前后帧间同一线特征夹角,dij为平移距离,μij和ρij分别为前后帧间线特征投影比和长度比。利用参数矩阵可构建后帧对于li的线性约束矩阵Ai=[ei1,...eij,ein]。设li的匹配判别向量目标向量为mi=[mi1,...mij,...min]T,各分量的值由特征匹配结果决定,匹配为1,不匹配为0。若∑min=1,则满足线性约束Aimi=t,由此,可以将线特征匹配问题优化为一个基于最小二范数的约束匹配方程:
其中,λ为权重系数,t=[0,1,1,0]T为约束目标向量。
(3)激光雷达辅助特征深度关联
为改善单目相机的尺度模糊性,可采用激光雷达辅助深度关联。由于激光雷达分辨率远低于相机,仅使用单帧稀疏点云深度关联将导致大量视觉特征深度缺失。因此,本发明采用叠加多帧稀疏点云的策略获得点云深度值,从而与视觉特征建立深度关联。
其中,和分别为{L}到{Vg}的旋转矩阵和外参矩阵。以f1 V为根节点建立KD树搜索球体上三个最近的深度点d1,d2,d3,连接f1 V与相机中心O交d1,d2,d3于Od,则f1 V的特征深度为f1 VOd。
为解决叠加多帧稀疏点云后导致深度值与特征点云的非单射情况,本发明设定了深度剔除阈值ζ=1.8m,一个视觉特征对应的所有深度点中,大于阈值的深度点将被剔除。
(4)基于因子图的激光-视觉-惯性里程计-GNSS优化框架
构建世界坐标系内的全局状态向量为:
其中,xi表示IMU预积分后提供的位置pi,旋转四元数qi,速度vi和IMU偏置bi;λp表示空间内视觉点特征的逆深度,οl表示视觉线特征的正交化坐标,和分别为激光雷达特征点到与之匹配的边缘线和特征面的距离。由此,可以构造一个最大后验估计问题,即利用高斯-牛顿法最小化所有代价函数,从而对滑动窗口内的状态向量进行非线性优化:
公式中各传感器代价函数的具体含义如下所述。
①视觉线特征因子
②激光雷达因子
激光雷达辅助单目视觉深度关联后,VIO将为激光雷达提供视觉初始位姿估计值,用以校正激光雷达点云的运动畸变,提高扫描匹配精度。本发明涉及的激光雷达相邻关键帧间扫描匹配的误差可由特征点到与之匹配的边缘线和特征面的距离表示:
③GNSS因子及回环因子
当载体运动至GNSS信号良好区域,可添加GNSS因子与局部传感器共同优化。设两帧GNSS观测值时间间隔为△t,给定ENU坐标系中的GNSS测量值LVIO在△t内在的位置增量则GNSS因子可用以下观测残差表示:
基于轻量化原则,本发明仅当GNSS测量值协方差小于LVIO位姿估计值时,才将其视为置信因子加入因子图优化中。回环因子同理,仅当检测到运动轨迹回环时才在因子图中加入回环因子,以提升位姿估计精度和计算效率。
下面根据公共数据集实验对本发明的技术方案的定位精度和建图效果进行对比验证。首先利用EuROC数据集评估算法在室内环境中位姿估计结果,评估策略为通过比较数据集真值与算法输出位姿估计结果,求取平均轨迹误差(Mean Error)值和绝对轨迹误差的均方根误差(APE_RMSE)值。
数据集测试结果如下表所示:
表1各算法在EuROC数据集内的位姿估计误差
Table.1 Motion estimation errors of each algorithm in EuROC dataset
由上表可知,在EuROC数据集实验中,得益于视觉点线特征优化的前端和因子图优化后端的双重作用,本算法较三种常用的VIO算法(Vins_Mono、PL-VIO和PL-VINS)的平均轨迹误差和绝对轨迹精度明显较优,在室内环境数据集中可得到精确的位姿估计结果。
通过测试结果可知,本发明提出的一种基于视觉点线特征优化的多源融合SLAM系统,在实时性、定位精度和建图效果方面均优于同类算法,可以在EuROC数据集中实现定位和建图精度均较优的实时位姿估计。
需要说明的是,以上内容仅仅说明了本发明的技术思想,不能以此限定本发明的保护范围,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰均落入本发明权利要求书的保护范围之内。
Claims (5)
1.一种基于视觉点线特征优化的多源融合SLAM系统,其特征在于:具体方法如下:
(1)改进尺度空间的线特征提取
选用LSD算法作为线特征提取算法;根据底层参数优化策略,采用一种改进尺度空间的LSD算法,并提出一种最小几何约束法实现线特征约束匹配;具体操作如下
给定一个N层高斯金字塔作为LSD线特征的尺度空间,定义每层中图像尺度缩放比为s,缩放图像s倍后进行一次降采样,得到所有像素梯度值,并根据同性点密度进行像素梯度矩形合并,得到一个类似矩形的线段l;矩形内的同性点密度d表示为:
其中,k为矩形内像素点总数,D为同位点密度阈值;不同s和D取值影响在数据集中算法运行精度和实时性,此处选用s=0.5,D=0.5;
(2)基于最小二范数的线特征约束匹配
考虑到载体移动过程中同一线特征对的角度与平移变化,为保证前后帧间提取的线特征匹配总误差最小,构建一个最小化的稀疏矩阵模型;
不同于特征提取时同一帧内不同线特征的邻线合并,基于最小二范数的约束匹配的对象是连续两帧间角度与距离改变的同一线特征对;假设两连续帧间匹配所得的所有线特征对:
Fij={(li,lj)|j∈[1,n]} [2]
其中,li和lj分别为前帧和后帧内提取的任一线特征,n为后帧内的线特征总数;
根据帧间线特征变化情况,设参数矩阵为eij=[θij,μij,ρij,dij]T,θij为前后帧间同一线特征夹角,dij为平移距离,μij和ρij分别为前后帧间线特征投影比和长度比;利用参数矩阵构建后帧对于li的线性约束矩阵Ai=[ei1,...eij,ein];设li的匹配判别向量目标向量为mi=[mi1,...mij,...min]T,各分量的值由特征匹配结果决定,匹配为1,不匹配为0;若∑min=1,则满足线性约束Aimi=t,由此,将线特征匹配问题优化为一个基于最小二范数的约束匹配方程:
其中,λ为权重系数,t=[0,1,1,0]T为约束目标向量;
(3)激光雷达辅助特征深度关联
为改善单目相机的尺度模糊性,采用激光雷达辅助深度关联;由于激光雷达分辨率远低于相机,仅使用单帧稀疏点云深度关联将导致大量视觉特征深度缺失;因此,采用叠加多帧稀疏点云的策略获得点云深度值,从而与视觉特征建立深度关联;
其中,和分别为{L}到{Vg}的旋转矩阵和外参矩阵;以f1 V为根节点建立KD树搜索球体上三个最近的深度点d1,d2,d3,连接f1 V与相机中心O交d1,d2,d3于Od,则f1 V的特征深度为f1 VOd;
为解决叠加多帧稀疏点云后导致深度值与特征点云的非单射情况,设定深度剔除阈值ζ=1.8m,一个视觉特征对应的所有深度点中,大于阈值的深度点将被剔除;
(4)基于因子图的激光-视觉-惯性里程计-GNSS优化框架
构建世界坐标系内的全局状态向量为:
其中,xi表示IMU预积分后提供的位置pi,旋转四元数qi,速度vi和IMU偏置bi;λp表示空间内视觉点特征的逆深度,οl表示视觉线特征的正交化坐标,和分别为激光雷达特征点到与之匹配的边缘线和特征面的距离;由此,构造一个最大后验估计问题,即利用高斯-牛顿法最小化所有代价函数,从而对滑动窗口内的状态向量进行非线性优化:
公式中各传感器代价函数的具体含义如下所述;
①视觉线特征因子
②激光雷达因子
激光雷达辅助单目视觉深度关联后,VIO将为激光雷达提供视觉初始位姿估计值,用以校正激光雷达点云的运动畸变,提高扫描匹配精度;此处涉及的激光雷达相邻关键帧间扫描匹配的误差由特征点到与之匹配的边缘线和特征面的距离表示:
③GNSS因子及回环因子
当载体运动至GNSS信号良好区域,添加GNSS因子与局部传感器共同优化;设两帧GNSS观测值时间间隔为△t,给定ENU坐标系中的GNSS测量值LVIO在△t内在的位置增量则GNSS因子用以下观测残差表示:
基于轻量化原则,仅当GNSS测量值协方差小于LVIO位姿估计值时,才将其视为置信因子加入因子图优化中;回环因子同理,仅当检测到运动轨迹回环时才在因子图中加入回环因子,以提升位姿估计精度和计算效率。
2.根据权利要求1所述的一种基于视觉点线特征优化的多源融合SLAM系统,其特征在于,步骤(1)所述的改进尺度空间的线特征提取方法,通过底层参数优化策略,推导线特征提取时的同性点密度公式,在改进尺度空间中进行视觉线特征提取。
3.根据权利要求1所述的一种基于视觉点线特征优化的多源融合SLAM系统,其特征在于,步骤(2)所述的基于最小二范数的线特征约束匹配方法,利用前后帧间同一线特征偏移角、偏移距离、投影比和长度比建立构建一个最小化的稀疏矩阵模型,对前后图像帧间同一线特征进行约束匹配。
4.根据权利要求1所述的一种基于视觉点线特征优化的多源融合SLAM系统,其特征在于,步骤(3)所述激光雷达辅助特征深度关联,利用叠加多帧激光点云得到点云深度值,并将其投影在以视觉特征为球心的单位球面,利用相机中心与视觉特征点连线获得深度值,建立激光雷达与视觉特征的深度关联。
5.根据权利要求1所述的一种基于视觉点线特征优化的多源融合SLAM系统,其特征在于,步骤(4)中所述的基于因子图的激光-视觉-惯性里程计-GNSS优化框架,利用先验信息,IMU残差,视觉点线特征重投影误差,激光雷达残差构建非线性优化方程;当GNSS测量值协方差小于激光-视觉-惯性里程计位姿估计值时,将GNSS因子视为置信因子加入因子图优化中;当检测到运动轨迹回环时;将回环因子加入因子图优化中,以提升位姿估计精度和计算效率。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111123551.3A CN113837277B (zh) | 2021-09-24 | 2021-09-24 | 一种基于视觉点线特征优化的多源融合slam系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111123551.3A CN113837277B (zh) | 2021-09-24 | 2021-09-24 | 一种基于视觉点线特征优化的多源融合slam系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113837277A true CN113837277A (zh) | 2021-12-24 |
CN113837277B CN113837277B (zh) | 2022-11-18 |
Family
ID=78969872
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111123551.3A Active CN113837277B (zh) | 2021-09-24 | 2021-09-24 | 一种基于视觉点线特征优化的多源融合slam系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113837277B (zh) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114429432A (zh) * | 2022-04-07 | 2022-05-03 | 科大天工智能装备技术(天津)有限公司 | 一种多源信息分层融合方法、装置及存储介质 |
CN114608561A (zh) * | 2022-03-22 | 2022-06-10 | 中国矿业大学 | 一种基于多传感器融合的定位与建图方法及系统 |
CN115143958A (zh) * | 2022-04-28 | 2022-10-04 | 西南科技大学 | 一种基于gpu加速的多传感器融合的slam方法 |
CN116468786A (zh) * | 2022-12-16 | 2023-07-21 | 中国海洋大学 | 一种面向动态环境的基于点线联合的语义slam方法 |
CN116989763A (zh) * | 2023-05-10 | 2023-11-03 | 广东工业大学 | 一种面向水陆两用无人系统的融合定位与建图方法 |
CN117170501A (zh) * | 2023-08-24 | 2023-12-05 | 北京自动化控制设备研究所 | 基于点线融合特征的视觉跟踪方法 |
CN117168441A (zh) * | 2023-11-02 | 2023-12-05 | 西安因诺航空科技有限公司 | 一种多传感器融合的slam定位和重建方法及系统 |
US11875534B2 (en) * | 2022-03-02 | 2024-01-16 | Guangdong University Of Technology | Pose estimation method for unmanned aerial vehicle based on point line and plane feature fusion |
CN118172422A (zh) * | 2024-05-09 | 2024-06-11 | 武汉大学 | 视觉、惯性与激光协同的兴趣目标定位成像方法与装置 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112258600A (zh) * | 2020-10-19 | 2021-01-22 | 浙江大学 | 一种基于视觉与激光雷达的同时定位与地图构建方法 |
JP6852936B1 (ja) * | 2019-11-15 | 2021-03-31 | 広東工業大学Guangdong University Of Technology | 深度点線特徴に基づくドローン視覚走行距離計方法 |
WO2021147546A1 (zh) * | 2020-01-20 | 2021-07-29 | 深圳市普渡科技有限公司 | 多传感器融合slam系统、多传感器融合方法及机器人、介质 |
CN113376669A (zh) * | 2021-06-22 | 2021-09-10 | 东南大学 | 一种基于点线特征的单目vio-gnss融合定位算法 |
-
2021
- 2021-09-24 CN CN202111123551.3A patent/CN113837277B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6852936B1 (ja) * | 2019-11-15 | 2021-03-31 | 広東工業大学Guangdong University Of Technology | 深度点線特徴に基づくドローン視覚走行距離計方法 |
WO2021147546A1 (zh) * | 2020-01-20 | 2021-07-29 | 深圳市普渡科技有限公司 | 多传感器融合slam系统、多传感器融合方法及机器人、介质 |
CN112258600A (zh) * | 2020-10-19 | 2021-01-22 | 浙江大学 | 一种基于视觉与激光雷达的同时定位与地图构建方法 |
CN113376669A (zh) * | 2021-06-22 | 2021-09-10 | 东南大学 | 一种基于点线特征的单目vio-gnss融合定位算法 |
Non-Patent Citations (1)
Title |
---|
王丹等: "基于点线特征的单目视觉同时定位与地图构建算法", 《机器人》 * |
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11875534B2 (en) * | 2022-03-02 | 2024-01-16 | Guangdong University Of Technology | Pose estimation method for unmanned aerial vehicle based on point line and plane feature fusion |
CN114608561A (zh) * | 2022-03-22 | 2022-06-10 | 中国矿业大学 | 一种基于多传感器融合的定位与建图方法及系统 |
CN114608561B (zh) * | 2022-03-22 | 2024-04-26 | 中国矿业大学 | 一种基于多传感器融合的定位与建图方法及系统 |
CN114429432B (zh) * | 2022-04-07 | 2022-06-21 | 科大天工智能装备技术(天津)有限公司 | 一种多源信息分层融合方法、装置及存储介质 |
CN114429432A (zh) * | 2022-04-07 | 2022-05-03 | 科大天工智能装备技术(天津)有限公司 | 一种多源信息分层融合方法、装置及存储介质 |
CN115143958A (zh) * | 2022-04-28 | 2022-10-04 | 西南科技大学 | 一种基于gpu加速的多传感器融合的slam方法 |
CN116468786B (zh) * | 2022-12-16 | 2023-12-26 | 中国海洋大学 | 一种面向动态环境的基于点线联合的语义slam方法 |
CN116468786A (zh) * | 2022-12-16 | 2023-07-21 | 中国海洋大学 | 一种面向动态环境的基于点线联合的语义slam方法 |
CN116989763A (zh) * | 2023-05-10 | 2023-11-03 | 广东工业大学 | 一种面向水陆两用无人系统的融合定位与建图方法 |
CN117170501A (zh) * | 2023-08-24 | 2023-12-05 | 北京自动化控制设备研究所 | 基于点线融合特征的视觉跟踪方法 |
CN117170501B (zh) * | 2023-08-24 | 2024-05-03 | 北京自动化控制设备研究所 | 基于点线融合特征的视觉跟踪方法 |
CN117168441A (zh) * | 2023-11-02 | 2023-12-05 | 西安因诺航空科技有限公司 | 一种多传感器融合的slam定位和重建方法及系统 |
CN117168441B (zh) * | 2023-11-02 | 2024-02-20 | 西安因诺航空科技有限公司 | 一种多传感器融合的slam定位和重建方法及系统 |
CN118172422A (zh) * | 2024-05-09 | 2024-06-11 | 武汉大学 | 视觉、惯性与激光协同的兴趣目标定位成像方法与装置 |
CN118172422B (zh) * | 2024-05-09 | 2024-07-26 | 武汉大学 | 视觉、惯性与激光协同的兴趣目标定位成像方法与装置 |
Also Published As
Publication number | Publication date |
---|---|
CN113837277B (zh) | 2022-11-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113837277B (zh) | 一种基于视觉点线特征优化的多源融合slam系统 | |
Zhu et al. | Camvox: A low-cost and accurate lidar-assisted visual slam system | |
CN110261870B (zh) | 一种用于视觉-惯性-激光融合的同步定位与建图方法 | |
CN112102458B (zh) | 基于激光雷达点云数据辅助的单镜头三维图像重构方法 | |
WO2021232470A1 (zh) | 基于多传感器融合的slam制图方法、系统 | |
WO2022188094A1 (zh) | 一种点云匹配方法及装置、导航方法及设备、定位方法、激光雷达 | |
CN107590827A (zh) | 一种基于Kinect的室内移动机器人视觉SLAM方法 | |
Qu et al. | Landmark based localization in urban environment | |
CN113658337B (zh) | 一种基于车辙线的多模态里程计方法 | |
CN110807809A (zh) | 基于点线特征和深度滤波器的轻量级单目视觉定位方法 | |
Kunz et al. | Map building fusing acoustic and visual information using autonomous underwater vehicles | |
CN112556719B (zh) | 一种基于cnn-ekf的视觉惯性里程计实现方法 | |
CN113223045B (zh) | 基于动态物体语义分割的视觉与imu传感器融合定位系统 | |
CN113376669B (zh) | 一种基于点线特征的单目vio-gnss融合定位算法 | |
CN115880364B (zh) | 基于激光点云和视觉slam的机器人位姿估计方法 | |
CN115407357A (zh) | 基于大场景的低线束激光雷达-imu-rtk定位建图算法 | |
CN115031718B (zh) | 一种多传感器融合的无人船同步定位与建图方法(slam)及系统 | |
Pirker et al. | GPSlam: Marrying Sparse Geometric and Dense Probabilistic Visual Mapping. | |
Zhang | LILO: A novel LiDAR–IMU SLAM system with loop optimization | |
CN116448100A (zh) | 一种多传感器融合的近岸无人船slam方法 | |
CN115824190A (zh) | 基于视觉与gps的目标船融合定位方法 | |
CN115218889A (zh) | 一种基于点线特征融合的多传感器室内定位方法 | |
CN115355904A (zh) | 一种针对地面移动机器人的Lidar-IMU融合的slam方法 | |
CN113781525B (zh) | 一种基于原始cad模型的三维目标跟踪方法 | |
Zhang et al. | LVIO-Fusion: Tightly-Coupled LiDAR-Visual-Inertial Odometry and Mapping in Degenerate Environments |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |