CN114004900A - 一种基于点线面特征的室内双目视觉里程计方法 - Google Patents
一种基于点线面特征的室内双目视觉里程计方法 Download PDFInfo
- Publication number
- CN114004900A CN114004900A CN202111360538.XA CN202111360538A CN114004900A CN 114004900 A CN114004900 A CN 114004900A CN 202111360538 A CN202111360538 A CN 202111360538A CN 114004900 A CN114004900 A CN 114004900A
- Authority
- CN
- China
- Prior art keywords
- line
- formula
- representing
- frame image
- manhattan
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
- G06T7/85—Stereo camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
- G06F18/232—Non-hierarchical techniques
- G06F18/2321—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
- G06F18/23213—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
Abstract
本发明公开了一种基于点线面特征的双目视觉里程计方法,针对于室内结构化环境做出曼哈顿世界假设,利用相交线对的参数计算面特征和高斯球面均值漂移聚类算法优化曼哈顿世界坐标系,以此基于线面特征实现无漂移旋转估计,基于点线特征的重投影函数估计平移矩阵以此获取最优相机位姿。本发明针对于室内结构化环境,解决低纹理、低语义和光曝强的人造结构化环境下视觉SLAM系统信息利用率低、计算代价高昂和重定位失准和等问题,从而能提高系统鲁棒性、实时性和定位精度。
Description
技术领域
本发明属于移动机器人同步定位与地图构建技术领域,涉及一种多特征融合的双目视觉里程计方法。
背景技术
视觉SLAM通过相机作为环境信息读取设备,使机器人在运动过程中进行自身定位并且创建环境地图,同时对地图进行实时修正消除误差。机器人运动时通过SLAM所构建地图的质量直接对此之后的路径规划、导航定位以及避障等应用起着决定性的作用。此项技术已被证明在广泛的应用中起到决定性作用,例如移动机器人、自动驾驶汽车和增强/虚拟现实,其中准确的相机位姿估计使汽车、机器人等移动设备能够自身定位,构建地图提供环境信息用于机器人与环境和机器人与人的交互。
在现有的研究成果中,主流的视觉SLAM方法之一为特征点法,通过环境提供的特征点信息进行匹配和数据关联估计相机位姿。近些年的研究中逐渐加入线特征信息以提升系统稳定性。而大多数SLAM方法仅只是使用点线特征进行定位追踪,即使两种特征已经能承载大多人造结构化场景中的结构信息,但是低纹理、低语义环境仍存在特征分布不均导致的定位精度低、实时性差和系统鲁棒性低等问题。针对于此,文献“Yanyan Li等人,Structure-SLAM:Low-Drift Monocular SLAM in Indoor Environments.IEEE Roboticsand Automation Letters(RAL),2020”充分利用结构化场景现有的几何信息,在点线特征的基础上加入面特征以实现相机跟踪过程的无漂移旋转估计。但输入图像帧的平面法线估计计算依靠卷积神经网络实现,一定程度上需要付出高昂的计算代价,影响系统轻量化程度。文献“Xiaoyu Zhang等人,Stereo Plane SLAM Based on Intersecting Lines.IEEEConference on Computer Vision and Pattern Recognition(CVPR),2020”提出通过双目相机在图像帧中基于相交线特征端点和方向向量参数化面特征的新方法,计算过程剔除估计错误的面特征使得漂移误差减小,系统性能有所提升。但此系统相机位姿估计仍基于传统方法,存在帧间平面特征数据关联计算量大,稳定性差的问题。
发明内容
本发明是为了解决上述现有技术存在的不足之处,提出基于点线面特征的室内双目视觉里程计方法,以期针对于室内结构化环境,能解决低纹理、低语义和光曝强的人造结构化环境下视觉SLAM系统信息利用率低、计算代价高昂和重定位失准和等问题,从而能提高系统鲁棒性、实时性和定位精度。
为达到上述目的,本发明提供如下技术方案:
本发明一种基于点线面特征的室内双目视觉里程计方法的特点在于,包括以下步骤:
步骤1、以双目相机为信息读取设备,标定所述双目相机的内参后对所采集的图像帧进行预处理,得到去噪后的第k帧图像;
步骤2、对于所述去噪后的第k帧图像提取ORB点特征;再采用改进的LSD算法提取所述去噪后的第k帧图像中的线特征,筛选出线特征中的相交线对;
步骤3、计算相交线对的端点3D位置(Pstart,Pend)和方向向量nl;
步骤4、根据所述相交线对的端点3D位置和方向向量获取面特征的参数;
步骤5、对双目相机所处的室内环境做出曼哈顿世界假设,以利用位姿估计解耦算法将所述双目相机的运动过程中的旋转和平移矩阵分别解算:
步骤5.1、基于曼哈顿世界假设估计旋转矩阵;
步骤5.2、构建基于ORB点特征和线特征的重投影误差函数,用于估计平移矩阵,从而估计双目相机帧间的运动位姿;
步骤6、判定经过跟踪线程预处理的第k帧图像是否为关键帧,若是,则用于构建局部地图,否则,返回步骤1。
本发明所述的一种基于点线面特征的室内双目视觉里程计方法的特点也在于,所述步骤4是按如下过程获取面特征的参数:
步骤4.1、利用式(1)得到相交线对的两线夹角θ,判定两线夹角θ是否大于阈值α;若是,则执行步骤4.2;否则返回步骤3;
式(1)中,nl1表示相交线对中线段1的方向向量,nl2表示相交线对中线段2的方向向量;
步骤4.2、判断相交线对中两线中心点的距离是否小于相交线对中任一线段的长度;若是,则执行步骤4.3;否则返回步骤3;
步骤4.3、判断相交线对中两线的四个端点是否在同一平面:
步骤4.3.1、利用式(2)得到所述相交线对所构成平面的法向量nπ:
nπ=nl1×nl2 (2)
de=-nπ(xe,ye,ze)T (3)
式(3)中,de表示第e个平面系数;(xe,ye,ze)表示第e个端点Pe的3D空间位置;
步骤4.3.4、利用式(5)得到最大平面系数差D:
D=max(de)-min(de) (5)
所述步骤5.1包括:
步骤5.1.1、建立曼哈顿世界坐标系M,通过高斯映射将所述平面法向量nπ投影至单位高斯球上;
步骤5.1.2、将所述法向量nπ再投影到曼哈顿世界坐标系M坐标轴的2D切平面上,所得到的投影向量记为nπ·project;
步骤5.1.3、在2D切平面上对投影向量nπ·project进行mean-shift聚类,从而利用式(7)得到聚类均值向量n′mean:
式(7)中,n表示第k帧图像中的平面法向量总数,g()表示高斯核函数;
步骤5.1.4、将聚类均值向量n′mean终点重投影至高斯球面上,记为s;s与所述高斯球球心连接的向量称为重投影向量,记为nmean;
步骤5.1.5、利用式(8)得到所述双目相机的当前旋转矩阵Rcurrent:
所述步骤5.2包括:
步骤5.2.1、利用式(12)定义第k帧图像中ORB点特征集合的重投影误差函数ek,o:
ek,o=pk,o-Π(Rk,k-1Pk,o+tk,k-1) (12)
式(12)中,Π()表示重投影函数,pk,o表示第k帧图像中ORB点特征的投影位置,Pk,o表示第k帧图像中ORB点特征的3D观测位置,Rk,k-1表示所述双目相机从第k-1帧图像运动至第k帧图像的旋转矩阵,tk,k-1表示所述双目相机从第k-1帧图像运动至第k帧图像的平移矩阵;
步骤5.2.2、根据第k帧图像中线特征的端点3D位置,利用式(13)得到归一化的线特征函数L:
式(13)中,Pstart表示线特征起点3D位置,Pend表示线特征终点3D位置;
步骤5.2.3、利用式(14)得到线特征端点Px的误差函数ek,l:
ek,l=L·Π(Rk,k-1Pk,x+tk,k-1) (14)
式(14)中,Pk,x表示第k帧图像中线特征端点x的3D观测位置;
步骤5.2.4、假设观测值服从高斯分布,则利用式(15)构建目标函数ψ*:
步骤5.2.5、利用Levenberg-Marquardt优化方法对所述目标函数ψ*进行迭代更新,从而得到最优平移矩阵,用于估计双目相机帧间的运动位姿。
与现有技术相比,本发明的有益效果在于:
1)本发明充分利用室内结构化环境中的点、线、面几何特征集,并合理做出曼哈顿世界假设,通过线面特征的数据关联,理论上实现无漂移旋转矩阵估计,解决累积误差主要来自旋转漂移的问题,同时优化相机平移矩阵的估计;有效保证在低纹理、低语义和动态曝光环境下相机运动过程中跟踪稳定,重定位准确快速;
2)基于本发明可以很好的在公开室内实验数据集上达到高效准确的建图效果,得利于多种特征的检测与提取,不仅反映机器人运动过程中周边环境的空间结构特征,丰富其所构建环境地图的特征信息,经其可协助处理完成各种评价、预测、规划与决策。
3)本发明在特征参数化方面,直接利用必要的线特征参数来计算参数化面特征,避免了通过卷积神经网络估计平面法向量,降低了实际处理过程中高昂的计算成本,保证了本发明的实时性、系统的轻量化和小型化。
附图说明
图1为本发明室内双目视觉里程计方法的流程示意图;
图2为本发明平面特征示意图;
图3为本发明曼哈顿世界坐标系示意图;
图4为本发明平面法向量投影示意图;
图5为本发明mean-shift聚类示意图;
图6为本发明双目相机运动模型示意图。
具体实施方式
本实施例中,如图1所示,一种基于点线面特征的室内双目视觉里程计方法,在Planar-SLAM系统的结构基础上进行改进,采用原系统相同的主体结构,主要针对系统前端跟踪线程采用位姿估计解耦算法,对室内结构化环境做出曼哈顿世界假设,利用相交线对的参数计算面特征和高斯球面均值漂移聚类算法优化曼哈顿世界坐标系,以此基于线面特征实现无漂移旋转估计,基于点线特征的重投影函数估计平移矩阵以此获取最优相机位姿。具体的说,包括以下步骤:
步骤1、以双目相机为信息读取设备,标定双目相机的内参后对所采集的图像帧进行预处理,得到去噪后的第k帧图像;
步骤2、对于去噪后的第k帧图像提取ORB点特征;再采用改进的LSD算法提取去噪后的第k帧图像中的线特征,筛选出线特征中的相交线对;
步骤3、计算相交线对的端点3D位置(Pstart,Pend)和方向向量nl;
步骤4.1、通过相交线对的方向向量nl,利用式(1)求得相交线对的两线夹角θ,判定两线夹角θ是否大于阈值α,若是,则执行步骤4.2;否则返回步骤3;
式(1)中,nl1表示相交线对中线段1的方向向量,nl2表示相交线对中线段2的方向向量;
步骤4.2、判断相交线对中两线中心点的距离是否小于相交线对中任一线段的长度,如图2所示,相交线对中心点pc1,pc2的距离L必须大于任一线段的长度;若是,则执行步骤4.3;否则返回步骤3;
步骤4.3.1、通过相交线对方向向量的叉积,利用式(2)得到相交线对所构成平面的法向量nπ:
nπ=nl1×nl2 (2)
de=-nπ(xe,ye,ze)T (3)
式(3)中,de表示第e个平面系数;(xe,ye,ze)表示第e个端点Pe的3D空间位置;
步骤4.3.4、利用式(5)得到最大平面系数差D:
D=max(de)-min(de) (5)
步骤5、充分利用室内人造结构化环境中存在的点线面特征,对双目相机所处的室内人造结构化环境做出曼哈顿世界假设,以利用位姿估计解耦算法将双目相机的运动过程中旋转和平移矩阵分别解算:
步骤5.1、基于曼哈顿世界假设估计双目相机运动过程中的旋转矩阵,具体实现过程按如下:
步骤5.1.1、建立曼哈顿世界坐标系M,通过高斯映射将平面法向量nπ投影至单位高斯球上,具体映射过程如图3所示,即将第k帧图像中所获得的所有相交线对构成的平面法向量起点平移至曼哈顿世界坐标系M坐标原点;
步骤5.1.2、将法向量nπ再投影到曼哈顿世界坐标系M坐标轴的2D切平面上,所得到的投影向量记为nπ·project,投影结果如图4所示;在理想状态下所有平面法向量呈正交、平行、垂直状态,其投影基本上聚焦于平面上同一点,但由于平面法向量的估计误差,存在分散于球面上的稀疏法向量,故投影向量呈分散状态;
步骤5.1.3、为了减小误差,在2D切平面上对投影向量nπ·project进行mean-shift聚类,mean-shift聚类过程如图5所示,利用式(7)使得聚类结果达到收敛即可得聚类均值向量n′mean:
式(7)中,n表示第k帧图像中的平面法向量总数,g()表示高斯核函数;
步骤5.1.4、将聚类均值向量n′mean终点重投影至高斯球面上,记为s;s与高斯球球心连接的向量称为重投影向量,记为nmean。
步骤5.1.5、利用式(8)得到双目相机的当前旋转矩阵Rcurrent:
步骤5.2、构建基于ORB点特征和线特征的重投影误差函数,用于估计平移矩阵从而估计双目相机帧间的运动位姿。本实施例中的位姿估计解耦算法,平移矩阵的解算不仅取决于优化方法的选取,也取决于旋转矩阵的估计是否达到最优,其运动过程中观测点线特征的运动模型如图6所示,具体实施过程按如下所示:
步骤5.2.1、利用式(12)定义第k帧图像中ORB点特征集合的重投影误差函数ek,o:
ek,o=pk,o-Π(Rk,k-1Pk,o+tk,k-1) (12)
式(12)中,Π()表示重投影函数,pk,o表示第k帧图像中ORB点特征的投影位置,Pk,o表示第k帧图像中ORB点特征的3D观测位置,Rk,k-1表示双目相机从第k-1帧图像运动至第k帧图像的旋转矩阵,tk,k-1表示双目相机从第k-1帧图像运动至第k帧图像的平移矩阵;
步骤5.2.2、根据第k帧图像中线特征的端点3D位置,利用式(13)得到归一化的线特征函数L:
式(13)中,Pstart表示线特征起点3D位置,Pend表示线特征终点3D位置;
步骤5.2.3、利用式(14)得到线特征端点Px的误差函数ek,l:
ek,l=L·Π(Rk,k-1Pk,x+tk,k-1) (14)
式(14)中,Pk,x表示第k帧图像中线特征端点x的3D观测位置;
步骤5.2.4、假设双目相机运动过程中所有观测值服从高斯分布,则利用式(15)构建目标函数ψ*:
步骤5.2.5、利用Levenberg-Marquardt优化方法对目标函数ψ*进行迭代更新,从而得到最优平移矩阵,结合最优旋转矩阵,即可对双目相机帧间的运动位姿达到最优估计。
步骤6、判定经过跟踪线程预处理的第k帧图像是否为关键帧,若是,则用于构建局部地图,否则,返回步骤1。
综上所述,本方法能充分利用室内结构化环境的几何特征,解决机器人在低纹理和动态曝光等环境下鲁棒性差,无法准确构建室内环境地图的问题,更为精确地解算搭载双目相机的机器人本体在真实世界的运动状态,提高系统鲁棒性、重定位精度及速度;从而优化SLAM系统在室内环境的定位与建图效果,提升视觉SLAM技术在室内人造结构化场景中的普适性。
实践证明在室内人造结构化场景充分利用环境的几何信息且运用多特征融合技术能够解决机器人在探测陌生环境时运动跟踪精度低、累积误差大和构建地图信息不丰富等问题,增强系统生存能力,提高系统鲁棒性、实时性和信息利用率,扩展整个SLAM系统时间、空间覆盖率。
Claims (4)
1.一种基于点线面特征的室内双目视觉里程计方法,其特征在于,包括以下步骤:
步骤1、以双目相机为信息读取设备,标定所述双目相机的内参后对所采集的图像帧进行预处理,得到去噪后的第k帧图像;
步骤2、对于所述去噪后的第k帧图像提取ORB点特征;再采用改进的LSD算法提取所述去噪后的第k帧图像中的线特征,筛选出线特征中的相交线对;
步骤3、计算相交线对的端点3D位置(Pstart,Pend)和方向向量nl;
步骤4、根据所述相交线对的端点3D位置和方向向量获取面特征的参数;
步骤5、对双目相机所处的室内环境做出曼哈顿世界假设,以利用位姿估计解耦算法将所述双目相机的运动过程中的旋转和平移矩阵分别解算:
步骤5.1、基于曼哈顿世界假设估计旋转矩阵;
步骤5.2、构建基于ORB点特征和线特征的重投影误差函数,用于估计平移矩阵,从而估计双目相机帧间的运动位姿;
步骤6、判定经过跟踪线程预处理的第k帧图像是否为关键帧,若是,则用于构建局部地图,否则,返回步骤1。
2.如权利要求1中所述的一种基于点线面特征的室内双目视觉里程计方法,其特征在于,所述步骤4是按如下过程获取面特征的参数:
步骤4.1、利用式(1)得到相交线对的两线夹角θ,判定两线夹角θ是否大于阈值α;若是,则执行步骤4.2;否则返回步骤3;
式(1)中,nl1表示相交线对中线段1的方向向量,nl2表示相交线对中线段2的方向向量;
步骤4.2、判断相交线对中两线中心点的距离是否小于相交线对中任一线段的长度;若是,则执行步骤4.3;否则返回步骤3;
步骤4.3、判断相交线对中两线的四个端点是否在同一平面:
步骤4.3.1、利用式(2)得到所述相交线对所构成平面的法向量nπ:
nπ=nl1×nl2 (2)
式(3)中,de表示第e个平面系数;(xe,ye,ze)表示第e个端点Pe的3D空间位置;
步骤4.3.4、利用式(5)得到最大平面系数差D:
D=max(de)-min(de) (5)
3.如权利要求2中所述的一种基于点线面特征的室内双目视觉里程计方法,其特征在于,所述步骤5.1包括:
步骤5.1.1、建立曼哈顿世界坐标系M,通过高斯映射将所述平面法向量nπ投影至单位高斯球上;
步骤5.1.2、将所述法向量nπ再投影到曼哈顿世界坐标系M坐标轴的2D切平面上,所得到的投影向量记为nπ·project;
步骤5.1.3、在2D切平面上对投影向量nπ·project进行mean-shift聚类,从而利用式(7)得到聚类均值向量n′mean:
式(7)中,n表示第k帧图像中的平面法向量总数,g()表示高斯核函数;
步骤5.1.4、将聚类均值向量n′mean终点重投影至高斯球面上,记为s;s与所述高斯球球心连接的向量称为重投影向量,记为nmean;
步骤5.1.5、利用式(8)得到所述双目相机的当前旋转矩阵Rcurrent:
4.如权利要求3中所述的一种基于点线面特征的室内双目视觉里程计方法,其特征在于,所述步骤5.2包括:
步骤5.2.1、利用式(12)定义第k帧图像中ORB点特征集合的重投影误差函数ek,o:
ek,o=pk,o-Π(Rk,k-1Pk,o+tk,k-1) (12)
式(12)中,Π()表示重投影函数,pk,o表示第k帧图像中ORB点特征的投影位置,Pk,o表示第k帧图像中ORB点特征的3D观测位置,Rk,k-1表示所述双目相机从第k-1帧图像运动至第k帧图像的旋转矩阵,tk,k-1表示所述双目相机从第k-1帧图像运动至第k帧图像的平移矩阵;
步骤5.2.2、根据第k帧图像中线特征的端点3D位置,利用式(13)得到归一化的线特征函数L:
式(13)中,Pstart表示线特征起点3D位置,Pend表示线特征终点3D位置;
步骤5.2.3、利用式(14)得到线特征端点Px的误差函数ek,l:
ek,l=L·Π(Rk,k-1Pk,x+tk,k-1) (14)
式(14)中,Pk,x表示第k帧图像中线特征端点x的3D观测位置;
步骤5.2.4、假设观测值服从高斯分布,则利用式(15)构建目标函数ψ*:
步骤5.2.5、利用Levenberg-Marquardt优化方法对所述目标函数ψ*进行迭代更新,从而得到最优平移矩阵,用于估计双目相机帧间的运动位姿。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111360538.XA CN114004900A (zh) | 2021-11-17 | 2021-11-17 | 一种基于点线面特征的室内双目视觉里程计方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111360538.XA CN114004900A (zh) | 2021-11-17 | 2021-11-17 | 一种基于点线面特征的室内双目视觉里程计方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114004900A true CN114004900A (zh) | 2022-02-01 |
Family
ID=79929480
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111360538.XA Pending CN114004900A (zh) | 2021-11-17 | 2021-11-17 | 一种基于点线面特征的室内双目视觉里程计方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114004900A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114332232A (zh) * | 2022-03-11 | 2022-04-12 | 中国人民解放军国防科技大学 | 基于空间点线面特征混合建模的智能手机室内定位方法 |
-
2021
- 2021-11-17 CN CN202111360538.XA patent/CN114004900A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114332232A (zh) * | 2022-03-11 | 2022-04-12 | 中国人民解放军国防科技大学 | 基于空间点线面特征混合建模的智能手机室内定位方法 |
CN114332232B (zh) * | 2022-03-11 | 2022-05-31 | 中国人民解放军国防科技大学 | 基于空间点线面特征混合建模的智能手机室内定位方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109166149B (zh) | 一种融合双目相机与imu的定位与三维线框结构重建方法与系统 | |
CN108520554B (zh) | 一种基于orb-slam2的双目三维稠密建图方法 | |
Pomerleau et al. | Tracking a depth camera: Parameter exploration for fast ICP | |
CN107590827A (zh) | 一种基于Kinect的室内移动机器人视觉SLAM方法 | |
CN107588721A (zh) | 一种基于双目视觉的零件多尺寸的测量方法及系统 | |
CN107358629B (zh) | 一种基于目标识别的室内建图与定位方法 | |
CN108225319B (zh) | 基于目标特征的单目视觉快速相对位姿估计系统及方法 | |
CN101082988A (zh) | 自动的深度图像配准方法 | |
Li et al. | Leveraging planar regularities for point line visual-inertial odometry | |
CN107462897B (zh) | 基于激光雷达的三维建图的方法 | |
CN110487286B (zh) | 基于点特征投影与激光点云融合的机器人位姿判断方法 | |
Huang et al. | Gmmloc: Structure consistent visual localization with gaussian mixture models | |
CN112419497A (zh) | 基于单目视觉的特征法与直接法相融合的slam方法 | |
CN111899280A (zh) | 采用深度学习和混合型位姿估计的单目视觉里程计方法 | |
Agrawal et al. | PCE-SLAM: A real-time simultaneous localization and mapping using LiDAR data | |
CN114066773B (zh) | 一种基于点云特征与蒙特卡洛扩展法的动态物体去除 | |
Tian et al. | Research on multi-sensor fusion SLAM algorithm based on improved gmapping | |
KR102361133B1 (ko) | 이동체의 전방향에 위치한 적어도 하나의 물체에 대한 거리를 획득하는 방법 및 이를 이용한 비전 장치 | |
KR102372298B1 (ko) | 이동체의 전방향에 위치한 적어도 하나의 물체에 대한 거리를 획득하는 방법 및 이를 이용한 비전 장치 | |
CN113160401B (zh) | 一种面向物体的视觉slam轻量化语义地图创建方法 | |
CN114004900A (zh) | 一种基于点线面特征的室内双目视觉里程计方法 | |
CN113487631A (zh) | 基于lego-loam的可调式大角度探测感知及控制方法 | |
CN113393524A (zh) | 一种结合深度学习和轮廓点云重建的目标位姿估计方法 | |
CN112731503A (zh) | 一种基于前端紧耦合的位姿估计方法及系统 | |
Cigla et al. | Gaussian mixture models for temporal depth fusion |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |