CN115578620B - 一种点线面多维特征-可见光融合slam方法 - Google Patents
一种点线面多维特征-可见光融合slam方法 Download PDFInfo
- Publication number
- CN115578620B CN115578620B CN202211337203.0A CN202211337203A CN115578620B CN 115578620 B CN115578620 B CN 115578620B CN 202211337203 A CN202211337203 A CN 202211337203A CN 115578620 B CN115578620 B CN 115578620B
- Authority
- CN
- China
- Prior art keywords
- feature
- point
- visible light
- image
- line
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 32
- 230000004927 fusion Effects 0.000 title claims abstract description 29
- 238000000605 extraction Methods 0.000 claims description 17
- 238000005457 optimization Methods 0.000 claims description 10
- 238000001514 detection method Methods 0.000 claims description 7
- 239000011159 matrix material Substances 0.000 claims description 5
- 230000001131 transforming effect Effects 0.000 claims description 3
- 238000001914 filtration Methods 0.000 claims description 2
- 230000008859 change Effects 0.000 description 4
- 230000008878 coupling Effects 0.000 description 2
- 238000010168 coupling process Methods 0.000 description 2
- 238000005859 coupling reaction Methods 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000007500 overflow downdraw method Methods 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/806—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/762—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Databases & Information Systems (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及一种点线面多维特征‑可见光融合slam方法,包括:获取红外图像和可见光图像,分别对所述红外图像和所述可见光图像进行点特征、线特征、面特征提取,获得红外特征图像和可见光特征图像;根据对应关系,对所述红外特征图像和所述可见光特征图像进行特征融合,并基于特征匹配方法,得到匹配后的共视图像;基于所述匹配后的共视图像进行特征追踪,提取共视关键帧图像。本发明在室内外环境都能对无人系统进行位姿估计,在良好光线和昏暗光线下都能对无人机系统进行位姿估计。
Description
技术领域
本发明涉及智能交互技术领域,特别是涉及一种点线面多维特征-可见光融合slam方法。
背景技术
现有的点线面三维特征融合方法主要基于可见光-深度(RGB-D)相机设计,考虑的是室内环境,使用平面的平行和垂直约束,优化无人系统的位姿和特征位置。此外现有研究基于光线良好,环境结构特征良好的前提假设,实现点线面的特征融合。因此不满足室内外环境,良好光线和昏暗光线全覆盖的要求。
发明内容
本发明的目的是提出一种点线面多维特征-可见光融合slam方法,实现在良好和昏暗光照环境,有效估计无人系统位姿功能,具有室内外鲁棒高精定位能力以及各种照度光线鲁棒定位能力。
为实现上述目的,本发明提供了如下方案:
一种点线面多维特征-可见光融合slam方法,包括:
获取红外图像和可见光图像,分别对所述红外图像和所述可见光图像进行点特征、线特征、面特征提取,获得红外特征图像和可见光特征图像;
根据对应关系,对所述红外特征图像和所述可见光特征图像进行特征融合,并基于特征匹配方法,得到匹配后的共视图像;
基于所述匹配后的共视图像进行特征追踪,提取共视关键帧图像。
优选地,分别对所述红外图像和所述可见光图像进行点特征提取,包括:
分别对经过预处理的所述红外图像和经过预处理后的所述可见光图像,使用Harris角点特征提取算法,提取点特征。
优选地,分别对所述红外图像和所述可见光图像进行线特征提取,包括:
分别对经过预处理的所述红外图像和经过预处理的所述可见光图像,使用LSD直线检测方法,提取线特征,并设置直线长度阈值,过滤长度低于所述阈值的短直线,最后使用直线方向向量和直线法向量对直线进行表征以及存储。
优选地,分别对所述红外图像和所述可见光图像进行面特征提取,包括:
基于所述点特征所在像素的所有邻域像素,计算点特征法向量;
根据所述点特征法向量和空间距离,通过K邻域的方法,进行聚类,获得特征点云;
计算每个所述特征点云的聚类中心,以所述聚类中心的位置和所述点特征法向量作为面特征的位置和所述面特征法向量,实现所述面特征的提取。
优选地,得到所述匹配后的共视图像,包括:
基于所述红外特征图像和所述可见光特征图像,通过所述红外-可见光相机的外参和提取的点特征、线特征、面特征进行特征融合和匹配方法,得到匹配后的共视图像。
优选地,基于所述点特征进行特征融合和匹配,包括:
根据红外-可见光相机的外参,将所述红外图像提取的特征点变换到可见光坐标系中,获得坐标x,基于所述坐标x查找点特征,若查找到所述点特征,即为匹配好的点特征对,对所述点特征对赋第一权重,反之赋第二权重;其中,匹配好的点特征的描述子以可见光特征的描述子为准。
优选地,基于所述线特征进行特征融合和匹配,包括:
将所述红外图像提取的线特征的端点变换到可见光坐标系中,并分别在变换后线段的起点和终点处的邻域内,查找目标线特征,其中所述目标线特征的方向向量和法向量贴合于可见光图像线特征的方向向量和法向量;其中,匹配好的线特征的描述子以可见光特征的描述子为准。
优选地,根据所述红外-可见光相机的外参,将所述红外图像提取的面特征的中心点变换到可见光坐标系中,并在变换后的面元中心点的面元半径中查找出和可见光图像提取到的面特征的中心位置和法向量最符合的面特征;其中,匹配好的面特征的描述子以可见光特征的描述子为准。
优选地,基于所述匹配后的共视图像进行特征追踪,包括:
使用Brief描述子对特征以及子特征的位置进行描述,使用恒速模型对点特征和面特征进行追踪匹配;使用LBD描述子对线特征进行描述,使用恒速模型对线特征进行追踪匹配。
优选地,所述方法还包括,基于图优化策略对所述共视关键帧图像进行优化,所述图优化策略包括优化状态量和目标函数,所述优化状态量为:
其中,表示可见光相机到世界坐标系位置,/>表示可见光相机到世界坐标系的姿态,λn表示第n个点特征的逆深度,Lm表示第m个线特征的方向向量和法向量,Sk表示的是第k个面特征的位置和法向量;
所述目标函数为:
其中,ep是点特征的重投影误差,eL是线特征的重投影误差,eS是面特征的冲投影误差,∑L(p,L,S)分别表示点,线,面的协方差矩阵。
本发明的有益效果为:
本发明提出一种点线面多维特征-可见光融合slam方法,该方法首次使用红外-可见光点线面特征融合提取方法,通过多特征融合,提高系统对环境光线变化和相机噪声的抵抗性,充分利用环境信息,保证在光线明暗变化环境中的定位精度。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例中一种点线面多维特征-可见光融合slam方法流程图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
为使本发明的上述目的、特征和优点能够更加明显易懂,下面结合附图和具体实施方式对本发明作进一步详细的说明。
本发明实施例提供一种点线面多维特征-可见光融合slam方法,如图1,包括:
通过红外-可见光相机获取红外图像和可见光图像,分别对所述红外图像和所述可见光图像进行预处理,并进行点、线、面特征提取,获得红外特征图像和可见光特征图像;
根据对应关系,对所述红外特征图像和所述可见光特征图像进行特征融合,并基于特征匹配方法,得到匹配后的共视图像;
基于所述匹配后的共视图像进行特征追踪,提取共视关键帧图像。
具体包括:
1、特征提取
对去噪后的红外图像和增强后的可见光图像同时进行点线面特征提取。根据图像裁剪和对齐模块,获得红外-可见光图像像素对应关系。根据对应关系,对提取到的特征进行红外和可见图像的融合。对融合的特征辅以更高的权重,对未融合的特征辅以较低权重。按照权重,对特征从高到低进行排序,并进行存储。
1)点特征提取
分别对红外图像和可见光图像,使用Harris角点特征提取算法,提取点特征。为保证计算速度和存储效率,只保存前500个点特征。
2)线特征提取
分别对红外图像和可见光图像,使用LSD直线检测方法,提取线特征。为降低错误直线或过短直线对定位精度的影响,对直线长度设置阈值15像素,过滤掉长度低于15像素的短直线。最后使用直线方向向量和直线法向量对直线进行表征以及存储。
3)面特征提取
与已有的面特征提取不同是,本发明使用提取的点特征,生成无边界的面特征。具体方案如下:
(1)使用特征点所在像素,8个邻域像素,计算特征点的法向量。
(2)根据特征点的法向量和空间距离,使用K邻域的方法,进行聚类。
(3)计算每个特征点云的聚类中心,以聚类中心的位置和法向量作为面特征的位置和法向量,实现面特征的提取。
4)红外-可见光点线面特征对齐和匹配
(1)点特征对齐和匹配
根据红外-可见光相机的外参,将红外图像提取的特征点变换到可见光坐标系中,与对应像素坐标附近位置坐标查找点特征,如果找到,即为匹配好的点特征对,赋高权重,即第一权重,反之赋低权重,即第二权重,第二权重是第一权重的0.8倍。匹配好的点特征的描述子以可见光特征的描述子为准。
(2)线特征对齐和匹配
根据红外-可见光相机的外参,将红外图像的线特征的端点变换到可见光坐标系中,并分别在变换后的线段起点和终点处的邻域内查找出和可见光图像提取到的线特征的方向向量和法向量最贴合的线特征。匹配好的线特征对和点特征对操作方式一致。
(3)面特征对齐和匹配
根据红外-可见光相机的外参,将红外图像的面特征的中心点变换到可见光坐标系中,并在变换后的面元中心点的面元半径中查找出和可见光图像提取到的面特征的中心位置和法向量最符合的面特征。匹配好的面特征对和点特征对操作方式一致。
2、特征追踪
对于点线面特征均使用特征匹配方法,实现前后两帧间的特征追踪。经过描述子匹配成功后,使用恒速模型进行追踪匹配。
1)点特征追踪
使用Brief描述子对特征进行描述,使用恒速模型对点特征进行追踪匹配。
2)线特征追踪
使用LBD描述子对线特征进行描述,使用恒速模型对线特征进行追踪匹配。
3)面特征追踪
根据Brief描述子对特征的位置进行描述,使用恒速模型对面特征进行追踪匹配。
3、图优化后端
对当前关键帧的共视图中的共视关键帧使用图优化策略。
1)优化状态量
其中,表示的是可见光相机到世界坐标系位置,/>表示的是可见光相机到世界坐标系的姿态,λn表示的是第n个点特征的逆深度,Lm表示的是第m个线特征的方向向量和法向量,Sk表示的是第k个面特征的位置和法向量。
2)考虑重投影误差项,图优化的目标函数设置为:
其中,ep是点特征的重投影误差,eL是线特征的重投影误差,eS是面特征的重投影误差,∑(p,L,S)分别表示点,线,面的协方差矩阵。
点特征和线特征的重投影误差的方法为:
其中,up,vp分别是点特征在像素平面的坐标,K表示内参,R表示当前帧可见光相机坐标系到世界坐标系的旋转矩阵,Pwp表示的是点特征在世界坐标系的坐标,t表示的是当前帧可见光相机坐标系到世界坐标系的平移向量。
面特征的重投影误差为:
其中,u,v分别表示面特征中心在像素平面的坐标,K表示内参,R表示当前帧可见光相机坐标系到世界坐标系的旋转矩阵,Pw表示的是面元在世界坐标系的坐标,t表示的是当前帧可见光相机坐标系到世界坐标系的平移向量,nS表示面元的法向量,表示的是面元在世界坐标系的法向量。
4、回环检测
对当前帧使用词袋树的方法进行回环检测,当前帧和历史帧检测的特征匹配数目超过一定阈值,认为监测到闭环帧,进行后续的重定位。
回环检测,又称闭环检测,是指机器人识别曾到达某场景,使得地图闭环的能力。
5、重定位
基于优化状态量x,从闭环帧开始,到当前帧结束,仅对位置和横摆角进行优化,消除位姿漂移。最后根据更新后的位姿更新特征位置。
现有视觉-惯导紧耦合里程计多为可见光相机为主,红外相机辅助定位方法,不能解决昏暗-良好环境无缝定位问题。此外现有的定位方法现无成的红外-可见光点线面特征融合提取方法,以特征点提取为主,抗环境干扰能力差。本发明针对上述问题,提出一种红外-可见-惯导紧耦合里程计定位方法,该方法首次使用红外-可见光点线面特征融合提取方法,通过多特征融合,提高系统对环境光线变化和相机噪声的抵抗性。充分利用环境信息,保证在光线明暗变化环境中的定位精度。
以上所述的实施例仅是对本发明优选方式进行的描述,并非对本发明的范围进行限定,在不脱离本发明设计精神的前提下,本领域普通技术人员对本发明的技术方案做出的各种变形和改进,均应落入本发明权利要求书确定的保护范围内。
Claims (6)
1.一种点线面多维特征-可见光融合slam方法,其特征在于,包括:
获取红外图像和可见光图像,分别对所述红外图像和所述可见光图像进行点特征、线特征、面特征提取,获得红外特征图像和可见光特征图像;
根据对应关系,对所述红外特征图像和所述可见光特征图像进行特征融合,并基于特征匹配方法,得到匹配后的共视图像;
得到所述匹配后的共视图像,包括:
基于所述红外特征图像和所述可见光特征图像,通过红外-可见光相机的外参和提取的点特征、线特征、面特征进行特征融合和匹配方法,得到匹配后的共视图像;基于所述点特征进行特征融合和匹配,包括:
根据红外-可见光相机的外参,将所述红外图像提取的特征点变换到可见光坐标系中,获得坐标x,基于所述坐标x查找点特征,若查找到所述点特征,即为匹配好的点特征对,对所述点特征对赋第一权重,反之赋第二权重;其中,匹配好的点特征的描述子以可见光特征的描述子为准;
基于所述线特征进行特征融合和匹配,包括:
将所述红外图像提取的线特征的端点变换到可见光坐标系中,并分别在变换后线段的起点和终点处的邻域内,查找目标线特征,其中所述目标线特征的方向向量和法向量贴合于可见光图像线特征的方向向量和法向量;其中,匹配好的线特征的描述子以可见光特征的描述子为准;
根据所述红外-可见光相机的外参,将所述红外图像提取的面特征的中心点变换到可见光坐标系中,并在变换后的面元中心点的面元半径中查找出和可见光图像提取到的面特征的中心位置和法向量最符合的面特征;其中,匹配好的面特征的描述子以可见光特征的描述子为准;
基于所述匹配后的共视图像进行特征追踪,提取共视关键帧图像。
2.根据权利要求1所述的点线面多维特征-可见光融合slam方法,其特征在于,分别对所述红外图像和所述可见光图像进行点特征提取,包括:
分别对经过预处理的所述红外图像和经过预处理后的所述可见光图像,使用Harris角点特征提取算法,提取点特征。
3.根据权利要求1所述的点线面多维特征-可见光融合slam方法,其特征在于,分别对所述红外图像和所述可见光图像进行线特征提取,包括:
分别对经过预处理的所述红外图像和经过预处理的所述可见光图像,使用LSD直线检测方法,提取线特征,并设置直线长度阈值,过滤长度低于所述阈值的短直线,最后使用直线方向向量和直线法向量对直线进行表征以及存储。
4.根据权利要求2所述的点线面多维特征-可见光融合slam方法,其特征在于,分别对所述红外图像和所述可见光图像进行面特征提取,包括:
基于所述点特征所在像素的所有邻域像素,计算点特征法向量;
根据所述点特征法向量和空间距离,通过K邻域的方法,进行聚类,获得特征点云;
计算每个所述特征点云的聚类中心,以所述聚类中心的位置和所述点特征法向量作为面特征的位置和所述面特征法向量,实现所述面特征的提取。
5.根据权利要求1所述的点线面多维特征-可见光融合slam方法,其特征在于,基于所述匹配后的共视图像进行特征追踪,包括:
使用Brief描述子对特征以及子特征的位置进行描述,使用恒速模型对点特征和面特征进行追踪匹配;使用LBD描述子对线特征进行描述,使用恒速模型对线特征进行追踪匹配。
6.根据权利要求1所述的点线面多维特征-可见光融合slam方法,其特征在于,所述方法还包括,基于图优化策略对所述共视关键帧图像进行优化,所述图优化策略包括优化状态量和目标函数,所述优化状态量为:
其中,表示可见光相机到世界坐标系位置,/>表示可见光相机到世界坐标系的姿态,λn表示第n个点特征的逆深度,Lm表示第m个线特征的方向向量和法向量,Sk表示的是第k个面特征的位置和法向量;
所述目标函数为:
其中,ep是点特征的重投影误差,eL是线特征的重投影误差,es是面特征的冲投影误差,∑(p,L,S)分别表示点,线,面的协方差矩阵。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211337203.0A CN115578620B (zh) | 2022-10-28 | 2022-10-28 | 一种点线面多维特征-可见光融合slam方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211337203.0A CN115578620B (zh) | 2022-10-28 | 2022-10-28 | 一种点线面多维特征-可见光融合slam方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115578620A CN115578620A (zh) | 2023-01-06 |
CN115578620B true CN115578620B (zh) | 2023-07-18 |
Family
ID=84586947
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211337203.0A Active CN115578620B (zh) | 2022-10-28 | 2022-10-28 | 一种点线面多维特征-可见光融合slam方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115578620B (zh) |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110060277A (zh) * | 2019-04-30 | 2019-07-26 | 哈尔滨理工大学 | 一种多特征融合的视觉slam方法 |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106204509B (zh) * | 2016-07-07 | 2019-12-17 | 西安电子科技大学 | 基于区域特性的红外与可见光图像融合方法 |
CN110232655B (zh) * | 2019-06-13 | 2023-06-09 | 浙江工业大学 | 一种用于煤场的红外-可见光双光图像拼接与融合方法 |
CN110956661B (zh) * | 2019-11-22 | 2022-09-20 | 大连理工大学 | 基于双向单应矩阵的可见光与红外相机动态位姿计算方法 |
CN110910457B (zh) * | 2019-11-22 | 2021-04-16 | 大连理工大学 | 基于角点特征的多光谱立体相机外参计算方法 |
CN111161356B (zh) * | 2019-12-17 | 2022-02-15 | 大连理工大学 | 一种基于双层优化的红外和可见光融合方法 |
CN111062905B (zh) * | 2019-12-17 | 2022-01-04 | 大连理工大学 | 一种基于显著图增强的红外和可见光融合方法 |
CN111080724B (zh) * | 2019-12-17 | 2023-04-28 | 大连理工大学 | 一种红外和可见光的融合方法 |
CN112950696B (zh) * | 2021-02-03 | 2024-07-19 | 珠海格力智能装备有限公司 | 导航地图的生成方法及生成装置、电子设备 |
CN112991246B (zh) * | 2021-02-05 | 2023-01-13 | 中国科学院信息工程研究所 | 一种可见光与红外视频图像融合方法及装置 |
CN113012196B (zh) * | 2021-03-05 | 2023-03-24 | 华南理工大学 | 一种基于双目相机与惯导传感器信息融合的定位方法 |
CN113532431A (zh) * | 2021-07-15 | 2021-10-22 | 贵州电网有限责任公司 | 一种用于电力巡检与作业的视觉惯性slam方法 |
CN114092531A (zh) * | 2021-10-28 | 2022-02-25 | 国网山东省电力公司电力科学研究院 | 一种红外-可见光图像配准方法及系统 |
CN114862949B (zh) * | 2022-04-02 | 2024-05-17 | 华南理工大学 | 一种基于点线面特征的结构化场景视觉slam方法 |
-
2022
- 2022-10-28 CN CN202211337203.0A patent/CN115578620B/zh active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110060277A (zh) * | 2019-04-30 | 2019-07-26 | 哈尔滨理工大学 | 一种多特征融合的视觉slam方法 |
Also Published As
Publication number | Publication date |
---|---|
CN115578620A (zh) | 2023-01-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110223348B (zh) | 基于rgb-d相机的机器人场景自适应位姿估计方法 | |
CN111983639B (zh) | 一种基于Multi-Camera/Lidar/IMU的多传感器SLAM方法 | |
CN112396650B (zh) | 一种基于图像和激光雷达融合的目标测距系统及方法 | |
CN111258313B (zh) | 多传感器融合slam系统及机器人 | |
CN107025668B (zh) | 一种基于深度相机的视觉里程计的设计方法 | |
CN113223045B (zh) | 基于动态物体语义分割的视觉与imu传感器融合定位系统 | |
CN110443898A (zh) | 一种基于深度学习的ar智能终端目标识别系统及方法 | |
CN113506318B (zh) | 一种车载边缘场景下的三维目标感知方法 | |
CN105719352B (zh) | 人脸三维点云超分辨率融合方法及应用其的数据处理装置 | |
CN112484746B (zh) | 一种基于地平面的单目视觉辅助激光雷达里程计方法 | |
CN111882602B (zh) | 基于orb特征点和gms匹配过滤器的视觉里程计实现方法 | |
CN112419497A (zh) | 基于单目视觉的特征法与直接法相融合的slam方法 | |
CN116879870B (zh) | 一种适用于低线束3d激光雷达的动态障碍物去除方法 | |
CN116468786B (zh) | 一种面向动态环境的基于点线联合的语义slam方法 | |
CN113343875A (zh) | 一种用于机器人的可行驶区域感知方法 | |
CN110910389A (zh) | 一种基于图描述子的激光slam回环检测系统及方法 | |
CN112634305B (zh) | 一种基于边缘特征匹配的红外视觉里程计实现方法 | |
CN117409386A (zh) | 一种基于激光视觉融合的垃圾定位方法 | |
CN115578620B (zh) | 一种点线面多维特征-可见光融合slam方法 | |
Zeng et al. | Entropy-based Keyframe Established and Accelerated Fast LiDAR Odometry and Mapping | |
CN117671022B (zh) | 一种室内弱纹理环境的移动机器人视觉定位系统及方法 | |
CN115797425B (zh) | 一种基于点云鸟瞰图和由粗到精策略的激光全局定位方法 | |
CN118552711B (zh) | 用于机器人导航视觉定位的图像处理方法及系统 | |
US20240282002A1 (en) | Vision positioning method and related apparatus | |
Sun et al. | Keyframe-based global localization in large-scale scenes |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |