CN113624221A - 一种融合视觉与激光的2.5d地图构建方法 - Google Patents
一种融合视觉与激光的2.5d地图构建方法 Download PDFInfo
- Publication number
- CN113624221A CN113624221A CN202110735175.7A CN202110735175A CN113624221A CN 113624221 A CN113624221 A CN 113624221A CN 202110735175 A CN202110735175 A CN 202110735175A CN 113624221 A CN113624221 A CN 113624221A
- Authority
- CN
- China
- Prior art keywords
- map
- laser
- construction method
- vision
- visual
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000010276 construction Methods 0.000 title claims abstract description 19
- 230000000007 visual effect Effects 0.000 claims abstract description 25
- 238000005457 optimization Methods 0.000 claims abstract description 19
- 238000000034 method Methods 0.000 claims abstract description 14
- 230000009466 transformation Effects 0.000 claims abstract description 12
- 238000001514 detection method Methods 0.000 claims abstract description 8
- 230000008569 process Effects 0.000 claims description 5
- 238000000605 extraction Methods 0.000 claims description 4
- 230000004044 response Effects 0.000 claims description 3
- 238000004364 calculation method Methods 0.000 claims description 2
- 238000005516 engineering process Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 2
- 230000004927 fusion Effects 0.000 description 2
- 230000006978 adaptation Effects 0.000 description 1
- 230000015556 catabolic process Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000006731 degradation reaction Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000003780 insertion Methods 0.000 description 1
- 230000037431 insertion Effects 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000011084 recovery Methods 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 230000000087 stabilizing effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/38—Electronic maps specially adapted for navigation; Updating thereof
- G01C21/3804—Creation or updating of map data
- G01C21/3833—Creation or updating of map data characterised by the source of data
- G01C21/3841—Data obtained from two or more sources, e.g. probe vehicles
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/38—Electronic maps specially adapted for navigation; Updating thereof
- G01C21/3804—Creation or updating of map data
- G01C21/3807—Creation or updating of map data characterised by the type of data
- G01C21/3811—Point data, e.g. Point of Interest [POI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- Computational Mathematics (AREA)
- Algebra (AREA)
- Mathematical Analysis (AREA)
- Mathematical Optimization (AREA)
- Pure & Applied Mathematics (AREA)
- Databases & Information Systems (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
本发明涉及一种融合视觉与激光的2.5D地图构建方法,包括如下步骤:根据RGB‑D图像序列解算图像帧间变换,建立视觉前端里程计;将视觉前端初始估计作为扫描匹配的初值,进行激光前端粗细粒度的搜索;进行回环检测,根据检测到的回环对2.5D地图进行后端全局优化;对2.5D地图的视觉特征维度进行增量式更新,对栅格维度进行占用概率更新。本发明通过融合激光栅格和视觉特征的方法构建2.5D地图,与纯激光地图和纯视觉地图相比,提高了维度的丰富性,提高了信息表达的完备性,且本发明提出的2.5D地图构建方法不受单一传感器失效影响,在传感器降级的场景中仍可稳定工作。
Description
技术领域
本发明属于移动机器人自主建图领域,具体涉及一种融合视觉与激光的2.5D地图构建方法。
背景技术
随着技术的发展,自主移动机器人在越来越多的场景得到应用。工业搬运、现场巡检等行业对自主移动机器人的需求都很大,主要原因是可节省人力成本,且更为安全。感知并适应环境是机器人自主智能化的前提,而SLAM(同时定位与建图)技术被认为是实现自主导航的核心环节,以激光雷达、摄像机为核心的一系列SLAM技术正在被广泛研究与应用。但是工业现场货物的频繁搬运,巡逻现场的未知环境,这些都给SLAM技术带来了很大的挑战。另外,随着机器人往服务行业涌动,越来越多的机器人需要在家庭环境中工作,而家庭环境也是高度动态的,人员的走动、物品的随机挪动,这些都需要SLAM技术非常稳定,才能使得机器人稳定地工作。
工业界常用的激光SLAM方案在结构化的场景中依赖于精准的初值进行扫描匹配,而轮式里程计往往精度较低,且带有累计误差,另外其初始化也较为困难。而视觉SLAM方案往往不带有导航功能,无法投入实际使用。传感器融合是解决单一传感器失效的有效方案,而目前没有稳定开源的2D激光与视觉信息的融合方案。
发明内容
本发明的目的是提供一种融合视觉与激光的2.5D地图构建方法,用于解决现有地图表达维度不充分的问题。
为达到上述目的,本发明采用的技术方案是:
一种融合视觉与激光的2.5D地图构建方法,包括如下步骤:
S1:根据RGB-D图像序列解算图像帧间变换,建立视觉前端里程计;
S2:将视觉前端初始估计作为扫描匹配的初值,进行激光前端粗细粒度的搜索;
S3:进行回环检测,根据检测到的回环对2.5D地图进行后端全局优化;
S4:对2.5D地图的视觉特征维度进行增量式更新,对栅格维度进行占用概率更新。
优选地,在S1中,所述的帧间变换包括如下步骤:
(1)对时间序列上的每一帧图像做ORB特征提取,并建立对应的特征匹配关系,
(2)以前一帧为参考帧,对当前帧和参考帧做PnP解算,根据最小化重投影误差构建最小二乘问题,迭代优化求解得到帧间位姿变换。
优选地,所述的最小二乘问题为:
式中:
ξ为相机位姿,
K为相机内参。
优选地,在S2中,所述的扫描匹配包括如下步骤:
(1)根据RGBD VO得到位姿初始估计ξ0,
(2)在粗粒度空间搜索后,缩小搜索范围,再进行精细粒度空间的搜索,得到最佳位姿ξ*。
优选地,所述的最佳位姿ξ*为:
其中:
Tξ为扫描点到地图坐标系的变换,
hk为激光束的扫描点集。
优选地,在S3中,所述的回环检测包括如下步骤:
(1)以当前节点为搜索中心,以一定范围进行广度优化搜索,得到其关联的节点,利用节点生成数据链,对当前节点进行匹配,如果响应值达到设定阈值,则建立当前节点与数据链中与当前节点质心距离最近的节点之间的约束ξij,
(2)在地图建立过程中,将累计一定数量且距当前节点一定距离内的激光数据链作为局部地图,节点与当前的局部地图之间将构成激光帧与地图间的约束ξim。
优选地,在S3中,所述的后端全局优化的优化式为:
式中:
优选地,在S4中,所述的2.5D地图为M={m(x,y)},所述的2.5D地图包含激光栅格地图Mgrid={mg(x,y)}和视觉特征地图Mfeature={mf(x,y)},所述的2.5D地图M={m(x,y)}为:
m(x,y)={mg(x,y),mf(x,y)},
mf(x,y)={f(x,y,z1),f(x,y,z2),...,f(x,y,zn)},
式中:
f(x,y,z)为位于(x,y,z)处的特征。
优选地,所述的视觉特征维度的更新形式为:
优选地,所述的栅格维度包括未观测的栅格、已观测的栅格,
所述的未观测的栅格直接赋予激光击中概率phit或pmiss,
所述的已观测的栅格的更新形式为:
由于上述技术方案运用,本发明与现有技术相比具有下列优点:
1.本发明通过融合激光栅格和视觉特征的方法构建2.5D地图,与纯激光地图和纯视觉地图相比,提高了维度的丰富性,提高了信息表达的完备性。
2.本发明提出的2.5D地图构建方法不受单一传感器失效影响,在传感器降级的场景中仍可稳定工作。
3.本发明提出的2.5D地图构建方法可使定位和重定位系统不需要激光初始化过程,在错误定位的场景中可快速准确的恢复正确定位。
附图说明
附图1为本实施例的2.5D地图构建方法流程图;
附图2为本实施例的RGB-D前端PnP解算示意图;
附图3为本实施例的前端扫描匹配流程图;
附图4为本实施例的后端全局优化流程图;
附图5为本实施例的2.5D地图结构示意图;
附图6为本实施例的2.5D地图示意图。
具体实施方式
下面将结合附图对本发明的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
一种融合视觉与激光的2.5D地图构建方法,如图1所示,包括如下步骤:
S1:根据RGB-D图像序列解算图像帧间变换,建立视觉前端里程计,具体而言,帧间变换包括如下步骤:
(1)对时间序列上的每一帧图像做ORB特征提取,ORB特征为具有旋转不变性的特征,特征提取方法采用开源框架ORB_SLAM中的方法,随后建立对应的特征匹配关系;
(2)以前一帧为参考帧,对当前帧和参考帧做PnP(Perspective-n-Point)解算,根据最小化重投影误差构建最小二乘问题,迭代优化求解得到帧间位姿变换。
在本实施例中:采用BA(Bundle Adjustment)方法求解PnP问题,
如图2所示,p1、p2为通过特征匹配得到的一组点,p1、p2为同一个空间点P的投影,在初始值中P的投影与实际值之间还存在距离,需寻找最佳相机位姿,使误差最小化,因此根据最小化重投影误差构建最小二乘问题,使用LM算法对优化问题进行迭代求解,具体而言:根据最小化重投影误差构建最小二乘问题为:
式中:
ξ为相机位姿,
K为相机内参。
S2:将视觉前端初始估计作为扫描匹配的初值,进行激光前端粗细粒度的搜索,在本实施例中:激光前端扫描匹配采用scan-to-map的匹配方式。
具体而言,如图3所示,为了获得输入激光帧与局部地图之间的插入位姿,扫描匹配包括如下步骤:
(1)根据RGBD VO得到位姿初始估计ξ0;
(2)在粗粒度空间搜索后,缩小搜索范围,再进行精细粒度空间的搜索,得到最佳位姿ξ*,最佳位姿ξ*为:
其中:
Tξ为扫描点到地图坐标系的变换,
hk为激光束的扫描点集。
对于扫描匹配的搜索空间定义如式(4)所示
其中:
ξ0通过RGB-D里程计获得,
{Wx,Wy,Wθ}为搜索上下界参数,
{r,δθ}为步长参数。
S3:进行回环检测,根据检测到的回环对2.5D地图进行后端全局优化,解决前端扫描匹配带来的累积误差问题,防止仅靠前端所建立的地图可能出现的交错现象,具体而言:
回环检测包括节点间的约束、节点与局部地图的约束,如图4所示,回环检测包括如下步骤:
(1)以当前节点为搜索中心,以一定范围进行广度优化搜索,得到其关联的节点,利用节点生成数据链,对当前节点进行匹配,如果响应值达到设定阈值,则建立当前节点与数据链中与当前节点质心距离最近的节点之间的约束ξij;
(2)在地图建立过程中,将累计一定数量且距当前节点一定距离内的激光数据链作为局部地图,节点与当前的局部地图之间将构成激光帧与地图间的约束ξim。
后端全局优化的优化式为:
式中:
Πs={ξi}i=1,...,n为节点集合,
ξm为局部地图位姿,
ξij为节点间的约束,
ξim为节点与局部地图间的约束。
S4:对2.5D地图的视觉特征维度进行增量式更新,对栅格维度进行占用概率更新,具体而言:
将2.5D地图定义为M={m(x,y)},2.5D地图的结构如图5所示,2.5D地图空间包括占用栅格平面的二维空间和对应栅格点上的特征维度空间,因此从维度分离的角度将2.5D地图分为激光栅格地图Mgrid和视觉特征地图Mfeature,其中:
Mgrid={mg(x,y)},
Mfeature={mf(x,y)},
m(x,y)={mg(x,y),mf(x,y)},
mf(x,y)={f(x,y,z1),f(x,y,z2),...,f(x,y,zn)},
式中:
f(x,y,z)为位于(x,y,z)处的特征。
在本实施例中:如图6所示,在建立好的2.5D地图上,特征点分布在二维栅格地图的上方,与激光占用栅格共用一个坐标系,移动机器人模型可根据2.5D地图进行后续的导航控制任务,且能实现错误恢复功能,在建立地图过程中,随着移动机器人对环境的逐步探索,对地图进行更新。
对于视觉特征维度的更新,在前端将经PnP优化得到的特征位姿增量式地插入地图,在后端对机器人的位姿进行再次优化,视觉特征维度的更新形式为:
栅格维度包括未观测的栅格、已观测的栅格,对于栅格维度的更新,未观测的栅格直接赋予激光击中概率phit或pmiss,已观测的栅格的更新形式为:
上述实施例只为说明本发明的技术构思及特点,其目的在于让熟悉此项技术的人士能够了解本发明的内容并据以实施,并不能以此限制本发明的保护范围。凡根据本发明精神实质所作的等效变化或修饰,都应涵盖在本发明的保护范围之内。
Claims (10)
1.一种融合视觉与激光的2.5D地图构建方法,其特征在于:包括如下步骤:
S1:根据RGB-D图像序列解算图像帧间变换,建立视觉前端里程计;
S2:将视觉前端初始估计作为扫描匹配的初值,进行激光前端粗细粒度的搜索;
S3:进行回环检测,根据检测到的回环对2.5D地图进行后端全局优化;
S4:对2.5D地图的视觉特征维度进行增量式更新,对栅格维度进行占用概率更新。
2.根据权利要求1所述的融合视觉与激光的2.5D地图构建方法,其特征在于:在S1中,所述的帧间变换包括如下步骤:
(1)对时间序列上的每一帧图像做ORB特征提取,并建立对应的特征匹配关系,
(2)以前一帧为参考帧,对当前帧和参考帧做PnP解算,根据最小化重投影误差构建最小二乘问题,迭代优化求解得到帧间位姿变换。
4.根据权利要求1所述的融合视觉与激光的2.5D地图构建方法,其特征在于:在S2中,所述的扫描匹配包括如下步骤:
(1)根据RGBD VO得到位姿初始估计ξ0,
(2)在粗粒度空间搜索后,缩小搜索范围,再进行精细粒度空间的搜索,得到最佳位姿ξ*。
6.根据权利要求1所述的融合视觉与激光的2.5D地图构建方法,其特征在于:在S3中,所述的回环检测包括如下步骤:
(1)以当前节点为搜索中心,以一定范围进行广度优化搜索,得到其关联的节点,利用节点生成数据链,对当前节点进行匹配,如果响应值达到设定阈值,则建立当前节点与数据链中与当前节点质心距离最近的节点之间的约束ξij,
(2)在地图建立过程中,将累计一定数量且距当前节点一定距离内的激光数据链作为局部地图,节点与当前的局部地图之间将构成激光帧与地图间的约束ξim。
8.根据权利要求1所述的融合视觉与激光的2.5D地图构建方法,其特征在于:在S4中,所述的2.5D地图为M={m(x,y)},所述的2.5D地图包含激光栅格地图Mgrid={mg(x,y)}和视觉特征地图Mfeature={mf(x,y)},所述的2.5D地图M={m(x,y)}为:
m(x,y)={mg(x,y),mf(x,y)},
mf(x,y)={f(x,y,z1),f(x,y,z2),...,f(x,y,zn)},
式中:
f(x,y,z)为位于(x,y,z)处的特征。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110735175.7A CN113624221B (zh) | 2021-06-30 | 2021-06-30 | 一种融合视觉与激光的2.5d地图构建方法 |
US18/564,231 US12038303B1 (en) | 2021-06-30 | 2021-12-08 | Vision-and-laser-fused 2.5D map building method |
PCT/CN2021/136356 WO2023273169A1 (zh) | 2021-06-30 | 2021-12-08 | 一种融合视觉与激光的2.5d地图构建方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110735175.7A CN113624221B (zh) | 2021-06-30 | 2021-06-30 | 一种融合视觉与激光的2.5d地图构建方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113624221A true CN113624221A (zh) | 2021-11-09 |
CN113624221B CN113624221B (zh) | 2023-11-28 |
Family
ID=78378658
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110735175.7A Active CN113624221B (zh) | 2021-06-30 | 2021-06-30 | 一种融合视觉与激光的2.5d地图构建方法 |
Country Status (3)
Country | Link |
---|---|
US (1) | US12038303B1 (zh) |
CN (1) | CN113624221B (zh) |
WO (1) | WO2023273169A1 (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023273169A1 (zh) * | 2021-06-30 | 2023-01-05 | 同济人工智能研究院(苏州)有限公司 | 一种融合视觉与激光的2.5d地图构建方法 |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110009732B (zh) * | 2019-04-11 | 2023-10-03 | 司岚光电科技(苏州)有限公司 | 基于gms特征匹配的面向复杂大尺度场景三维重建方法 |
CN116105721B (zh) * | 2023-04-11 | 2023-06-09 | 深圳市其域创新科技有限公司 | 地图构建的回环优化方法、装置、设备及存储介质 |
CN116147642B (zh) * | 2023-04-12 | 2023-08-29 | 中国科学技术大学 | 融合地形与力的四足机器人可达性地图构建方法及系统 |
CN117387639B (zh) * | 2023-09-22 | 2024-06-14 | 成都睿芯行科技有限公司 | 一种基于激光salm的地图更新系统及其方法 |
CN117073690B (zh) * | 2023-10-17 | 2024-03-15 | 山东大学 | 一种基于多地图策略的导航方法及系统 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190273909A1 (en) * | 2016-11-14 | 2019-09-05 | SZ DJI Technology Co., Ltd. | Methods and systems for selective sensor fusion |
CN111076733A (zh) * | 2019-12-10 | 2020-04-28 | 亿嘉和科技股份有限公司 | 一种基于视觉与激光slam的机器人室内建图方法及系统 |
CN111536964A (zh) * | 2020-07-09 | 2020-08-14 | 浙江大华技术股份有限公司 | 机器人定位方法及装置、存储介质 |
CN112258600A (zh) * | 2020-10-19 | 2021-01-22 | 浙江大学 | 一种基于视觉与激光雷达的同时定位与地图构建方法 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6635996B2 (ja) * | 2017-10-02 | 2020-01-29 | ソフトバンク株式会社 | 自律走行装置、自律走行システム及びプログラム |
CN111258313B (zh) * | 2020-01-20 | 2022-06-07 | 深圳市普渡科技有限公司 | 多传感器融合slam系统及机器人 |
CN112525202A (zh) * | 2020-12-21 | 2021-03-19 | 北京工商大学 | 一种基于多传感器融合的slam定位导航方法及系统 |
CN113624221B (zh) * | 2021-06-30 | 2023-11-28 | 同济人工智能研究院(苏州)有限公司 | 一种融合视觉与激光的2.5d地图构建方法 |
-
2021
- 2021-06-30 CN CN202110735175.7A patent/CN113624221B/zh active Active
- 2021-12-08 WO PCT/CN2021/136356 patent/WO2023273169A1/zh active Application Filing
- 2021-12-08 US US18/564,231 patent/US12038303B1/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190273909A1 (en) * | 2016-11-14 | 2019-09-05 | SZ DJI Technology Co., Ltd. | Methods and systems for selective sensor fusion |
CN111076733A (zh) * | 2019-12-10 | 2020-04-28 | 亿嘉和科技股份有限公司 | 一种基于视觉与激光slam的机器人室内建图方法及系统 |
CN111536964A (zh) * | 2020-07-09 | 2020-08-14 | 浙江大华技术股份有限公司 | 机器人定位方法及装置、存储介质 |
CN112258600A (zh) * | 2020-10-19 | 2021-01-22 | 浙江大学 | 一种基于视觉与激光雷达的同时定位与地图构建方法 |
Non-Patent Citations (2)
Title |
---|
GUOLAI JIANG 等: "A Simultaneous Localization and Mapping (SLAM) Framework for 2.5D Map Building Based on Low-Cost LiDAR and Vision Fusion", 《APPLIED SCIENCES》, no. 9, pages 4 - 14 * |
肖月: "激光视觉融合的机器人即时定位建图研究", 《中国优秀博硕士学位论文全文数据库(硕士) 信息科技辑》, no. 12, pages 27 - 30 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023273169A1 (zh) * | 2021-06-30 | 2023-01-05 | 同济人工智能研究院(苏州)有限公司 | 一种融合视觉与激光的2.5d地图构建方法 |
US12038303B1 (en) | 2021-06-30 | 2024-07-16 | Tongji Artificial Intelligence Research Institute (Suzhou) Co. Ltd. | Vision-and-laser-fused 2.5D map building method |
Also Published As
Publication number | Publication date |
---|---|
US12038303B1 (en) | 2024-07-16 |
WO2023273169A1 (zh) | 2023-01-05 |
CN113624221B (zh) | 2023-11-28 |
US20240247946A1 (en) | 2024-07-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113624221B (zh) | 一种融合视觉与激光的2.5d地图构建方法 | |
WO2020233724A1 (zh) | 一种基于视觉slam的电网作业环境地图的构建方法及系统 | |
CN112859859B (zh) | 一种基于三维障碍物体素对象映射的动态栅格地图更新方法 | |
KR102427921B1 (ko) | 실시간 맵핑 및 로컬리제이션을 위한 장치 및 방법 | |
CN109186606B (zh) | 一种基于slam和图像信息的机器人构图及导航方法 | |
CN107796397A (zh) | 一种机器人双目视觉定位方法、装置和存储介质 | |
CN112183171A (zh) | 一种基于视觉信标建立信标地图方法、装置 | |
Otsu et al. | Where to look? Predictive perception with applications to planetary exploration | |
Pan et al. | Gem: online globally consistent dense elevation mapping for unstructured terrain | |
CN114018248B (zh) | 一种融合码盘和激光雷达的里程计方法与建图方法 | |
CN114398455B (zh) | 异构多机器人协同slam地图融合方法 | |
Li et al. | Hybrid filtering framework based robust localization for industrial vehicles | |
CN111176276A (zh) | 一种智能仓储机器人的开发及应用 | |
CN117152249A (zh) | 基于语义一致性的多无人机协同建图与感知方法及系统 | |
JP5953393B2 (ja) | ロボットシステム及び地図更新方法 | |
CN114429432B (zh) | 一种多源信息分层融合方法、装置及存储介质 | |
Liu et al. | Hybrid metric-feature mapping based on camera and Lidar sensor fusion | |
He et al. | Observation‐driven Bayesian filtering for global location estimation in the field area | |
Liu et al. | Laser 3D tightly coupled mapping method based on visual information | |
Hroob et al. | Learned long-term stability scan filtering for robust robot localisation in continuously changing environments | |
Pan et al. | LiDAR-IMU Tightly-Coupled SLAM Method Based on IEKF and Loop Closure Detection | |
Zhang | Localization scheme based on key frame selection and a reliable plane using lidar and IMU | |
Hu et al. | Accurate fiducial mapping for pose estimation using manifold optimization | |
CN117451030B (zh) | 一种基于场景自适应的多模态融合slam方法 | |
Badalkhani et al. | AN IMPROVED SIMULTANEOUS LOCALIZATION AND MAPPING FOR DYNAMIC ENVIRONMENTS |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |