CN113624221A - 一种融合视觉与激光的2.5d地图构建方法 - Google Patents

一种融合视觉与激光的2.5d地图构建方法 Download PDF

Info

Publication number
CN113624221A
CN113624221A CN202110735175.7A CN202110735175A CN113624221A CN 113624221 A CN113624221 A CN 113624221A CN 202110735175 A CN202110735175 A CN 202110735175A CN 113624221 A CN113624221 A CN 113624221A
Authority
CN
China
Prior art keywords
map
laser
construction method
vision
visual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110735175.7A
Other languages
English (en)
Other versions
CN113624221B (zh
Inventor
陈浩
邓若愚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tongji Institute Of Artificial Intelligence Suzhou Co ltd
Original Assignee
Tongji Institute Of Artificial Intelligence Suzhou Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tongji Institute Of Artificial Intelligence Suzhou Co ltd filed Critical Tongji Institute Of Artificial Intelligence Suzhou Co ltd
Priority to CN202110735175.7A priority Critical patent/CN113624221B/zh
Publication of CN113624221A publication Critical patent/CN113624221A/zh
Priority to US18/564,231 priority patent/US12038303B1/en
Priority to PCT/CN2021/136356 priority patent/WO2023273169A1/zh
Application granted granted Critical
Publication of CN113624221B publication Critical patent/CN113624221B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3833Creation or updating of map data characterised by the source of data
    • G01C21/3841Data obtained from two or more sources, e.g. probe vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3807Creation or updating of map data characterised by the type of data
    • G01C21/3811Point data, e.g. Point of Interest [POI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Computational Mathematics (AREA)
  • Algebra (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

本发明涉及一种融合视觉与激光的2.5D地图构建方法,包括如下步骤:根据RGB‑D图像序列解算图像帧间变换,建立视觉前端里程计;将视觉前端初始估计作为扫描匹配的初值,进行激光前端粗细粒度的搜索;进行回环检测,根据检测到的回环对2.5D地图进行后端全局优化;对2.5D地图的视觉特征维度进行增量式更新,对栅格维度进行占用概率更新。本发明通过融合激光栅格和视觉特征的方法构建2.5D地图,与纯激光地图和纯视觉地图相比,提高了维度的丰富性,提高了信息表达的完备性,且本发明提出的2.5D地图构建方法不受单一传感器失效影响,在传感器降级的场景中仍可稳定工作。

Description

一种融合视觉与激光的2.5D地图构建方法
技术领域
本发明属于移动机器人自主建图领域,具体涉及一种融合视觉与激光的2.5D地图构建方法。
背景技术
随着技术的发展,自主移动机器人在越来越多的场景得到应用。工业搬运、现场巡检等行业对自主移动机器人的需求都很大,主要原因是可节省人力成本,且更为安全。感知并适应环境是机器人自主智能化的前提,而SLAM(同时定位与建图)技术被认为是实现自主导航的核心环节,以激光雷达、摄像机为核心的一系列SLAM技术正在被广泛研究与应用。但是工业现场货物的频繁搬运,巡逻现场的未知环境,这些都给SLAM技术带来了很大的挑战。另外,随着机器人往服务行业涌动,越来越多的机器人需要在家庭环境中工作,而家庭环境也是高度动态的,人员的走动、物品的随机挪动,这些都需要SLAM技术非常稳定,才能使得机器人稳定地工作。
工业界常用的激光SLAM方案在结构化的场景中依赖于精准的初值进行扫描匹配,而轮式里程计往往精度较低,且带有累计误差,另外其初始化也较为困难。而视觉SLAM方案往往不带有导航功能,无法投入实际使用。传感器融合是解决单一传感器失效的有效方案,而目前没有稳定开源的2D激光与视觉信息的融合方案。
发明内容
本发明的目的是提供一种融合视觉与激光的2.5D地图构建方法,用于解决现有地图表达维度不充分的问题。
为达到上述目的,本发明采用的技术方案是:
一种融合视觉与激光的2.5D地图构建方法,包括如下步骤:
S1:根据RGB-D图像序列解算图像帧间变换,建立视觉前端里程计;
S2:将视觉前端初始估计作为扫描匹配的初值,进行激光前端粗细粒度的搜索;
S3:进行回环检测,根据检测到的回环对2.5D地图进行后端全局优化;
S4:对2.5D地图的视觉特征维度进行增量式更新,对栅格维度进行占用概率更新。
优选地,在S1中,所述的帧间变换包括如下步骤:
(1)对时间序列上的每一帧图像做ORB特征提取,并建立对应的特征匹配关系,
(2)以前一帧为参考帧,对当前帧和参考帧做PnP解算,根据最小化重投影误差构建最小二乘问题,迭代优化求解得到帧间位姿变换。
优选地,所述的最小二乘问题为:
Figure BDA0003140017080000021
式中:
ξ为相机位姿,
K为相机内参。
优选地,在S2中,所述的扫描匹配包括如下步骤:
(1)根据RGBD VO得到位姿初始估计ξ0
(2)在粗粒度空间搜索后,缩小搜索范围,再进行精细粒度空间的搜索,得到最佳位姿ξ*
优选地,所述的最佳位姿ξ*为:
Figure BDA0003140017080000022
其中:
Tξ为扫描点到地图坐标系的变换,
hk为激光束的扫描点集。
优选地,在S3中,所述的回环检测包括如下步骤:
(1)以当前节点为搜索中心,以一定范围进行广度优化搜索,得到其关联的节点,利用节点生成数据链,对当前节点进行匹配,如果响应值达到设定阈值,则建立当前节点与数据链中与当前节点质心距离最近的节点之间的约束ξij
(2)在地图建立过程中,将累计一定数量且距当前节点一定距离内的激光数据链作为局部地图,节点与当前的局部地图之间将构成激光帧与地图间的约束ξim
优选地,在S3中,所述的后端全局优化的优化式为:
Figure BDA0003140017080000023
式中:
Figure BDA0003140017080000024
Figure BDA0003140017080000031
Figure BDA0003140017080000032
Figure BDA0003140017080000033
Figure BDA0003140017080000034
优选地,在S4中,所述的2.5D地图为M={m(x,y)},所述的2.5D地图包含激光栅格地图Mgrid={mg(x,y)}和视觉特征地图Mfeature={mf(x,y)},所述的2.5D地图M={m(x,y)}为:
m(x,y)={mg(x,y),mf(x,y)},
mf(x,y)={f(x,y,z1),f(x,y,z2),...,f(x,y,zn)},
式中:
f(x,y,z)为位于(x,y,z)处的特征。
优选地,所述的视觉特征维度的更新形式为:
Figure BDA0003140017080000035
优选地,所述的栅格维度包括未观测的栅格、已观测的栅格,
所述的未观测的栅格直接赋予激光击中概率phit或pmiss
所述的已观测的栅格的更新形式为:
Figure BDA0003140017080000036
Figure BDA0003140017080000037
由于上述技术方案运用,本发明与现有技术相比具有下列优点:
1.本发明通过融合激光栅格和视觉特征的方法构建2.5D地图,与纯激光地图和纯视觉地图相比,提高了维度的丰富性,提高了信息表达的完备性。
2.本发明提出的2.5D地图构建方法不受单一传感器失效影响,在传感器降级的场景中仍可稳定工作。
3.本发明提出的2.5D地图构建方法可使定位和重定位系统不需要激光初始化过程,在错误定位的场景中可快速准确的恢复正确定位。
附图说明
附图1为本实施例的2.5D地图构建方法流程图;
附图2为本实施例的RGB-D前端PnP解算示意图;
附图3为本实施例的前端扫描匹配流程图;
附图4为本实施例的后端全局优化流程图;
附图5为本实施例的2.5D地图结构示意图;
附图6为本实施例的2.5D地图示意图。
具体实施方式
下面将结合附图对本发明的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
一种融合视觉与激光的2.5D地图构建方法,如图1所示,包括如下步骤:
S1:根据RGB-D图像序列解算图像帧间变换,建立视觉前端里程计,具体而言,帧间变换包括如下步骤:
(1)对时间序列上的每一帧图像做ORB特征提取,ORB特征为具有旋转不变性的特征,特征提取方法采用开源框架ORB_SLAM中的方法,随后建立对应的特征匹配关系;
(2)以前一帧为参考帧,对当前帧和参考帧做PnP(Perspective-n-Point)解算,根据最小化重投影误差构建最小二乘问题,迭代优化求解得到帧间位姿变换。
在本实施例中:采用BA(Bundle Adjustment)方法求解PnP问题,
如图2所示,p1、p2为通过特征匹配得到的一组点,p1、p2为同一个空间点P的投影,在初始值中P的投影
Figure BDA0003140017080000041
与实际值之间还存在距离,需寻找最佳相机位姿,使误差最小化,因此根据最小化重投影误差构建最小二乘问题,使用LM算法对优化问题进行迭代求解,具体而言:根据最小化重投影误差构建最小二乘问题为:
Figure BDA0003140017080000042
式中:
ξ为相机位姿,
K为相机内参。
S2:将视觉前端初始估计作为扫描匹配的初值,进行激光前端粗细粒度的搜索,在本实施例中:激光前端扫描匹配采用scan-to-map的匹配方式。
具体而言,如图3所示,为了获得输入激光帧与局部地图之间的插入位姿,扫描匹配包括如下步骤:
(1)根据RGBD VO得到位姿初始估计ξ0
(2)在粗粒度空间搜索后,缩小搜索范围,再进行精细粒度空间的搜索,得到最佳位姿ξ*,最佳位姿ξ*为:
Figure BDA0003140017080000051
其中:
Tξ为扫描点到地图坐标系的变换,
hk为激光束的扫描点集。
对于扫描匹配的搜索空间定义如式(4)所示
Figure BDA0003140017080000052
其中:
Figure BDA0003140017080000053
Figure BDA0003140017080000054
ξ0通过RGB-D里程计获得,
{Wx,Wy,Wθ}为搜索上下界参数,
{r,δθ}为步长参数。
S3:进行回环检测,根据检测到的回环对2.5D地图进行后端全局优化,解决前端扫描匹配带来的累积误差问题,防止仅靠前端所建立的地图可能出现的交错现象,具体而言:
回环检测包括节点间的约束、节点与局部地图的约束,如图4所示,回环检测包括如下步骤:
(1)以当前节点为搜索中心,以一定范围进行广度优化搜索,得到其关联的节点,利用节点生成数据链,对当前节点进行匹配,如果响应值达到设定阈值,则建立当前节点与数据链中与当前节点质心距离最近的节点之间的约束ξij
(2)在地图建立过程中,将累计一定数量且距当前节点一定距离内的激光数据链作为局部地图,节点与当前的局部地图之间将构成激光帧与地图间的约束ξim
后端全局优化的优化式为:
Figure BDA0003140017080000061
式中:
Figure BDA0003140017080000062
Figure BDA0003140017080000063
Figure BDA0003140017080000064
Figure BDA0003140017080000065
Figure BDA0003140017080000066
Πs={ξi}i=1,...,n为节点集合,
ξm为局部地图位姿,
ξij为节点间的约束,
ξim为节点与局部地图间的约束。
S4:对2.5D地图的视觉特征维度进行增量式更新,对栅格维度进行占用概率更新,具体而言:
将2.5D地图定义为M={m(x,y)},2.5D地图的结构如图5所示,2.5D地图空间包括占用栅格平面的二维空间和对应栅格点上的特征维度空间,因此从维度分离的角度将2.5D地图分为激光栅格地图Mgrid和视觉特征地图Mfeature,其中:
Mgrid={mg(x,y)},
Mfeature={mf(x,y)},
m(x,y)={mg(x,y),mf(x,y)},
mf(x,y)={f(x,y,z1),f(x,y,z2),...,f(x,y,zn)},
式中:
f(x,y,z)为位于(x,y,z)处的特征。
在本实施例中:如图6所示,在建立好的2.5D地图上,特征点分布在二维栅格地图的上方,与激光占用栅格共用一个坐标系,移动机器人模型可根据2.5D地图进行后续的导航控制任务,且能实现错误恢复功能,在建立地图过程中,随着移动机器人对环境的逐步探索,对地图进行更新。
对于视觉特征维度的更新,在前端将经PnP优化得到的特征位姿增量式地插入地图,在后端对机器人的位姿进行再次优化,视觉特征维度的更新形式为:
Figure BDA0003140017080000071
栅格维度包括未观测的栅格、已观测的栅格,对于栅格维度的更新,未观测的栅格直接赋予激光击中概率phit或pmiss,已观测的栅格的更新形式为:
Figure BDA0003140017080000072
Figure BDA0003140017080000073
上述实施例只为说明本发明的技术构思及特点,其目的在于让熟悉此项技术的人士能够了解本发明的内容并据以实施,并不能以此限制本发明的保护范围。凡根据本发明精神实质所作的等效变化或修饰,都应涵盖在本发明的保护范围之内。

Claims (10)

1.一种融合视觉与激光的2.5D地图构建方法,其特征在于:包括如下步骤:
S1:根据RGB-D图像序列解算图像帧间变换,建立视觉前端里程计;
S2:将视觉前端初始估计作为扫描匹配的初值,进行激光前端粗细粒度的搜索;
S3:进行回环检测,根据检测到的回环对2.5D地图进行后端全局优化;
S4:对2.5D地图的视觉特征维度进行增量式更新,对栅格维度进行占用概率更新。
2.根据权利要求1所述的融合视觉与激光的2.5D地图构建方法,其特征在于:在S1中,所述的帧间变换包括如下步骤:
(1)对时间序列上的每一帧图像做ORB特征提取,并建立对应的特征匹配关系,
(2)以前一帧为参考帧,对当前帧和参考帧做PnP解算,根据最小化重投影误差构建最小二乘问题,迭代优化求解得到帧间位姿变换。
3.根据权利要求2所述的融合视觉与激光的2.5D地图构建方法,其特征在于:所述的最小二乘问题为:
Figure FDA0003140017070000011
式中:
ξ为相机位姿,
K为相机内参。
4.根据权利要求1所述的融合视觉与激光的2.5D地图构建方法,其特征在于:在S2中,所述的扫描匹配包括如下步骤:
(1)根据RGBD VO得到位姿初始估计ξ0
(2)在粗粒度空间搜索后,缩小搜索范围,再进行精细粒度空间的搜索,得到最佳位姿ξ*
5.根据权利要求4所述的融合视觉与激光的2.5D地图构建方法,其特征在于:所述的最佳位姿ξ*为:
Figure FDA0003140017070000012
其中:
Tξ为扫描点到地图坐标系的变换,
hk为激光束的扫描点集。
6.根据权利要求1所述的融合视觉与激光的2.5D地图构建方法,其特征在于:在S3中,所述的回环检测包括如下步骤:
(1)以当前节点为搜索中心,以一定范围进行广度优化搜索,得到其关联的节点,利用节点生成数据链,对当前节点进行匹配,如果响应值达到设定阈值,则建立当前节点与数据链中与当前节点质心距离最近的节点之间的约束ξij
(2)在地图建立过程中,将累计一定数量且距当前节点一定距离内的激光数据链作为局部地图,节点与当前的局部地图之间将构成激光帧与地图间的约束ξim
7.根据权利要求1所述的融合视觉与激光的2.5D地图构建方法,其特征在于:在S3中,所述的后端全局优化的优化式为:
Figure FDA0003140017070000021
式中:
Figure FDA0003140017070000022
Figure FDA0003140017070000023
Figure FDA0003140017070000024
Figure FDA0003140017070000025
Figure FDA0003140017070000026
8.根据权利要求1所述的融合视觉与激光的2.5D地图构建方法,其特征在于:在S4中,所述的2.5D地图为M={m(x,y)},所述的2.5D地图包含激光栅格地图Mgrid={mg(x,y)}和视觉特征地图Mfeature={mf(x,y)},所述的2.5D地图M={m(x,y)}为:
m(x,y)={mg(x,y),mf(x,y)},
mf(x,y)={f(x,y,z1),f(x,y,z2),...,f(x,y,zn)},
式中:
f(x,y,z)为位于(x,y,z)处的特征。
9.根据权利要求1所述的融合视觉与激光的2.5D地图构建方法,其特征在于:所述的视觉特征维度的更新形式为:
Figure FDA0003140017070000031
10.根据权利要求1所述的融合视觉与激光的2.5D地图构建方法,其特征在于:所述的栅格维度包括未观测的栅格、已观测的栅格,
所述的未观测的栅格直接赋予激光击中概率phit或pmiss
所述的已观测的栅格的更新形式为:
Figure FDA0003140017070000032
Figure FDA0003140017070000033
CN202110735175.7A 2021-06-30 2021-06-30 一种融合视觉与激光的2.5d地图构建方法 Active CN113624221B (zh)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN202110735175.7A CN113624221B (zh) 2021-06-30 2021-06-30 一种融合视觉与激光的2.5d地图构建方法
US18/564,231 US12038303B1 (en) 2021-06-30 2021-12-08 Vision-and-laser-fused 2.5D map building method
PCT/CN2021/136356 WO2023273169A1 (zh) 2021-06-30 2021-12-08 一种融合视觉与激光的2.5d地图构建方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110735175.7A CN113624221B (zh) 2021-06-30 2021-06-30 一种融合视觉与激光的2.5d地图构建方法

Publications (2)

Publication Number Publication Date
CN113624221A true CN113624221A (zh) 2021-11-09
CN113624221B CN113624221B (zh) 2023-11-28

Family

ID=78378658

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110735175.7A Active CN113624221B (zh) 2021-06-30 2021-06-30 一种融合视觉与激光的2.5d地图构建方法

Country Status (3)

Country Link
US (1) US12038303B1 (zh)
CN (1) CN113624221B (zh)
WO (1) WO2023273169A1 (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023273169A1 (zh) * 2021-06-30 2023-01-05 同济人工智能研究院(苏州)有限公司 一种融合视觉与激光的2.5d地图构建方法

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110009732B (zh) * 2019-04-11 2023-10-03 司岚光电科技(苏州)有限公司 基于gms特征匹配的面向复杂大尺度场景三维重建方法
CN116105721B (zh) * 2023-04-11 2023-06-09 深圳市其域创新科技有限公司 地图构建的回环优化方法、装置、设备及存储介质
CN116147642B (zh) * 2023-04-12 2023-08-29 中国科学技术大学 融合地形与力的四足机器人可达性地图构建方法及系统
CN117387639B (zh) * 2023-09-22 2024-06-14 成都睿芯行科技有限公司 一种基于激光salm的地图更新系统及其方法
CN117073690B (zh) * 2023-10-17 2024-03-15 山东大学 一种基于多地图策略的导航方法及系统

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190273909A1 (en) * 2016-11-14 2019-09-05 SZ DJI Technology Co., Ltd. Methods and systems for selective sensor fusion
CN111076733A (zh) * 2019-12-10 2020-04-28 亿嘉和科技股份有限公司 一种基于视觉与激光slam的机器人室内建图方法及系统
CN111536964A (zh) * 2020-07-09 2020-08-14 浙江大华技术股份有限公司 机器人定位方法及装置、存储介质
CN112258600A (zh) * 2020-10-19 2021-01-22 浙江大学 一种基于视觉与激光雷达的同时定位与地图构建方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6635996B2 (ja) * 2017-10-02 2020-01-29 ソフトバンク株式会社 自律走行装置、自律走行システム及びプログラム
CN111258313B (zh) * 2020-01-20 2022-06-07 深圳市普渡科技有限公司 多传感器融合slam系统及机器人
CN112525202A (zh) * 2020-12-21 2021-03-19 北京工商大学 一种基于多传感器融合的slam定位导航方法及系统
CN113624221B (zh) * 2021-06-30 2023-11-28 同济人工智能研究院(苏州)有限公司 一种融合视觉与激光的2.5d地图构建方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190273909A1 (en) * 2016-11-14 2019-09-05 SZ DJI Technology Co., Ltd. Methods and systems for selective sensor fusion
CN111076733A (zh) * 2019-12-10 2020-04-28 亿嘉和科技股份有限公司 一种基于视觉与激光slam的机器人室内建图方法及系统
CN111536964A (zh) * 2020-07-09 2020-08-14 浙江大华技术股份有限公司 机器人定位方法及装置、存储介质
CN112258600A (zh) * 2020-10-19 2021-01-22 浙江大学 一种基于视觉与激光雷达的同时定位与地图构建方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
GUOLAI JIANG 等: "A Simultaneous Localization and Mapping (SLAM) Framework for 2.5D Map Building Based on Low-Cost LiDAR and Vision Fusion", 《APPLIED SCIENCES》, no. 9, pages 4 - 14 *
肖月: "激光视觉融合的机器人即时定位建图研究", 《中国优秀博硕士学位论文全文数据库(硕士) 信息科技辑》, no. 12, pages 27 - 30 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023273169A1 (zh) * 2021-06-30 2023-01-05 同济人工智能研究院(苏州)有限公司 一种融合视觉与激光的2.5d地图构建方法
US12038303B1 (en) 2021-06-30 2024-07-16 Tongji Artificial Intelligence Research Institute (Suzhou) Co. Ltd. Vision-and-laser-fused 2.5D map building method

Also Published As

Publication number Publication date
US12038303B1 (en) 2024-07-16
WO2023273169A1 (zh) 2023-01-05
CN113624221B (zh) 2023-11-28
US20240247946A1 (en) 2024-07-25

Similar Documents

Publication Publication Date Title
CN113624221B (zh) 一种融合视觉与激光的2.5d地图构建方法
WO2020233724A1 (zh) 一种基于视觉slam的电网作业环境地图的构建方法及系统
CN112859859B (zh) 一种基于三维障碍物体素对象映射的动态栅格地图更新方法
KR102427921B1 (ko) 실시간 맵핑 및 로컬리제이션을 위한 장치 및 방법
CN109186606B (zh) 一种基于slam和图像信息的机器人构图及导航方法
CN107796397A (zh) 一种机器人双目视觉定位方法、装置和存储介质
CN112183171A (zh) 一种基于视觉信标建立信标地图方法、装置
Otsu et al. Where to look? Predictive perception with applications to planetary exploration
Pan et al. Gem: online globally consistent dense elevation mapping for unstructured terrain
CN114018248B (zh) 一种融合码盘和激光雷达的里程计方法与建图方法
CN114398455B (zh) 异构多机器人协同slam地图融合方法
Li et al. Hybrid filtering framework based robust localization for industrial vehicles
CN111176276A (zh) 一种智能仓储机器人的开发及应用
CN117152249A (zh) 基于语义一致性的多无人机协同建图与感知方法及系统
JP5953393B2 (ja) ロボットシステム及び地図更新方法
CN114429432B (zh) 一种多源信息分层融合方法、装置及存储介质
Liu et al. Hybrid metric-feature mapping based on camera and Lidar sensor fusion
He et al. Observation‐driven Bayesian filtering for global location estimation in the field area
Liu et al. Laser 3D tightly coupled mapping method based on visual information
Hroob et al. Learned long-term stability scan filtering for robust robot localisation in continuously changing environments
Pan et al. LiDAR-IMU Tightly-Coupled SLAM Method Based on IEKF and Loop Closure Detection
Zhang Localization scheme based on key frame selection and a reliable plane using lidar and IMU
Hu et al. Accurate fiducial mapping for pose estimation using manifold optimization
CN117451030B (zh) 一种基于场景自适应的多模态融合slam方法
Badalkhani et al. AN IMPROVED SIMULTANEOUS LOCALIZATION AND MAPPING FOR DYNAMIC ENVIRONMENTS

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant