CN110570449A - 一种基于毫米波雷达与视觉slam的定位与建图方法 - Google Patents
一种基于毫米波雷达与视觉slam的定位与建图方法 Download PDFInfo
- Publication number
- CN110570449A CN110570449A CN201910869887.0A CN201910869887A CN110570449A CN 110570449 A CN110570449 A CN 110570449A CN 201910869887 A CN201910869887 A CN 201910869887A CN 110570449 A CN110570449 A CN 110570449A
- Authority
- CN
- China
- Prior art keywords
- camera
- millimeter wave
- wave radar
- coordinate system
- point cloud
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/757—Matching configurations of points or features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
Abstract
本发明公开了一种基于毫米波雷达与视觉SLAM的定位与建图方法,用里程计的精确距离信息修正了基于相机的视觉SLAM轨迹数据的距离尺寸,得到了低成本、高精确性、强鲁棒性的定位信息,根据该定位信息把毫米波雷达扫描到的点云注册到世界坐标系中,实现对外部障碍物的位置和形状的绘制,以此克服了毫米波雷达相比于激光雷达的点云数据自配准性差的缺点,又充分利用了毫米波雷达精确的距离测量能力以及其低廉的成本,实现了高质量建图。
Description
技术领域
本发明涉及机器人定位领域,具体涉及一种基于毫米波雷达与视觉SLAM的定位与建图方法。
背景技术
用相机或激光雷达作为外部感知传感器的SLAM(Simultaneous LocalizationAnd Mapping,同步定位与建图)技术称为视觉SLAM,近年来,视觉SLAM一直是机器人定位和导航中的关键技术。
基于相机和激光雷达的视觉SLAM各有优缺点,其中激光雷达能返回带有高精度距离信息的点云,具有较高的鲁棒性,但成本极高,最低不小于千余元,使得机器人成本居高不下,不利于市场化;而用相机作为视觉传感器,相比之下成本较低,但其鲁棒性差,对于环境光照要求极高,且处理得到的地图数据一般较为稀疏,无法获得真实的尺度信息,无法适用于机器人的自主导航和避障。
发明内容
针对现有技术中的上述不足,本发明提供的一种基于毫米波雷达与视觉SLAM的定位与建图方法,使用相比于激光雷达而言成本较低的相机作为视觉传感器,在视觉SLAM中融合了能够精确测距的毫米波雷达传感数据解决了现有机器人定位与建图方法无法兼顾成本、精确性、鲁棒性的问题。
为了达到上述发明目的,本发明采用的技术方案为:一种基于毫米波雷达与视觉SLAM的定位与建图方法,包括以下步骤:
S1、在ROS中订阅相机发布的话题和里程计发布的话题;
S2、从相机发布的话题中提取图像序列集,并对图像序列集进行视觉里程计处理,得到无真实尺度运动轨迹数据;
S3、从相机发布的话题中提取相机位移量Scamera,并从里程计发布的话题中提取机器人里程计位移量Sodometer;
S4、根据尺度比例关系,由相机位移量Scamera和机器人里程计位移量Sodometer计算得到相机尺度因子λ;
S5、用相机尺度因子λ乘以无真实尺度运动轨迹数据,得到真实尺度运动轨迹数据;
S6、对毫米波雷达扫描得到的点云数据pM进行坐标变换,得到世界坐标系点云数据PW;
S7、将世界坐标系点云数据PW按其对应真实尺度运动轨迹数据的时间戳进行注册,得到关于障碍物的地图。
进一步地:步骤S2中对图像序列集进行视觉里程计处理,得到无真实尺度运动轨迹数据,包括以下步骤:
S21、提取图像序列集中每帧图像序列IMAi的ORB特征点,其中i表示当前帧数,i的取值为闭区间[1,N]中的整数,N为帧总数;
S22、用PnP算法对每帧图像序列IMAi的ORB特征点和其下一帧图像序列IMAi+1的ORB特征点进行匹配,得到每帧图像序列间的初始位姿变换;
S23、通过Bundle Ajustment方法,由每帧图像序列IMAi的ORB特征点和每帧图像序列间的初始相机位姿计算得到每帧图像序列间初始相机位姿的误差函数;
S24、通过Levenberg-Marquard算法优化每帧图像序列间初始相机位姿的误差函数Φ,得到数值最小化的误差函数及其对应的每帧图像序列间的相机位姿估计;
S25、将每帧图像序列间的相机位姿估计拟合成曲线,得到无真实尺度运动轨迹数据。
进一步地:步骤S23中重投影误差Φ的计算公式为:
其中,ξ表示当前相机位姿的李代数,n表示匹配特征点总数,ui表示第i个特征点的像素位置,K表示相机内参,si表示第i个特征点的深度,Pi表示第i个特征点在世界坐标系中的坐标。
进一步地:步骤S4中相机位移量Scamera、机器人里程计位移量Sodometer和相机尺度因子λ的尺度比例关系为:
进一步地:步骤S6包括以下步骤:
S61、根据毫米波雷达与相机之间的外参,构建毫米波雷达坐标系到相机坐标系的变换矩阵TCM,将毫米波雷达点云数据PM变换为相机坐标系点云数据PC;
S62、根据相机位姿,构建相机坐标系到世界坐标系的变换矩阵TWC,将相机坐标系点云数据PC变换为世界坐标系点云数据PW。
进一步地:步骤S61中将毫米波雷达点云数据PM变换为相机坐标系点云数据PC的变换式为:
PC=TCM·PM (3)。
进一步地:步骤S62中将相机坐标系点云数据PC变换为世界坐标系点云数据PW的变换式为:
PW=TWC·PC (4)。
本发明的有益效果为:用里程计的精确距离信息修正了基于相机的视觉SLAM轨迹数据的距离尺寸,得到了低成本、高精确性、强鲁棒性的定位信息,根据该定位信息把毫米波雷达扫描到的点云注册到世界坐标系中,实现对外部障碍物的位置和形状的绘制,以此克服了毫米波雷达相比于激光雷达的点云数据自配准性差的缺点,又充分利用了毫米波雷达精确的距离测量能力以及其低廉的成本,实现了高质量建图。
附图说明
图1为基于毫米波雷达与视觉SLAM的定位与建图方法流程示意图;
图2为真实运动轨迹与本发明计算的无真实尺度运动轨迹数据对比图;
图3为真实运动轨迹与本发明计算的真实尺度运动轨迹数据对比图。
具体实施方式
下面对本发明的具体实施方式进行描述,以便于本技术领域的技术人员理解本发明,但应该清楚,本发明不限于具体实施方式的范围,对本技术领域的普通技术人员来讲,只要各种变化在所附的权利要求限定和确定的本发明的精神和范围内,这些变化是显而易见的,一切利用本发明构思的发明创造均在保护之列。
如图1所示,在本发明的一个实施例中,一种基于毫米波雷达与视觉SLAM的定位与建图方法,使用Kinect v2型相机、turtlebot2型机器人及其内置里程计和IWR1642BOOST型毫米波雷达作为硬件平台,并按以下步骤进行操作:
S1、在ROS(Robot Operating System,机器人操作系统)中订阅相机发布的话题和里程计发布的话题;
S2、从相机发布的话题中提取图像序列集,并对图像序列集进行视觉里程计处理,得到无真实尺度运动轨迹数据,真实运动轨迹与本发明计算的无真实尺度运动轨迹数据对比效果如图2所示;
其中,步骤S2中对图像序列集进行视觉里程计处理,包括以下步骤:
S21、提取图像序列集中每帧图像序列IMAi的ORB(Oriented Features fromAccelerated Segment Test and Rotated Binary Robust Independent ElementaryFeatures)特征点,其中i表示当前帧数,取值为闭区间[1,N]中的整数,N为帧总数;
S22、用PnP算法对每帧图像序列IMAi的ORB特征点和其下一帧图像序列IMAi+1的ORB特征点进行匹配,得到每帧图像序列间的初始相机位姿;
S23、通过Bundle Ajustment方法,由每帧图像序列IMAi的ORB特征点和每帧图像序列间的初始相机位姿计算得到每帧图像序列间初始相机位姿的误差函数;
步骤S23中重投影误差Φ的计算公式为:
其中,ξ表示当前相机位姿的李代数,n表示匹配特征点总数,ui表示第i个特征点的像素位置,K表示相机内参,si表示第i个特征点的深度,Pi表示第i个特征点在世界坐标系中的坐标。
S24、通过Levenberg-Marquard算法优化每帧图像序列间初始相机位姿的误差函数Φ,得到数值最小化的误差函数及其对应的每帧图像序列间的相机位姿估计;
S25、将每帧图像序列间的相机位姿估计拟合成曲线,得到无真实尺度运动轨迹数据。
S3、从相机发布的话题中提取相机位移量Scamera,并从里程计发布的话题中提取机器人里程计位移量Sodometer;
S4、根据尺度比例关系,由相机位移量Scamera和机器人里程计位移量Sodometer计算得到相机尺度因子λ;
步骤S4中相机位移量Scamera、机器人里程计位移量Sodometer和相机尺度因子λ的尺度比例关系为:
S5、用相机尺度因子λ乘以无真实尺度运动轨迹数据,得到真实尺度运动轨迹数据,真实运动轨迹与本发明计算的真实尺度运动轨迹数据对比效果如图3所示;
S6、对毫米波雷达扫描得到的点云数据PM进行坐标变换,得到世界坐标系点云数据PW
步骤S6包括以下步骤:
S61、根据毫米波雷达与相机之间的外参,构建毫米波雷达坐标系到相机坐标系的变换矩阵TCM,将毫米波雷达点云数据PM变换为相机坐标系点云数据PC
步骤S61中将毫米波雷达点云数据PM变换为相机坐标系点云数据PC的变换式为:
PC=TCM·PM (3)
S62、根据相机位姿,构建相机坐标系到世界坐标系的变换矩阵TWC,将相机坐标系点云数据PC变换为世界坐标系点云数据PW。
步骤S62中将相机坐标系点云数据PC变换为世界坐标系点云数据PW的变换式为:
PW=TWC·PC (4)
S7、将世界坐标系点云数据PW按其对应真实尺度运动轨迹数据的时间戳进行注册,得到关于障碍物的地图。
本发明用里程计的精确距离信息修正了基于相机的视觉SLAM轨迹数据的距离尺寸,得到了低成本、高精确性、强鲁棒性的定位信息,根据该定位信息把毫米波雷达扫描到的点云注册到世界坐标系中,实现对外部障碍物的位置和形状的绘制,以此克服了毫米波雷达相比于激光雷达的点云数据自配准性差的缺点,又充分利用了毫米波雷达精确的距离测量能力以及其低廉的成本,实现了高质量建图。
Claims (7)
1.一种基于毫米波雷达与视觉SLAM的定位与建图方法,其特征在于,包括以下步骤:
S1、在ROS中订阅相机发布的话题和里程计发布的话题;
S2、从相机发布的话题中提取图像序列集,并对图像序列集进行视觉里程计处理,得到无真实尺度运动轨迹数据;
S3、从相机发布的话题中提取相机位移量Scamera,并从里程计发布的话题中提取机器人里程计位移量Sodometer;
S4、根据尺度比例关系,由相机位移量Scamera和机器人里程计位移量Sodometer计算得到相机尺度因子λ;
S5、用相机尺度因子λ乘以无真实尺度运动轨迹数据,得到真实尺度运动轨迹数据;
S6、对毫米波雷达扫描得到的点云数据PM进行坐标变换,得到世界坐标系点云数据PW;
S7、将世界坐标系点云数据PW按其对应真实尺度运动轨迹数据的时间戳进行注册,得到关于障碍物的地图。
2.根据权利要求1所述的基于毫米波雷达与视觉SLAM的定位与建图方法,其特征在于,所述步骤S2中对图像序列集进行视觉里程计处理,得到无真实尺度运动轨迹数据,包括以下步骤:
S21、提取图像序列集中每帧图像序列IMAi的ORB特征点,其中i表示当前帧数,i的取值为闭区间[1,N]中的整数,N为帧总数;
S22、用PnP算法对每帧图像序列IMAi的ORB特征点和其下一帧图像序列IMAi+1的ORB特征点进行匹配,得到每帧图像序列间的初始位姿变换;
S23、通过Bundle Ajustment方法,由每帧图像序列IMAi的ORB特征点和每帧图像序列间的初始相机位姿计算得到每帧图像序列间初始相机位姿的误差函数;
S24、通过Levenberg-Marquard算法优化每帧图像序列间初始相机位姿的误差函数Φ,得到数值最小化的误差函数及其对应的每帧图像序列间的相机位姿估计;
S25、将每帧图像序列间的相机位姿估计拟合成曲线,得到无真实尺度运动轨迹数据。
3.根据权利要求2所述的基于毫米波雷达与视觉SLAM的定位与建图方法,其特征在于,所述步骤S23中重投影误差Φ的计算公式为:
其中,ξ表示当前相机位姿的李代数,n表示匹配特征点总数,ui表示第i个特征点的像素位置,K表示相机内参,si表示第i个特征点的深度,Pi表示第i个特征点在世界坐标系中的坐标。
4.根据权利要求1所述的基于毫米波雷达与视觉SLAM的定位与建图方法,其特征在于,所述步骤S4中相机位移量Scamera、机器人里程计位移量Sodometer和相机尺度因子λ的尺度比例关系为:
5.根据权利要求1所述的基于毫米波雷达与视觉SLAM的定位与建图方法,其特征在于,所述步骤S6包括以下步骤:
S61、根据毫米波雷达与相机之间的外参,构建毫米波雷达坐标系到相机坐标系的变换矩阵TCM,将毫米波雷达点云数据PM变换为相机坐标系点云数据PC;
S62、根据相机位姿,构建相机坐标系到世界坐标系的变换矩阵TWC,将相机坐标系点云数据PC变换为世界坐标系点云数据PW。
6.根据权利要求5所述的基于毫米波雷达与视觉SLAM的定位与建图方法,其特征在于,所述步骤S61中将毫米波雷达点云数据PM变换为相机坐标系点云数据PC的变换式为:
PC=TCM·PM (3)。
7.根据权利要求5所述的基于毫米波雷达与视觉SLAM的定位与建图方法,其特征在于,所述步骤S62中将相机坐标系点云数据PC变换为世界坐标系点云数据PW的变换式为:
PW=TWC·PC (4)。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910869887.0A CN110570449B (zh) | 2019-09-16 | 2019-09-16 | 一种基于毫米波雷达与视觉slam的定位与建图方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910869887.0A CN110570449B (zh) | 2019-09-16 | 2019-09-16 | 一种基于毫米波雷达与视觉slam的定位与建图方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110570449A true CN110570449A (zh) | 2019-12-13 |
CN110570449B CN110570449B (zh) | 2021-03-16 |
Family
ID=68780117
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910869887.0A Active CN110570449B (zh) | 2019-09-16 | 2019-09-16 | 一种基于毫米波雷达与视觉slam的定位与建图方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110570449B (zh) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111260725A (zh) * | 2020-01-15 | 2020-06-09 | 浙江大学 | 一种面向动态环境的轮速计辅助的视觉里程计方法 |
CN112581613A (zh) * | 2020-12-08 | 2021-03-30 | 纵目科技(上海)股份有限公司 | 一种栅格地图的生成方法、系统、电子设备及存储介质 |
CN112650255A (zh) * | 2020-12-29 | 2021-04-13 | 杭州电子科技大学 | 一种基于视觉与激光雷达信息融合的机器人室内外定位导航系统方法 |
CN113091733A (zh) * | 2021-03-15 | 2021-07-09 | 武汉大学 | 一种基于毫米波雷达与imu融合的实时定位装置及方法 |
CN113419235A (zh) * | 2021-05-28 | 2021-09-21 | 同济大学 | 一种基于毫米波雷达的无人机定位方法 |
CN113625271A (zh) * | 2021-07-29 | 2021-11-09 | 中汽创智科技有限公司 | 基于毫米波雷达和双目相机的同时定位与建图方法 |
CN117315268A (zh) * | 2023-11-27 | 2023-12-29 | 武汉大学 | 一种基于毫米波雷达的slam方法及系统 |
CN117541655A (zh) * | 2024-01-10 | 2024-02-09 | 上海几何伙伴智能驾驶有限公司 | 融合视觉语义消除radar建图z轴累积误差的方法 |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2133662B1 (en) * | 2008-06-09 | 2012-02-01 | Honeywell International Inc. | Methods and system of navigation using terrain features |
US20140350839A1 (en) * | 2013-05-23 | 2014-11-27 | Irobot Corporation | Simultaneous Localization And Mapping For A Mobile Robot |
CN104374395A (zh) * | 2014-03-31 | 2015-02-25 | 南京邮电大学 | 基于图的视觉slam方法 |
US20160188977A1 (en) * | 2014-12-24 | 2016-06-30 | Irobot Corporation | Mobile Security Robot |
CN106595659A (zh) * | 2016-11-03 | 2017-04-26 | 南京航空航天大学 | 城市复杂环境下多无人机视觉slam的地图融合方法 |
CN109031304A (zh) * | 2018-06-06 | 2018-12-18 | 上海国际汽车城(集团)有限公司 | 基于视觉和毫米波雷达地图特征的隧道内车辆定位方法 |
CN109029417A (zh) * | 2018-05-21 | 2018-12-18 | 南京航空航天大学 | 基于混合视觉里程计和多尺度地图的无人机slam方法 |
CN109507677A (zh) * | 2018-11-05 | 2019-03-22 | 浙江工业大学 | 一种结合gps和雷达里程计的slam方法 |
CN110058602A (zh) * | 2019-03-27 | 2019-07-26 | 天津大学 | 基于深度视觉的多旋翼无人机自主定位方法 |
CN110187375A (zh) * | 2019-06-27 | 2019-08-30 | 武汉中海庭数据技术有限公司 | 一种基于slam定位结果提高定位精度的方法及装置 |
CN110196586A (zh) * | 2018-02-26 | 2019-09-03 | 日本电产新宝株式会社 | 移动体、控制移动体的方法及计算机可读取记录媒体 |
-
2019
- 2019-09-16 CN CN201910869887.0A patent/CN110570449B/zh active Active
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2133662B1 (en) * | 2008-06-09 | 2012-02-01 | Honeywell International Inc. | Methods and system of navigation using terrain features |
US20140350839A1 (en) * | 2013-05-23 | 2014-11-27 | Irobot Corporation | Simultaneous Localization And Mapping For A Mobile Robot |
CN104374395A (zh) * | 2014-03-31 | 2015-02-25 | 南京邮电大学 | 基于图的视觉slam方法 |
US20160188977A1 (en) * | 2014-12-24 | 2016-06-30 | Irobot Corporation | Mobile Security Robot |
CN106595659A (zh) * | 2016-11-03 | 2017-04-26 | 南京航空航天大学 | 城市复杂环境下多无人机视觉slam的地图融合方法 |
CN110196586A (zh) * | 2018-02-26 | 2019-09-03 | 日本电产新宝株式会社 | 移动体、控制移动体的方法及计算机可读取记录媒体 |
CN109029417A (zh) * | 2018-05-21 | 2018-12-18 | 南京航空航天大学 | 基于混合视觉里程计和多尺度地图的无人机slam方法 |
CN109031304A (zh) * | 2018-06-06 | 2018-12-18 | 上海国际汽车城(集团)有限公司 | 基于视觉和毫米波雷达地图特征的隧道内车辆定位方法 |
CN109507677A (zh) * | 2018-11-05 | 2019-03-22 | 浙江工业大学 | 一种结合gps和雷达里程计的slam方法 |
CN110058602A (zh) * | 2019-03-27 | 2019-07-26 | 天津大学 | 基于深度视觉的多旋翼无人机自主定位方法 |
CN110187375A (zh) * | 2019-06-27 | 2019-08-30 | 武汉中海庭数据技术有限公司 | 一种基于slam定位结果提高定位精度的方法及装置 |
Non-Patent Citations (2)
Title |
---|
王光庭 等: "基于激光雷达与视觉信息融合的SLAM方法", 《山东理工大学学报(自然科学版)》 * |
王消为 等: "基于激光雷达与双目视觉的移动机器人SLAM研究", 《传感技术学报》 * |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111260725A (zh) * | 2020-01-15 | 2020-06-09 | 浙江大学 | 一种面向动态环境的轮速计辅助的视觉里程计方法 |
CN111260725B (zh) * | 2020-01-15 | 2022-04-19 | 浙江大学 | 一种面向动态环境的轮速计辅助的视觉里程计方法 |
CN112581613A (zh) * | 2020-12-08 | 2021-03-30 | 纵目科技(上海)股份有限公司 | 一种栅格地图的生成方法、系统、电子设备及存储介质 |
CN112650255A (zh) * | 2020-12-29 | 2021-04-13 | 杭州电子科技大学 | 一种基于视觉与激光雷达信息融合的机器人室内外定位导航系统方法 |
CN113091733A (zh) * | 2021-03-15 | 2021-07-09 | 武汉大学 | 一种基于毫米波雷达与imu融合的实时定位装置及方法 |
CN113419235A (zh) * | 2021-05-28 | 2021-09-21 | 同济大学 | 一种基于毫米波雷达的无人机定位方法 |
CN113625271A (zh) * | 2021-07-29 | 2021-11-09 | 中汽创智科技有限公司 | 基于毫米波雷达和双目相机的同时定位与建图方法 |
CN113625271B (zh) * | 2021-07-29 | 2023-10-27 | 中汽创智科技有限公司 | 基于毫米波雷达和双目相机的同时定位与建图方法 |
CN117315268A (zh) * | 2023-11-27 | 2023-12-29 | 武汉大学 | 一种基于毫米波雷达的slam方法及系统 |
CN117315268B (zh) * | 2023-11-27 | 2024-02-09 | 武汉大学 | 一种基于毫米波雷达的slam方法及系统 |
CN117541655A (zh) * | 2024-01-10 | 2024-02-09 | 上海几何伙伴智能驾驶有限公司 | 融合视觉语义消除radar建图z轴累积误差的方法 |
CN117541655B (zh) * | 2024-01-10 | 2024-03-26 | 上海几何伙伴智能驾驶有限公司 | 融合视觉语义消除radar建图z轴累积误差的方法 |
Also Published As
Publication number | Publication date |
---|---|
CN110570449B (zh) | 2021-03-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110570449B (zh) | 一种基于毫米波雷达与视觉slam的定位与建图方法 | |
CN112085801B (zh) | 基于神经网络的三维点云和二维图像融合的校准方法 | |
CN107167826B (zh) | 一种自动驾驶中基于可变网格的图像特征检测的车辆纵向定位系统及方法 | |
CN111735439B (zh) | 地图构建方法、装置和计算机可读存储介质 | |
KR101890612B1 (ko) | 적응적 관심영역 및 탐색창을 이용한 객체 검출 방법 및 장치 | |
CN112183171A (zh) | 一种基于视觉信标建立信标地图方法、装置 | |
CN108151713A (zh) | 一种单目vo快速位姿估计方法 | |
CN113763549B (zh) | 融合激光雷达和imu的同时定位建图方法、装置和存储介质 | |
CN113933818A (zh) | 激光雷达外参的标定的方法、设备、存储介质及程序产品 | |
CN110488838A (zh) | 一种室内自主导航机器人精确重复定位方法 | |
CN101865656B (zh) | 一种使用少数共面点精确定位多摄像头系统位姿的方法 | |
CN112652020A (zh) | 一种基于AdaLAM算法的视觉SLAM方法 | |
CN112649803B (zh) | 一种基于互相关系数的摄像机与雷达目标匹配方法 | |
CN107146236B (zh) | 视频卫星的点状运动目标状态估计方法及系统 | |
KR20230003803A (ko) | 라이다 좌표계와 카메라 좌표계의 벡터 정합을 통한 자동 캘리브레이션 방법 | |
CN112419427A (zh) | 用于提高飞行时间相机精度的方法 | |
CN116400349A (zh) | 一种低分辨率毫米波雷达与光学相机的标定方法 | |
CN115984592A (zh) | 基于SuperPoint+SuperGlue的点线融合特征匹配方法 | |
CN114111791A (zh) | 一种智能机器人室内自主导航方法、系统及存储介质 | |
CN114049401A (zh) | 双目相机标定方法、装置、设备及介质 | |
CN113237484A (zh) | 基于slam的相机和imu的外部旋转参数求解方法 | |
CN116228549B (zh) | 基于强化学习的图像拼接方法、装置、设备和存储介质 | |
CN117036511B (zh) | 多类型传感器的标定方法、装置、计算机设备和存储介质 | |
CN110954933B (zh) | 一种基于场景dna的移动平台定位装置及方法 | |
CN117495934A (zh) | 车辆采集数据在线对齐方法、装置、设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |