CN113744398B - 一种基于激光与微波协同的地图重构融合方法 - Google Patents

一种基于激光与微波协同的地图重构融合方法 Download PDF

Info

Publication number
CN113744398B
CN113744398B CN202111031055.5A CN202111031055A CN113744398B CN 113744398 B CN113744398 B CN 113744398B CN 202111031055 A CN202111031055 A CN 202111031055A CN 113744398 B CN113744398 B CN 113744398B
Authority
CN
China
Prior art keywords
radar
microwave
laser
laser radar
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202111031055.5A
Other languages
English (en)
Other versions
CN113744398A (zh
Inventor
郭世盛
资引东
陈家辉
许振昌
崔国龙
孔令讲
杨晓波
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Electronic Science and Technology of China
Original Assignee
University of Electronic Science and Technology of China
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Electronic Science and Technology of China filed Critical University of Electronic Science and Technology of China
Priority to CN202111031055.5A priority Critical patent/CN113744398B/zh
Publication of CN113744398A publication Critical patent/CN113744398A/zh
Application granted granted Critical
Publication of CN113744398B publication Critical patent/CN113744398B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Remote Sensing (AREA)
  • Computer Graphics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

本发明公开一种基于激光与微波协同的地图重构融合方法,应用于存在遮蔽区域的三维高精度地图测绘领域,针对现有采用摄像头、激光雷达和毫米波雷达等组合的测绘方案,其感知范围只限于视距区域,无法获取遮蔽环境下的信息的问题;本发明采用的方法为:首先,同步获取激光雷达的点云数据与微波雷达的回波数据,相邻帧的点云数据以特征点匹配的方式获取激光雷达位姿参数并重构场景地图,之后利用激光雷达位姿参数预估微波雷达在移动过程中分布的子孔径的位姿,并以子孔径位姿和激光雷达估计的可视范围物体距离为参考对微波雷达回波数据进行滤波处理,得到微波雷达成像结果图,通过成像结果融合得到可视与遮蔽区域的地图测绘结果。

Description

一种基于激光与微波协同的地图重构融合方法
技术领域
本发明属于地图测绘领域,特别涉及一种存在视野盲区的三维高精度地图测绘技术。
背景技术
高精度三维地图测绘在自动驾驶、森林资源调查、城市建筑重建等领域具有重要意义。激光雷达在地图重构中起着关键作用,因为它可以提供较小误差的高精度环境感知信息。
激光雷达主要有两类地图重构方法。第一类基于全点云匹配,第二类基于特征点云匹配。在第一种类型中,迭代最近点法(ICP)最具代表性(P.J.Besl and N.D.McKay,“Amethod for registration of 3-D shapes,”IEEE Transactions on Pattern Analysisand Machine Intelligence,vol.14,no.2,pp.239-256,Feb.1992.):它通过使用相邻帧的所有点云来估计激光雷达里程,之后激光雷达里程信息将用于地图构建。但是,ICP计算工作量太大,不适合大规模场景重建。
第二种方法称为激光雷达里程和测绘(LOAM)方法,研究人员已经在此领域做了较长时间的研究。在(J.Zhang and S.Singh,“LOAM:Lidar odometry and mapping inrealtime,”in Robotics:Science and Systems Conference(RSS),Jul.2014.)中,作者提取了两个相邻数据帧的特征点进行匹配,结果表明该算法可以提高地图构建精度与速度。在论文(T.Shan and B.Englot,“LeGO-LOAM:Lightweight and Ground-Optimized LidarOdometry and Mapping on Variable Terrain,”in 2018IEEE/RSJ InternationalConference on Intelligent Robots and Systems(IROS),pp.4758-4765,2018.)中,作者通过使用两步Levenberg-Marquardt(D.Marquardt,“An algorithm for least-squaresestimation of nonlinear parameters,”Journal of the society for Industrial andApplied Mathematics.pp.431-441,Nov.1963.)方法求解非线性运动估计方程,提出了一种改进LOAM的轻型激光雷达里程测量算法(T.Shan and B.Englot,“LeGO-LOAM:Lightweight and Ground-Optimized Lidar Odometry and Mapping on VariableTerrain,”in 2018IEEE/RSJ International Conference on Intelligent Robots andSystems(IROS),pp.4758-4765,2018.)。结果表明,该算法的制图精度高于LOAM。此外,一种用于小视场固态激光雷达的快速激光雷达测绘算法(J.Lin and F.Zhang,“Loam livox:Afast,robust,high-precision Lidar odometry and mapping package for Lidars ofsmall FoV,”in 2020IEEE International Conference on Robotics and Automation(ICRA),pp.3126-3131,2020.)其精度也较高,由于该算法采用的激光雷达有着非重复扫描特性,因此可以获得更高精度的地图绘制结果。然而,所有基于激光雷达的地图重构方法只能局限于激光雷达在视距范围内感知的结果,无法同时对遮挡区域进行地图构建。
发明内容
为解决上述技术问题,本发明提出了一种基于激光与微波协同的地图重构融合方法,用于重建未知场景,能同时精准绘制视距范围与非视距范围内的环境信息。
本发明采用的技术方案为:一种基于激光与微波协同的地图重构融合方法,所述方法基于的数据采集装置包括:车载系统、激光雷达以及微波雷达,所述激光雷达与微波雷达固定于车载系统上,数据采集装置运行时,激光雷达与微波雷达面向存在遮挡的未知场景;
所述方法具体包括以下步骤:
S1、激光雷达与微波雷达同步开始采集数据;
S2、基于激光雷达的点云数据,运用Livox loam算法提取出相邻数据帧的特征点作为匹配,以匹配误差作为约束构建激光雷达位姿求解优化方程,并基于求解出的激光雷达位姿对可视范围场景进行三维地图重构,得到激光雷达构图结果;
S3、在时间域上基于激光雷达的位姿用线性插值的方法,预估出微波雷达在移动过程中分布的具体子孔径的位姿;
S4、以子孔径位姿和激光雷达估计的可视范围物体距离为先验信息对微波雷达回波进行滤波处理,并运用多视角后向投影成像算法,得到微波雷达成像结果;
S5、最后以激光雷达与微波雷达分布的子孔径位姿参数为参考,进行激光雷达构图结果与微波雷达成像结果融合,得到融合后的可视与遮蔽区域的地图测绘结果。
对激光雷达与微波雷达各自采集的每帧数据都打上时间戳。
步骤S3具体为:记第k帧激光雷达数据,对应的位姿为
Figure BDA0003245273930000021
这里
Figure BDA0003245273930000022
寻找第m帧微波雷达数据,且第m帧微波雷达数据对应的时间点位于第k帧激光雷达数据的起始时刻到结束时刻之间,记第m帧微波雷达数据对应位姿为
Figure BDA0003245273930000023
Figure BDA0003245273930000024
是激光雷达第k帧激光雷达数据结束时刻的时间点,
Figure BDA0003245273930000025
为第m帧微波雷达数据所对应的时间点,通过下式求得
Figure BDA0003245273930000026
其中
Figure BDA0003245273930000027
Figure BDA0003245273930000028
分别为激光雷达坐标系L到微波雷达坐标系B的旋转矩阵和平移向量:
Figure BDA0003245273930000031
Figure BDA0003245273930000032
Figure BDA0003245273930000033
Figure BDA0003245273930000034
其中,Fτ作为中间变量。
微波雷达搭载于可上下移动的导轨上,通过导轨上下移动的方式使得微波雷达的二维平面成像结果累加成三维结果图。
步骤S4所示激光雷达估计的可视范围物体距离,计算式为:
Figure BDA0003245273930000035
其中,DL(k)表示激光雷达预估的可视范围物体距离,L表示激光雷达坐标系中,
Figure BDA0003245273930000036
表示第k帧第i个点云,N为在第k帧数据中属于空间采样区内的点云总数,Dw为固定经验值,V(dL)为空间采样区。
对第m帧微波雷达数据做脉冲压缩得到Zb(t),将Zb(t)中回波时间小于
Figure BDA0003245273930000037
的部分所对应的幅度值置零,c为光速。
本发明的有益效果:本发明的方法能够同时对视距范围与遮蔽场景内的地图进行重构,其具备视距范围与非视距范围环境的感知能力,本发明的融合算法提高了存在遮蔽场景的激光雷达绘图能力;同时以激光雷达预估的微波雷达位姿作为先验信息使得微波雷达成像算法不受限于合作式的自定位系统(如GPS等),所以本发明融合算法可在场景未知且无定位系统的情况下进行地图重构。
附图说明
图1为融合算法的程序框图。
图2为具体实施方式中的实验场景设置示意图;
图3为具体实施方式中试验场景示意图;
其中(a)和(b)为实验场景两个不同视角,外围木墙为遮挡物,内部砖墙处于遮蔽区域。
图4为车载系统示意图。雷达方位角与车载系统移动路径始终保持90度,微波雷达挂载于可上下移动的滑轨上。
图5为具体实施方式提供的现有技术中微波雷达成像结果;
其中(a)为未滤波的成像结果,(b)为结合激光雷达预估的距离信息滤波后的结果。
图6为具体实施方式提供的现有技术中激光雷达的地图重构结果;
图7中(a)为本发明的融合算法处理后的地图重构结果,(b)地图重构结果俯视图。
具体实施方式
本发明的算法流程如图1所示。下面根据图2搭建的实验场景给出本发明的具体实施方式:车载系统搭载激光雷达与微波雷达按照预设路线(虚线)行进。由于木墙的遮挡,砖墙在车载系统行进过程中处于视野盲区。
实验场景光学图像如图3所示。车载系统如图4所示,激光雷达与微波雷达固定于车载系统上并统一面向车体右侧,微波雷达搭载于可上下移动的导轨上,可通过导轨上下移动的方式使得微波雷达的二维平面成像结果累加成三维结果图。小车的行进路线与雷达朝向始终相差90度。本发明中的车载系统包括可行走的小车,以及小车上的搭载的数据处理模块等;具体处理方法详见步骤S1-S5;
本发明采用的微波雷达为步进频体制,频率间隔为2MHz,频率为1.6GHz-2.2GHz。激光雷达采用大疆Livox horizon,其检测范围为60m,角度分辨率为0.05°,距离分别率为0.02m,激光雷达视场角为81.7°(水平)×25.1°(垂直)。本次实验中设置激光雷达坐标系正前方为x轴,上方为z轴,左方为y轴。
步骤S1:当车载系统启动时,激光雷达与微波雷达同步开始采集数据,车载系统停止时,结束数据采集,每帧数据都打上时间戳。
步骤S2:激光雷达地图重构;
图6为(J.Lin and F.Zhang,“Loam livox:A fast,robust,high-precisionLidar odometry and mapping package for Lidars of small FoV,”in 2020IEEEInternational Conference on Robotics and Automation(ICRA),pp.3126-3131,2020.)所提算法的结果,可以看出现有的单激光雷达的成像结果中内墙成像是不完整的。
假设激光雷达坐标系中,第k帧数据中的第i个点云为X(k,i),将X(k,i)投影到第k帧数据帧的初始时刻得到
Figure BDA0003245273930000041
Figure BDA0003245273930000042
R(k,i)和τ(k,i)分别是旋转矩阵和平移向量。
对于位于k帧中的所有点云
Figure BDA0003245273930000051
的集合记为
Figure BDA0003245273930000052
每帧点云接收时由于车体是一直运动的,所以存在点云畸变,在每帧数据接收后通过IMU陀螺仪进行矫正。因为当前第k帧数据的处理是假设在上一帧数据已矫正的情况下进行的,假设已矫正的k-1帧数据为
Figure BDA0003245273930000053
分别匹配
Figure BDA0003245273930000054
和未校正的
Figure BDA0003245273930000055
中的特征点得到两数据帧间的位移d:
Figure BDA0003245273930000056
D(·,·)为计算不同数据帧位移的运算符。建立优化方程:
Figure BDA0003245273930000057
得到的旋转矩阵和平移向量代表了当前激光雷达在k帧点云中产生的位移。
步骤S3:微波雷达子孔径位姿估计;
微波雷达成像算法需要车载系统移动过程中产生的子孔径位姿参数,这里通过激光雷达在步骤S2中估计出来的自身位姿参数来估计微波雷达的子孔径位姿。
假设当前处理激光雷达的第k帧数据帧,则对应的位姿为
Figure BDA0003245273930000058
这里
Figure BDA0003245273930000059
寻找第m帧微波雷达数据,且此数据帧对应的时间点位于第k帧数据帧的起始时刻到结束时刻之间,其对应位姿为
Figure BDA00032452739300000510
假设
Figure BDA00032452739300000511
是第k帧数据结束时刻的时间点,
Figure BDA00032452739300000512
为微波雷达第m帧数据回波所对应的时间点,通过下式求得
Figure BDA00032452739300000513
其中
Figure BDA00032452739300000514
Figure BDA00032452739300000515
分别为激光雷达坐标系到微波雷达坐标系的旋转矩阵和平移向量:
Figure BDA00032452739300000516
Figure BDA00032452739300000517
Figure BDA00032452739300000518
Figure BDA00032452739300000519
其中,Fτ作为中间变量,用于简化运算;
Figure BDA00032452739300000520
Figure BDA00032452739300000521
分别为激光雷达坐标系L到微波雷达坐标系B的旋转矩阵和平移向量,实际中由自己的系统两个雷达的空间摆放位置来确定。
步骤S4:以子孔径位姿和激光雷达估计的可视范围物体距离为先验信息对微波雷达回波进行滤波处理,并运用多视角后向投影成像算法进行微波雷达成像;具体包括以下分步骤:
S41、预估可视范围物体距离DL(k)
本发明中微波雷达障碍物的回波消除是基于激光雷达预估的可视范围物体距离DL(k)
Figure BDA0003245273930000061
在激光雷达坐标系L中,第k帧第i个点云为
Figure BDA0003245273930000062
N为在第k帧数据中属于空间采样区内的点云总数,取出
Figure BDA0003245273930000063
中的第一个变量x做N点平均,其Dw为固定经验值,大概为平均墙体厚度,本次实验取0.20m,V(dL)为空间采样区。
同样找到步骤S3中所描述的微波雷达第m帧回波并做脉冲压缩得到Zb(t),Zb(t)中回波时间小于
Figure BDA0003245273930000064
的索引所对应的幅度值会被置零,c为光速。
S42、多视角后向投影成像算法
根据论文(Y.Jia,G.Cui,L.Kong and X.Yang,“Multichannel and MultiviewImaging Approach to Building Layout Determination of Through-Wall Radar,”IEEEGeoscience and Remote Sensing Letters,vol.11,no.5,pp.970-974,May.2014.)中所描述的后向投影成像算法完成微波雷达的成像,M(B,H)(X,Y)代表高度为H的微波雷达二维成像平面结果图,通过调节滑轨的高度H使得处于不同高度项的M(B,H)(X,Y)层层累加可得到微波雷达三维建图结果。M(B,H)(X,Y)被平均像素格点化为PN,PQ个点,本次实验均为500,收发阵元(子孔径)的位置分别为(xbt,0)和(xbr,0)(b=1,2,...,NL),可以得到M(B,H)(X,Y)的每个像素点(xn,ym)到各收发阵元的回波延迟为:
Figure BDA0003245273930000065
其中,PN表示M(B,H)(X,Y)在像素格点化后的二维网格上其中一个维度的点的总个数,PQ表示M(B,H)(X,Y)在像素格点化后的二维网格上另一个维度的点的像素点个数,NL的个数是由收发的回波数决定,运行时间越长,回波个数也就越多;
每个像素点(xn,ym)的值可以由下式得到,本发明的微波雷达成像结果如图5(b)所示,通过微波雷达可以滤除可视范围内的墙体:
Figure BDA0003245273930000071
步骤S5:M(B,H)(X,Y)中像素值小于阈值ψ会被置零,本次实验中ψ为最大像素值的40%。此时M(B,H)(X,Y)中非零像素点会被选为微波雷达点云XR=(xm,yn,H),此步骤称为像素格点化。XR
Figure BDA0003245273930000072
(雷达在地图中的位置)为参考信息投影到激光雷达建图结果中可得到最终的融合地图Mf,如图7所示,可见本发明方法内墙与外墙的成像结果都比较完整。
在本发明中,我们考虑了使用激光雷达和微波雷达同步对存在遮蔽环境的场景进行地图重构的问题。激光雷达采用Livox-loam算法重建可视范围区域,微波雷达采用后向投影成像算法重建遮挡区域。本发明提出的数据融合算法,将激光雷达和微波雷达的成像结果进行融合。实验结果表明,该算法能够高精度地重建未知遮挡场景,与激光雷达的地图生成策略相比,该算法能够同时获得遮蔽区域的成像结果,二者融合有效填补了视野盲区,提升了建图视野范围。
本领域的普通技术人员将会意识到,这里所述的实施例是为了帮助读者理解本发明的原理,应被理解为本发明的保护范围并不局限于这样的特别陈述和实施例。对于本领域的技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的权利要求范围之内。

Claims (5)

1.一种基于激光与微波协同的地图重构融合方法,其特征在于,所述方法基于的数据采集装置包括:车载系统、激光雷达以及微波雷达,所述激光雷达与微波雷达固定于车载系统上,数据采集装置运行时,激光雷达与微波雷达面向存在遮挡的未知场景;
所述方法具体包括以下步骤:
S1、激光雷达与微波雷达同步开始采集数据;
S2、基于激光雷达的点云数据,运用Livox loam算法提取出相邻数据帧的特征点作为匹配,以匹配误差作为约束构建激光雷达位姿求解优化方程,并基于求解出的激光雷达位姿对可视范围场景进行三维地图重构,得到激光雷达构图结果;
S3、在时间域上基于激光雷达的位姿用线性插值的方法,预估出微波雷达在移动过程中分布的具体子孔径的位姿;步骤S3具体为:记第k帧激光雷达数据,对应的位姿为
Figure FDA0004146595680000011
这里
Figure FDA0004146595680000012
寻找第m帧微波雷达数据,且第m帧微波雷达数据对应的时间点位于第k帧激光雷达数据的起始时刻到结束时刻之间,记第m帧微波雷达数据对应位姿为
Figure FDA0004146595680000013
Figure FDA0004146595680000014
是激光雷达第k帧激光雷达数据结束时刻的时间点,
Figure FDA0004146595680000015
为第m帧微波雷达数据所对应的时间点,通过下式求得
Figure FDA0004146595680000016
其中
Figure FDA0004146595680000017
Figure FDA0004146595680000018
分别为激光雷达坐标系L到微波雷达坐标系B的旋转矩阵和平移向量:
Figure FDA0004146595680000019
Figure FDA00041465956800000110
Figure FDA00041465956800000111
Figure FDA00041465956800000112
其中,Fτ作为中间变量;
S4、以子孔径位姿和激光雷达估计的可视范围物体距离为先验信息对微波雷达回波进行滤波处理,并运用多视角后向投影成像算法,得到微波雷达成像结果;
S5、最后以激光雷达与微波雷达分布的子孔径位姿参数为参考,进行激光雷达构图结果与微波雷达成像结果融合,得到融合后的可视与遮蔽区域的地图测绘结果。
2.根据权利要求1所述的一种基于激光与微波协同的地图重构融合方法,其特征在于,对激光雷达与微波雷达各自采集的每帧数据都打上时间戳。
3.根据权利要求2所述的一种基于激光与微波协同的地图重构融合方法,其特征在于,微波雷达搭载于可上下移动的导轨上,通过导轨上下移动的方式使得微波雷达的二维平面成像结果累加成三维结果图。
4.根据权利要求3所述的一种基于激光与微波协同的地图重构融合方法,其特征在于,步骤S4所示激光雷达估计的可视范围物体距离,计算式为:
Figure FDA0004146595680000021
其中,DL(k)表示激光雷达预估的可视范围物体距离,L表示激光雷达坐标系,
Figure FDA0004146595680000022
表示第k帧第i个点云,N为在第k帧数据中属于空间采样区内的点云总数,Dw为固定经验值,V(dL)为空间采样区。
5.根据权利要求4所述的一种基于激光与微波协同的地图重构融合方法,其特征在于,对第m帧微波雷达数据做脉冲压缩得到Zb(t),将Zb(t)中回波时间小于
Figure FDA0004146595680000023
的部分所对应的幅度值置零,c为光速。
CN202111031055.5A 2021-09-03 2021-09-03 一种基于激光与微波协同的地图重构融合方法 Active CN113744398B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111031055.5A CN113744398B (zh) 2021-09-03 2021-09-03 一种基于激光与微波协同的地图重构融合方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111031055.5A CN113744398B (zh) 2021-09-03 2021-09-03 一种基于激光与微波协同的地图重构融合方法

Publications (2)

Publication Number Publication Date
CN113744398A CN113744398A (zh) 2021-12-03
CN113744398B true CN113744398B (zh) 2023-04-28

Family

ID=78735357

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111031055.5A Active CN113744398B (zh) 2021-09-03 2021-09-03 一种基于激光与微波协同的地图重构融合方法

Country Status (1)

Country Link
CN (1) CN113744398B (zh)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110717917A (zh) * 2019-09-30 2020-01-21 北京影谱科技股份有限公司 基于cnn语义分割深度预测方法和装置
CN112784873A (zh) * 2020-12-25 2021-05-11 华为技术有限公司 一种语义地图的构建方法及设备
CN113066105A (zh) * 2021-04-02 2021-07-02 北京理工大学 激光雷达和惯性测量单元融合的定位与建图方法及系统

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106970393B (zh) * 2017-03-14 2019-12-03 南京航空航天大学 一种基于码分多址的面阵激光雷达三维成像方法
EP3787947A2 (en) * 2018-08-14 2021-03-10 Mobileye Vision Technologies Ltd. Systems and methods for navigating with safe distances

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110717917A (zh) * 2019-09-30 2020-01-21 北京影谱科技股份有限公司 基于cnn语义分割深度预测方法和装置
CN112784873A (zh) * 2020-12-25 2021-05-11 华为技术有限公司 一种语义地图的构建方法及设备
CN113066105A (zh) * 2021-04-02 2021-07-02 北京理工大学 激光雷达和惯性测量单元融合的定位与建图方法及系统

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
J. A. Guerrero等.Towards LIDAR-RADAR based terrain mapping.《2015 IEEE International Workshop on Advanced Robotics and its Social Impacts (ARSO)》.2016,第1-6页. *
梅炜.工程测绘中激光雷达测绘技术探讨.《工程技术研究》.2020,第55-56页. *

Also Published As

Publication number Publication date
CN113744398A (zh) 2021-12-03

Similar Documents

Publication Publication Date Title
US11131752B2 (en) Vehicle navigation system using pose estimation based on point cloud
US10937231B2 (en) Systems and methods for updating a high-resolution map based on binocular images
CA3028653C (en) Methods and systems for color point cloud generation
CN110178048B (zh) 交通工具环境地图生成和更新的方法和系统
CN108257161B (zh) 基于多相机的车辆环境三维重构和运动估计系统及方法
EP3631494B1 (en) Integrated sensor calibration in natural scenes
Zhang et al. Novel approach to position and orientation estimation in vision-based UAV navigation
CN112254729B (zh) 一种基于多传感器融合的移动机器人定位方法
CN113763548B (zh) 基于视觉-激光雷达耦合的贫纹理隧洞建模方法及系统
CN113160327A (zh) 一种点云补全的实现方法和系统
CN113240813B (zh) 三维点云信息确定方法及装置
CN114459467B (zh) 一种未知救援环境中基于vi-slam的目标定位方法
CN112017248A (zh) 一种基于点线特征的2d激光雷达相机多帧单步标定方法
CN114638897B (zh) 基于无重叠视域的多相机系统的初始化方法、系统及装置
CN106153041B (zh) 一种基于多景深信息的视觉里程计测速方法
CN113625271B (zh) 基于毫米波雷达和双目相机的同时定位与建图方法
CN114219852B (zh) 一种用于自动驾驶车辆的多传感器标定方法及装置
CN113744398B (zh) 一种基于激光与微波协同的地图重构融合方法
EP4172936A1 (en) System and methods for thermal imaging
CN117115271A (zh) 无人机飞行过程中的双目相机外参数自标定方法及系统
CN116339336A (zh) 电动农机集群协同作业方法、装置及系统
CN114638858B (zh) 一种基于车载双相机系统的运动目标位置与速度估计方法
AU2018102199A4 (en) Methods and systems for color point cloud generation
CN114323038A (zh) 融合双目视觉和2d激光雷达的室外定位方法
CN110864685A (zh) 一种基于松耦合的车辆单目视觉轮式里程计定位方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant