CN113744398B - 一种基于激光与微波协同的地图重构融合方法 - Google Patents
一种基于激光与微波协同的地图重构融合方法 Download PDFInfo
- Publication number
- CN113744398B CN113744398B CN202111031055.5A CN202111031055A CN113744398B CN 113744398 B CN113744398 B CN 113744398B CN 202111031055 A CN202111031055 A CN 202111031055A CN 113744398 B CN113744398 B CN 113744398B
- Authority
- CN
- China
- Prior art keywords
- radar
- microwave
- laser
- laser radar
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000007500 overflow downdraw method Methods 0.000 title claims abstract description 10
- 238000003384 imaging method Methods 0.000 claims abstract description 30
- 238000000034 method Methods 0.000 claims abstract description 22
- 238000013507 mapping Methods 0.000 claims abstract description 17
- 238000001914 filtration Methods 0.000 claims abstract description 5
- 230000000007 visual effect Effects 0.000 claims description 8
- 239000011159 matrix material Substances 0.000 claims description 6
- 238000005070 sampling Methods 0.000 claims description 6
- 238000013519 translation Methods 0.000 claims description 6
- 230000006835 compression Effects 0.000 claims description 3
- 238000007906 compression Methods 0.000 claims description 3
- 238000005457 optimization Methods 0.000 claims description 3
- 238000012545 processing Methods 0.000 abstract description 4
- 238000010586 diagram Methods 0.000 description 5
- 238000002474 experimental method Methods 0.000 description 5
- 230000004927 fusion Effects 0.000 description 5
- 239000011449 brick Substances 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 238000006073 displacement reaction Methods 0.000 description 2
- 238000002592 echocardiography Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000004888 barrier function Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000013480 data collection Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000011835 investigation Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000024121 nodulation Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 239000002023 wood Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/05—Geographic models
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Geometry (AREA)
- Software Systems (AREA)
- Remote Sensing (AREA)
- Computer Graphics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Optical Radar Systems And Details Thereof (AREA)
Abstract
本发明公开一种基于激光与微波协同的地图重构融合方法,应用于存在遮蔽区域的三维高精度地图测绘领域,针对现有采用摄像头、激光雷达和毫米波雷达等组合的测绘方案,其感知范围只限于视距区域,无法获取遮蔽环境下的信息的问题;本发明采用的方法为:首先,同步获取激光雷达的点云数据与微波雷达的回波数据,相邻帧的点云数据以特征点匹配的方式获取激光雷达位姿参数并重构场景地图,之后利用激光雷达位姿参数预估微波雷达在移动过程中分布的子孔径的位姿,并以子孔径位姿和激光雷达估计的可视范围物体距离为参考对微波雷达回波数据进行滤波处理,得到微波雷达成像结果图,通过成像结果融合得到可视与遮蔽区域的地图测绘结果。
Description
技术领域
本发明属于地图测绘领域,特别涉及一种存在视野盲区的三维高精度地图测绘技术。
背景技术
高精度三维地图测绘在自动驾驶、森林资源调查、城市建筑重建等领域具有重要意义。激光雷达在地图重构中起着关键作用,因为它可以提供较小误差的高精度环境感知信息。
激光雷达主要有两类地图重构方法。第一类基于全点云匹配,第二类基于特征点云匹配。在第一种类型中,迭代最近点法(ICP)最具代表性(P.J.Besl and N.D.McKay,“Amethod for registration of 3-D shapes,”IEEE Transactions on Pattern Analysisand Machine Intelligence,vol.14,no.2,pp.239-256,Feb.1992.):它通过使用相邻帧的所有点云来估计激光雷达里程,之后激光雷达里程信息将用于地图构建。但是,ICP计算工作量太大,不适合大规模场景重建。
第二种方法称为激光雷达里程和测绘(LOAM)方法,研究人员已经在此领域做了较长时间的研究。在(J.Zhang and S.Singh,“LOAM:Lidar odometry and mapping inrealtime,”in Robotics:Science and Systems Conference(RSS),Jul.2014.)中,作者提取了两个相邻数据帧的特征点进行匹配,结果表明该算法可以提高地图构建精度与速度。在论文(T.Shan and B.Englot,“LeGO-LOAM:Lightweight and Ground-Optimized LidarOdometry and Mapping on Variable Terrain,”in 2018IEEE/RSJ InternationalConference on Intelligent Robots and Systems(IROS),pp.4758-4765,2018.)中,作者通过使用两步Levenberg-Marquardt(D.Marquardt,“An algorithm for least-squaresestimation of nonlinear parameters,”Journal of the society for Industrial andApplied Mathematics.pp.431-441,Nov.1963.)方法求解非线性运动估计方程,提出了一种改进LOAM的轻型激光雷达里程测量算法(T.Shan and B.Englot,“LeGO-LOAM:Lightweight and Ground-Optimized Lidar Odometry and Mapping on VariableTerrain,”in 2018IEEE/RSJ International Conference on Intelligent Robots andSystems(IROS),pp.4758-4765,2018.)。结果表明,该算法的制图精度高于LOAM。此外,一种用于小视场固态激光雷达的快速激光雷达测绘算法(J.Lin and F.Zhang,“Loam livox:Afast,robust,high-precision Lidar odometry and mapping package for Lidars ofsmall FoV,”in 2020IEEE International Conference on Robotics and Automation(ICRA),pp.3126-3131,2020.)其精度也较高,由于该算法采用的激光雷达有着非重复扫描特性,因此可以获得更高精度的地图绘制结果。然而,所有基于激光雷达的地图重构方法只能局限于激光雷达在视距范围内感知的结果,无法同时对遮挡区域进行地图构建。
发明内容
为解决上述技术问题,本发明提出了一种基于激光与微波协同的地图重构融合方法,用于重建未知场景,能同时精准绘制视距范围与非视距范围内的环境信息。
本发明采用的技术方案为:一种基于激光与微波协同的地图重构融合方法,所述方法基于的数据采集装置包括:车载系统、激光雷达以及微波雷达,所述激光雷达与微波雷达固定于车载系统上,数据采集装置运行时,激光雷达与微波雷达面向存在遮挡的未知场景;
所述方法具体包括以下步骤:
S1、激光雷达与微波雷达同步开始采集数据;
S2、基于激光雷达的点云数据,运用Livox loam算法提取出相邻数据帧的特征点作为匹配,以匹配误差作为约束构建激光雷达位姿求解优化方程,并基于求解出的激光雷达位姿对可视范围场景进行三维地图重构,得到激光雷达构图结果;
S3、在时间域上基于激光雷达的位姿用线性插值的方法,预估出微波雷达在移动过程中分布的具体子孔径的位姿;
S4、以子孔径位姿和激光雷达估计的可视范围物体距离为先验信息对微波雷达回波进行滤波处理,并运用多视角后向投影成像算法,得到微波雷达成像结果;
S5、最后以激光雷达与微波雷达分布的子孔径位姿参数为参考,进行激光雷达构图结果与微波雷达成像结果融合,得到融合后的可视与遮蔽区域的地图测绘结果。
对激光雷达与微波雷达各自采集的每帧数据都打上时间戳。
步骤S3具体为:记第k帧激光雷达数据,对应的位姿为这里寻找第m帧微波雷达数据,且第m帧微波雷达数据对应的时间点位于第k帧激光雷达数据的起始时刻到结束时刻之间,记第m帧微波雷达数据对应位姿为 是激光雷达第k帧激光雷达数据结束时刻的时间点,为第m帧微波雷达数据所对应的时间点,通过下式求得其中和分别为激光雷达坐标系L到微波雷达坐标系B的旋转矩阵和平移向量:
其中,Fτ作为中间变量。
微波雷达搭载于可上下移动的导轨上,通过导轨上下移动的方式使得微波雷达的二维平面成像结果累加成三维结果图。
步骤S4所示激光雷达估计的可视范围物体距离,计算式为:
本发明的有益效果:本发明的方法能够同时对视距范围与遮蔽场景内的地图进行重构,其具备视距范围与非视距范围环境的感知能力,本发明的融合算法提高了存在遮蔽场景的激光雷达绘图能力;同时以激光雷达预估的微波雷达位姿作为先验信息使得微波雷达成像算法不受限于合作式的自定位系统(如GPS等),所以本发明融合算法可在场景未知且无定位系统的情况下进行地图重构。
附图说明
图1为融合算法的程序框图。
图2为具体实施方式中的实验场景设置示意图;
图3为具体实施方式中试验场景示意图;
其中(a)和(b)为实验场景两个不同视角,外围木墙为遮挡物,内部砖墙处于遮蔽区域。
图4为车载系统示意图。雷达方位角与车载系统移动路径始终保持90度,微波雷达挂载于可上下移动的滑轨上。
图5为具体实施方式提供的现有技术中微波雷达成像结果;
其中(a)为未滤波的成像结果,(b)为结合激光雷达预估的距离信息滤波后的结果。
图6为具体实施方式提供的现有技术中激光雷达的地图重构结果;
图7中(a)为本发明的融合算法处理后的地图重构结果,(b)地图重构结果俯视图。
具体实施方式
本发明的算法流程如图1所示。下面根据图2搭建的实验场景给出本发明的具体实施方式:车载系统搭载激光雷达与微波雷达按照预设路线(虚线)行进。由于木墙的遮挡,砖墙在车载系统行进过程中处于视野盲区。
实验场景光学图像如图3所示。车载系统如图4所示,激光雷达与微波雷达固定于车载系统上并统一面向车体右侧,微波雷达搭载于可上下移动的导轨上,可通过导轨上下移动的方式使得微波雷达的二维平面成像结果累加成三维结果图。小车的行进路线与雷达朝向始终相差90度。本发明中的车载系统包括可行走的小车,以及小车上的搭载的数据处理模块等;具体处理方法详见步骤S1-S5;
本发明采用的微波雷达为步进频体制,频率间隔为2MHz,频率为1.6GHz-2.2GHz。激光雷达采用大疆Livox horizon,其检测范围为60m,角度分辨率为0.05°,距离分别率为0.02m,激光雷达视场角为81.7°(水平)×25.1°(垂直)。本次实验中设置激光雷达坐标系正前方为x轴,上方为z轴,左方为y轴。
步骤S1:当车载系统启动时,激光雷达与微波雷达同步开始采集数据,车载系统停止时,结束数据采集,每帧数据都打上时间戳。
步骤S2:激光雷达地图重构;
图6为(J.Lin and F.Zhang,“Loam livox:A fast,robust,high-precisionLidar odometry and mapping package for Lidars of small FoV,”in 2020IEEEInternational Conference on Robotics and Automation(ICRA),pp.3126-3131,2020.)所提算法的结果,可以看出现有的单激光雷达的成像结果中内墙成像是不完整的。
R(k,i)和τ(k,i)分别是旋转矩阵和平移向量。
对于位于k帧中的所有点云的集合记为每帧点云接收时由于车体是一直运动的,所以存在点云畸变,在每帧数据接收后通过IMU陀螺仪进行矫正。因为当前第k帧数据的处理是假设在上一帧数据已矫正的情况下进行的,假设已矫正的k-1帧数据为分别匹配和未校正的中的特征点得到两数据帧间的位移d:
D(·,·)为计算不同数据帧位移的运算符。建立优化方程:
得到的旋转矩阵和平移向量代表了当前激光雷达在k帧点云中产生的位移。
步骤S3:微波雷达子孔径位姿估计;
微波雷达成像算法需要车载系统移动过程中产生的子孔径位姿参数,这里通过激光雷达在步骤S2中估计出来的自身位姿参数来估计微波雷达的子孔径位姿。
假设当前处理激光雷达的第k帧数据帧,则对应的位姿为这里寻找第m帧微波雷达数据,且此数据帧对应的时间点位于第k帧数据帧的起始时刻到结束时刻之间,其对应位姿为假设是第k帧数据结束时刻的时间点,为微波雷达第m帧数据回波所对应的时间点,通过下式求得其中和分别为激光雷达坐标系到微波雷达坐标系的旋转矩阵和平移向量:
步骤S4:以子孔径位姿和激光雷达估计的可视范围物体距离为先验信息对微波雷达回波进行滤波处理,并运用多视角后向投影成像算法进行微波雷达成像;具体包括以下分步骤:
S41、预估可视范围物体距离DL(k):
本发明中微波雷达障碍物的回波消除是基于激光雷达预估的可视范围物体距离DL(k):
在激光雷达坐标系L中,第k帧第i个点云为N为在第k帧数据中属于空间采样区内的点云总数,取出中的第一个变量x做N点平均,其Dw为固定经验值,大概为平均墙体厚度,本次实验取0.20m,V(dL)为空间采样区。
S42、多视角后向投影成像算法
根据论文(Y.Jia,G.Cui,L.Kong and X.Yang,“Multichannel and MultiviewImaging Approach to Building Layout Determination of Through-Wall Radar,”IEEEGeoscience and Remote Sensing Letters,vol.11,no.5,pp.970-974,May.2014.)中所描述的后向投影成像算法完成微波雷达的成像,M(B,H)(X,Y)代表高度为H的微波雷达二维成像平面结果图,通过调节滑轨的高度H使得处于不同高度项的M(B,H)(X,Y)层层累加可得到微波雷达三维建图结果。M(B,H)(X,Y)被平均像素格点化为PN,PQ个点,本次实验均为500,收发阵元(子孔径)的位置分别为(xbt,0)和(xbr,0)(b=1,2,...,NL),可以得到M(B,H)(X,Y)的每个像素点(xn,ym)到各收发阵元的回波延迟为:
其中,PN表示M(B,H)(X,Y)在像素格点化后的二维网格上其中一个维度的点的总个数,PQ表示M(B,H)(X,Y)在像素格点化后的二维网格上另一个维度的点的像素点个数,NL的个数是由收发的回波数决定,运行时间越长,回波个数也就越多;
每个像素点(xn,ym)的值可以由下式得到,本发明的微波雷达成像结果如图5(b)所示,通过微波雷达可以滤除可视范围内的墙体:
步骤S5:M(B,H)(X,Y)中像素值小于阈值ψ会被置零,本次实验中ψ为最大像素值的40%。此时M(B,H)(X,Y)中非零像素点会被选为微波雷达点云XR=(xm,yn,H),此步骤称为像素格点化。XR以(雷达在地图中的位置)为参考信息投影到激光雷达建图结果中可得到最终的融合地图Mf,如图7所示,可见本发明方法内墙与外墙的成像结果都比较完整。
在本发明中,我们考虑了使用激光雷达和微波雷达同步对存在遮蔽环境的场景进行地图重构的问题。激光雷达采用Livox-loam算法重建可视范围区域,微波雷达采用后向投影成像算法重建遮挡区域。本发明提出的数据融合算法,将激光雷达和微波雷达的成像结果进行融合。实验结果表明,该算法能够高精度地重建未知遮挡场景,与激光雷达的地图生成策略相比,该算法能够同时获得遮蔽区域的成像结果,二者融合有效填补了视野盲区,提升了建图视野范围。
本领域的普通技术人员将会意识到,这里所述的实施例是为了帮助读者理解本发明的原理,应被理解为本发明的保护范围并不局限于这样的特别陈述和实施例。对于本领域的技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的权利要求范围之内。
Claims (5)
1.一种基于激光与微波协同的地图重构融合方法,其特征在于,所述方法基于的数据采集装置包括:车载系统、激光雷达以及微波雷达,所述激光雷达与微波雷达固定于车载系统上,数据采集装置运行时,激光雷达与微波雷达面向存在遮挡的未知场景;
所述方法具体包括以下步骤:
S1、激光雷达与微波雷达同步开始采集数据;
S2、基于激光雷达的点云数据,运用Livox loam算法提取出相邻数据帧的特征点作为匹配,以匹配误差作为约束构建激光雷达位姿求解优化方程,并基于求解出的激光雷达位姿对可视范围场景进行三维地图重构,得到激光雷达构图结果;
S3、在时间域上基于激光雷达的位姿用线性插值的方法,预估出微波雷达在移动过程中分布的具体子孔径的位姿;步骤S3具体为:记第k帧激光雷达数据,对应的位姿为这里寻找第m帧微波雷达数据,且第m帧微波雷达数据对应的时间点位于第k帧激光雷达数据的起始时刻到结束时刻之间,记第m帧微波雷达数据对应位姿为 是激光雷达第k帧激光雷达数据结束时刻的时间点,为第m帧微波雷达数据所对应的时间点,通过下式求得其中和分别为激光雷达坐标系L到微波雷达坐标系B的旋转矩阵和平移向量:
其中,Fτ作为中间变量;
S4、以子孔径位姿和激光雷达估计的可视范围物体距离为先验信息对微波雷达回波进行滤波处理,并运用多视角后向投影成像算法,得到微波雷达成像结果;
S5、最后以激光雷达与微波雷达分布的子孔径位姿参数为参考,进行激光雷达构图结果与微波雷达成像结果融合,得到融合后的可视与遮蔽区域的地图测绘结果。
2.根据权利要求1所述的一种基于激光与微波协同的地图重构融合方法,其特征在于,对激光雷达与微波雷达各自采集的每帧数据都打上时间戳。
3.根据权利要求2所述的一种基于激光与微波协同的地图重构融合方法,其特征在于,微波雷达搭载于可上下移动的导轨上,通过导轨上下移动的方式使得微波雷达的二维平面成像结果累加成三维结果图。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111031055.5A CN113744398B (zh) | 2021-09-03 | 2021-09-03 | 一种基于激光与微波协同的地图重构融合方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111031055.5A CN113744398B (zh) | 2021-09-03 | 2021-09-03 | 一种基于激光与微波协同的地图重构融合方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113744398A CN113744398A (zh) | 2021-12-03 |
CN113744398B true CN113744398B (zh) | 2023-04-28 |
Family
ID=78735357
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111031055.5A Active CN113744398B (zh) | 2021-09-03 | 2021-09-03 | 一种基于激光与微波协同的地图重构融合方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113744398B (zh) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110717917A (zh) * | 2019-09-30 | 2020-01-21 | 北京影谱科技股份有限公司 | 基于cnn语义分割深度预测方法和装置 |
CN112784873A (zh) * | 2020-12-25 | 2021-05-11 | 华为技术有限公司 | 一种语义地图的构建方法及设备 |
CN113066105A (zh) * | 2021-04-02 | 2021-07-02 | 北京理工大学 | 激光雷达和惯性测量单元融合的定位与建图方法及系统 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106970393B (zh) * | 2017-03-14 | 2019-12-03 | 南京航空航天大学 | 一种基于码分多址的面阵激光雷达三维成像方法 |
EP3787947A2 (en) * | 2018-08-14 | 2021-03-10 | Mobileye Vision Technologies Ltd. | Systems and methods for navigating with safe distances |
-
2021
- 2021-09-03 CN CN202111031055.5A patent/CN113744398B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110717917A (zh) * | 2019-09-30 | 2020-01-21 | 北京影谱科技股份有限公司 | 基于cnn语义分割深度预测方法和装置 |
CN112784873A (zh) * | 2020-12-25 | 2021-05-11 | 华为技术有限公司 | 一种语义地图的构建方法及设备 |
CN113066105A (zh) * | 2021-04-02 | 2021-07-02 | 北京理工大学 | 激光雷达和惯性测量单元融合的定位与建图方法及系统 |
Non-Patent Citations (2)
Title |
---|
J. A. Guerrero等.Towards LIDAR-RADAR based terrain mapping.《2015 IEEE International Workshop on Advanced Robotics and its Social Impacts (ARSO)》.2016,第1-6页. * |
梅炜.工程测绘中激光雷达测绘技术探讨.《工程技术研究》.2020,第55-56页. * |
Also Published As
Publication number | Publication date |
---|---|
CN113744398A (zh) | 2021-12-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11131752B2 (en) | Vehicle navigation system using pose estimation based on point cloud | |
US10937231B2 (en) | Systems and methods for updating a high-resolution map based on binocular images | |
CA3028653C (en) | Methods and systems for color point cloud generation | |
CN110178048B (zh) | 交通工具环境地图生成和更新的方法和系统 | |
CN108257161B (zh) | 基于多相机的车辆环境三维重构和运动估计系统及方法 | |
EP3631494B1 (en) | Integrated sensor calibration in natural scenes | |
Zhang et al. | Novel approach to position and orientation estimation in vision-based UAV navigation | |
CN112254729B (zh) | 一种基于多传感器融合的移动机器人定位方法 | |
CN113763548B (zh) | 基于视觉-激光雷达耦合的贫纹理隧洞建模方法及系统 | |
CN113160327A (zh) | 一种点云补全的实现方法和系统 | |
CN113240813B (zh) | 三维点云信息确定方法及装置 | |
CN114459467B (zh) | 一种未知救援环境中基于vi-slam的目标定位方法 | |
CN112017248A (zh) | 一种基于点线特征的2d激光雷达相机多帧单步标定方法 | |
CN114638897B (zh) | 基于无重叠视域的多相机系统的初始化方法、系统及装置 | |
CN106153041B (zh) | 一种基于多景深信息的视觉里程计测速方法 | |
CN113625271B (zh) | 基于毫米波雷达和双目相机的同时定位与建图方法 | |
CN114219852B (zh) | 一种用于自动驾驶车辆的多传感器标定方法及装置 | |
CN113744398B (zh) | 一种基于激光与微波协同的地图重构融合方法 | |
EP4172936A1 (en) | System and methods for thermal imaging | |
CN117115271A (zh) | 无人机飞行过程中的双目相机外参数自标定方法及系统 | |
CN116339336A (zh) | 电动农机集群协同作业方法、装置及系统 | |
CN114638858B (zh) | 一种基于车载双相机系统的运动目标位置与速度估计方法 | |
AU2018102199A4 (en) | Methods and systems for color point cloud generation | |
CN114323038A (zh) | 融合双目视觉和2d激光雷达的室外定位方法 | |
CN110864685A (zh) | 一种基于松耦合的车辆单目视觉轮式里程计定位方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |