CN113552585A - 一种基于卫星地图与激光雷达信息的移动机器人定位方法 - Google Patents
一种基于卫星地图与激光雷达信息的移动机器人定位方法 Download PDFInfo
- Publication number
- CN113552585A CN113552585A CN202110796504.9A CN202110796504A CN113552585A CN 113552585 A CN113552585 A CN 113552585A CN 202110796504 A CN202110796504 A CN 202110796504A CN 113552585 A CN113552585 A CN 113552585A
- Authority
- CN
- China
- Prior art keywords
- mobile robot
- phase correlation
- map
- image
- laser
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 66
- 239000002245 particle Substances 0.000 claims abstract description 34
- 230000009466 transformation Effects 0.000 claims description 100
- 238000010586 diagram Methods 0.000 claims description 74
- 238000013519 translation Methods 0.000 claims description 66
- 238000001228 spectrum Methods 0.000 claims description 37
- 235000004522 Pentaglottis sempervirens Nutrition 0.000 claims description 23
- 240000004050 Pentaglottis sempervirens Species 0.000 claims description 15
- 238000013507 mapping Methods 0.000 claims description 12
- 238000012549 training Methods 0.000 claims description 7
- 238000004364 calculation method Methods 0.000 claims description 6
- 239000000284 extract Substances 0.000 claims description 4
- 238000002310 reflectometry Methods 0.000 claims description 4
- 238000012952 Resampling Methods 0.000 claims description 3
- 230000000694 effects Effects 0.000 abstract description 6
- 238000005286 illumination Methods 0.000 abstract description 5
- 230000002411 adverse Effects 0.000 abstract description 3
- 230000008569 process Effects 0.000 description 14
- 230000006870 function Effects 0.000 description 8
- 238000012937 correction Methods 0.000 description 6
- 101150091027 ale1 gene Proteins 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 230000036544 posture Effects 0.000 description 2
- 230000000717 retained effect Effects 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 101100173585 Schizosaccharomyces pombe (strain 972 / ATCC 24843) fft1 gene Proteins 0.000 description 1
- 101100173586 Schizosaccharomyces pombe (strain 972 / ATCC 24843) fft2 gene Proteins 0.000 description 1
- 238000009825 accumulation Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000011478 gradient descent method Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/86—Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/005—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 with correlation of navigation data from several sources, e.g. map or contour matching
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C25/00—Manufacturing, calibrating, cleaning, or repairing instruments or devices referred to in the other groups of this subclass
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/06—Systems determining position data of a target
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S19/00—Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
- G01S19/01—Satellite radio beacon positioning systems transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
- G01S19/13—Receivers
- G01S19/23—Testing, monitoring, correcting or calibrating of receiver elements
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Networks & Wireless Communication (AREA)
- Electromagnetism (AREA)
- Automation & Control Theory (AREA)
- Manufacturing & Machinery (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种基于卫星地图与激光雷达信息的移动机器人定位方法,属于移动机器人定位领域。该方法利用移动机器人自带的激光雷达获取其所在位置的鸟瞰图,同时利用车载传感器确定的位置粗估值从卫星地图中截取局部图像,两类图像通过深度相位相关网络得到相位相关图并转换为概率分布图,由此通过粒子滤波定位算法即可实现机器人的准确定位。该方法可以对GPS、里程计等车载传感器确定的位置粗估值进行校正,排除光照、遮挡物等外部因素对于定位结果的不利影响,大大提高了移动机器人自主定位的鲁棒性。
Description
技术领域
本发明属于移动机器人定位领域,具体涉及一种基于卫星地图与激光雷达信息的移动机器人定位方法。
背景技术
自定位技术是移动机器人系统中非常重要的部分。经过十几年的研究,基于单一传感器的定位技术已经相对成熟,并已经应用于自动驾驶系统中。目前主流的无人车可以根据车载传感器如激光雷达获取的信息,与预存在地图里的数据进行匹配,实现位姿估计。典型的定位方案通常采用的信息包含红绿灯、人行横道、车道线、道路边界、停车位等,也有包括地面的高度、反射率等,借助这些语义信息可以实现定位。
但是现有的定位方案都需要事先获得由同一传感器信息构建的高精度地图。然而整个构建地图以及维护更新地图的过程需要耗费大量的时间与人力,制约了移动机器人的应用与发展。
卫星地图由在轨卫星的高精度传感器构建,是一类技术成熟的地图,大量应用于人们日常的导航与定位,但尚未广泛应用于移动机器人领域。在现有高精地图未覆盖的区域,或者高精地图无法定位时,机器人只能依靠GPS提供的定位或者事先预存的卫星地图进行定位。单独的GPS定位精度在2m左右,差分GPS在信号较好的情况下可以达到厘米级精度,可用于高精度定位,但是由于GPS信号受到树木、建筑物等造成的干扰,使得GPS定位不可靠。因此,需要通过其他传感器与预存的卫星地图进行定位。这就对卫星地图以及地面车载传感器的协同定位技术提出了一定的挑战。车载传感器主要包括相机、激光雷达、IMU等,相机容易受到光照等因素的影响,IMU则容易造成误差累计,激光雷达能够获取环境的集合结构,具有对光照等因素的鲁棒性,故以激光雷达为主的定位方法是协同定位较为可行的方法。
根据上述介绍,设计一套使移动机器人能够借助现有卫星地图和车载激光雷达进行定位的方法,是现有技术中亟待解决的技术问题。
发明内容
本发明的目的在于解决现有技术中存在的问题,并提供一种基于卫星地图与激光雷达信息的移动机器人定位方法。
为了实现上述发明目的,本发明具体采用的技术方案如下:
一种基于卫星地图与激光雷达信息的移动机器人定位方法,其步骤如下:
S1:获取由移动机器人上搭载的激光雷达得到的移动机器人所在位置的激光雷达数据,并将带有反射率信息的激光雷达数据转换为激光鸟瞰图;
S2:移动机器人根据自带的传感器估计自身所处位置,并从卫星地图上以自身所处位置为中心,截取与所述激光鸟瞰图相同大小的局部卫星图;
S3:将所述激光鸟瞰图与所述局部卫星图输入深度相位相关网络中,通过卷积操作提取所述激光鸟瞰图和局部卫星图中的鲁棒特征,再通过反卷积操作将提取的特征转换为与原图大小一致的特征图,然后对激光鸟瞰图的特征图与局部卫星图的特征图通过傅里叶变换操作去除平移分量,再通过对数极性变换操作将旋转分量转换为平移,最后通过相位相关操作得到一张相位相关图;
S4:对所述相位相关图进行Softmax操作使其转变为0-1的分布,得到概率分布图;
S5:在概率分布图基础上,基于粒子滤波定位方法对移动机器人在地图上的准确位置进行定位。
作为优选,所述S1中,移动机器人先基于激光雷达数据构建局部2.5D高度地图,再通过2.5D高度地图信息渲染出对应的鸟瞰图。
作为优选,所述S2中,所述移动机器人根据GPS或者里程计估计自身所处位置。
作为优选,所述的深度相位相关网络包含8个不同的U-Net网络,其中对输入的激光鸟瞰图与局部卫星图输出相位相关图的具体方法如下:
S301:以预先经过训练的第一U-Net网络和第二U-Net网络作为两个特征提取器,分别以局部卫星图和激光鸟瞰图作为两个特征提取器各自的原始输入图片,提取两张原始输入图片中的同构特征,得到同构的第一特征图和第二特征图;
S302:将S301中得到的第一特征图和第二特征图分别进行傅里叶变换后取各自的幅度谱;
S303:将S302中得到的两个幅度谱分别进行对数极坐标变换,使其从笛卡尔坐标系转换到对数极坐标系中,从而使两个幅度谱之间笛卡尔坐标系下的旋转变换被映射成对数极坐标系中y方向上的平移变换;
S304:将S303中两个坐标变换后的幅度谱进行相位相关求解,得到二者之间的平移变换关系,再按照S303中笛卡尔坐标系和对数极坐标系之间的映射关系重新转换,得到所述局部卫星图和所述激光鸟瞰图之间的旋转变换关系;
S305:以预先经过训练的第三U-Net网络和第四U-Net网络作为两个特征提取器,分别以局部卫星图和激光鸟瞰图作为两个特征提取器各自的原始输入图片,提取两张原始输入图片中的同构特征,得到同构的第三特征图和第四特征图;
S306:将S305中得到的第三特征图和第四特征图分别进行傅里叶变换后取各自的幅度谱;
S307:将S306中得到的两个幅度谱分别进行对数极坐标变换,使其从笛卡尔坐标系转换到对数极坐标系中,从而使两个幅度谱之间笛卡尔坐标系下的缩放变换被映射成对数极坐标系中x方向上的平移变换;
S308:将S307中两个坐标变换后的幅度谱进行相位相关求解,得到二者之间的平移变换关系,再按照S307中笛卡尔坐标系和对数极坐标系之间的映射关系重新转换,得到所述局部卫星图和所述激光鸟瞰图之间的缩放变换关系;
S309:将所述激光鸟瞰图按照S304和S308中得到的旋转变换关系和缩放变换关系进行对应的旋转和缩放变换,得到一张新的激光鸟瞰图;
S310:以预先经过训练的第五U-Net网络和第六U-Net网络作为两个特征提取器,分别以局部卫星图和新的激光鸟瞰图作为两个特征提取器各自的原始输入图片,提取两张原始输入图片中的同构特征,得到同构的第五特征图和第六特征图;
S311:将S310中得到的第五特征图和第六特征图进行相位相关求解,得到第一相位相关图,用于进一步计算所述局部卫星图和所述激光鸟瞰图之间的x方向上的平移变换关系;
S312:以预先经过训练的第七U-Net网络和第八U-Net网络作为两个特征提取器,分别以局部卫星图和新的激光鸟瞰图作为两个特征提取器各自的原始输入图片,提取两张原始输入图片中的同构特征,得到同构且仅保留有原始输入图片之间的平移变换关系的第七特征图和第八特征图;
S313:将S312中得到的第七特征图和第八特征图进行相位相关求解,得到第二相位相关图,用于进一步计算所述局部卫星图和所述激光鸟瞰图之间的y方向上的平移变换关系;
S314:将所述第一相位相关图和所述第二相位相关图叠加求和后进行归一化,作为最终输出用于进行Softmax操作的相位相关图。
作为优选,所述深度相位相关网络中,8个U-Net网络相互独立,每个U-Net网络各自通过4个通过卷积操作进行下采样的编码器层和4个通过反卷积操作进行上采样的解码器层来提取与输入原图大小相同的特征图。
作为优选,所述深度相位相关网络中,8个U-Net网络均预先进行训练,训练的总损失函数为所述局部卫星图和激光鸟瞰图之间的旋转变换关系损失、缩放变换关系损失、x方向上的平移变换关系损失和y方向上的平移变换关系损失的加权和。
作为优选,所述总损失函数中四种损失的加权权值均为1,四种损失均采用L1损失。
作为优选,所述S5中,基于粒子滤波定位方法对移动机器人在地图上的准确位置进行定位的方法如下:
S51:首先在移动机器人当前位置附近撒预设数量的点,每个点代表移动机器人的一个假定位置;
S52:将这些点映射到所述的概率分布图中,一个点在概率分布图中的概率值则代表该点的权重,权重越大说明移动机器人在该位置的可能性越大;
S53:获得粒子的权重之后,根据权重进行重采样操作,对粒子进行筛选;
S54:移动机器人根据估计的运动,移动所有粒子,粒子再次根据所述的概率分布图进行权重的更新计算;
S55:不断迭代重复S53和S54,使粒子逐渐聚拢在真实位置附近,迭代结束后以粒子最终聚集的位置中心确定移动机器人在地图上的准确位置。
相对于现有技术而言,本发明的有益效果如下:
本发明利用移动机器人自带的激光雷达获取其所在位置的鸟瞰图,同时利用车载传感器确定的位置粗估值从卫星地图中截取局部图像,两类图像通过深度相位相关网络得到相位相关图并转换为概率分布图,由此通过粒子滤波定位算法即可实现机器人的准确定位。该方法可以对GPS、里程计等车载传感器确定的位置粗估值进行校正,排除光照、遮挡物等外部因素对于定位结果的不利影响,大大提高了移动机器人自主定位的鲁棒性。
附图说明
图1为基于卫星地图与激光雷达信息的移动机器人定位方法的步骤流程图。
图2为深度相位相关网络的模型框架图。
图3为一个示例中的激光鸟瞰图和对应位置截取的局部卫星图。
图4为一个示例中的采用本发明方法进行定位的结果。
具体实施方式
下面结合附图和具体实施方式对本发明做进一步阐述和说明。本发明中各个实施方式的技术特征在没有相互冲突的前提下,均可进行相应组合。
本发明设计了一套在移动机器人中借助现有卫星地图和车载激光雷达进行定位的方法,其发明构思是:移动机器人先基于激光雷达的数据构建局部2.5D高度地图,再通过局部高度地图信息渲染出对应的鸟瞰图。通过该鸟瞰图以及卫星地图对应位置的截取图训练端到端匹配模型,从而使得模型能够匹配激光雷达的观测信息和卫星地图,以实现定位的目的。该模型具有一定的泛化能力,实际应用过程中,只需要将地面构建的局部高度地图以及当前探测区域的卫星地图输入到之前训练好的模型中即可产生一张相位相关图,并进一步生成用于定位的概率分布图,通过粒子滤波定位算法即可实现机器人的准确定位。
下面对上述定位方法的具体实现方式进行详细展开描述。
如图1所示,在本发明的一个较佳实施例中,提供了一种基于卫星地图与激光雷达信息的移动机器人定位方法,其具体步骤如下:
S1:对当前位置的观测进行处理:获取由移动机器人上搭载的激光雷达得到的移动机器人所在位置的激光雷达数据,并将带有反射率信息的激光雷达数据转换为激光鸟瞰图。
激光雷达数据转换为鸟瞰图的具体做法属于现有技术。在本实施例中,移动机器人可以先基于激光雷达数据构建局部2.5D高度地图,再通过2.5D高度地图信息渲染出对应的激光鸟瞰图。
S2:移动机器人根据自带的传感器估计自身所处位置,并从卫星地图上以自身所处位置为中心,截取与前述的激光鸟瞰图相同大小的局部卫星图。
移动机器人对于自身所处位置的估计,可以基于其自身搭载的传感器来实现,例如GPS定位设备或者里程计均可以实现机器人大致位置的定位。但是,GPS定位设备的精度受限于设备自身以及移动机器人所处环境的限制,往往会在外部干扰下出现较大的误差,同时里程计也仅仅能够实现粗略的位置估计。因此,移动机器人对于自身位置的估计只能是一个大概的粗定位,需要依赖于本发明的后续流程进行校正。
在本发明中,该校正流程是通过激光鸟瞰图与局部卫星图的图像匹配来实现的。其中,激光鸟瞰图来源于移动机器人真实所处位置的周边场景图像,而局部卫星图则是来源于在轨卫星的高精度传感器构建的卫星图像,如果激光鸟瞰图经过图像匹配可以配准至卫星图像上,那么就可以利用卫星图像信息实现机器人的准确定位。但是卫星图像的尺寸过大,无目的地图像配准效率过低,因此前述移动机器人对于自身位置的初步估计可以用于缩小配准图像的范围。考虑到后续图像配准的需要,可以以估计的自身定位所在位置为中心,截取一张与激光鸟瞰图相同大小的图像,用于与激光鸟瞰图进行配准。本实施例中激光鸟瞰图与局部卫星图的图像大小设定为256×256。
S3:将前述激光鸟瞰图与局部卫星图输入深度相位相关网络中,通过卷积操作提取激光鸟瞰图和局部卫星图中的鲁棒特征,再通过反卷积操作将提取的特征转换为与原图大小一致的特征图,然后对激光鸟瞰图的特征图与局部卫星图的特征图通过傅里叶变换操作去除平移分量,再通过对数极性变换操作将旋转分量转换为平移,最后通过相位相关操作得到一张相位相关图。
由此可见,本发明的核心还需要构建一个深度相位相关网络,使其能够对输入激光鸟瞰图与局部卫星图进行处理,实现激光鸟瞰图与局部卫星图异质匹配,输出一张相位相关图。
如图2所示,为本发明一个较佳实施例中构建的深度相位相关网络的网络框架结构,其核心是8个独立的U-Net网络以及傅里叶变换层(FFT)、对数极性变换层(LPT)和相位相关层(DC),该深度相位相关网络的输入是一对异构的图形,即前述的局部卫星图Sample1与激光鸟瞰图Sample2,其最终输出是配准局部卫星图和激光鸟瞰图所需要的三种位姿变换关系,即平移、旋转和缩放。局部卫星图用于作为匹配的模板,激光鸟瞰图通过位姿变换后可以匹配拼接到局部卫星图上。
为了解决异构图像无法直接配准的问题,一般的处理方法是从两幅图像中提取特征,用特征代替原始传感器测量值来估计相对姿态。在传统的相位相关算法中,利用高通滤波器来抑制两个输入的随机随机噪声,而这一过程可以看作是一个特征提取器。但是对于一对输入的异构图像而言,两者之间存在比较明显的变化,一个高通滤波器是远远不够的。考虑到没有共同的特征来直接监督特征提取器,本发明利用端到端学习来解决这个问题。本发明中对局部卫星图和源图像在旋转缩放阶段和平移阶段分别构建了8个独立的可训练U-Net网络(记为U-Net1~U-Net8),这8个U-Net网络在平移、旋转和缩放三类损失的监督下预先经过训练后,能够从异构图像中提取出图片中的同构特征即共同特征,从而将两张异构图像转换为两张同构的特征图。本发明中,假如仅设4个U-Net网络,那么旋转与缩放两种变换的求解需要被偶合起来的,x方向平移与y方向平移的求解也需要被偶合起来,这样训练得到的特征提取器所提取的特征存在效果不佳的情况;因此,我们将旋转、缩放、x平移、y平移解耦,分别训练各自的U-Net网络,一共得到8个U-Net网络,以达到提升精度的效果。
在本实施例中,对于8个独立的U-Net网络,其输入和输出大小分别为256×256。每个U-Net网络由4个采用卷积操作进行下采样的编码器层和4个采用反卷积操作进行上采样的解码器层来提取与输入原图大小相同的特征,同时编码器层和解码器层之间还存在跳跃连接,具体U-Net网络结构属于现有技术,不再赘述。随着训练的进行,8个U-Net的参数会被调整。请注意,这个网络是轻量级的,所以它具有足够高效的实时性,能够满足应用场景的要求。
另外,傅里叶变换层(FFT)的作用是对U-Net网络提取的特征图进行傅里叶变换,去掉图像之间的平移变换关系但保留旋转和缩放变换关系。因为根据傅里叶变换的特性,只有旋转和比例对频谱的幅度有影响,但对频谱的幅度对平移不敏感。因此引入FFT后就得到了对平移不敏感但对缩放和旋转尤其敏感的表示方法,因此在后续求解缩放和旋转时可以忽略平移。
另外,对数极性变换层(LPT)的作用是对FFT变换后的图像进行对数极坐标变换,将图像从笛卡尔坐标系映射至对数极坐标系。在该映射过程中,笛卡尔坐标系下的缩放和旋转可以转换成对数极坐标系下的平移。该坐标系变换,可以得出关于缩放和旋转的交叉相关形式,消除整个深度相位相关网络中的所有穷尽性评价。
另外,相位相关层(DC)的作用是进行相位相关求解,即计算两个幅度谱之间的交叉相关性。根据求解得到的相关性,可以得到二者之间的平移变换关系。交叉相关性的具体计算过程属于现有技术,不再赘述。
下面基于上述深度相位相关网络,对局部卫星图和激光鸟瞰图之间相位相关图的具体计算过程进行详细描述,其步骤如下:
S301:以预先经过训练的第一U-Net网络U-Net1和第二U-Net网络U-Net2作为两个特征提取器,分别以异构的局部卫星图和激光鸟瞰图作为两个特征提取器U-Net1和U-Net2各自的原始输入图片(即局部卫星图输入U-Net1中,而激光鸟瞰图输入U-Net2中,下同),提取两张原始输入图片中的同构特征,得到同构的第一特征图和第二特征图。此时,第一特征图和第二特征图中同时保留有原始输入图片之间的平移、旋转和缩放变换关系。
S302:将S301中得到的第一特征图和第二特征图分别进行第一次傅里叶变换操作(记为FFT1)后取各自的幅度谱,此时两个幅度谱之间保留有原始输入图片之间的旋转和缩放变换关系,但平移变换关系已在FFT1中被滤掉。
S303:将S302中得到的两个幅度谱分别进行第一次对数极坐标变换操作(记为LPT1),使其从笛卡尔坐标系转换到对数极坐标系中,从而使两个幅度谱之间笛卡尔坐标系下的旋转变换被映射成对数极坐标系中y方向上的平移变换(记为Y)。
S304:将S303中两个坐标变换后的幅度谱在相位相关层(DC)中进行相位相关求解,形成一张相位相关图A,相位相关图A进行argmax操作后,得到二者之间的平移变换关系。需注意,在S303的LPT1中,笛卡尔坐标系下的旋转变换与对数极坐标系中y方向上的平移变换Y之间存在映射关系,因此可以再将该平移变换关系按照S303中笛卡尔坐标系和对数极坐标系之间的映射关系重新转换,得到前述局部卫星图和激光鸟瞰图之间的旋转变换关系。
上述旋转变换关系本质上是激光鸟瞰图要实现与局部卫星图的配准,需要被旋转的角度theta。
S305:同样的,以预先经过训练的第三U-Net网络U-Net3和第四U-Net网络U-Net4作为两个特征提取器,分别以异构的局部卫星图和激光鸟瞰图作为两个特征提取器U-Net3和U-Net4各自的原始输入图片,提取两张原始输入图片中的同构特征,得到同构的第三特征图和第四特征图。此时,第三特征图和第四特征图中也同时保留有原始输入图片之间的平移、旋转和缩放变换关系。
S306:将S305中得到的第三特征图和第四特征图分别进行第二次傅里叶变换操作(记为FFT2)后取各自的幅度谱。同样的,这两个幅度谱之间保留有原始输入图片之间的旋转和缩放变换关系而平移变换关系已在已在FFT2中被滤掉。
S307:将S306中得到的两个幅度谱分别进行第二次对数极坐标变换操作(记为LPT2),使其从笛卡尔坐标系转换到对数极坐标系中,从而使两个幅度谱之间笛卡尔坐标系下的缩放变换被映射成对数极坐标系中x方向上的平移变换X。
S308:将S307中两个坐标变换后的幅度谱在相位相关层(DC)中进行相位相关求解,形成一张相位相关图B,相位相关图B进行argmax操作后,得到二者之间的平移变换关系。同样的,在S307的LPT2中,笛卡尔坐标系下的旋转变换与对数极坐标系中x方向上的平移变换X之间存在映射关系,因此可以再按照S307中笛卡尔坐标系和对数极坐标系之间的映射关系重新转换,得到前述局部卫星图和前述激光鸟瞰图之间的缩放变换关系。
上述缩放变换关系本质上是激光鸟瞰图要实现与局部卫星图的配准,需要被缩放的比例scale。
由此,通过上述步骤,已获得了局部卫星图和激光鸟瞰图之间的旋转变换关系和缩放变换关系。
S309:将前述激光鸟瞰图按照S304和S308中得到的旋转变换关系和缩放变换关系进行对应的旋转和缩放变换,得到一张新的激光鸟瞰图。由于通过旋转和缩放变换后,局部卫星图和激光鸟瞰图之间已不存在角度和比例的差异,因此新的激光鸟瞰图与输入的局部卫星图之间目前仅包含平移变换关系,而不存在旋转变换关系和缩放变换关系,后续仅需要通过平移变换消除两者之间的平移差异即可。对于平移变换关系,只需要通过相位相关求解,就可以获取其x和y方向上的平移变换关系。
S310:以预先经过训练的第五U-Net网络U-Net5和第六U-Net网络U-Net6作为两个特征提取器,分别以局部卫星图和新的激光鸟瞰图作为两个特征提取器U-Net5和U-Net6各自的原始输入图片,提取两张原始输入图片中的同构特征,得到同构的第五特征图和第六特征图。此时,第五特征图和第六特征图中仅保留有原始输入图片之间的平移变换关系,而不存在旋转和缩放变换关系。
S311:将S310中得到的第五特征图和第六特征图在相位相关层(DC)中进行相位相关求解,形成一张相位相关图C,相位相关图C进行argmax操作后,得到局部卫星图和激光鸟瞰图之间的x方向上的平移变换关系。
S312:以预先经过训练的第七U-Net网络U-Net7和第八U-Net网络U-Net8作为两个特征提取器,分别以局部卫星图和新的激光鸟瞰图作为两个特征提取器U-Net7和U-Net8各自的原始输入图片,提取两张原始输入图片中的同构特征,得到同构的第七特征图和第八特征图。此时,第七特征图和第八特征图中仅保留有原始输入图片之间的平移变换关系,而不存在旋转和缩放变换关系。
S313:将S312中得到的第七特征图和第八特征图在相位相关层(DC)中进行相位相关求解,形成一张相位相关图D,相位相关图D进行argmax操作后,得到局部卫星图和激光鸟瞰图之间的y方向上的平移变换关系。
上述x方向上的平移变换关系和y方向上的平移变换关系本质上是激光鸟瞰图要实现与局部卫星图的配准,分别需要在x方向上平移的距离X和在y方向上平移的距离Y。
由此可见,本发明的位姿估计是分为两个阶段来实现的,一共得到了四个自由度(X、Y、theta、scale)的估计值。首先,通过S301~S309的旋转缩放阶段实现旋转和缩放变换关系的估计,然后再通过S310~S313平移阶段实现平移变换关系的估计。综合上述S304、S308、S311和S313的结果,就可以得到异构的局部卫星图和激光鸟瞰图之间旋转、缩放和平移三种变换关系的位姿估计值,从而完成两者的位姿估计过程。
但是需注意的是,上述深度相位相关网络的最终目的并非获得位姿估计值,而是需要得到最终用于计算概率分布图的相位相关图E。而该相位相关图E是在上述位姿估计过程中通过一个网络分支,叠加S311步骤中的相位相关图C和S313步骤中的相位相关图D得到的。
S314:将S311步骤中输出的相位相关图C和S313步骤中输出的相位相关图D进行叠加,该叠加是通过逐像素求和实现的,得到相位相关图E。由于相位相关图E是两张相位相关图叠加得到的,因此需要进行归一化操作,然后将归一化后的相位相关图E作为最终输出,用于进行后续的概率分布图计算。
由此可见,准确输出相位相关图E依然需要实现准确地得到相位相关图C和相位相关图D,所以上述深度相位相关网络依然需要以提高最终的位姿估计准确性为目标进行训练。在训练过程中,上述深度相位相关网络中,8个U-Net网络均预先进行训练,为了保证每一个U-Net网络均可以准确提取同构特征,需要设置合理的损失函数。训练的总损失函数应当为局部卫星图和所述激光鸟瞰图之间的旋转变换关系损失、缩放变换关系损失、x方向上的平移变换关系损失和y方向上的平移变换关系损失的加权和,具体加权值可根据实际进行调整。
在本实施例中,总损失函数中四种损失的加权权值均为1,且四种损失均采用L1损失,四种损失函数分别如下:
将S304中预测的旋转关系theta记为theta_predict,将S308中预测的缩放关系scale记为scale_predict,将S311中预测的x方向上的平移变换X记为x_predict,将S313中预测的y方向上的平移变换Y记为y_predict。因此,每一轮训练过程中求得两个异构图片之间的平移(x_predict,y_predict),旋转(theta_predict),缩放(scale_predict)关系。
1)在模型中将所求得的theta_predict与其真值theta_gt做1范数距离损失,L_theta=(theta_gt-theta_predict),将L_theta回传用以训练U-Net1、U-Net2,使其能够提取到更好的用于求theta_predict的特征。
2)将所求得的scale_predict与其真值scale_gt做1范数距离损失,L_scale=(scale_gt-scale_predict),将L_scale回传用以训练U-Net3、U-Net4,使其能够提取到更好的用于求scale_predict的特征。
3)将所求得的x_predict与其真值x_gt做1范数距离损失,L_x=(x_gt-x_predict),将L_x回传用以训练U-Net5、U-Net6,使其能够提取到更好的用于求x_predict的特征。
4)将所求得的y_predict与其真值y_gt做1范数距离损失,L_y=(y_gt-y_predict),将L_y回传用以训练U-Net7、U-Net8,使其能够提取到更好的用于求y_predict的特征。
因此,总损失函数为L=L_x+L_y+L_theta+L_scale,训练过程中通过梯度下降方法对8个U-Net网络的模型参数进行优化,使总损失函数最小。训练完毕后的8个U-Net网络组成了用于对实际的异构图像进行位姿估计的深度相位相关网络,该深度相位相关网络中可按照上述S1~S13的方法进行两张异构图像的位姿估计,在该过程中,可以输出准确的相位相关图C和相位相关图D。
S4:对前述归一化后的相位相关图E进行Softmax操作,使其转变为0-1的分布,得到一张概率分布图。
S5:在概率分布图基础上,基于粒子滤波定位方法对移动机器人在地图上的准确位置进行定位。
粒子滤波定位方法属于现有技术。下面对其在本实施例中的实现方式简述如下:
通过粒子滤波定位方法对移动机器人在地图上的准确位置进行定位的方法如下:
S51:首先进行粒子群初始化,在卫星地图中移动机器人当前位置附近撒预设数量的点,每个点代表移动机器人的一个假定位置。
S52:然后获取概率分布图,将这些点映射到前述的概率分布图中,一个点在概率分布图中的概率值则代表该点的权重,权重越大说明移动机器人在该位置的可能性越大。
S53:获得粒子的权重之后,根据权重通过轮盘法进行重采样操作,使得权重大的粒子持续存在,逐渐过滤掉权重小的粒子。
S54:移动机器人根据基于里程计估计的运动,移动所有粒子,粒子再次根据当前的概率分布图进行权重的更新计算;
S55:不断迭代重复S53和S54,使粒子逐渐聚拢在真实位置附近,迭代结束后以粒子最终聚集的位置中心确定移动机器人在地图上的准确位置。
基于上述粒子滤波定位算法步骤,最终随着机器人的移动,定位能够逐渐收敛到较为精确的程度。
在一个具体实例中,如图3所示,左图为由激光雷达数据得到的激光鸟瞰图,而右图为从卫星地图上以根据里程计数据粗估确定的位置为中心截取的局部卫星图。这两张图像输入深度相位相关网络后,输出相位相关图,然后转换为概率分布图,经过上述粒子滤波定位算法后,其定位结果如图4所示,一条线为真实定位路线,散点线为由本发明方法校正后的定位路线,另一条线为里程计估计的定位路线,末端的散点群为粒子滤波定位方法中的粒子群。从结果中可见,移动机器人从初始位置Start移动到当前终点位置End,里程计粗估的定位路线与实际定位路线偏差较大,而经过本发明的方法修正后获得的准确定位路线则基本符合实际定位路线。进一步对不同方法的误差进行量化,当地面移动机器人移动时,其里程计会存在历程误差,表1中的量化指标显示了当机器人在三个不同路段前进200m过程中,直接由里程计估计而无任何校正的定位历程误差,以及采用本发明方法校正后的定位历程误差,单位为米。
表1本发明校正前后的误差以及校正耗时
无校正误差 | 利用本方法校正后误差 | 利用本方法校正耗时 | |
路段1 | 23.1m | 0.56m | 29ms |
路段2 | 19.6m | 0.82m | 32ms |
路段3 | 26.7m | 1.33m | 27ms |
由此可见,该方法可以对GPS、里程计等车载传感器确定的位置粗估值进行校正,排除光照、遮挡物等外部因素对于定位结果的不利影响,大大提高了移动机器人自主定位的鲁棒性。
以上所述的实施例只是本发明的一种较佳的方案,然其并非用以限制本发明。有关技术领域的普通技术人员,在不脱离本发明的精神和范围的情况下,还可以做出各种变化和变型。因此凡采取等同替换或等效变换的方式所获得的技术方案,均落在本发明的保护范围内。
Claims (8)
1.一种基于卫星地图与激光雷达信息的移动机器人定位方法,其特征在于,步骤如下:
S1:获取由移动机器人上搭载的激光雷达得到的移动机器人所在位置的激光雷达数据,并将带有反射率信息的激光雷达数据转换为激光鸟瞰图;
S2:移动机器人根据自带的传感器估计自身所处位置,并从卫星地图上以自身所处位置为中心,截取与所述激光鸟瞰图相同大小的局部卫星图;
S3:将所述激光鸟瞰图与所述局部卫星图输入深度相位相关网络中,通过卷积操作提取所述激光鸟瞰图和局部卫星图中的鲁棒特征,再通过反卷积操作将提取的特征转换为与原图大小一致的特征图,然后对激光鸟瞰图的特征图与局部卫星图的特征图通过傅里叶变换操作去除平移分量,再通过对数极性变换操作将旋转分量转换为平移,最后通过相位相关操作得到一张相位相关图;
S4:对所述相位相关图进行Softmax操作使其转变为0-1的分布,得到概率分布图;
S5:在概率分布图基础上,基于粒子滤波定位方法对移动机器人在地图上的准确位置进行定位。
2.如权利要求1所述的基于卫星地图与激光雷达信息的移动机器人定位方法,其特征在于,所述S1中,移动机器人先基于激光雷达数据构建局部2.5D高度地图,再通过2.5D高度地图信息渲染出对应的鸟瞰图。
3.如权利要求1所述的基于卫星地图与激光雷达信息的移动机器人定位方法,其特征在于,所述S2中,所述移动机器人根据GPS或者里程计估计自身所处位置。
4.如权利要求1所述的基于卫星地图与激光雷达信息的移动机器人定位方法,其特征在于,所述的深度相位相关网络包含8个不同的U-Net网络,其中对输入的激光鸟瞰图与局部卫星图输出相位相关图的具体方法如下:
S301:以预先经过训练的第一U-Net网络和第二U-Net网络作为两个特征提取器,分别以局部卫星图和激光鸟瞰图作为两个特征提取器各自的原始输入图片,提取两张原始输入图片中的同构特征,得到同构的第一特征图和第二特征图;
S302:将S301中得到的第一特征图和第二特征图分别进行傅里叶变换后取各自的幅度谱;
S303:将S302中得到的两个幅度谱分别进行对数极坐标变换,使其从笛卡尔坐标系转换到对数极坐标系中,从而使两个幅度谱之间笛卡尔坐标系下的旋转变换被映射成对数极坐标系中y方向上的平移变换;
S304:将S303中两个坐标变换后的幅度谱进行相位相关求解,得到二者之间的平移变换关系,再按照S303中笛卡尔坐标系和对数极坐标系之间的映射关系重新转换,得到所述局部卫星图和所述激光鸟瞰图之间的旋转变换关系;
S305:以预先经过训练的第三U-Net网络和第四U-Net网络作为两个特征提取器,分别以局部卫星图和激光鸟瞰图作为两个特征提取器各自的原始输入图片,提取两张原始输入图片中的同构特征,得到同构的第三特征图和第四特征图;
S306:将S305中得到的第三特征图和第四特征图分别进行傅里叶变换后取各自的幅度谱;
S307:将S306中得到的两个幅度谱分别进行对数极坐标变换,使其从笛卡尔坐标系转换到对数极坐标系中,从而使两个幅度谱之间笛卡尔坐标系下的缩放变换被映射成对数极坐标系中x方向上的平移变换;
S308:将S307中两个坐标变换后的幅度谱进行相位相关求解,得到二者之间的平移变换关系,再按照S307中笛卡尔坐标系和对数极坐标系之间的映射关系重新转换,得到所述局部卫星图和所述激光鸟瞰图之间的缩放变换关系;
S309:将所述激光鸟瞰图按照S304和S308中得到的旋转变换关系和缩放变换关系进行对应的旋转和缩放变换,得到一张新的激光鸟瞰图;
S310:以预先经过训练的第五U-Net网络和第六U-Net网络作为两个特征提取器,分别以局部卫星图和新的激光鸟瞰图作为两个特征提取器各自的原始输入图片,提取两张原始输入图片中的同构特征,得到同构的第五特征图和第六特征图;
S311:将S310中得到的第五特征图和第六特征图进行相位相关求解,得到第一相位相关图,用于进一步计算所述局部卫星图和所述激光鸟瞰图之间的x方向上的平移变换关系;
S312:以预先经过训练的第七U-Net网络和第八U-Net网络作为两个特征提取器,分别以局部卫星图和新的激光鸟瞰图作为两个特征提取器各自的原始输入图片,提取两张原始输入图片中的同构特征,得到同构且仅保留有原始输入图片之间的平移变换关系的第七特征图和第八特征图;
S313:将S312中得到的第七特征图和第八特征图进行相位相关求解,得到第二相位相关图,用于进一步计算所述局部卫星图和所述激光鸟瞰图之间的y方向上的平移变换关系;
S314:将所述第一相位相关图和所述第二相位相关图叠加求和后进行归一化,作为最终输出用于进行Softmax操作的相位相关图。
5.如权利要求4所述的基于卫星地图与激光雷达信息的移动机器人定位方法,其特征在于,所述深度相位相关网络中,8个U-Net网络相互独立,每个U-Net网络各自通过4个通过卷积操作进行下采样的编码器层和4个通过反卷积操作进行上采样的解码器层来提取与输入原图大小相同的特征图。
6.如权利要求4所述的基于卫星地图与激光雷达信息的移动机器人定位方法,其特征在于,所述深度相位相关网络中,8个U-Net网络均预先进行训练,训练的总损失函数为所述局部卫星图和激光鸟瞰图之间的旋转变换关系损失、缩放变换关系损失、x方向上的平移变换关系损失和y方向上的平移变换关系损失的加权和。
7.如权利要求6所述的基于卫星地图与激光雷达信息的移动机器人定位方法,其特征在于,所述总损失函数中四种损失的加权权值均为1,四种损失均采用L1损失。
8.如权利要求1所述的基于卫星地图与激光雷达信息的移动机器人定位方法,其特征在于,所述S5中,基于粒子滤波定位方法对移动机器人在地图上的准确位置进行定位的方法如下:
S51:首先在移动机器人当前位置附近撒预设数量的点,每个点代表移动机器人的一个假定位置;
S52:将这些点映射到所述的概率分布图中,一个点在概率分布图中的概率值则代表该点的权重,权重越大说明移动机器人在该位置的可能性越大;
S53:获得粒子的权重之后,根据权重进行重采样操作,对粒子进行筛选;
S54:移动机器人根据估计的运动,移动所有粒子,粒子再次根据所述的概率分布图进行权重的更新计算;
S55:不断迭代重复S53和S54,使粒子逐渐聚拢在真实位置附近,迭代结束后以粒子最终聚集的位置中心确定移动机器人在地图上的准确位置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110796504.9A CN113552585B (zh) | 2021-07-14 | 2021-07-14 | 一种基于卫星地图与激光雷达信息的移动机器人定位方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110796504.9A CN113552585B (zh) | 2021-07-14 | 2021-07-14 | 一种基于卫星地图与激光雷达信息的移动机器人定位方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113552585A true CN113552585A (zh) | 2021-10-26 |
CN113552585B CN113552585B (zh) | 2023-10-31 |
Family
ID=78103121
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110796504.9A Active CN113552585B (zh) | 2021-07-14 | 2021-07-14 | 一种基于卫星地图与激光雷达信息的移动机器人定位方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113552585B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115775324A (zh) * | 2022-12-13 | 2023-03-10 | 武汉大学 | 一种交叉尺度滤波引导下的相位相关图像匹配方法 |
WO2024011455A1 (zh) * | 2022-07-13 | 2024-01-18 | 浙江大学 | 一种基于激光雷达可估位姿的移动机器人位置重识别方法 |
Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140022055A1 (en) * | 2012-07-17 | 2014-01-23 | Elwha LLC, a limited liability company of the State of Delaware | Unmanned device interaction methods and systems |
WO2017091008A1 (ko) * | 2015-11-26 | 2017-06-01 | 삼성전자주식회사 | 이동 로봇 및 그 제어 방법 |
US20180341022A1 (en) * | 2017-05-24 | 2018-11-29 | Beijing Green Valley Technology Co., Ltd. | Lidar-based mapping method, device and system |
WO2019039733A1 (ko) * | 2017-08-21 | 2019-02-28 | (주)유진로봇 | 카메라와 라이다를 이용한 융합 센서 및 이동체 |
US20190096125A1 (en) * | 2017-09-28 | 2019-03-28 | Nec Laboratories America, Inc. | Generating occlusion-aware bird eye view representations of complex road scenes |
US20190346271A1 (en) * | 2016-03-11 | 2019-11-14 | Kaarta, Inc. | Laser scanner with real-time, online ego-motion estimation |
KR20190131402A (ko) * | 2018-05-16 | 2019-11-26 | 주식회사 유진로봇 | 카메라와 라이다를 이용한 융합 센서 및 이동체 |
CN110927740A (zh) * | 2019-12-06 | 2020-03-27 | 合肥科大智能机器人技术有限公司 | 一种移动机器人定位方法 |
CN111578958A (zh) * | 2020-05-19 | 2020-08-25 | 山东金惠新达智能制造科技有限公司 | 移动机器人导航实时定位方法、系统、介质及电子设备 |
US20200302250A1 (en) * | 2019-03-22 | 2020-09-24 | Nvidia Corporation | Iterative spatial graph generation |
US20200306983A1 (en) * | 2019-03-27 | 2020-10-01 | Lg Electronics Inc. | Mobile robot and method of controlling the same |
WO2022074643A1 (en) * | 2020-10-08 | 2022-04-14 | Edgy Bees Ltd. | Improving geo-registration using machine-learning based object identification |
-
2021
- 2021-07-14 CN CN202110796504.9A patent/CN113552585B/zh active Active
Patent Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140022055A1 (en) * | 2012-07-17 | 2014-01-23 | Elwha LLC, a limited liability company of the State of Delaware | Unmanned device interaction methods and systems |
WO2017091008A1 (ko) * | 2015-11-26 | 2017-06-01 | 삼성전자주식회사 | 이동 로봇 및 그 제어 방법 |
US20190346271A1 (en) * | 2016-03-11 | 2019-11-14 | Kaarta, Inc. | Laser scanner with real-time, online ego-motion estimation |
US20180341022A1 (en) * | 2017-05-24 | 2018-11-29 | Beijing Green Valley Technology Co., Ltd. | Lidar-based mapping method, device and system |
WO2019039733A1 (ko) * | 2017-08-21 | 2019-02-28 | (주)유진로봇 | 카메라와 라이다를 이용한 융합 센서 및 이동체 |
US20190096125A1 (en) * | 2017-09-28 | 2019-03-28 | Nec Laboratories America, Inc. | Generating occlusion-aware bird eye view representations of complex road scenes |
KR20190131402A (ko) * | 2018-05-16 | 2019-11-26 | 주식회사 유진로봇 | 카메라와 라이다를 이용한 융합 센서 및 이동체 |
US20200302250A1 (en) * | 2019-03-22 | 2020-09-24 | Nvidia Corporation | Iterative spatial graph generation |
US20200306983A1 (en) * | 2019-03-27 | 2020-10-01 | Lg Electronics Inc. | Mobile robot and method of controlling the same |
CN110927740A (zh) * | 2019-12-06 | 2020-03-27 | 合肥科大智能机器人技术有限公司 | 一种移动机器人定位方法 |
CN111578958A (zh) * | 2020-05-19 | 2020-08-25 | 山东金惠新达智能制造科技有限公司 | 移动机器人导航实时定位方法、系统、介质及电子设备 |
WO2022074643A1 (en) * | 2020-10-08 | 2022-04-14 | Edgy Bees Ltd. | Improving geo-registration using machine-learning based object identification |
Non-Patent Citations (4)
Title |
---|
PUENTE I ET.AL: "《Review of mobile mapping and surveying technologies》", 《MEASUREMENT》, vol. 46, no. 7, pages 2127 - 2145 * |
WANG L ET.AL: "《Map-based localization method for autonomous vehicles using 3D-LIDAR》", 《IFAC-POPERSONLINE》, vol. 50, no. 1, pages 276 - 281 * |
叶珏磊;周志峰;王立端;庞正雅;: "一种多线激光雷达与GNSS/INS系统标定方法", 激光与红外, no. 1, pages 146 - 150 * |
周忠祥 等: "《机器人演示编程技术的研究进展》", 《自动化博览》, pages 48 - 57 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024011455A1 (zh) * | 2022-07-13 | 2024-01-18 | 浙江大学 | 一种基于激光雷达可估位姿的移动机器人位置重识别方法 |
CN115775324A (zh) * | 2022-12-13 | 2023-03-10 | 武汉大学 | 一种交叉尺度滤波引导下的相位相关图像匹配方法 |
CN115775324B (zh) * | 2022-12-13 | 2024-01-02 | 武汉大学 | 一种交叉尺度滤波引导下的相位相关图像匹配方法 |
Also Published As
Publication number | Publication date |
---|---|
CN113552585B (zh) | 2023-10-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3371670B1 (en) | Device and method for autonomous localisation | |
Wen et al. | Tightly coupled GNSS/INS integration via factor graph and aided by fish-eye camera | |
US20220028163A1 (en) | Computer Vision Systems and Methods for Detecting and Modeling Features of Structures in Images | |
Wolcott et al. | Visual localization within lidar maps for automated urban driving | |
Chen et al. | Probabilistic graphical fusion of LiDAR, GPS, and 3D building maps for urban UAV navigation | |
CN104833354A (zh) | 一种多基多模组网融合室内人员导航定位系统及其实施方法 | |
CN110119698A (zh) | 用于确定对象状态的方法、装置、设备和存储介质 | |
CN113552585B (zh) | 一种基于卫星地图与激光雷达信息的移动机器人定位方法 | |
EP3447729B1 (en) | 2d vehicle localizing using geoarcs | |
CN110208783B (zh) | 基于环境轮廓的智能车辆定位方法 | |
EP3291178B1 (en) | 3d vehicle localizing using geoarcs | |
CN109443354B (zh) | 基于萤火虫群优化pf的视觉-惯性紧耦合组合导航方法 | |
CN113538579B (zh) | 基于无人机地图与地面双目信息的移动机器人定位方法 | |
CN110927765B (zh) | 激光雷达与卫星导航融合的目标在线定位方法 | |
WO2024036984A1 (zh) | 目标定位方法及相关系统、存储介质 | |
CN113483769B (zh) | 基于粒子滤波器的车辆自定位方法、系统、设备和介质 | |
WO2022116572A1 (zh) | 一种目标定位方法及装置 | |
CN112802095B (zh) | 定位方法、装置及设备、以及自动驾驶定位系统 | |
CN115307646A (zh) | 一种多传感器融合的机器人定位方法、系统及装置 | |
CN115014329A (zh) | 一种定位初始化方法及自动驾驶系统 | |
CN113960614A (zh) | 一种基于帧-地图匹配的高程图构建方法 | |
Park et al. | Localization of an unmanned ground vehicle based on hybrid 3D registration of 360 degree range data and DSM | |
CN117392216A (zh) | 点云地图的确定方法、装置、电子设备及存储介质 | |
CN118274815A (zh) | 一种长隧道环境下的实时定位和建图方法 | |
CN115615446A (zh) | 一种基于元学习的辅助机场无人车的视觉定位方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |