WO2024011455A1 - 一种基于激光雷达可估位姿的移动机器人位置重识别方法 - Google Patents

一种基于激光雷达可估位姿的移动机器人位置重识别方法 Download PDF

Info

Publication number
WO2024011455A1
WO2024011455A1 PCT/CN2022/105502 CN2022105502W WO2024011455A1 WO 2024011455 A1 WO2024011455 A1 WO 2024011455A1 CN 2022105502 W CN2022105502 W CN 2022105502W WO 2024011455 A1 WO2024011455 A1 WO 2024011455A1
Authority
WO
WIPO (PCT)
Prior art keywords
channel
point
location
candidate
lidar
Prior art date
Application number
PCT/CN2022/105502
Other languages
English (en)
French (fr)
Inventor
王越
许学成
芦莎
熊蓉
Original Assignee
浙江大学
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 浙江大学 filed Critical 浙江大学
Priority to PCT/CN2022/105502 priority Critical patent/WO2024011455A1/zh
Publication of WO2024011455A1 publication Critical patent/WO2024011455A1/zh

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00

Definitions

  • the invention relates to the field of mobile robot positioning, and in particular to a mobile robot position re-identification method based on laser radar estimable pose.
  • Position re-identification technology is a very important part of the global positioning of mobile robots, which can ensure that the map constructed by the robot is globally consistent.
  • Global localization estimates the current robot's position information without any prior information.
  • a common approach is to divide the global positioning into two parts. The first is position re-identification, which is to match the current robot observation with the observation of the traveled location to obtain the possible candidate locations of the robot. The second is to perform pose estimation, that is, through the current Observations and candidate location observations are used to estimate the pose more accurately, thereby calculating the current pose of the robot.
  • the purpose of the present invention is to solve the problems existing in the existing technology and propose a mobile robot position re-identification method based on lidar estimable pose that can take into account pose estimation, in order to achieve global positioning that is robust to environmental changes.
  • a mobile robot position re-identification method based on LiDAR estimable pose which includes the following steps:
  • the lidar data of the mobile robot is collected in real time by the lidar. After each travel of the preset distance, the lidar data within the traveling distance is processed to form a multi-channel characteristic bird's-eye view of the current position point;
  • For each candidate position point apply the translation and rotation between the current position point and the candidate position point to adjust the laser point cloud of the candidate position point, so that the laser point cloud of the candidate position point is aligned with the current position point.
  • the laser point cloud is used to obtain the corrected laser point cloud of the candidate position point; then pose estimation and optimization are performed based on the corrected laser point cloud of each candidate position point.
  • the mobile robot position re-identification method of the present invention does not rely on images collected by cameras, is robust to environmental changes, and is not easily affected by lighting and seasonal changes in time.
  • the present invention can estimate pose at the same time, greatly improving the accuracy of global positioning.
  • the present invention does not rely on deep learning and can be used in different scenarios without changing the configuration.
  • Figure 1 is a flow chart of the mobile robot position re-identification method based on the estimable pose of lidar information.
  • Figure 2 is a flow chart for obtaining the amplitude spectrum in the embodiment of the present invention.
  • Figure 3 is a schematic diagram of the characteristic bird's-eye view transformed into a sinusoidal diagram according to the embodiment of the present invention.
  • FIG. 4 is a schematic diagram of the translation and rotation characteristics of a characteristic sinusoid according to an embodiment of the present invention.
  • Figure 5 is a schematic diagram of converting a sinusoidal diagram into an amplitude spectrum according to an embodiment of the present invention.
  • a mobile robot position re-identification method based on lidar estimable pose includes the following steps:
  • the lidar data of the mobile robot is collected in real time by the lidar. After each travel of the preset distance, the lidar data within the traveling distance is processed to form a multi-channel characteristic bird's-eye view of the current position point.
  • lidar data through lidar on mobile robots is an existing technology and will not be described again.
  • the mobile robot When the mobile robot is traveling, it can judge its own traveling distance based on the odometer information. Whenever it travels a certain distance, the lidar data within this traveling distance can be processed into a multi-channel characteristic bird's-eye view of the current location point.
  • the specific distance value set can be adjusted according to actual conditions, and should generally be ⁇ 100m.
  • it can be configured to process the laser radar data to form a multi-channel characteristic bird's-eye view every 20m of travel based on the odometer information of the mobile robot.
  • step S1 the specific sub-steps of processing the lidar data to form a multi-channel feature bird's-eye view of the current location point are as follows:
  • the multi-channel features of each point in the lidar data are obtained by calculating the eigenvalues of its local point cloud, and each eigenvalue is regarded as a channel feature.
  • the specific eigenvalue types selected in multi-channel features can be selected according to actual conditions, and can include some or all features of trace, linearity, planarity, sphericity, curvature change, feature entropy, anisotropy, and total variance. Preferably, all of these 8 features can be used.
  • the GPU can be used to perform feature calculation on each laser point cloud in parallel. Improve computing efficiency and achieve real-time performance.
  • the corresponding multi-channel features are stored in the corresponding grid points of the bird's-eye view grid. If there are multiple points projected into the same grid point, only each point is stored. The maximum value among channel features.
  • the bird's-eye view grid is a plane grid in a bird's-eye view state.
  • Each grid in the grid is regarded as a grid point.
  • Each xy plane coordinate in the map can correspond to a grid point. middle.
  • Each grid point stores a set of multi-channel features. Therefore, when the xy coordinates of multiple points are the same, they will be stored in the same grid point. At this time, for each channel feature, the channel feature of all points needs to be obtained. The maximum value is then stored in the grid points, and the channel features of the remaining points are discarded directly.
  • step S1 the rotation changes of the mobile robot at the same location are manifested as longitudinal translation changes in the multi-channel feature bird's-eye view. Translations near the same location appear as lateral translations.
  • step S2 the specific implementation sub-steps of the above step S2 are as follows:
  • the amplitude spectrum is the amplitude spectrum.
  • a bird's-eye view of channel features is first obtained according to S1, and then the multi-channel feature bird's-eye view is subjected to Radon transformation layer by layer, and one of the channels in the generated multi-channel sinusoidal representation is The sinusoidal diagram is shown in Figure 3.
  • the change in the vertical axis reflects the rotation of the laser, and the horizontal axis represents the translation of the point cloud at different rotation angles. This property is shown in Figure 4.
  • After obtaining the multi-channel sinogram perform a one-dimensional Fourier transform on the horizontal axis of each channel, and use the amplitude spectrum of the obtained spectrum as a location descriptor.
  • the amplitude spectrum is shown in Figure 5;
  • the lateral translation in the multi-channel sinogram will not be reflected in the amplitude spectrum of the spectrum, so the obtained location descriptor has translation invariance, that is, the descriptor near the same location is Consistently, translations and rotations between locations can be estimated based on this feature.
  • step S3 the specific implementation sub-steps of step S3 are as follows:
  • the abscissa represents the sampling frequency in the Fourier transform
  • the ordinate represents the relative rotation
  • the value of each point in the correlation spectrum represents the correlation of the relative rotation at a sampling frequency.
  • the map database is a database used to store the digital maps required by the mobile robot.
  • the mobile robot can explore within the map area, and different locations can be determined according to the aforementioned S1 and S2.
  • the described process calculates and correlates the multi-channel sinogram corresponding to the location point.
  • the map database is built step by step, and as the mobile robot continues to explore the area through laser scanning, position points throughout the area are continuously associated with their own multi-channel sinograms.
  • the position points that have been laser scanned and associated with the multi-channel sinogram are called known position points.
  • the number K of candidate locations selected each time needs to be adjusted according to the actual situation.
  • All known location points in the map database can obtain the maximum correlation value in a single-channel correlation spectrum. For these maximum correlation The values are arranged in descending order, and the known location points corresponding to the top K maximum correlation values are selected as K candidate locations.
  • the coupled translation of the multi-channel sinogram can be obtained through a one-dimensional cross-correlation operation, which is coupled by the horizontal and vertical translation of the true position.
  • Each row on the sinusoidal diagram can form a linear equation of two variables that contains the horizontal and vertical translation of the true position.
  • the specific form of the linear equation of two variables can be determined based on the principle of Radon transformation.
  • the form of the above two-dimensional linear equation can be expressed as follows:
  • ⁇ i represents the rotation angle corresponding to the Radon transformation of the similar pixel in the i-th row
  • x and y are respectively the horizontal and vertical translation amounts between the current position point to be found and each candidate position point
  • ⁇ i is the coupling translation amount between the two rows of pixels in the i-th row obtained by the one-dimensional cross-correlation operation.
  • each row of the multi-channel sinogram can establish a linear equation of two variables, all the linear equations of two variables in the entire multi-channel sinogram form an overdetermined equation, and the overdetermined equation is solved by the singular value decomposition (SVD) method, that is The lateral translation amount and the longitudinal translation amount of the point cloud between the current position point and each candidate position point can be obtained.
  • SMD singular value decomposition
  • For each candidate position point apply the translation and rotation between the current position point and the candidate position point to adjust the laser point cloud of the candidate position point, so that the laser point cloud of the candidate position point is aligned with the current position point.
  • the laser point cloud is used to obtain the corrected laser point cloud of the candidate position point; then a more refined pose estimation and optimization is performed based on the corrected laser point cloud of each candidate position point.
  • the current position of the mobile robot can be estimated and optimized according to any feasible pose estimation and optimization method in the existing technology.
  • step S4 when performing pose estimation and optimization based on the corrected laser point cloud of each candidate position point, first use iteration based on the corrected laser point cloud of each candidate position point.
  • the Iterative Closest Point (ICP) algorithm performs fine pose estimation and determines whether it converges. If it converges, the estimation result is used for subsequent pose optimization.
  • the method used for pose optimization here may adopt a g2o graph optimization algorithm.
  • the current position will be associated with the candidate position in the map to provide help for subsequent pose optimization; but if the pose estimation results do not converge, It means that the current position of the mobile robot is not in the map, and the pose estimation and optimization of the current position point can be skipped first, but the multi-channel sinogram of the position point can still be associated and stored in the map database.
  • the multi-channel sinogram generated corresponding to each position point can be stored in the map database in real time for use Next candidate location retrieval and relative pose estimation and optimization.
  • the number of known location points in the map database will gradually increase, and the optimization performance of candidate location retrieval and relative pose estimation will gradually improve.
  • the present invention uses Radon transform to convert rotation and translation changes into translation changes of the two axes of the sinusoid. Based on the invariance of the amplitude spectrum of the spectrum to translation and the spectral cross-correlation calculation of the two images, the translation of the image is solved nature. The translation invariance is used to generate position descriptors to perform candidate matching for position re-identification. The calculation of cross-correlation can be used together with the Radon transform to solve the relative rotation and translation; considering the environment of time changes, the representation of a multi-channel feature bird's-eye view is used To improve the ability to characterize local features in laser point clouds.

Abstract

一种基于激光雷达可估位姿的移动机器人位置重识别方法,利用拉东变换将旋转和平移变化转换到正弦图的两个轴的平移变化,基于频谱的幅度谱对于平移的不变性以及两张图像进行频谱互相关计算,求解图像的平移的性质;将平移不变性用于产生位置描述子从而进行位置重识别的候选匹配,互相关的计算则可与拉东变换一起求解相对旋转和平移。该方法考虑时刻变换的环境,采用多通道特征鸟瞰图表示,可以提高对激光点云中局部特征表征能力。

Description

一种基于激光雷达可估位姿的移动机器人位置重识别方法 技术领域
本发明涉及移动机器人定位领域,特别是涉及一种基于激光雷达可估位姿的移动机器人位置重识别方法。
背景技术
位置重识别技术是移动机器人全局定位中非常重要的部分,其能保障机器人所构建的地图是全局一致的。全局定位在没有任何先验信息的情况下估计当前机器人的位置信息。常见的做法是将全局定位分为两个部分,首先是位置重识别,即将当前的机器人观测与已行进地点的观测进行匹配,获取机器人可能的候选地点,其次是进行位姿估计,即通过当前观测与候选地点观测进行较为精确的位姿估计,从而计算当前机器人的位姿。
近年来激光雷达硬件的不断迭代推动了基于激光的地点位置重识别方法的发展。这类方法不依赖于相机采集的图像,故对环境的变化鲁棒,不容易受到光照以及时间季节变化的影响。这类方法目前虽然能够在部分限制场景下提供比较好的结果,但是它们大多没有考虑到全局定位的最终目的,即给出机器人的位姿。大多方法仅考虑给出候选地点,但给出候选地点后,根据两帧点云进一步估计位姿时可能会出错。这是因为常用的点云位姿估计的方法对于初值的要求较高。在复杂情况下虽然位置重识别模块给出了地点,但由于初值较差可能导致后续位姿估计错误,导致定位结果的错误。
发明内容
本发明的目的在于解决现有技术中存在的问题,并提出一种能够兼顾位姿估计的基于激光雷达可估位姿的移动机器人位置重识别方法,以期实现对环境变化鲁棒的全局定位。
为实现上述发明目的,本发明具体采用的技术方案如下:
一种基于激光雷达可估位姿的移动机器人位置重识别方法,其包括以下步骤:
S1、由激光雷达实时采集移动机器人的激光雷达数据,每行进预设距离后对该段行进距离内的激光雷达数据进行处理,形成当前位置点的多通道特征鸟瞰图;
S2、将所述多通道特征鸟瞰图逐通道进行拉东变换,生成关联至当前位置点的多通道正弦图,且每个通道的正弦图中,纵轴变化代表激光的旋转,横轴变化代表不同旋转角度上点云的平移;对所述多通道正弦图中每一通道的横轴进行一维傅里叶变换,将变换得到各通道的频谱的幅值谱作为当前位置点的地点描述子;
S3、遍历地图数据库中每一个已关联多通道正弦图的已知位置点,针对当前位置点的地点描述子与每个已知位置点的地点描述子中每一个通道的幅值谱进行互相关操作,在地图数据库中检索与当前位置点的地点描述子相关性最大的若干个候选位置点,并估计得到当前位置点与每个候选位置点之间的平移和旋转;
S4、针对每个候选位置点,将当前位置点与该候选位置点之间的平移和旋转应用于调整该候选位置点的激光点云,使该候选位置点的激光点云对齐至当前位置点的激光点云,得到该候选位置点的修正激光点云;然后基于每个候选位置点的修正激光点云进行位姿估计和优化。
本发明相比现有技术,其优点在于:
1.本发明的移动机器人位置重识别方法,不依赖相机采集的图像,实现了对环境变化鲁棒,不容易受到光照以及时间季节变化的影响。
2.本发明可以在不同采样稀疏情况下达到一致的效果,可以减少地图存储
3.本发明可以同时估计位姿,大大提高了全局定位的准确性。
4.本发明不依赖深度学习,可以不改变配置的情况下用于不同场景。
附图说明
图1为基于激光雷达信息的可估位姿的移动机器人位置重识别方法的流程图。
图2为本发明实施例中获得幅值谱的流程图。
图3为本发明实施例特征鸟瞰图转化为正弦图的示意图。
图4为本发明实施例特征正弦图平移和旋转特性的示意图。
图5为本发明实施例正弦图转化为幅值谱的示意图。
具体实施方式
为使本发明的上述目的、特征和优点能够更加明显易懂,下面结合附图对本 发明的具体实施方式做详细的说明。在下面的描述中阐述了很多具体细节以便于充分理解本发明。但是本发明能够以很多不同于在此描述的其它方式来实施,本领域技术人员可以在不违背本发明内涵的情况下做类似改进,因此本发明不受下面公开的具体实施例的限制。本发明各个实施例中的技术特征在没有相互冲突的前提下,均可进行相应组合。
在本发明的一个较佳实施例中,提供了一种基于激光雷达可估位姿的移动机器人位置重识别方法,该方法包括以下步骤:
S1、由激光雷达实时采集移动机器人的激光雷达数据,每行进预设距离后对该段行进距离内的激光雷达数据进行处理,形成当前位置点的多通道特征鸟瞰图。
需要说明的是,移动机器人上通过激光雷达采集激光雷达数据属于现有技术,对此不再赘述。移动机器人在行进过程中,可根据里程计信息判断自身的行进距离,每当行进一定距离后即可将这一段行进距离内的激光雷达数据处理成当前位置点的多通道特征鸟瞰图。具体设定的距离值可以根据实际进行调整,一般应<100m。作为本发明实施例的一种较佳方式,可设置根据移动机器人的里程计信息,每行进20m的距离对激光雷达数据处理形成多通道特征鸟瞰图。
作为本发明实施例的一种较佳方式,在上述步骤S1中,对激光雷达数据进行处理形成当前位置点的多通道特征鸟瞰图的具体子步骤如下:
S11、遍历激光雷达数据中的每一个点,计算以当前遍历点为中心的局部点云的若干个特征值,形成当前遍历点的多通道特征,并对各特征进行归一化。
需要说明的是,激光雷达数据中每一个点的多通道特征是通过对其局部点云进行特征值计算得到的,每一个特征值作为一个通道特征。多通道特征中具体选用的特征值类型可以根据实际进行选择,可包括迹、线性性、平面性、球度性、曲率变化、特征熵、各项异性以及全方差中的部分或全部特征。优选的,可采用这8个特征中的全部。另外,一个点的局部点云中,具体点数量k可根据实际进行调整,优选采用离该点最近的k=20~40个点构建局部点云,进一步优选为k=30个点。
由于激光雷达数据的点云规模通常较大,在CPU上计算耗时很长,因此作为本发明实施例的一种较佳方式,可采用GPU并行地对每个激光点云进行特征计算,可以提高计算效率,达到实时性。
S12、根据激光雷达数据中每一个点的平面坐标,将对应的多通道特征存储到鸟瞰视角栅格的对应栅格点中,若有多个点投影到相同栅格点中,则仅存储每个通道特征中的最大值。
需要说明的是,鸟瞰视角栅格是一个鸟瞰状态下的平面栅格,栅格中的每一个网格视为一个栅格点,地图中的每一个xy平面坐标都可以对应至一个栅格点中。每一个栅格点中均存储有一组多通道特征,因此当多个点的xy坐标相同时会存储至同一个栅格点中,此时对于每一个通道特征需要取所有点中该通道特征的最大值,然后在栅格点中存储该最大值,其余点的通道特征直接舍弃。
S13、将鸟瞰视角栅格按通道划分,每个通道图像中的像素值为对应的通道特征值,从而形成多通道特征鸟瞰图。
经步骤S1的计算,移动机器人在同一地点的旋转变化在多通道特征鸟瞰图中表现为纵向平移变化。在同一地点附近的平移则表现为横向平移。
S2、将所述多通道特征鸟瞰图逐通道进行拉东变换(randon变换),生成关联至当前位置点的多通道正弦图,且每个通道的正弦图中,纵轴变化反映了激光的旋转,横轴变化则表示了不同旋转角度上点云的平移;对所述多通道正弦图中每一通道的横轴进行一维傅里叶变换,将变换得到各通道的频谱的幅值谱作为当前位置点的地点描述子。
因此作为本发明实施例的一种较佳方式,上述步骤S2的具体实现子步骤如下:
S21、将当前位置点的多通道特征鸟瞰图的每一通道进行拉东变换,生成当前位置点的多通道正弦图;
S22、将多通道正弦图的每一通道图像通过横轴的一维快速傅里叶变换转换为频域表示,取变换得到的频谱的幅度谱作为当前位置点的地点描述子。
需说明的是,幅度谱即幅值谱。在一示例性的实施例中,如图2所示,先按照S1得到通道特征鸟瞰图,再将多通道特征鸟瞰图逐层进行拉东变换,生成的多通道正弦图表示中的其中一个通道的正弦图如图3所示。对于每个通道的正弦图,纵轴变化反映了激光的旋转,横轴则表示了不同旋转角度上点云的平移,该性质如图4所示。得到多通道正弦图后,对其每一通道的横轴进行一维傅里叶变换,将得到的频谱的幅值谱作为地点描述子,幅值谱如图5所示;
由于快速傅里叶变换的特性,多通道正弦图中的横向平移将并不会体现在频谱的幅度谱中,故得到的地点描述子具有平移不变性,即在同一地点的附近的描述子是一致的,可以基于该特征对地点之间的平移和旋转进行估计。
S3、遍历地图数据库中每一个已关联多通道正弦图的已知位置点,针对当前位置点的地点描述子与每个已知位置点的地点描述子中每一个通道的幅值谱进行互相关操作,在地图数据库中检索与当前位置点的地点描述子相关性最大的若干个候选位置点,并估计得到当前位置点与每个候选位置点之间的平移和旋转。
作为本发明实施例的一种较佳方式,上述步骤S3的具体实现子步骤如下:
S31、针对地图数据库中每一个已知位置点关联的多通道正弦图,对其中每一通道的横轴进行一维快速傅里叶变换,将其转换为频域表示,得到各通道的频谱的幅值谱,作为已知位置点的地点描述子;然后对当前位置点的幅值谱和每个已知位置点的幅值谱逐通道进行互相关计算,将多通道的相关性谱相加得到最终的单通道相关性谱;当前位置点与每一个已知位置点都得到一个单通道相关性谱后,找到每个单通道相关性谱中的相关性最大值,选择相关性最大值最大的若干已知位置点作为候选地点,每个候选地点的单通道相关性谱中相关性最大值所在纵坐标作为该候选地点与当前位置点之间的相对旋转。
需要说明的是,相关性谱中,横坐标代表傅里叶变换中的采样频率,纵坐标代表相对旋转,相关性谱中的每个点的值代表了一个采样频率下相对旋转的相关性。
需要说明的是,地图数据库是一个用于存储移动机器人所需的数字地图的数据库,在构建该地图数据库时,移动机器人可在地图区域内探索,不同位置点处均可按照前述S1和S2所描述的流程计算并关联该位置点对应的多通道正弦图。地图数据库是逐步构建的,随着移动机器人在区域内不断通过激光扫描进行探索,整个区域内的位置点会不断关联自身的多通道正弦图。本发明中将已经过激光扫描且关联了多通道正弦图的位置点称为已知位置点。
需要说明的是,每次选择的候选地点的数量K需要根据实际进行调整,地图数据库中的所有已知位置点都可以得到一个单通道相关性谱中的相关性最大值,对这些相关性最大值进行降序排列,选择前K个相关性最大值所对应的已知位置点即可作为K个候选地点。
S32、对于每个候选地点,将该候选地点与当前位置点之间的相对旋转补偿到该候选地点对应的多通道正弦图上,使当前位置点和候选地点的多通道正弦图之间只有平移变换而不存在旋转变换,即只存在各通道正弦图上横向平移的变化。
S33、针对每个候选地点,对经过相对旋转补偿的多通道正弦图中像素行进行一维互相关操作,计算两行像素之间由横纵平移量耦合而成的耦合平移量,将多通道正弦图上的每一行根据拉东变换的原理组成一个二元一次方程,且二元一次方程中的两个自变量为当前位置点与每个候选位置点之间的横向平移量和纵向平移量,因变量是耦合平移量。
需注意的是,多通道正弦图的耦合平移量可以通过一维互相关操作求得,其由真实位置的横纵平移量耦合而成。正弦图上的每一行可以组成一个包含真实位置的横纵平移的二元一次方程,该二元一次方程的具体形式可根据拉东变换的原理确定。在本发明实施例中,上述二元一次方程的形式可以表示如下:
xcos(θ i)+y sin(θ i)=τ i
式中:θ i表示第i行相似像素在拉东变换中对应的旋转角;x,y分别为待求的当前位置点与每个候选位置点之间的横向平移量和纵向平移量,τ i为第i行由一维互相关操作求得的两行像素之间的耦合平移量。
由于多通道正弦图的每一行都可以建立一个二元一次方程,因此整个多通道正弦图的所有二元一次方程组成一个超定方程,通过奇异值分解(SVD)方法求解该超定方程,即可求得当前位置点与每个候选位置点之间点云的横向平移量和纵向平移量。
S4、针对每个候选位置点,将当前位置点与该候选位置点之间的平移和旋转应用于调整该候选位置点的激光点云,使该候选位置点的激光点云对齐至当前位置点的激光点云,得到该候选位置点的修正激光点云;然后基于每个候选位置点的修正激光点云进行更加精细的位姿估计和优化。
当获得该候选位置点的修正激光点云后,可根据现有技术中任意可行的位姿估计和优化方法对移动机器人的当前位置进行估计和优化。
作为本发明实施例的一种较佳方式,上述步骤S4中,基于每个候选位置点的修正激光点云进行位姿估计和优化时,先基于每个候选位置点的修正激光点云利用迭代最近点算法(Iterative Closest Point,ICP)进行精细位姿估计,并判断是 否收敛,如果收敛则将估计结果用于进行后续的位姿优化。在一实施例中,此处的位姿优化所采用的方法可采用g2o图优化算法。
需要说明的是,在进行精细位姿估计时,若位姿估计结果收敛则将当前位置与地图中该候选位置进行数据关联,为后续位姿优化提供帮助;但若位姿估计结果不收敛,则表明移动机器人当前位置并不在地图中,可先跳过当前位置点的位姿估计和优化,但该位置点的多通道正弦图依然可关联存储于地图数据库中。
作为本发明实施例的一种较佳方式,在移动机器人行进过程中,可以在完成上述S1~S4步骤后,实时将每一个位置点对应生成的多通道正弦图存储到地图数据库中,用于下一次候选地点检索和相对位姿估计和优化。由此,地图数据库中的已知位置点会逐渐增加,候选地点检索和相对位姿估计优化性能会逐步提升。
综上,本发明利用拉东变换将旋转和平移变化转换到正弦图的两个轴的平移变化,基于频谱的幅度谱对于平移的不变性以及两张图像进行频谱互相关计算,求解图像的平移的性质。将平移不变性用于产生位置描述子从而进行位置重识别的候选匹配,互相关的计算则可与拉东变换一起求解相对旋转和平移;考虑时刻变换的环境,采用多通道特征鸟瞰图的表示以提高对激光点云中局部特征表征能力。
以上所述的实施例只是本发明的一种较佳的方案,然其并非用以限制本发明。有关技术领域的普通技术人员,在不脱离本发明的精神和范围的情况下,还可以做出各种变化和变型。因此凡采取等同替换或等效变换的方式所获得的技术方案,均落在本发明的保护范围内。

Claims (10)

  1. 一种基于激光雷达可估位姿的移动机器人位置重识别方法,其特征在于,包括以下步骤:
    S1、由激光雷达实时采集移动机器人的激光雷达数据,每行进预设距离后对该段行进距离内的激光雷达数据进行处理,形成当前位置点的多通道特征鸟瞰图;
    S2、将所述多通道特征鸟瞰图逐通道进行拉东变换,生成关联至当前位置点的多通道正弦图,且每个通道的正弦图中,纵轴变化代表激光的旋转,横轴变化代表不同旋转角度上点云的平移;对所述多通道正弦图中每一通道的横轴进行一维傅里叶变换,将变换得到各通道的频谱的幅值谱作为当前位置点的地点描述子;
    S3、遍历地图数据库中每一个已关联多通道正弦图的已知位置点,针对当前位置点的地点描述子与每个已知位置点的地点描述子中每一个通道的幅值谱进行互相关操作,在地图数据库中检索与当前位置点的地点描述子相关性最大的若干个候选位置点,并估计得到当前位置点与每个候选位置点之间的平移和旋转;
    S4、针对每个候选位置点,将当前位置点与该候选位置点之间的平移和旋转应用于调整该候选位置点的激光点云,使该候选位置点的激光点云对齐至当前位置点的激光点云,得到该候选位置点的修正激光点云;然后基于每个候选位置点的修正激光点云进行位姿估计和优化。
  2. 如权利要求1所述的基于激光雷达可估位姿的移动机器人位置重识别方法,其特征在于,所述移动机器人根据里程计信息判断自身的行进距离。
  3. 如权利要求1所述的基于激光雷达可估位姿的移动机器人位置重识别方法,其特征在于,所述步骤S1中,对激光雷达数据进行处理形成当前位置点的多通道特征鸟瞰图的具体步骤如下:
    S11、遍历激光雷达数据中的每一个点,计算以当前遍历点为中心的局部点云的若干个特征值,形成当前遍历点的多通道特征,并对各特征进行归一化;
    S12、根据激光雷达数据中每一个点的平面坐标,将对应的多通道特征存储到鸟瞰视角栅格的对应栅格点中,若有多个点投影到相同栅格点中,则仅存储每个通道特征中的最大值;
    S13、将鸟瞰视角栅格按通道划分,每个通道图像中的像素值为对应的通道特征值,从而形成多通道特征鸟瞰图。
  4. 如权利要求1所述的基于激光雷达可估位姿的移动机器人位置重识别方法,其特征在于,所述多通道特征包括迹、线性性、平面性、球度性、曲率变化、特征熵、各项异性以及全方差中的部分或全部特征。
  5. 如权利要求1所述的基于激光雷达可估位姿的移动机器人位置重识别方法,其特征在于,所述步骤S2的具体实现步骤如下:
    S21、将当前位置点的多通道特征鸟瞰图的每一通道进行拉东变换,生成当前位置点的多通道正弦图;
    S22、将多通道正弦图的每一通道图像通过横轴的一维快速傅里叶变换转换为频域表示,取变换得到的频谱的幅度谱作为当前位置点的地点描述子。
  6. 如权利要求1所述的基于激光雷达可估位姿的移动机器人位置重识别方法,其特征在于,所述步骤S3的具体实现步骤如下:
    S31、针对地图数据库中每一个已知位置点关联的多通道正弦图,对其中每一通道的横轴进行一维快速傅里叶变换,将其转换为频域表示,得到各通道的频谱的幅值谱,作为已知位置点的地点描述子;然后对当前位置点的幅值谱和每个已知位置点的幅值谱逐通道进行互相关计算,将多通道的相关性谱相加得到最终的单通道相关性谱;当前位置点与每一个已知位置点都得到一个单通道相关性谱后,找到每个单通道相关性谱中的相关性最大值,选择相关性最大值最大的若干已知位置点作为候选地点,每个候选地点的单通道相关性谱中相关性最大值所在纵坐标作为该候选地点与当前位置点之间的相对旋转;
    S32、对于每个候选地点,将该候选地点与当前位置点之间的相对旋转补偿到该候选地点对应的多通道正弦图上,使当前位置点和候选地点的多通道正弦图之间只有平移变换而不存在旋转变换;
    S33、针对每个候选地点,对经过相对旋转补偿的多通道正弦图中像素行进行一维互相关操作,计算两行像素之间由横纵平移量耦合而成的耦合平移量,将多通道正弦图上的每一行根据拉东变换的原理组成一个二元一次方程,且二元一次方程中的两个自变量为当前位置点与每个候选位置点之间的横向平移量和纵向平移量,因变量是耦合平移量;整个多通道正弦图的所有二元一次方程组成一个超定方程,通过奇异值分解方法求得当前位置点与每个候选位置点之间点云的横向平移量和纵向平移量。
  7. 如权利要求1所述的基于激光雷达可估位姿的移动机器人位置重识别方法,其特征在于,所述二元一次方程的形式为:
    x cos(θ i)+y sin(θ i)=τ i
    式中:θ i表示第i行相似像素在拉东变换中对应的旋转角;x,y分别为待求的当前位置点与每个候选位置点之间的横向平移量和纵向平移量,τ i为第i行由一维互相关操作求得的两行像素之间的耦合平移量。
  8. 如权利要求1所述的基于激光雷达可估位姿的移动机器人位置重识别方法,其特征在于,所述步骤S4中,基于每个候选位置点的修正激光点云进行位姿估计和优化时,先基于每个候选位置点的修正激光点云利用迭代最近点算法进行位姿估计,并判断是否收敛,如果收敛则将估计结果用于进行后续的位姿优化。
  9. 如权利要求8所述的基于激光雷达可估位姿的移动机器人位置重识别方法,其特征在于,所述位姿优化所采用的方法为g2o图优化。
  10. 如权利要求1所述的基于激光雷达可估位姿的移动机器人位置重识别方法,其特征在于,在移动机器人行进过程中,实时将每一个位置点对应生成的多通道正弦图存储到地图数据库中,用于下一次候选地点检索和相对位姿估计。
PCT/CN2022/105502 2022-07-13 2022-07-13 一种基于激光雷达可估位姿的移动机器人位置重识别方法 WO2024011455A1 (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/CN2022/105502 WO2024011455A1 (zh) 2022-07-13 2022-07-13 一种基于激光雷达可估位姿的移动机器人位置重识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/CN2022/105502 WO2024011455A1 (zh) 2022-07-13 2022-07-13 一种基于激光雷达可估位姿的移动机器人位置重识别方法

Publications (1)

Publication Number Publication Date
WO2024011455A1 true WO2024011455A1 (zh) 2024-01-18

Family

ID=89535299

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/CN2022/105502 WO2024011455A1 (zh) 2022-07-13 2022-07-13 一种基于激光雷达可估位姿的移动机器人位置重识别方法

Country Status (1)

Country Link
WO (1) WO2024011455A1 (zh)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6002807A (en) * 1996-01-11 1999-12-14 Northrop Grumman Corporation Rotationally invariant correlator
CN113406659A (zh) * 2021-05-28 2021-09-17 浙江大学 一种基于激光雷达信息的移动机器人位置重识别方法
CN113552585A (zh) * 2021-07-14 2021-10-26 浙江大学 一种基于卫星地图与激光雷达信息的移动机器人定位方法
CN113866739A (zh) * 2021-09-17 2021-12-31 西安电子科技大学 基于glct-gptf的多旋翼目标参数估计方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6002807A (en) * 1996-01-11 1999-12-14 Northrop Grumman Corporation Rotationally invariant correlator
CN113406659A (zh) * 2021-05-28 2021-09-17 浙江大学 一种基于激光雷达信息的移动机器人位置重识别方法
CN113552585A (zh) * 2021-07-14 2021-10-26 浙江大学 一种基于卫星地图与激光雷达信息的移动机器人定位方法
CN113866739A (zh) * 2021-09-17 2021-12-31 西安电子科技大学 基于glct-gptf的多旋翼目标参数估计方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
DING XIAQING; XU XUECHENG; LU SHA; JIAO YANMEI; TAN MENGWEN; XIONG RONG; DENG HUANJUN; LI MINGYANG; WANG YUE: "Translation Invariant Global Estimation of Heading Angle Using Sinogram of LiDAR Point Cloud", 2022 INTERNATIONAL CONFERENCE ON ROBOTICS AND AUTOMATION (ICRA), IEEE, 23 May 2022 (2022-05-23), pages 2207 - 2214, XP034146481, DOI: 10.1109/ICRA46639.2022.9811750 *

Similar Documents

Publication Publication Date Title
CN109345574B (zh) 基于语义点云配准的激光雷达三维建图方法
US10853687B2 (en) Method and apparatus for determining matching relationship between point cloud data
CN108665491B (zh) 一种基于局部参考点的快速点云配准方法
CN108229416B (zh) 基于语义分割技术的机器人slam方法
US20150036916A1 (en) Stereo-motion method of three-dimensional (3-d) structure information extraction from a video for fusion with 3-d point cloud data
CN104778688A (zh) 点云数据的配准方法及装置
CN109579825B (zh) 基于双目视觉和卷积神经网络的机器人定位系统及方法
CN111028292B (zh) 一种亚像素级图像匹配导航定位方法
CN113706710A (zh) 基于fpfh特征差异的虚拟点多源点云融合方法及系统
CN115421158A (zh) 自监督学习的固态激光雷达三维语义建图方法与装置
CN111028280B (zh) 井字结构光相机系统及进行目标有尺度三维重建的方法
CN115331029A (zh) 基于跨模态转换网络与最优传输理论的异源图像匹配方法
Li et al. FC-SLAM: Federated learning enhanced distributed visual-LiDAR SLAM in cloud robotic system
CN115267724B (zh) 一种基于激光雷达可估位姿的移动机器人位置重识别方法
CN114708309A (zh) 基于建筑平面图先验信息的视觉室内定位方法及系统
CN112184785B (zh) 基于mcd度量和vtm的多模态遥感图像配准方法
WO2024011455A1 (zh) 一种基于激光雷达可估位姿的移动机器人位置重识别方法
CN109886988A (zh) 一种微波成像仪定位误差的度量方法、系统、装置及介质
CN111275748A (zh) 动态环境下基于激光雷达的点云配准方法
Yoshisada et al. Indoor map generation from multiple LiDAR point clouds
CN113240743B (zh) 基于神经网络的异构图像位姿估计及配准方法、装置及介质
Guo et al. 3D Lidar SLAM Based on Ground Segmentation and Scan Context Loop Detection
Ying et al. Remote Sensing Image Registration Based on Spatial Transform Network and Phase Correlation Method
CN112950683B (zh) 基于点特征的航空影像和机载点云配准优化方法及系统
WO2022247714A1 (zh) 一种点云二维规则化平面投影方法及装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22950581

Country of ref document: EP

Kind code of ref document: A1