CN114608561B - 一种基于多传感器融合的定位与建图方法及系统 - Google Patents
一种基于多传感器融合的定位与建图方法及系统 Download PDFInfo
- Publication number
- CN114608561B CN114608561B CN202210285283.3A CN202210285283A CN114608561B CN 114608561 B CN114608561 B CN 114608561B CN 202210285283 A CN202210285283 A CN 202210285283A CN 114608561 B CN114608561 B CN 114608561B
- Authority
- CN
- China
- Prior art keywords
- data
- odometer
- pose
- inertial
- laser
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000004927 fusion Effects 0.000 title claims abstract description 68
- 238000013507 mapping Methods 0.000 title claims abstract description 39
- 238000000034 method Methods 0.000 title claims abstract description 35
- 238000005457 optimization Methods 0.000 claims abstract description 98
- 230000000007 visual effect Effects 0.000 claims abstract description 85
- 238000005259 measurement Methods 0.000 claims abstract description 65
- 238000001514 detection method Methods 0.000 claims abstract description 30
- 238000010276 construction Methods 0.000 claims abstract description 14
- 230000010354 integration Effects 0.000 claims description 43
- 238000004364 calculation method Methods 0.000 claims description 18
- 238000012545 processing Methods 0.000 claims description 15
- 230000004807 localization Effects 0.000 claims description 5
- 238000007781 pre-processing Methods 0.000 claims description 5
- 230000033001 locomotion Effects 0.000 description 8
- 238000005516 engineering process Methods 0.000 description 4
- 230000001133 acceleration Effects 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 239000011159 matrix material Substances 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- NAWXUBYGYWOOIX-SFHVURJKSA-N (2s)-2-[[4-[2-(2,4-diaminoquinazolin-6-yl)ethyl]benzoyl]amino]-4-methylidenepentanedioic acid Chemical compound C1=CC2=NC(N)=NC(N)=C2C=C1CCC1=CC=C(C(=O)N[C@@H](CC(=C)C(O)=O)C(O)=O)C=C1 NAWXUBYGYWOOIX-SFHVURJKSA-N 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000013499 data model Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000007499 fusion processing Methods 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/38—Electronic maps specially adapted for navigation; Updating thereof
- G01C21/3804—Creation or updating of map data
- G01C21/3833—Creation or updating of map data characterised by the source of data
- G01C21/3841—Data obtained from two or more sources, e.g. probe vehicles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/10—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
- G01C21/12—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
- G01C21/16—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
- G01C21/165—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
- G01C21/1652—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments with ranging devices, e.g. LIDAR or RADAR
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/10—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
- G01C21/12—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
- G01C21/16—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
- G01C21/165—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
- G01C21/1656—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments with passive imaging devices, e.g. cameras
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/38—Electronic maps specially adapted for navigation; Updating thereof
- G01C21/3804—Creation or updating of map data
- G01C21/3833—Creation or updating of map data characterised by the source of data
- G01C21/3848—Data obtained from both position sensors and additional sensors
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/86—Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Computer Networks & Wireless Communication (AREA)
- Electromagnetism (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
- Traffic Control Systems (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
本发明公开了一种基于多传感器融合的定位与建图方法及系统,应用于实时定位与建图技术领域。所述方法包括:获取目标区域的激光雷达数据、惯性测量数据和视频图像数据,并基于上述数据构建激光惯性里程计和视觉惯性融合里程计,并将所述激光惯性里程计和视觉惯性融合里程计进行融合,完成局部位姿优化和全局位姿优化,并基于所述全局位姿优化的结果对目标区域进行定位与建图。本发明通过对激光雷达数据、惯性测量数据和视频图像数据进行融合,不仅能够有效提升回环检测的精度,而且大大提升了实时定位的精度,解决了现有方案不能适应大范围的实时定位与建图的问题。
Description
技术领域
本发明涉及实时定位与建图技术领域,特别是涉及一种基于多传感器融合的定位与建图方法及系统。
背景技术
2D激光雷达的同时定位与地图构建技术(Simultaneous Localization andMapping,SLAM)用于移动机器人只依赖自身的2D激光雷达传感器进行自我定位以及对环境的感知。目前基于2D激光雷达的SLAM技术在算法上较为成熟,现有的2D激光SLAM技术在短时间内能够保证移动机器人的较高定位精度。但2D激光雷达单位时间内采集信息较少,对环境感知能力较差,因此很难保持长时间的定位与建图能力,尤其在结构单一的走廊环境很容易定位失败。仅基于2D激光雷达在长时间定位过程中将不可避免地产生定位累计误差使回环检测失败,导致长时间定位精度的大幅下降。
而激光雷达SLAM技术在实际应用中一般会与惯性测量传感器(InertialMeasurement Unit,IMU)联合使用,IMU传感器主要用于激光点云的矫正,解决运动过程中的雷达点云产生的畸变问题。尽管与IMU融合的2D激光SLAM技术能够一定程度的提升定位精度和系统的鲁棒性。然而,若长时间运行,累积误差仍不能很好的进行消除。基于2D激光雷达的回环检测目前不能够很好的识别,因此现有的2D激光SLAM方案虽然能一定程度上提高定位精度,但仍存在不能适用于大范围的实时定位与建图的问题。
发明内容
本发明的目的是提供一种基于多传感器融合的定位与建图方法及系统,可有效提升在大范围的实时定位与建图能力。
为实现上述目的,本发明提供了如下方案:
一种基于多传感器融合的定位与建图方法,包括:
获取目标区域的激光雷达数据、惯性测量数据和视频图像数据;
对所述激光雷达数据进行去畸变处理,得到去畸变激光雷达数据,对所述惯性测量数据进行预积分处理,得到预积分处理后的数据;
对所述去畸变激光雷达数据进行基于点线距离最小化的迭代最近点匹配运算,得到激光里程计;对基于所述视频图像数据构建的初始化地图进行图像匹配位姿计算,得到视觉里程计;
根据所述激光里程计和由所述预积分处理后的数据确定的预积分约束因子构建激光惯性里程计,并将所述激光雷达数据和所述惯性测量数据通过所述激光惯性里程计进行状态估计,得到第一位姿信息;
根据所述预积分约束因子和所述视觉里程计构建视觉惯性融合里程计,并将所述惯性测量数据和所述视频图像数据通过所述视觉惯性融合里程计进行状态估计,得到第二位姿信息;
对所述第一位姿信息和所述第二位姿信息进行滑动窗口优化,得到局部优化位姿数据;
对所述局部优化位姿数据进行回环检测,当所述局部优化位姿数据满足所述回环检测的判别条件时,对所述局部优化位姿数据进行回环帧特征检索,得到回环帧位姿;所述判别条件为所述局部优化位姿数据是历史地图中的位姿数据,且所述局部优化位姿数据属于所述视频图像数据;
采用图优化方法对所述第一位姿信息和所述第二位姿信息进行全局优化,得到全局优化位姿,并基于所述回环帧位姿和所述全局优化位姿完成对所述目标区域的定位与建图。
可选地,所述根据所述激光里程计和由所述预积分处理后的数据确定的预积分约束因子构建激光惯性里程计,并将所述激光雷达数据和所述惯性测量数据通过所述激光惯性里程计进行状态估计,得到第一位姿信息,具体包括:
基于所述激光里程计得到激光雷达约束因子;
利用所述激光雷达约束因子与所述预积分处理后的数据确定的预积分约束因子构建激光惯性里程计的误差模型;
将所述激光雷达数据和所述惯性测量数据输入所述激光惯性里程计中,并将由所述激光惯性里程计的误差模型计算的误差最小时对应的位姿信息确定为第一位姿信息。
可选地,所述根据所述预积分约束因子和所述视觉里程计构建视觉惯性融合里程计,并将所述惯性测量数据和所述视频图像数据通过所述视觉惯性融合里程计进行状态估计,得到第二位姿信息,具体包括:
基于所述视觉里程计得到视觉约束因子;
利用所述视觉约束因子与所述预积分约束因子构建视觉惯性融合里程计的误差模型;
将所述惯性测量数据和所述视频图像数据输入所述视觉惯性融合里程计中,由所述视觉惯性融合里程计的误差模型计算的误差最小时对应的位姿信息确定为第二位姿信息。
可选地,所述对所述第一位姿信息和所述第二位姿信息进行滑动窗口优化,得到局部优化位姿数据,具体包括:
利用所述激光惯性里程计和所述视觉惯性融合里程计构建滑动窗口优化模型;
将所述第一位姿信息和所述第二位姿信息输入到所述滑动窗口优化模型中进行位姿解算,并将所述滑动窗口优化模型的误差最小时对应的位姿信息确定为局部优化位姿数据。
一种基于多传感器融合的定位与建图系统,包括:
数据采集单元,用于获取目标区域的激光雷达数据、惯性测量数据和视频图像数据;
数据预处理单元,用于对所述激光雷达数据进行去畸变处理,得到去畸变激光雷达数据,对所述惯性测量数据进行预积分处理,得到预积分处理后的数据;
里程计获取单元,用于对所述去畸变激光雷达数据进行基于点线距离最小化的迭代最近点匹配运算,得到激光里程计;对基于所述视频图像数据构建的初始化地图进行图像匹配位姿计算,得到视觉里程计;
第一位姿信息获取单元,用于根据所述激光里程计和由所述预积分处理后的数据确定的预积分约束因子构建激光惯性里程计,并将所述激光雷达数据和所述惯性测量数据通过所述激光惯性里程计进行状态估计,得到第一位姿信息;
第二位姿信息获取单元,用于根据所述预积分约束因子和所述视觉里程计构建视觉惯性融合里程计,并将所述惯性测量数据和所述视频图像数据通过所述视觉惯性融合里程计进行状态估计,得到第二位姿信息;
局部位姿优化单元,用于对所述第一位姿信息和所述第二位姿信息进行滑动窗口优化,得到局部优化位姿数据;
回环检测单元,用于对所述局部优化位姿数据进行回环检测,当所述局部优化位姿数据满足所述回环检测的判别条件时,对所述局部优化位姿数据进行回环帧特征检索,得到回环帧位姿;所述判别条件为所述局部优化位姿数据是历史地图中的位姿数据,且所述局部优化位姿数据属于所述视频图像数据;
定位与建图单元,用于采用图优化方法对所述第一位姿信息和所述第二位姿信息进行全局优化,得到全局优化位姿,并基于所述回环帧位姿和所述全局优化位姿完成对所述目标区域的定位与建图。
可选地,所述第一位姿信息获取单元包括:
激光雷达约束因子获取模块,用于基于所述激光里程计得到激光雷达约束因子;
第一误差模型构建模块,用于利用所述激光雷达约束因子与所述预积分处理后的数据确定的预积分约束因子构建激光惯性里程计的误差模型;
第一状态估计模块,用于将所述激光雷达数据和所述惯性测量数据输入所述激光惯性里程计中,并将由所述激光惯性里程计的误差模型计算的误差最小时对应的位姿信息确定为第一位姿信息。
可选地,所述第二位姿信息获取单元包括:
视觉约束因子获取模块,用于基于所述视觉里程计得到视觉约束因子;
第二误差模型构建模块,用于利用所述视觉约束因子与所述预积分约束因子构建视觉惯性融合里程计的误差模型;
第二状态估计模块,用于将所述惯性测量数据和所述视频图像数据输入所述视觉惯性融合里程计中,并将由所述视觉惯性融合里程计的误差模型计算的误差最小时对应的位姿信息确定为第二位姿信息。
可选地,所述局部位姿优化单元包括:
误差模型构建模块,用于利用所述激光惯性里程计和所述视觉惯性融合里程计构建滑动窗口优化模型;
局部优化位姿数据获取单元,用于将所述第一位姿信息和所述第二位姿信息输入到所述滑动窗口优化模型中进行位姿解算,并将所述滑动窗口优化模型的误差最小时对应的位姿信息确定为局部优化位姿数据。
根据本发明提供的具体实施例,本发明公开了以下技术效果:
本发明公开了一种基于多传感器融合的定位与建图方法及系统,在获取激光雷达数据、惯性测量数据和视频图像数据后,通过构建激光惯性里程计和视觉惯性融合里程计,实现将所述激光雷达数据和所述惯性测量数据进行融合,以及将所述惯性测量数据和所述视频图像数据进行融合,再对上述两个融合的结果进行滑动窗口优化、回环检测和全局位姿优化,进而完成地图的定位与构建。其中,利用激光惯性里程计和视觉惯性融合里程计进行数据融合能够极大提高应用环境的适应能力,以及数据运算的稳定性;并且通过对激光雷达数据、惯性测量数据和视频图像数据进行融合,不仅能够有效提升回环检测的精度,而且大大提升了实时定位的精度,解决了现有方案不能适应大范围的实时定位与建图的问题。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的基于多传感器融合的定位与建图方法的流程示意图;
图2为本发明实施例提供的基于多传感器融合的定位与建图方法的逻辑示意图;
图3为本发明实施例提供的基于多传感器融合的定位与建图系统的结构示意图。
符号说明:
1-数据采集单元;2-数据预处理单元;3-里程计获取单元;4-第一位姿信息获取单元;5-第二位姿信息获取单元;6-局部位姿优化单元;7-回环检测单元;8-定位与建图单元。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明的目的是提供一种基于多传感器融合的定位与建图方法及系统,通过将多传感器数据进行融合处理,有效提升在大范围的实时定位与建图能力。
为使本发明的上述目的、特征和优点能够更加明显易懂,下面结合附图和具体实施方式对本发明作进一步详细的说明。
如图1-图2所示,本发明实施例提供的基于多传感器融合的定位与建图方法包括:
步骤100:获取目标区域的激光雷达数据、惯性测量数据和视频图像数据。
步骤200:对所述激光雷达数据进行去畸变处理,得到去畸变激光雷达数据,对所述惯性测量数据进行预积分处理,得到预积分处理后的数据。
步骤300:对所述去畸变激光雷达数据进行基于点线距离最小化的迭代最近点匹配运算,得到激光里程计;对基于所述视频图像数据构建的初始化地图进行图像匹配位姿计算,得到视觉里程计。
步骤400:根据所述激光里程计和由所述预积分处理后的数据确定的预积分约束因子构建激光惯性里程计,并将所述激光雷达数据和所述惯性测量数据通过所述激光惯性里程计进行状态估计,得到第一位姿信息。
步骤500:根据所述预积分约束因子和所述视觉里程计构建视觉惯性融合里程计,并将所述惯性测量数据和所述视频图像数据通过所述视觉惯性融合里程计进行状态估计,得到第二位姿信息。
步骤600:对所述第一位姿信息和所述第二位姿信息进行滑动窗口优化,得到局部优化位姿数据。
步骤700:对所述局部优化位姿数据进行回环检测,当所述局部优化位姿数据满足所述回环检测的判别条件时,对所述局部优化位姿数据进行回环帧特征检索,得到回环帧位姿;所述判别条件为所述局部优化位姿数据是历史地图中的位姿数据,且所述局部优化位姿数据属于所述视频图像数据。
步骤800:采用图优化方法对所述第一位姿信息和所述第二位姿信息进行全局优化,得到全局优化位姿,并基于所述回环帧位姿和所述全局优化位姿完成对所述目标区域的定位与建图。
其中在步骤100中,将激光雷达和双目相机置于载体外表面,且将惯性测量传感器置于载体外表面或内部。通过所述载体上的各传感器分别获取目标区域的激光雷达数据、惯性测量数据和视频图像数据。所述激光雷达数据是指安置在运动载体上的单线程激光雷达通过运动采集到的2D点云数据。所述视频图像数据是指双目相机拍摄的视频数据在传输时的视频流,视频数据是连续多帧图像构成的动态画面。所述惯性测量数据也是根据实时动态变化的数据。
其中在步骤200中,在获取上述数据后,记录数据在采集周期内惯性测量传感器的运动轨迹;利用所述时间戳和惯性测量传感器的运动轨迹得到在采集各个所述点云时激光雷达的位置和姿态;通过外参将得到的每帧点云的坐标值转换至该帧点云中第一个2D点采集时刻的激光雷达坐标系下,即实现了点云去畸变。
且由于惯性测量传感器的频率相比于双目相机和激光雷达的频率高很多,为了使得惯性测量数据对相邻图像关键帧形成约束,需要对图像关键帧之间的惯性测量数据进行预积分处理,本实施例中采用基于四元数的预积分推导模型进行预积分处理,如公式(1)所示。
其中,和/>分别表示惯性测量传感器测量的加速度与角速度测量值,i和i+1分别表示第k个关键帧k和第k+1个关键帧之间惯性测量数据的两个时刻,δt表示两个惯性测量数据之间的时间间隔,/>分别代表加速度零偏和角速度零偏。/>和/>分别代表基于bk关键帧坐标系下的位置、速度和四元数表示的姿态。
在两关键帧之间预积分开始时刻,由上述预积分项构建的测量模型如公式(2)所示。
其中为位置和速度的三维零向量;/>是单位四元数;gw表示世界坐标系下的重力向量gw=[0,0,g]T;/>表示世界坐标系到bk关键帧的旋转矩阵;/>表示bk关键帧在世界坐标系的位置;Δtk表示bk与bk+1关键帧的时间差;/>表示bk关键帧在世界坐标系下的速度;/>表示/>的逆矩阵,世界坐标系到bk关键帧的四元数旋转;/>表示bk+1关键帧到世界坐标系的旋转的四元数表示;/>表示第k帧的加速度零偏;/>表示第k帧的角速度零偏。公式(2)称之为预积分约束因子。
其中在步骤300中,通过将当前采集的2D点云数据与栅格地图数据进行基于点线距离最小化的迭代最近点匹配运算,得到激光里程计,如公式(3)所示。
其中,T=(Tx,Ty,Tθ)代表位姿和角度变化也是待求量;pi=(pix,piy)代表激光雷达采集的2D激光点坐标,M(Si(T))表示地图栅格像素值;Si(T)表示2D激光点坐标转为世界坐标系下的坐标。
通过对双目相机左右目采集到的视频流进行图像金字塔构建并进行ORB特征点的提取,在提取过程使用四叉树均匀采样,使特征点在整个图像分布均匀。并将左右目特征点进行三角化,完成地图初始化,如公式(5)所示。此时的初始化地图由于双目相机的基线已知,因此可以生成带有绝对尺度的特征点地图。
其中,d为双目相机左右目采集到的图的横坐标之差,根据视差就能估计一个像素与相机之间的距离,恢复特征点的3D世界坐标;z表示特征点的深度;f表示相机的焦距;b表示左右相机中心的距离(基线长);uL表示左目采集到的图的横坐标;uR表示右目采集到的图的横坐标。
根据初始化的地图点进行3D-2D(EPnP)算法的图像匹配位姿计算,随着载体的运动,匹配上的特征点数量会逐渐减少,当小于阈值时,重新根据左右目进行三角化新的地图点,这个过程不断地进行,根据这个过程得到图像特征点的重投影误差。根据所述预积分约束因子和所述图像特征点的重投影误差形成视觉里程计,如公式(7)所示。
其中,Xi,Yi,Zi表示三维地图点坐标;(ui,vi)表示地图点坐标投影在图像像素平面坐标;K表示内参矩阵;T表示位姿和角度变化也是待求量;pi表示三角化出来的具有三维坐标的特征点。
其中在步骤400中,所述第一位姿信息的获取方法具体包括以下三个步骤。
第一步,基于所述激光里程计得到激光雷达约束因子,具体包括:调整位姿T,将公式(4)达到最小时对应的位姿数据确定为激光雷达约束因子。
第二步,利用所述激光雷达约束因子与所述预积分处理后的数据确定的预积分约束因子构建激光惯性里程计的误差模型,如公式(8)所示。
其中,rB代表抽象形式的误差模型(预积分约束因子);表示k帧与k+1代表的IMU预积分量,对应公式(1)。
第三步,将所述激光雷达数据和所述惯性测量数据输入所述激光惯性里程计中,通过调整姿态T,将由所述激光惯性里程计的误差模型计算的误差最小时对应的位姿信息确定为第一位姿信息。
其中在步骤500中,所述第二位姿信息的获取方法具体包括以下三个步骤。
第一步,基于所述视觉里程计得到视觉约束因子,具体包括:调整位姿T,将公式(7)达到最小时对应的位姿数据确定为视觉约束因子。
第二步,利用所述视觉约束因子与所述预积分约束因子构建视觉惯性融合里程计的误差模型,如公式(9)所示。
其中,si表示KTPi的z坐标代表的值。
第三步,将所述惯性测量数据和所述视频图像数据输入所述视觉惯性融合里程计中,并将由所述视觉惯性融合里程计的误差模型计算的误差最小时对应的位姿信息确定为第二位姿信息。
其中在步骤600中,所述局部优化位姿数据的获取方法具体包括以下两个步骤。
第一步,利用所述激光惯性里程计(LIO)和所述视觉惯性融合里程计(VIO)构建滑动窗口优化模型,实现基于上述构建的激光惯性里程计和视觉惯性融合里程计的联合图优化(BA优化),如公式(10)所示。为了减轻计算压力,进行实时的高精度位姿解算,本实施例在滑动窗口优化中维持在十个图像关键帧时间范围内的数据,在精度与效率达到一个平衡。其中,图像关键帧的选择基于特征点匹配的数量,载体的运动距离两个条件进行判别。在本实施例中采用运动超过5m或者旋转超过10°作为关键帧的判断标准。
第二步,将所述第一位姿信息和所述第二位姿信息输入到所述滑动窗口优化模型中进行位姿解算,并将所述滑动窗口优化模型的误差最小时对应的位姿信息确定为局部优化位姿数据。
其中在步骤700中,回环检测采用双重判别方式,首先进行当前激光雷达点云与历史局部地图进行匹配,检测出回环后,进一步进行视觉回环检测的判别。所述视觉回环检测基于常见的Dbow3词袋模型完成,满足这两个回环检测条件后,将回环检测约束添加到局部滑动窗口优化,消除累计误差,得到回环帧位姿。
其中在步骤800中,在全局位姿优化中,为了保持计算的高效,只对位姿进行优化,路标点不再参与优化计算。在进行全局位姿优化后,根据得到的全局优化位姿对激光雷达数据进行匹配,生成全局高精度的2D栅格地图。
且由双目相机拍摄存储的关键帧图像以及对应的优化位姿,可利用密集点云生成方法(MVS算法)进一步对双目相机进行离线稠密建图,生成3D栅格模型,可为室内导航避障提供数据模型。这一部分是利用之前计算的位姿和关键帧进一步进行离线处理生成稠密三维模型,相当于由原来的基于ORB特征点的稀疏点云,生成了稠密的3D网格模型。
在本实施例中,所述激光惯性里程计的误差模型和所述视觉惯性融合里程计的误差模型均利用图优化工具ceres-solver进行求解。
在本实施例中,将惯性测量传感器的坐标系为载体坐标系,通过与激光雷达和双目相机进行联合标定,使其他两个坐标系的数据转换至所述惯性测量传感器的坐标系下,再进行数据融合计算。
本实施例针对当前视觉与激光SLAM的研究现状,采用基于双目视觉、2D激光雷达、惯性测量传感器三类传感器融合的方式进行SLAM方案的研究。本实施例分别设计以相机和激光雷达为主的里程计,这两种里程计分别可以在自身适应的环境下高精度定位,提高本SLAM方案对环境的适应性和鲁棒性。为了获得全局一致的高精度地图,设计SLAM方案利用图优化的方式对三种数据进行融合。将惯性测量数据的预积分项结合视觉重投影误差、激光匹配误差组成误差方程,对该误差方程进行基于图优化(Bundle Adjustment,BA)进行空间位姿的求解。本实施例中的SLAM方案同时满足基于激光的回环检测和基于视觉的回环检测才进行闭环优化,可有效提升回环检测的准确度,大大增加系统定位的鲁棒性,能够适用于室内外无缝定位导航系统。
如图3所示,本发明实施例提供的基于多传感器融合的定位与建图系统,包括:数据采集单元1、数据预处理单元2、里程计获取单元3、第一位姿信息获取单元4、第二位姿信息获取单元5、局部位姿优化单元6、回环检测单元7和定位与建图单元8。
具体地,数据采集单元1用于获取目标区域的激光雷达数据、惯性测量数据和视频图像数据。数据预处理单元2用于对所述激光雷达数据进行去畸变处理,得到去畸变激光雷达数据,对所述惯性测量数据进行预积分处理,得到预积分处理后的数据。里程计获取单元3用于对所述去畸变激光雷达数据进行基于点线距离最小化的迭代最近点匹配运算,得到激光里程计;对基于所述视频图像数据构建的初始化地图进行图像匹配位姿计算,得到视觉里程计。第一位姿信息获取单元4用于根据所述激光里程计和由所述预积分处理后的数据确定的预积分约束因子构建激光惯性里程计,并将所述激光雷达数据和所述惯性测量数据通过所述激光惯性里程计进行状态估计,得到第一位姿信息。第二位姿信息获取单元5用于根据所述预积分约束因子和所述视觉里程计构建视觉惯性融合里程计,并将所述惯性测量数据和所述视频图像数据通过所述视觉惯性融合里程计进行状态估计,得到第二位姿信息。局部位姿优化单元6用于对所述第一位姿信息和所述第二位姿信息进行滑动窗口优化,得到局部优化位姿数据。回环检测单元7用于对所述局部优化位姿数据进行回环检测,当所述局部优化位姿数据满足所述回环检测的判别条件时,对所述局部优化位姿数据进行回环帧特征检索,得到回环帧位姿;所述判别条件为所述局部优化位姿数据是历史地图中的位姿数据,且所述局部优化位姿数据属于所述视频图像数据。定位与建图单元8用于采用图优化方法对所述第一位姿信息和所述第二位姿信息进行全局优化,得到全局优化位姿,并基于所述回环帧位姿和所述全局优化位姿完成对所述目标区域的定位与建图。
进一步地方案,所述第一位姿信息获取单元4包括:激光雷达约束因子获取模块、第一误差模型构建模块和第一状态估计模块。
具体地,激光雷达约束因子获取模块用于基于所述激光里程计得到激光雷达约束因子。第一误差模型构建模块用于利用所述激光雷达约束因子与所述预积分处理后的数据确定的预积分约束因子构建激光惯性里程计的误差模型。第一状态估计模块用于将所述激光雷达数据和所述惯性测量数据输入所述激光惯性里程计中,并将所述激光惯性里程计的误差最小时对应的位姿信息确定为第一位姿信息。
进一步地方案,所述第二位姿信息获取单元5包括:视觉约束因子获取模块、第二误差模型构建模块和第二状态估计模块。
具体地,视觉约束因子获取模块用于基于所述视觉里程计得到视觉约束因子。第二误差模型构建模块用于利用所述视觉约束因子与所述预积分约束因子构建视觉惯性融合里程计的误差模型。第二状态估计模块用于将所述惯性测量数据和所述视频图像数据输入所述视觉惯性融合里程计中,并将所述视觉惯性融合里程计的误差最小时对应的位姿信息确定为第二位姿信息。
进一步地方案,所述局部位姿优化单元6包括:误差模型构建模块和局部优化位姿数据获取单元。
具体地,误差模型构建模块用于利用所述激光惯性里程计和所述视觉惯性融合里程计构建滑动窗口优化模型。局部优化位姿数据获取单元用于将所述第一位姿信息和所述第二位姿信息输入到所述滑动窗口优化模型中进行位姿解算,并将所述滑动窗口优化模型的误差最小时对应的位姿信息确定为局部优化位姿数据。
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。对于实施例公开的系统而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。
本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处。综上所述,本说明书内容不应理解为对本发明的限制。
Claims (8)
1.一种基于多传感器融合的定位与建图方法,其特征在于,包括:
获取目标区域的激光雷达数据、惯性测量数据和视频图像数据;
对所述激光雷达数据进行去畸变处理,得到去畸变激光雷达数据,对所述惯性测量数据进行预积分处理,得到预积分处理后的数据;
对所述去畸变激光雷达数据进行基于点线距离最小化的迭代最近点匹配运算,得到激光里程计;对基于所述视频图像数据构建的初始化地图进行图像匹配位姿计算,得到视觉里程计;
根据所述激光里程计和由所述预积分处理后的数据确定的预积分约束因子构建激光惯性里程计,并将所述激光雷达数据和所述惯性测量数据通过所述激光惯性里程计进行状态估计,得到第一位姿信息;
根据所述预积分约束因子和所述视觉里程计构建视觉惯性融合里程计,并将所述惯性测量数据和所述视频图像数据通过所述视觉惯性融合里程计进行状态估计,得到第二位姿信息;
对所述第一位姿信息和所述第二位姿信息进行滑动窗口优化,得到局部优化位姿数据;
对所述局部优化位姿数据进行回环检测,当所述局部优化位姿数据满足所述回环检测的判别条件时,对所述局部优化位姿数据进行回环帧特征检索,得到回环帧位姿;所述判别条件为所述局部优化位姿数据是历史地图中的位姿数据,且所述局部优化位姿数据属于所述视频图像数据;
采用图优化方法对所述第一位姿信息和所述第二位姿信息进行全局优化,得到全局优化位姿,并基于所述回环帧位姿和所述全局优化位姿完成对所述目标区域的定位与建图。
2.根据权利要求1所述的基于多传感器融合的定位与建图方法,其特征在于,所述根据所述激光里程计和由所述预积分处理后的数据确定的预积分约束因子构建激光惯性里程计,并将所述激光雷达数据和所述惯性测量数据通过所述激光惯性里程计进行状态估计,得到第一位姿信息,具体包括:
基于所述激光里程计得到激光雷达约束因子;
利用所述激光雷达约束因子与所述预积分处理后的数据确定的预积分约束因子构建激光惯性里程计的误差模型;
将所述激光雷达数据和所述惯性测量数据输入所述激光惯性里程计中,并将由所述激光惯性里程计的误差模型计算的误差最小时对应的位姿信息确定为第一位姿信息。
3.根据权利要求1所述的基于多传感器融合的定位与建图方法,其特征在于,所述根据所述预积分约束因子和所述视觉里程计构建视觉惯性融合里程计,并将所述惯性测量数据和所述视频图像数据通过所述视觉惯性融合里程计进行状态估计,得到第二位姿信息,具体包括:
基于所述视觉里程计得到视觉约束因子;
利用所述视觉约束因子与所述预积分约束因子构建视觉惯性融合里程计的误差模型;
将所述惯性测量数据和所述视频图像数据输入所述视觉惯性融合里程计中,并将由所述视觉惯性融合里程计的误差模型计算的误差最小时对应的位姿信息确定为第二位姿信息。
4.根据权利要求3所述的基于多传感器融合的定位与建图方法,其特征在于,所述对所述第一位姿信息和所述第二位姿信息进行滑动窗口优化,得到局部优化位姿数据,具体包括:
利用所述激光惯性里程计和所述视觉惯性融合里程计构建滑动窗口优化模型;
将所述第一位姿信息和所述第二位姿信息输入到所述滑动窗口优化模型中进行位姿解算,并将所述滑动窗口优化模型的误差最小时对应的位姿信息确定为局部优化位姿数据。
5.一种基于多传感器融合的定位与建图系统,其特征在于,包括:
数据采集单元,用于获取目标区域的激光雷达数据、惯性测量数据和视频图像数据;
数据预处理单元,用于对所述激光雷达数据进行去畸变处理,得到去畸变激光雷达数据,对所述惯性测量数据进行预积分处理,得到预积分处理后的数据;
里程计获取单元,用于对所述去畸变激光雷达数据进行基于点线距离最小化的迭代最近点匹配运算,得到激光里程计;对基于所述视频图像数据构建的初始化地图进行图像匹配位姿计算,得到视觉里程计;
第一位姿信息获取单元,用于根据所述激光里程计和由所述预积分处理后的数据确定的预积分约束因子构建激光惯性里程计,并将所述激光雷达数据和所述惯性测量数据通过所述激光惯性里程计进行状态估计,得到第一位姿信息;
第二位姿信息获取单元,用于根据所述预积分约束因子和所述视觉里程计构建视觉惯性融合里程计,并将所述惯性测量数据和所述视频图像数据通过所述视觉惯性融合里程计进行状态估计,得到第二位姿信息;
局部位姿优化单元,用于对所述第一位姿信息和所述第二位姿信息进行滑动窗口优化,得到局部优化位姿数据;
回环检测单元,用于对所述局部优化位姿数据进行回环检测,当所述局部优化位姿数据满足所述回环检测的判别条件时,对所述局部优化位姿数据进行回环帧特征检索,得到回环帧位姿;所述判别条件为所述局部优化位姿数据是历史地图中的位姿数据,且所述局部优化位姿数据属于所述视频图像数据;
定位与建图单元,用于采用图优化方法对所述第一位姿信息和所述第二位姿信息进行全局优化,得到全局优化位姿,并基于所述回环帧位姿和所述全局优化位姿完成对所述目标区域的定位与建图。
6.根据权利要求5所述的基于多传感器融合的定位与建图系统,其特征在于,所述第一位姿信息获取单元包括:
激光雷达约束因子获取模块,用于基于所述激光里程计得到激光雷达约束因子;
第一误差模型构建模块,用于利用所述激光雷达约束因子与所述预积分处理后的数据确定的预积分约束因子构建激光惯性里程计的误差模型;
第一状态估计模块,用于将所述激光雷达数据和所述惯性测量数据输入所述激光惯性里程计中,并将由所述激光惯性里程计的误差模型计算的误差最小时对应的位姿信息确定为第一位姿信息。
7.根据权利要求5所述的基于多传感器融合的定位与建图系统,其特征在于,所述第二位姿信息获取单元包括:
视觉约束因子获取模块,用于基于所述视觉里程计得到视觉约束因子;
第二误差模型构建模块,用于利用所述视觉约束因子与所述预积分约束因子构建视觉惯性融合里程计的误差模型;
第二状态估计模块,用于将所述惯性测量数据和所述视频图像数据输入所述视觉惯性融合里程计中,并将由所述视觉惯性融合里程计的误差模型计算的误差最小时对应的位姿信息确定为第二位姿信息。
8.根据权利要求5所述的基于多传感器融合的定位与建图系统,其特征在于,所述局部位姿优化单元包括:
误差模型构建模块,用于利用所述激光惯性里程计和所述视觉惯性融合里程计构建滑动窗口优化模型;
局部优化位姿数据获取单元,用于将所述第一位姿信息和所述第二位姿信息输入到所述滑动窗口优化模型中进行位姿解算,并将所述滑动窗口优化模型的误差最小时对应的位姿信息确定为局部优化位姿数据。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210285283.3A CN114608561B (zh) | 2022-03-22 | 2022-03-22 | 一种基于多传感器融合的定位与建图方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210285283.3A CN114608561B (zh) | 2022-03-22 | 2022-03-22 | 一种基于多传感器融合的定位与建图方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114608561A CN114608561A (zh) | 2022-06-10 |
CN114608561B true CN114608561B (zh) | 2024-04-26 |
Family
ID=81865480
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210285283.3A Active CN114608561B (zh) | 2022-03-22 | 2022-03-22 | 一种基于多传感器融合的定位与建图方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114608561B (zh) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115235454B (zh) * | 2022-09-15 | 2022-12-30 | 中国人民解放军国防科技大学 | 行人运动约束的视觉惯性融合定位与建图方法和装置 |
CN115218892A (zh) * | 2022-09-20 | 2022-10-21 | 成都睿芯行科技有限公司 | 一种基于多传感器融合的轻量级定位与建图方法 |
CN116758161A (zh) * | 2023-06-26 | 2023-09-15 | 北京道仪数慧科技有限公司 | 移动端空间数据生成方法及空间感知移动端 |
CN117367412B (zh) * | 2023-12-07 | 2024-03-29 | 南开大学 | 一种融合捆集调整的紧耦合激光惯导里程计与建图方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110261870A (zh) * | 2019-04-15 | 2019-09-20 | 浙江工业大学 | 一种用于视觉-惯性-激光融合的同步定位与建图方法 |
WO2020155616A1 (zh) * | 2019-01-29 | 2020-08-06 | 浙江省北大信息技术高等研究院 | 一种基于数字视网膜的拍摄装置的定位方法 |
CN111932674A (zh) * | 2020-06-30 | 2020-11-13 | 博雅工道(北京)机器人科技有限公司 | 一种线激光视觉惯性系统的优化方法 |
CN113066105A (zh) * | 2021-04-02 | 2021-07-02 | 北京理工大学 | 激光雷达和惯性测量单元融合的定位与建图方法及系统 |
WO2021147546A1 (zh) * | 2020-01-20 | 2021-07-29 | 深圳市普渡科技有限公司 | 多传感器融合slam系统、多传感器融合方法及机器人、介质 |
CN113837277A (zh) * | 2021-09-24 | 2021-12-24 | 东南大学 | 一种基于视觉点线特征优化的多源融合slam系统 |
-
2022
- 2022-03-22 CN CN202210285283.3A patent/CN114608561B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020155616A1 (zh) * | 2019-01-29 | 2020-08-06 | 浙江省北大信息技术高等研究院 | 一种基于数字视网膜的拍摄装置的定位方法 |
CN110261870A (zh) * | 2019-04-15 | 2019-09-20 | 浙江工业大学 | 一种用于视觉-惯性-激光融合的同步定位与建图方法 |
WO2021147546A1 (zh) * | 2020-01-20 | 2021-07-29 | 深圳市普渡科技有限公司 | 多传感器融合slam系统、多传感器融合方法及机器人、介质 |
CN111932674A (zh) * | 2020-06-30 | 2020-11-13 | 博雅工道(北京)机器人科技有限公司 | 一种线激光视觉惯性系统的优化方法 |
CN113066105A (zh) * | 2021-04-02 | 2021-07-02 | 北京理工大学 | 激光雷达和惯性测量单元融合的定位与建图方法及系统 |
CN113837277A (zh) * | 2021-09-24 | 2021-12-24 | 东南大学 | 一种基于视觉点线特征优化的多源融合slam系统 |
Non-Patent Citations (3)
Title |
---|
基于关键帧的视觉惯性SLAM闭环检测算法;张玉龙;张国山;;计算机科学与探索;20180411(第11期);全文 * |
基于立体视觉――惯导SLAM的四旋翼无人机导航算法;孙楠;裴信彪;王春军;李继辉;彭程;白越;;微电子学与计算机;20200505(第05期);全文 * |
基于视觉惯性融合的半直接单目视觉里程计;龚赵慧;张霄力;彭侠夫;李鑫;;机器人;20201231(第05期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN114608561A (zh) | 2022-06-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN114608561B (zh) | 一种基于多传感器融合的定位与建图方法及系统 | |
CN111024066B (zh) | 一种无人机视觉-惯性融合室内定位方法 | |
CN107945220B (zh) | 一种基于双目视觉的重建方法 | |
CN111156998B (zh) | 一种基于rgb-d相机与imu信息融合的移动机器人定位方法 | |
CN112902953B (zh) | 一种基于slam技术的自主位姿测量方法 | |
CN112785702A (zh) | 一种基于2d激光雷达和双目相机紧耦合的slam方法 | |
CN113436260B (zh) | 基于多传感器紧耦合的移动机器人位姿估计方法和系统 | |
CN109648558B (zh) | 机器人曲面运动定位方法及其运动定位系统 | |
CN112461210B (zh) | 一种空地协同建筑测绘机器人系统及其测绘方法 | |
CN111161337B (zh) | 一种动态环境下的陪护机器人同步定位与构图方法 | |
CN110766785B (zh) | 一种地下管道实时定位与三维重建装置及方法 | |
KR20140049361A (ko) | 다중 센서 시스템, 이를 이용하는 3차원 월드 모델링 장치 및 방법 | |
CN115272596A (zh) | 一种面向单调无纹理大场景的多传感器融合slam方法 | |
CN115479598A (zh) | 基于多传感器融合的定位与建图方法及紧耦合系统 | |
CN114638897B (zh) | 基于无重叠视域的多相机系统的初始化方法、系统及装置 | |
CN115222919A (zh) | 一种用于移动机械彩色点云地图构建的感知系统及方法 | |
CN116222543A (zh) | 用于机器人环境感知的多传感器融合地图构建方法及系统 | |
CN112945233B (zh) | 一种全局无漂移的自主机器人同时定位与地图构建方法 | |
CN113701750A (zh) | 一种井下多传感器的融合定位系统 | |
CN112731503A (zh) | 一种基于前端紧耦合的位姿估计方法及系统 | |
CN117115271A (zh) | 无人机飞行过程中的双目相机外参数自标定方法及系统 | |
CN115307646B (zh) | 一种多传感器融合的机器人定位方法、系统及装置 | |
CN116380079A (zh) | 一种融合前视声呐与orb-slam3的水下slam方法 | |
CN115540849A (zh) | 高空作业平台激光视觉与惯导融合定位与建图装置及方法 | |
CN112837374B (zh) | 一种空间定位方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |