CN114088104A - 一种自动驾驶场景下的地图生成方法 - Google Patents
一种自动驾驶场景下的地图生成方法 Download PDFInfo
- Publication number
- CN114088104A CN114088104A CN202110842113.6A CN202110842113A CN114088104A CN 114088104 A CN114088104 A CN 114088104A CN 202110842113 A CN202110842113 A CN 202110842113A CN 114088104 A CN114088104 A CN 114088104A
- Authority
- CN
- China
- Prior art keywords
- pose
- signal
- imu
- radar
- initial
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 50
- 238000005457 optimization Methods 0.000 claims abstract description 87
- 230000004927 fusion Effects 0.000 claims abstract description 85
- 238000013507 mapping Methods 0.000 claims abstract description 17
- 238000001514 detection method Methods 0.000 claims description 38
- 230000010354 integration Effects 0.000 claims description 22
- 230000003068 static effect Effects 0.000 claims description 20
- 238000006073 displacement reaction Methods 0.000 claims description 8
- 238000005096 rolling process Methods 0.000 claims description 2
- 238000010586 diagram Methods 0.000 description 11
- 238000004891 communication Methods 0.000 description 5
- 238000004590 computer program Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 230000009286 beneficial effect Effects 0.000 description 3
- 238000011161 development Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000005259 measurement Methods 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 238000004422 calculation algorithm Methods 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 230000001413 cellular effect Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 206010063385 Intellectualisation Diseases 0.000 description 1
- 238000009825 accumulation Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000000354 decomposition reaction Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 230000001902 propagating effect Effects 0.000 description 1
- 239000011435 rock Substances 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/28—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
- G01C21/30—Map- or contour-matching
- G01C21/32—Structuring or formatting of map data
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/38—Electronic maps specially adapted for navigation; Updating thereof
- G01C21/3804—Creation or updating of map data
- G01C21/3833—Creation or updating of map data characterised by the source of data
- G01C21/3841—Data obtained from two or more sources, e.g. probe vehicles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/38—Electronic maps specially adapted for navigation; Updating thereof
- G01C21/3804—Creation or updating of map data
- G01C21/3833—Creation or updating of map data characterised by the source of data
- G01C21/3848—Data obtained from both position sensors and additional sensors
Landscapes
- Engineering & Computer Science (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Automation & Control Theory (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Traffic Control Systems (AREA)
- Navigation (AREA)
- Radar Systems Or Details Thereof (AREA)
Abstract
本发明涉及一种自动驾驶场景下的地图生成方法,该方法包括:获取IMU信号、雷达信号和GPS信号;根据所述IMU信号和GPS信号,确定初始位姿;根据所述IMU信号和所述雷达信号进行局部优化融合,确定在所述初始位姿状态下的融合位姿,并选取其中的关键帧位姿;根据所述GPS信号和所述雷达信号,更新所述关键帧位姿,并进行全局优化,生成全局一致性点云地图。本发明结合局部优化和全局优化,将多种传感器数据进行融合,实现高频率的精确定位和全局一致性建图,解决了低成本激光雷达SLAM系统缺少初始姿态信息、鲁棒性差、建图和定位精度低的问题。
Description
技术领域
本发明涉及自主导航技术领域,尤其涉及一种自动驾驶场景下的地图生成方法。
背景技术
随着汽车电子化、互联化、智能化的快速发展,自动驾驶作为解决未来交通出行的一项重要技术,已成为全球范围内汽车行业的研究热点和重要发展方向。自动驾驶的核心问题之一是定位,在此基础上其他自动驾驶任务如路径规划、决策控制才可以正常完成。传统的自动驾驶汽车定位方法通常依赖GPS和INS的数据融合,但由于树木、岩石、建筑物等遮挡物的存在,GPS信号容易丢失,加之IMU的累积误差导致其精度快速降低。因此,同时定位与建图技术 (Simultaneous Localization and Mapping,SLAM)逐渐成为自动驾驶领域的重要研究方向并且在过去的十年中取得非常快速的发展。
SLAM技术主要使用视觉或激光雷达传感器并融合其它多种传感器,如IMU、GPS、轮速计等以提供精确的六自由度状态估计和建立3D点云地图。基于视觉的SLAM主要信息来源于单目或深度像机输出的图像,其成本较低并且包含更多信息来构建稠密地图。然而,Visual-SLAM对初始化、光照和检测范围很敏感,限制了其实际应用。而基于激光雷达的SLAM对干扰具有更强的鲁棒性,更适合应用于对安全性要求极高的自动驾驶领域。因此,如何基于激光雷达构建准确的稠密地图是亟待解决的问题。
发明内容
有鉴于此,有必要提供一种自动驾驶场景下的地图生成方法,用以克服现有技术中在基于激光雷达构建地图的过程中缺少初始姿态信息、鲁棒性差、建图和定位精度低的问题。
本发明提供一种自动驾驶场景下的地图生成方法,包括:
获取IMU信号、雷达信号和GPS信号;
根据所述IMU信号和GPS信号,确定初始位姿;
根据所述IMU信号和所述雷达信号进行局部优化融合,确定在所述初始位姿状态下的融合位姿,并选取其中的关键帧位姿;
根据所述GPS信号和所述雷达信号,更新所述关键帧位姿,并进行全局优化,生成全局一致性点云地图。
进一步地,所述根据所述IMU信号和GPS信号,确定初始位姿包括:
根据所述IMU信号,求解初始滚转角和初始俯仰角;
根据所述GPS信号,将初始经度、初始纬度和初始高度分别映射为零;
将所述初始滚转角、所述初始俯仰角、所述初始经度、所述初始纬度、所述初始高度和未知的初始航向角构成数组,形成所述初始位姿。
进一步地,所述根据所述IMU信号和所述雷达信号进行局部优化融合,确定在所述初始位姿状态下的融合位姿包括:
根据所述IMU信号,确定零速检测信息;
根据所述零速检测信号,判断车辆行驶状态;
针对不同的车辆行驶状态,确定对应的IMU预积分信息和雷达里程计信息,结合IMU观测值、雷达里程计观测值进行局部优化融合,确定在所述初始位姿状态下的所述融合位姿;
其中,所述雷达里程信息为根据所述雷达信号中的点云数据帧进行非线性求解得到的两帧之间的位姿变化,所述IMU预积分信息包括通过所述IMU信号而确定的非线性求解初值和两帧之间的位姿输出。
进一步地,所述针对不同的车辆行驶状态,更新对应的IMU预积分信息和雷达里程计信息,结合IMU观测值、雷达里程计观测值进行局部优化融合,确定在所述初始位姿状态下的所述融合位姿包括:
当车辆行驶状态为运行时,更新所述IMU预积分信息和所述雷达里程计信息,并基于增量式因子图优化的方式,结合所述IMU观测值、所述雷达里程计观测值进行局部优化融合,确定所述融合位姿,并更新所述IMU信号的偏置;
当车辆行驶状态为静止时,所述IMU预积分信息和所述雷达里程计信息保持不变,当前位姿保持不变,并利用0位移更新所述IMU 信号的偏置。
进一步地,所述局部优化融合通过如下公式表示:
其中,static表示车辆状态信息,当static=1时,车辆行驶状态为静止,当static=0时,车辆行驶状态为运动,pn表示第n帧的所述融合位姿,bn表示第n帧的所述IMU信号的偏置,pn-1表示第n-1 帧的所述融合位姿,Z={Zlidar,ZI}表示所述IMU观测值、所述雷达里程计观测值的观测量集合,Zlidar表示所述雷达里程计观测值,ZI表示所述IMU观测值,表示第n帧的雷达里程计观测值, P(pn,bn|Z,pn-1)表示在所述观测量集合Z和第n-1帧的所述融合位姿 pn-1的条件下,第n帧的所述融合位姿pn和第n帧的所述IMU信号的偏置bn的联合概率,表示在第n帧的所述融合位姿pn和第n帧的所述IMU信号的偏置bn的条件下,第n帧的雷达里程计观测值为0的概率,表示在第n帧的所述融合位姿 pn和第n帧的所述IMU信号的偏置bn的条件下,第n帧IMU观测值的概率,.表示在第n帧的所述融合位姿pn和第n 帧的所述IMU信号的偏置bn的条件下,第n帧的雷达里程计观测值的概率,其中,第n帧的所述融合位姿pn通过增量式因子图优化进行求解。
进一步地,所述选取其中的关键帧位姿包括:根据预设的位移间隔或旋转角度,在多帧所述融合位姿中,选取所述关键帧位姿。
进一步地,所述根据所述GPS信号和所述雷达信号,更新所述关键帧位姿,并进行全局优化,生成全局一致性点云地图包括:
根据所述GPS信号和所述雷达信号,确定初始航向角;
将所述初始航向角带入至所述关键帧位姿,确定对应的最终位姿,并将所述最终位姿和对应的点云数据映射在预设坐标系下;
当接收到GPS信号或回环检测信号时,对全局的所述最终位姿进行优化,生成所述全局一致性点云地图。
进一步地,所述根据所述GPS信号和所述雷达信号,确定初始航向角包括:
分别根据所述GPS信号和所述雷达信号,确定对应的GPS输出位姿和雷达信号里程计输出位姿;
根据所述GPS输出位姿和所述雷达信号里程计输出位姿,确定与所述初始航向角的对应关系,通过如下公式表示:
PGPS≈PlidarRz(λ0)
其中,PGPS表示所述GPS输出位姿,Plidar表示所述雷达信号里程计输出位姿,Rz(λ0)表示绕z轴旋转所述初始航向角λ0;
基于所述对应关系,建立对应的损失函数,通过Ceres库进行求解所述初始航向角。
进一步地,所述当接收到GPS信号或回环检测信号时,对全局的所述最终位姿进行优化,生成所述全局一致性点云地图包括:
当接收到GPS信号或回环检测信号时,将所有所述最终位姿作为输入,输入至全局优化网络;
基于位姿图优化的方式,对所述全局优化网络进行求解,将所述最终位姿进行融合优化,确定融合优化后的最佳位姿;
根据所有所述最佳位姿,生成所述全局一致性点云地图。
进一步地,所述全局优化网络包括贝叶斯网络,通过如下公式表下:
其中,表示所述融合优化后的最佳位姿组成的向量,表示第i帧的雷达里程计观测值,表示第j帧的GPS信号的观测值,表示第h帧的回环检测信号的观测值,Z={ZO,ZGPS,ZL},表示雷达里程计观测值、GPS信号的观测值和回环检测信号的观测值的集合,表示第i帧的最终位姿,表示第i-1帧的最终位姿,表示第j 帧的最终位姿,表示第h帧的最终位姿。
与现有技术相比,本发明的有益效果包括:首先,对多种传感信号进行有效的获取,结合IMU信号、雷达信号和GPS信号,进行多方面的数据处理;然后,基于IMU信号和GPS信号,初步确定车辆的初始位姿;进而,结合IMU信号和雷达信号进行局部优化融合,确定对应的融合位姿,并选取关键帧位姿;最后,进行全局优化,进一步保证生成地图的准确性。综上,本发明结合局部优化和全局优化,将多种传感器数据进行融合,实现高频率的精确定位和全局一致性建图,解决了低成本激光雷达SLAM系统缺少初始姿态信息、鲁棒性差、建图和定位精度低的问题。
附图说明
图1为本发明提供的自动驾驶场景下的地图生成方法的应用系统一实施例的场景示意图;
图2为本发明提供的自动驾驶场景下的地图生成方法一实施例的流程示意图;
图3为本发明提供的图2中步骤S2一实施例的流程示意图;
图4为本发明提供的图2中步骤S3融合位姿一实施例的流程示意图;
图5为本发明提供的图4中步骤S23一实施例的流程示意图;
图6为本发明提供的图2中步骤S4一实施例的流程示意图;
图7为本发明提供的图6中步骤S41一实施例的流程示意图;
图8为本发明提供的图7中步骤S43一实施例的流程示意图;
图9为本发明提供的全局优化网络一实施例的结构示意图;
图10为本发明提供的自动驾驶场景下的地图生成装置一实施例的结构示意图;
图11为本发明提供的自动驾驶场景下的地图生成系统一实施例的结构示意图;
图12为本发明提供的系统技术流程一实施例的技术框示意图。
具体实施方式
下面结合附图来具体描述本发明的优选实施例,其中,附图构成本申请一部分,并与本发明的实施例一起用于阐释本发明的原理,并非用于限定本发明的范围。
在本发明的描述中,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括至少一个该特征。此外,“多个”的含义是至少两个,例如两个,三个等,除非另有明确具体的限定。
在本发明的描述中,提及“实施例”意味着,结合实施例描述的特定特征、结构或特性可以包含在本发明的至少一个实施例中。在说明书中的各个位置出现该短语并不一定均是指相同的实施例,也不是与其它实施例互斥的独立的或备选的实施例。本领域技术人员显式地和隐式地理解的是,所描述的实施例可以与其它实施例相结合。
本发明提供了一种自动驾驶场景下的地图生成方法,应用于自动驾驶过程中,有效融合传感数据,结合局部优化和全局优化,生成准确的位姿,为进一步提高基于雷达数据建立的稠密地图的准确性提供了新思路。以下分别进行详细说明:
本发明实施例提供了一种自动驾驶场景下的地图生成方法的应用系统,图1为本发明提供的自动驾驶场景下的地图生成方法的应用系统一实施例的场景示意图,该系统可以包括服务器100,服务器100 中集成有自动驾驶场景下的地图生成装置,如图1中的服务器。
本发明实施例中服务器100主要用于:
获取IMU信号、雷达信号和GPS信号;
根据所述IMU信号和GPS信号,确定初始位姿;
根据所述IMU信号和所述雷达信号进行局部优化融合,确定在所述初始位姿状态下的融合位姿,并选取其中的关键帧位姿;
根据所述GPS信号和所述雷达信号,更新所述关键帧位姿,并进行全局优化,生成全局一致性点云地图。
本发明实施例中,该服务器100可以是独立的服务器,也可以是服务器组成的服务器网络或服务器集群,例如,本发明实施例中所描述的服务器100,其包括但不限于计算机、网络主机、单个网络服务器、多个网络服务器集或多个服务器构成的云服务器。其中,云服务器由基于云计算(Cloud Computing)的大量计算机或网络服务器构成。
可以理解的是,本发明实施例中所使用的终端200可以是既包括接收和发射硬件的设备,即具有能够在双向通信链路上,执行双向通信的接收和发射硬件的设备。这种设备可以包括:蜂窝或其他通信设备,其具有单线路显示器或多线路显示器或没有多线路显示器的蜂窝或其他通信设备。具体的终端200可以是台式机、便携式电脑、网络服务器、掌上电脑(Personal Digital Assistant,PDA)、移动手机、平板电脑、无线终端设备、通信设备、嵌入式设备等,本实施例不限定终端200的类型。
本领域技术人员可以理解,图1中示出的应用环境,仅仅是与本发明方案一种应用场景,并不构成对本发明方案应用场景的限定,其他的应用环境还可以包括比图1中所示更多或更少的终端,例如图1 中仅示出2个终端,可以理解的,该自动驾驶场景下的地图生成方法的应用系统还可以包括一个或多个其他终端,具体此处不作限定。
另外,如图1所示,该自动驾驶场景下的地图生成方法的应用系统还可以包括存储器200,用于存储数据,如IMU信号、雷达信号和GPS信号和关键帧位姿等。
需要说明的是,图1所示的自动驾驶场景下的地图生成方法的应用系统的场景示意图仅仅是一个示例,本发明实施例描述的自动驾驶场景下的地图生成方法的应用系统以及场景是为了更加清楚的说明本发明实施例的技术方案,并不构成对于本发明实施例提供的技术方案的限定,本领域普通技术人员可知,随着自动驾驶场景下的地图生成方法的应用系统的演变和新业务场景的出现,本发明实施例提供的技术方案对于类似的技术问题,同样适用。
本发明实施例提供了一种自动驾驶场景下的地图生成方法,结合图2来看,图2为本发明提供的自动驾驶场景下的地图生成方法一实施例的流程示意图,包括步骤S1至步骤S4,其中:
在步骤S1中,获取IMU信号、雷达信号和GPS信号;
在步骤S2中,根据所述IMU信号和GPS信号,确定初始位姿;
在步骤S3中,根据所述IMU信号和所述雷达信号进行局部优化融合,确定在所述初始位姿状态下的融合位姿,并选取其中的关键帧位姿;
在步骤S4中,根据所述GPS信号和所述雷达信号,更新所述关键帧位姿,并进行全局优化,生成全局一致性点云地图。
在本发明实施例中,首先,对多种传感信号进行有效的获取,结合IMU信号、雷达信号和GPS信号,进行多方面的数据处理;然后,基于IMU信号和GPS信号,初步确定车辆的初始位姿;进而,结合 IMU信号和雷达信号进行局部优化融合,确定对应的融合位姿,并选取关键帧位姿;最后,进行全局优化,进一步保证生成地图的准确性。
需要说明的是,整个算法流程可以描述为:
第一,系统启动后,获取IMU信号、雷达信号和GPS信号;
第二,进行初始位姿解算,通过IMU解算α0,β0。读取此时的GPS 值将此时的经纬高映射为[0,0,0];
第三,通过局部优化融合lidar里程计信号、IMU预积分信号和零速检测信号得到优化后的车辆位姿。其中雷达帧位姿按固定的位移距离或者旋转角度选取为关键帧位姿。
第四,将接收的GPS信号和雷达里程计信号解算初始航向角λ0,并回溯更新之前的关键帧位姿和对应的点云将其映射在UTM坐标系上;解算完成初始航向角λ0之后,在接收到GPS信号或者回环检测信号时,对全局的所有关键帧进行优化,得到全局一致性点云地图。
作为优选的实施例,结合图3来看,图3为本发明提供的图2中步骤S2一实施例的流程示意图,包括步骤S21至步骤S23,其中:
在步骤S21中,根据所述IMU信号,求解初始滚转角和初始俯仰角;
在步骤S22中,根据所述GPS信号,将初始经度、初始纬度和初始高度分别映射为零;
在步骤S23中,将所述初始滚转角、所述初始俯仰角、所述初始经度、所述初始纬度、所述初始高度和未知的初始航向角构成数组,形成所述初始位姿。
在本发明实施例中,结合IMU信号和GPS信号,对初始位姿进行有效求解。
在本发明一个具体的实施例中,初始位姿解算主要由IMU信号和GPS信号来解算初始位姿P0=[x0,y0,z0,α0,β0,γ0],其中初始位置 [x0,y0,z0]为[0,0,0],初始姿态中滚转角、俯仰角可以由IMU静态解算得到,设IMU接收到的数据为[ax,ay,az,ωα,ωβ,ωλ],则初始滚转角α0、俯仰角β0为:
作为优选的实施例,结合图4来看,图4为本发明提供的图2中步骤S3融合位姿一实施例的流程示意图,包括步骤S21至步骤S23,其中:
在步骤S31中,根据所述IMU信号,确定零速检测信息;
在步骤S22中,根据所述零速检测信号,判断车辆行驶状态;
在步骤S23中,针对不同的车辆行驶状态,确定对应的IMU预积分信息和雷达里程计信息,结合IMU观测值、雷达里程计观测值进行局部优化融合,确定在所述初始位姿状态下的所述融合位姿;
其中,所述雷达里程信息为根据所述雷达信号中的点云数据帧进行非线性求解得到的两帧之间的位姿变化,所述IMU预积分信息包括通过所述IMU信号而确定的非线性求解初值和两帧之间的位姿输出。
在本发明实施例中,通过零速检测信号,判断车辆的静止与否,进行结合IMU观测值、雷达里程计观测值进行局部优化融合。
作为优选的实施例,上述零速检测信号对应的零速检测模块基于广义似然比检测(GLRT)来判定车辆静止状态。在本发明实施例中,采用广义似然比检测对车辆是否静止进行有效的判断。需要说明的是,本发明实施例采用构建零速检测模块的方式,利用零速检测信号,判断车辆行驶状态,其判别方法包括但不限于上述广义似然比检测方式,只要能达到准确判别的目的即可。
作为优选的实施例,结合图5来看,图5为本发明提供的图4中步骤S23一实施例的流程示意图,包括步骤S231至步骤S232,其中:
在步骤S231中,当车辆行驶状态为运行时,更新所述IMU预积分信息和所述雷达里程计信息,并基于增量式因子图优化的方式,结合所述IMU观测值、所述雷达里程计观测值进行局部优化融合,确定所述融合位姿,并更新所述IMU信号的偏置;
在步骤S232中,当车辆行驶状态为静止时,所述IMU预积分信息和所述雷达里程计信息保持不变,当前位姿保持不变,并利用0位移更新所述IMU信号的偏置。
在本发明实施例中,针对不同的车辆行驶状态,进行局部优化融合,同时更新IMU信号的偏置。
作为优选的实施例,所述局部优化融合通过如下公式表示:
其中,Static表示车辆状态信息,当static=1时,车辆行驶状态为静止,当static=0时,车辆行驶状态为运动,pn表示第n帧的所述融合位姿,bn表示第n帧的所述IMU信号的偏置,pn-1表示第n-1 帧的所述融合位姿,Z={Zlidar,ZI}表示所述IMU观测值、所述雷达里程计观测值的观测量集合,Zlidar表示所述雷达里程计观测值,ZI表示所述IMU观测值,表示第n帧的雷达里程计观测值, P(pn,bn|Z,pn-1)表示在所述观测量集合Z和第n-1帧的所述融合位姿 pn-1的条件下,第n帧的所述融合位姿pn和第n帧的所述IMU信号的偏置bn的联合概率,表示在第n帧的所述融合位姿pn和第n帧的所述IMU信号的偏置bn的条件下,第n帧的雷达里程计观测值为0的概率,表示在第n帧的所述融合位姿 pn和第n帧的所述IMU信号的偏置bn的条件下,第n帧IMU观测值的概率,表示在第n帧的所述融合位姿pn和第n 帧的所述IMU信号的偏置bn的条件下,第n帧的雷达里程计观测值的概率,其中,第n帧的所述融合位姿pn通过增量式因子图优化进行求解。
在本发明实施例中,基于上述公式,结合多方面信息,进行高效的局部融合位姿,并更新偏置。
在本发明一个具体的实施例中,局部优化的流程可以描述为:
第一,零速检测模块接收IMU信号并判定车辆是否静止,随后输出车辆状态信息Static;
第二,如果Static=0表示车辆处于运行状态,此时lidar里程计模块和IMU预积分模块正常运行,通过增量式因子图优化的方式进行融合,得到融合后的位姿Pn并更新IMU偏置b;
第三,如果Static=1表示车辆处理静止状态,此时lidar里程计模块和IMU预积分模块不运行,位姿Pn保持不变,利用0位移对IMU 偏置b进行更新。
需要说明的是,局部优化定位主要接收lidar里程计信号、IMU 预积分信号和零速检测信号,通过增量式因子图优化的方式进行融合,得到融合后的位姿Pn并更新IMU偏置b。其中,lidar里程计模块接收 lidar的点云数据帧,通过计算点的曲率来提取角或面的特征点,通过当前帧特征点和局部地图特征点的匹配来构建损失函数,通过非线性优化求解可以得到lidar两帧之间的位姿变化。其中,IMU预积分模块通过对IMU数据的积分为lidar里程计提供良好的非线性优化初值并且填补两个雷达帧之间的位姿输出。因为IMU的采样频率较快,而非线性优化消耗的时间长,因此,采用IMU预积分的方式避免了在lidar里程计更新时IMU的重复积分。
其中,零速检测模块通过IMU信号进行广义似然比检测(GLRT) 来判定车辆是否静止。设采样数为W,则广义似然比T可以表达为式 (3)。其中,和分别是加速度计和陀螺测量噪声的方差;表示样品平均值。根据假设检验理论,当Γ<δ时,认定车辆处于静止状态,可以表示为Static=1,阈值δ由经验和实际调试得到。实际应用中状态的切换会加入磁滞,防止信息干扰造成误判。
其中,增量式因子图优化可以处理以增量的方式获得的观测数据以进行状态推断,上述因子都是以一个时间序列到达,可以通过矩阵分解来利用之前的计算结果帮助优化新加入的观测因子,在求解过程中利用贝叶斯树来描述增量的非线性推断算法,利用先进的增量、非线性的最大后验概率估计方法一iSAM2进行求解。iSAM2集成在 Gtsam库中,可以通过该库进行实现。
作为优选的实施例,所述选取其中的关键帧位姿包括:根据预设的位移间隔或旋转角度,在多帧所述融合位姿中,选取所述关键帧位姿。
在本发明实施例中,在上述融合位姿中,有效选取多个关键帧位姿。
作为优选的实施例,结合图6来看,图6为本发明提供的图2中步骤S4一实施例的流程示意图,包括步骤S41至步骤S43,其中:
在步骤S41中,根据所述GPS信号和所述雷达信号,确定初始航向角;
在步骤S42中,将所述初始航向角带入至所述关键帧位姿,确定对应的最终位姿,并将所述最终位姿和对应的点云数据映射在预设坐标系下;
在步骤S43中,当接收到GPS信号或回环检测信号时,对全局的所述最终位姿进行优化,生成所述全局一致性点云地图。
在本发明实施例中,将接收的GPS信号和雷达里程计信号解算初始航向角λ0,并回溯更新之前的关键帧位姿和对应的点云将其映射在UTM坐标系上,解算完成初始航向角λ0之后,在接收到GPS信号或者回环检测信号时,对全局的所有关键帧进行优化,得到全局一致性点云地图。
作为优选的实施例,结合图7来看,图7为本发明提供的图6中步骤S41一实施例的流程示意图,包括步骤S411至步骤S413,其中:
在步骤S411中,分别根据所述GPS信号和所述雷达信号,确定对应的GPS输出位姿和雷达信号里程计输出位姿;
在步骤S412中,根据所述GPS输出位姿和所述雷达信号里程计输出位姿,确定与所述初始航向角的对应关系,通过如下公式表示:
PGPS≈PlidarRz(λ0)
其中,PGPS表示所述GPS输出位姿,Plidar表示所述雷达信号里程计输出位姿,Rz(λ0)表示绕z轴旋转所述初始航向角λ0;
在步骤S413中,基于所述对应关系,建立对应的损失函数,通过Ceres库进行求解所述初始航向角。
在本发明实施例中,基于所述GPS输出位姿、所述雷达信号里程计输出位姿、所述初始航向角的对应关系,进行有效的初始航向角求解。
作为优选的实施例,结合图8来看,图8为本发明提供的图7中步骤S43一实施例的流程示意图,包括步骤S431至步骤S433,其中:
在步骤S431中,当接收到GPS信号或回环检测信号时,将所有所述最终位姿作为输入,输入至全局优化网络;
在步骤S432中,基于位姿图优化的方式,对所述全局优化网络进行求解,将所述最终位姿进行融合优化,确定融合优化后的最佳位姿;
在步骤S433中,根据所有所述最佳位姿,生成所述全局一致性点云地图。
在本发明实施例中,基于位姿图优化的方式进行进一步的全局融合求解,生成最佳位姿,由此构建全局一致性点云地图。
作为优选的实施例,所述全局优化网络包括贝叶斯网络,通过如下公式表示:
其中,表示所述融合优化后的最佳位姿组成的向量,表示第i帧的雷达里程计观测值,表示第j帧的GPS信号的观测值,表示第h帧的回环检测信号的观测值,Z={ZO,ZGPS,ZL},表示雷达里程计观测值、GPS信号的观测值和回环检测信号的观测值的集合,表示第i帧的最终位姿,表示第i-1帧的最终位姿,表示第j 帧的最终位姿,表示第h帧的最终位姿。
在本发明一个具体的实施例中,结合图9来看,图9为本发明提供的全局优化网络一实施例的结构示意图,将局部优化中lidar帧的位姿按固定的位移距离或者旋转角度选取为关键帧位姿,并作为全局优化的其中一个输入。全局优化在能接收到GPS信号或者回环检测信号的时候将其接收作为输入,通过位姿图优化的方式对接收到的信息进行融合优化,得到全局一致性的点云地图。全局优化作为贝叶斯网络可以以图9示意。
本发明实施例还提供了一种自动驾驶场景下的地图生成装置,结合图10来看,图10为本发明提供的自动驾驶场景下的地图生成装置一实施例的结构示意图,包括:
获取单元1001,用于获取IMU信号、雷达信号和GPS信号;
处理单元1002,用于根据所述IMU信号和GPS信号,确定初始位姿;还用于根据所述IMU信号和所述雷达信号进行局部优化融合,确定在所述初始位姿状态下的融合位姿,并选取其中的关键帧位姿
地图生成单元1003,用于根据所述GPS信号和所述雷达信号,更新所述关键帧位姿,并进行全局优化,生成全局一致性点云地图。
自动驾驶场景下的地图生成装置的各个单元的更具体实现方式可以参见对于本发明的自动驾驶场景下的地图生成方法的描述,且具有与之相似的有益效果,在此不再赘述。
本发明实施例还提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时,实现如上所述的自动驾驶场景下的地图生成方法。
一般来说,用于实现本发明方法的计算机指令的可以采用一个或多个计算机可读的存储介质的任意组合来承载。非临时性计算机可读存储介质可以包括任何计算机可读介质,除了临时性地传播中的信号本身。
计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机存取存储器 (RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本文件中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
可以以一种或多种程序设计语言或其组合来编写用于执行本发明操作的计算机程序代码,程序设计语言包括面向对象的程序设计语言-诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言 -诸如“C”语言或类似的程序设计语言,特别是可以使用适于神经网络计算的Python语言和基于TensorFlow、PyTorch等平台框架。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网 (LAN)或广域网(WAN)-连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
本发明实施例还提供了一种计算设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,处理器执行程序时,实现如上所述的自动驾驶场景下的地图生成方法。
根据本发明上述实施例提供的计算机可读存储介质和计算设备,可以参照根据本发明实现如上所述的自动驾驶场景下的地图生成方法具体描述的内容实现,并具有与如上所述的自动驾驶场景下的地图生成方法类似的有益效果,在此不再赘述。
本发明实施例还提供一种自动驾驶场景下的地图生成系统,结合图11来看,图11为本发明提供的自动驾驶场景下的地图生成系统一实施例的结构示意图,包括雷达传感器装置、IMU传感器装置、GPS 定位装置和如上所述的计算设备,其中:
所述雷达传感器装置,用于获取雷达信号,基于TCP/IP将雷达点云数据传输到计算设备上;
所述IMU传感器装置,用于获取IMU信号,基于CAN总线将 IMU信号传输到计算设备上;
所述GPS定位装置,用于获取GPS信号,基于串口将GPS信号传输到计算设备上;
所述计算设备,用于实现如上所述的自动驾驶场景下的地图生成方法。
在本发明一个具体的实施例中,所述雷达传感器装置为16线激光雷达Leishen C-16lidar,所述IMU传感器装置为6轴惯性测量单元vigor technology TT810IMU,所述GPS定位装置为单点全球定位系统,所述计算设备为以英伟达公司的JETSON TX2作为计算单元,系统使用自动驾驶车辆作为移动平台,传感器由16线激光雷达 Leishen C-16lidar、6轴惯性测量单元vigor technology TT810 IMU和单点全球定位系统(GPS)组成,以英伟达公司的JETSON TX2作为计算单元,在其上运行机器人操作系统(Robot Operating System,ROS)。LiDAR基于TCP/IP将点云数据传输到TX2上,通过lidar驱动程序解析数据并封装入sensormsgs/PointClouds2数据结构中。IMU 基于CAN总线将数据发布到CAN网络上,TX2通过USB-CAN总线转换器读取CAN网络上IMU信息,通过IMU驱动解析数据并封装入sensormsgs/Imu数据结构中。GPS基于串口将数据传输到TX2,通过GPS驱动将串口数据解析并封装入sensor_msgs/NavSatFix数据结构中。
其中,结合图12来看,图12为本发明提供的系统技术流程一实施例的技术框示意图。系统主要由初始位姿解算、局部优化定位和全局优化建图组成,系统的主要求解状态为其中 P=[x,y,z,α,β,γ]代表车辆在东北天坐标系(ENU)中的位姿,其中 x,y,z,α,β,γ分别代表在x/y/z轴的坐标和滚转角、俯仰角、航向角。b 代表IMU的偏置。代表关键帧的位姿,关键帧的lidar点云一起组成了点云地图。
本发明公开了一种自动驾驶场景下的地图生成方法,首先,对实测目的层的压力参数、应力参数和应变关系参数进行有效获取,反馈实测目的层的压力情况、应力情况、应变关系情况;然后,结合多种参数,确定不同的第一指数、第二指数和第三指数;最后,通过第一指数、第二指数和第三指数,综合多方面因素,确定实测目的层的预测压力,并基于此进行判断是否是可能存在油气的区域。
本发明技术方案,结合局部优化和全局优化,将多种传感器数据进行融合,实现高频率的精确定位和全局一致性建图,解决了低成本激光雷达SLAM系统缺少初始姿态信息、鲁棒性差、建图和定位精度低的问题。
以上所述,仅为本发明较佳的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到的变化或替换,都应涵盖在本发明的保护范围之内。
Claims (10)
1.一种自动驾驶场景下的地图生成方法,其特征在于,包括:
获取IMU信号、雷达信号和GPS信号;
根据所述IMU信号和GPS信号,确定初始位姿;
根据所述IMU信号和所述雷达信号进行局部优化融合,确定在所述初始位姿状态下的融合位姿,并选取其中的关键帧位姿;
根据所述GPS信号和所述雷达信号,更新所述关键帧位姿,并进行全局优化,生成全局一致性点云地图。
2.根据权利要求1所述的自动驾驶场景下的地图生成方法,其特征在于,所述根据所述IMU信号和GPS信号,确定初始位姿包括:
根据所述IMU信号,求解初始滚转角和初始俯仰角;
根据所述GPS信号,将初始经度、初始纬度和初始高度分别映射为零;
将所述初始滚转角、所述初始俯仰角、所述初始经度、所述初始纬度、所述初始高度和未知的初始航向角构成数组,形成所述初始位姿。
3.根据权利要求1所述的自动驾驶场景下的地图生成方法,其特征在于,所述根据所述IMU信号和所述雷达信号进行局部优化融合,确定在所述初始位姿状态下的融合位姿包括:
根据所述IMU信号,确定零速检测信息;
根据所述零速检测信号,判断车辆行驶状态;
针对不同的车辆行驶状态,确定对应的IMU预积分信息和雷达里程计信息,结合IMU观测值、雷达里程计观测值进行局部优化融合,确定在所述初始位姿状态下的所述融合位姿;
其中,所述雷达里程信息为根据所述雷达信号中的点云数据帧进行非线性求解得到的两帧之间的位姿变化,所述IMU预积分信息包括通过所述IMU信号而确定的非线性求解初值和两帧之间的位姿输出。
4.根据权利要求3所述的自动驾驶场景下的地图生成方法,其特征在于,所述针对不同的车辆行驶状态,更新对应的IMU预积分信息和雷达里程计信息,结合IMU观测值、雷达里程计观测值进行局部优化融合,确定在所述初始位姿状态下的所述融合位姿包括:
当车辆行驶状态为运行时,更新所述IMU预积分信息和所述雷达里程计信息,并基于增量式因子图优化的方式,结合所述IMU观测值、所述雷达里程计观测值进行局部优化融合,确定所述融合位姿,并更新所述IMU信号的偏置;
当车辆行驶状态为静止时,所述IMU预积分信息和所述雷达里程计信息保持不变,当前位姿保持不变,并利用0位移更新所述IMU信号的偏置。
5.根据权利要求4所述的自动驾驶场景下的地图生成方法,其特征在于,所述局部优化融合通过如下公式表示:
其中,static表示车辆状态信息,当static=1时,车辆行驶状态为静止,当static=0时,车辆行驶状态为运动,pn表示第n帧的所述融合位姿,bn表示第n帧的所述IMU信号的偏置,pn-1表示第n-1帧的所述融合位姿,Z={Zlidar,ZI}表示所述IMU观测值、所述雷达里程计观测值的观测量集合,Zlidar表示所述雷达里程计观测值,ZI表示所述IMU观测值,表示第n帧的雷达里程计观测值,P(pn,bn|Z,pn-1)表示在所述观测量集合Z和第n-1帧的所述融合位姿pn-1的条件下,第n帧的所述融合位姿pn和第n帧的所述IMU信号的偏置bn的联合概率,表示在第n帧的所述融合位姿pn和第n帧的所述IMU信号的偏置bn的条件下,第n帧的雷达里程计观测值为0的概率,表示在第n帧的所述融合位姿pn和第n帧的所述IMU信号的偏置bn的条件下,第n帧IMU观测值的概率,表示在第n帧的所述融合位姿pn和第n帧的所述IMU信号的偏置bn的条件下,第n帧的雷达里程计观测值的概率,其中,第n帧的所述融合位姿pn通过增量式因子图优化进行求解。
6.根据权利要求5所述的自动驾驶场景下的地图生成方法,其特征在于,所述选取其中的关键帧位姿包括:根据预设的位移间隔或旋转角度,在多帧所述融合位姿中,选取所述关键帧位姿。
7.根据权利要求1所述的自动驾驶场景下的地图生成方法,其特征在于,所述根据所述GPS信号和所述雷达信号,更新所述关键帧位姿,并进行全局优化,生成全局一致性点云地图包括:
根据所述GPS信号和所述雷达信号,确定初始航向角;
将所述初始航向角带入至所述关键帧位姿,确定对应的最终位姿,并将所述最终位姿和对应的点云数据映射在预设坐标系下;
当接收到GPS信号或回环检测信号时,对全局的所述最终位姿进行优化,生成所述全局一致性点云地图。
8.根据权利要求7所述的自动驾驶场景下的地图生成方法,其特征在于,所述根据所述GPS信号和所述雷达信号,确定初始航向角包括:
分别根据所述GPS信号和所述雷达信号,确定对应的GPS输出位姿和雷达信号里程计输出位姿;
根据所述GPS输出位姿和所述雷达信号里程计输出位姿,确定与所述初始航向角的对应关系,通过如下公式表示:
PGPS≈PlidarRz(λ0)
其中,PGPS表示所述GPS输出位姿,Plidar表示所述雷达信号里程计输出位姿,Rz(λ0)表示绕z轴旋转所述初始航向角λ0;
基于所述对应关系,建立对应的损失函数,通过Ceres库进行求解所述初始航向角。
9.根据权利要求7所述的自动驾驶场景下的地图生成方法,其特征在于,所述当接收到GPS信号或回环检测信号时,对全局的所述最终位姿进行优化,生成所述全局一致性点云地图包括:
当接收到GPS信号或回环检测信号时,将所有所述最终位姿作为输入,输入至全局优化网络;
基于位姿图优化的方式,对所述全局优化网络进行求解,将所述最终位姿进行融合优化,确定融合优化后的最佳位姿;
根据所有所述最佳位姿,生成所述全局一致性点云地图。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110842113.6A CN114088104B (zh) | 2021-07-23 | 2021-07-23 | 一种自动驾驶场景下的地图生成方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110842113.6A CN114088104B (zh) | 2021-07-23 | 2021-07-23 | 一种自动驾驶场景下的地图生成方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114088104A true CN114088104A (zh) | 2022-02-25 |
CN114088104B CN114088104B (zh) | 2023-09-29 |
Family
ID=80296045
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110842113.6A Active CN114088104B (zh) | 2021-07-23 | 2021-07-23 | 一种自动驾驶场景下的地图生成方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114088104B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115685292A (zh) * | 2023-01-05 | 2023-02-03 | 中国人民解放军国防科技大学 | 一种多源融合导航系统的导航方法和装置 |
Citations (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20060276925A1 (en) * | 2003-04-23 | 2006-12-07 | The Regents Of The University Of Michigan | Integrated global layout and local microstructure topology optimization approach for spinal cage design and fabrication |
CN109084732A (zh) * | 2018-06-29 | 2018-12-25 | 北京旷视科技有限公司 | 定位与导航方法、装置及处理设备 |
US20190012806A1 (en) * | 2017-07-06 | 2019-01-10 | Siemens Healthcare Gmbh | Mobile Device Localization In Complex, Three-Dimensional Scenes |
CN110009739A (zh) * | 2019-01-29 | 2019-07-12 | 浙江省北大信息技术高等研究院 | 移动摄像机的数字视网膜的运动特征的提取与编码方法 |
CN110243358A (zh) * | 2019-04-29 | 2019-09-17 | 武汉理工大学 | 多源融合的无人车室内外定位方法及系统 |
CN110706279A (zh) * | 2019-09-27 | 2020-01-17 | 清华大学 | 基于全局地图与多传感器信息融合的全程位姿估计方法 |
US20200226782A1 (en) * | 2018-05-18 | 2020-07-16 | Boe Technology Group Co., Ltd. | Positioning method, positioning apparatus, positioning system, storage medium, and method for constructing offline map database |
CN111983639A (zh) * | 2020-08-25 | 2020-11-24 | 浙江光珀智能科技有限公司 | 一种基于Multi-Camera/Lidar/IMU的多传感器SLAM方法 |
CN112307917A (zh) * | 2020-10-21 | 2021-02-02 | 国网上海市电力公司 | 一种融合视觉里程计及imu的室内定位方法 |
CN112330589A (zh) * | 2020-09-18 | 2021-02-05 | 北京沃东天骏信息技术有限公司 | 估计位姿的方法、装置及计算机可读存储介质 |
CN112634451A (zh) * | 2021-01-11 | 2021-04-09 | 福州大学 | 一种融合多传感器的室外大场景三维建图方法 |
CN112729321A (zh) * | 2020-12-28 | 2021-04-30 | 上海有个机器人有限公司 | 一种机器人的扫图方法、装置、存储介质和机器人 |
CN112967392A (zh) * | 2021-03-05 | 2021-06-15 | 武汉理工大学 | 一种基于多传感器触合的大规模园区建图定位方法 |
CN112985416A (zh) * | 2021-04-19 | 2021-06-18 | 湖南大学 | 激光与视觉信息融合的鲁棒定位和建图方法及系统 |
CN113066105A (zh) * | 2021-04-02 | 2021-07-02 | 北京理工大学 | 激光雷达和惯性测量单元融合的定位与建图方法及系统 |
CN113140039A (zh) * | 2021-04-26 | 2021-07-20 | 北京天地玛珂电液控制系统有限公司 | 一种多传感器融合的煤矿井下数字化定位及地图构建系统 |
-
2021
- 2021-07-23 CN CN202110842113.6A patent/CN114088104B/zh active Active
Patent Citations (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20060276925A1 (en) * | 2003-04-23 | 2006-12-07 | The Regents Of The University Of Michigan | Integrated global layout and local microstructure topology optimization approach for spinal cage design and fabrication |
US20190012806A1 (en) * | 2017-07-06 | 2019-01-10 | Siemens Healthcare Gmbh | Mobile Device Localization In Complex, Three-Dimensional Scenes |
US20200226782A1 (en) * | 2018-05-18 | 2020-07-16 | Boe Technology Group Co., Ltd. | Positioning method, positioning apparatus, positioning system, storage medium, and method for constructing offline map database |
CN109084732A (zh) * | 2018-06-29 | 2018-12-25 | 北京旷视科技有限公司 | 定位与导航方法、装置及处理设备 |
CN110009739A (zh) * | 2019-01-29 | 2019-07-12 | 浙江省北大信息技术高等研究院 | 移动摄像机的数字视网膜的运动特征的提取与编码方法 |
CN110243358A (zh) * | 2019-04-29 | 2019-09-17 | 武汉理工大学 | 多源融合的无人车室内外定位方法及系统 |
CN110706279A (zh) * | 2019-09-27 | 2020-01-17 | 清华大学 | 基于全局地图与多传感器信息融合的全程位姿估计方法 |
CN111983639A (zh) * | 2020-08-25 | 2020-11-24 | 浙江光珀智能科技有限公司 | 一种基于Multi-Camera/Lidar/IMU的多传感器SLAM方法 |
CN112330589A (zh) * | 2020-09-18 | 2021-02-05 | 北京沃东天骏信息技术有限公司 | 估计位姿的方法、装置及计算机可读存储介质 |
CN112307917A (zh) * | 2020-10-21 | 2021-02-02 | 国网上海市电力公司 | 一种融合视觉里程计及imu的室内定位方法 |
CN112729321A (zh) * | 2020-12-28 | 2021-04-30 | 上海有个机器人有限公司 | 一种机器人的扫图方法、装置、存储介质和机器人 |
CN112634451A (zh) * | 2021-01-11 | 2021-04-09 | 福州大学 | 一种融合多传感器的室外大场景三维建图方法 |
CN112967392A (zh) * | 2021-03-05 | 2021-06-15 | 武汉理工大学 | 一种基于多传感器触合的大规模园区建图定位方法 |
CN113066105A (zh) * | 2021-04-02 | 2021-07-02 | 北京理工大学 | 激光雷达和惯性测量单元融合的定位与建图方法及系统 |
CN112985416A (zh) * | 2021-04-19 | 2021-06-18 | 湖南大学 | 激光与视觉信息融合的鲁棒定位和建图方法及系统 |
CN113140039A (zh) * | 2021-04-26 | 2021-07-20 | 北京天地玛珂电液控制系统有限公司 | 一种多传感器融合的煤矿井下数字化定位及地图构建系统 |
Non-Patent Citations (4)
Title |
---|
LIANGYU 等: "large scale scene mapping and localization based on multi-sensor fusion", 2021 6TH INTERNATIONAL CONFERENCE ON INTELLIGENT COMPUTING AND SIGNAL PROCESSING, pages 1130 - 1135 * |
危双丰;庞帆;刘振彬;师现杰;: "基于激光雷达的同时定位与地图构建方法综述", 计算机应用研究, no. 02 * |
王化友;代波;何玉庆;: "CFD-SLAM:融合特征法与直接法的快速鲁棒SLAM系统", 高技术通讯, no. 12 * |
胡向勇;洪程智;吴世全;: "基于关键帧的点云建图方法", 热带地貌, no. 01 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115685292A (zh) * | 2023-01-05 | 2023-02-03 | 中国人民解放军国防科技大学 | 一种多源融合导航系统的导航方法和装置 |
Also Published As
Publication number | Publication date |
---|---|
CN114088104B (zh) | 2023-09-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10197400B2 (en) | Calibration methods and systems for an autonomous navigation vehicle | |
CN113899363B (zh) | 车辆的定位方法、装置及自动驾驶车辆 | |
WO2020189079A1 (ja) | 自己位置推定装置、それを備えた自動運転システム、および、自己生成地図共有装置 | |
CN108387236B (zh) | 一种基于扩展卡尔曼滤波的偏振光slam方法 | |
CN115265523A (zh) | 机器人同时定位与建图方法、装置及可读介质 | |
JP7356528B2 (ja) | 地図データ処理方法及び装置 | |
CN114689047B (zh) | 基于深度学习的组合导航方法、装置、系统及存储介质 | |
CN114323033A (zh) | 基于车道线和特征点的定位方法、设备及自动驾驶车辆 | |
CN112946681B (zh) | 融合组合导航信息的激光雷达定位方法 | |
US20230341228A1 (en) | Global position and orientation correction method | |
CN113807470A (zh) | 一种车辆行驶状态确定方法和相关装置 | |
CN115326084A (zh) | 车辆定位方法、装置、计算机设备、存储介质 | |
CN114047760B (zh) | 路径规划方法、装置、电子设备及自动驾驶车辆 | |
CN111678513A (zh) | 一种超宽带/惯导紧耦合的室内定位装置与系统 | |
CN114088104B (zh) | 一种自动驾驶场景下的地图生成方法 | |
CN117471513B (zh) | 一种车辆定位方法、定位装置、电子设备及存储介质 | |
CN115900697B (zh) | 对象运动轨迹信息处理方法、电子设备以及自动驾驶车辆 | |
CN114001730B (zh) | 融合定位方法、装置、计算机设备和存储介质 | |
CN115792985A (zh) | 一种车辆定位方法、装置、电子设备、存储介质及车辆 | |
CN114993317A (zh) | 一种基于多源融合的室内外无缝定位方法 | |
CN114358419A (zh) | 位姿预测方法、位姿预测装置、存储介质与电子设备 | |
CN114740505A (zh) | 一种定位处理方法及装置 | |
CN117091596B (zh) | 一种姿态信息获取方法以及相关设备 | |
CN113923774B (zh) | 目标终端的位置确定方法和装置、存储介质及电子设备 | |
CN113804194A (zh) | 一种行驶设备的定位方法、装置、设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |