CN113551666A - 自动驾驶多传感器融合定位方法和装置、设备及介质 - Google Patents
自动驾驶多传感器融合定位方法和装置、设备及介质 Download PDFInfo
- Publication number
- CN113551666A CN113551666A CN202110761883.8A CN202110761883A CN113551666A CN 113551666 A CN113551666 A CN 113551666A CN 202110761883 A CN202110761883 A CN 202110761883A CN 113551666 A CN113551666 A CN 113551666A
- Authority
- CN
- China
- Prior art keywords
- pose
- key frame
- current
- optimization
- graph
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 61
- 230000004927 fusion Effects 0.000 title claims abstract description 22
- 238000005457 optimization Methods 0.000 claims abstract description 55
- 239000011159 matrix material Substances 0.000 claims description 19
- 238000004590 computer program Methods 0.000 claims description 12
- 230000006870 function Effects 0.000 claims description 8
- 230000004807 localization Effects 0.000 claims description 6
- 238000013519 translation Methods 0.000 claims description 5
- 230000010354 integration Effects 0.000 claims description 4
- 238000005259 measurement Methods 0.000 claims description 3
- 238000005516 engineering process Methods 0.000 abstract description 4
- 230000008447 perception Effects 0.000 abstract description 3
- 238000010586 diagram Methods 0.000 description 9
- 230000008569 process Effects 0.000 description 7
- 238000004891 communication Methods 0.000 description 4
- 238000004422 calculation algorithm Methods 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 3
- 238000000605 extraction Methods 0.000 description 3
- 238000009825 accumulation Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000007500 overflow downdraw method Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/10—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
- G01C21/12—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
- G01C21/16—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
- G01C21/165—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/20—Instruments for performing navigational calculations
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Automation & Control Theory (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Traffic Control Systems (AREA)
- Navigation (AREA)
Abstract
本发明涉及一种基于图优化的自动驾驶多传感器融合定位方法和装置、电子设备及存储介质,该方法包括:根据RTK提供的位置信息以及九轴IMU磁力计提供的方向信息确定在当前地图的初始位姿;利用关键帧的观测信息与先验地图作匹配得到当前时刻关键帧的位姿;将当前时刻关键帧的位姿作为优化因子添加到当前图中,并将上一时刻关键帧到当前时刻关键帧的约束添加到当前图中;利用非线性优化方法构建求解器对当前图进行优化;以及基于优化的结果,输出R和t。本发明通过采用低成本传感器结合优化方法实现车道级定位。不仅具有明显技术优势,有利于自动驾驶技术推进,同时能保证定位精度,使用更加方便,能为环境感知和车身控制提供基准数据。
Description
技术领域
本发明涉及自动驾驶领域,更具体地,涉及一种基于图优化的自动驾驶多传感器融合定位方法和装置、电子设备及存储介质。
背景技术
自动驾驶技术核心之一是高精定位。在道路上实现车辆的自动驾驶时,需要车辆本身的位置达到厘米级的定位精度。高精定位的精度受到传感器的噪声、卫星导航的多路径传播效应、车辆自身定位问题和车辆动力学问题等因素的影响,这些问题都会导致之后的误差累计,而当误差累计到一定程度,得到的最终位姿则不可信。即使所使用的传感器性能很好,但实际中也会受到很多影响,因此需要额外的算法来辅助车辆获得高精度的位置信息。通常,使用卡尔曼滤波来实现该过程。
传感器将物理世界按照一定的数据编码,然后将编码后的数据传送给感知模块,则感知模块可以通过相关的算法提取物理世界模型。定位模块就是利用感知模块的传感器来确定车辆在世界坐标系中的位置。
定位模块用到的核心传感器是RTK GPS、IMU、LIDAR、Camera等。定位模块利用这些数据,通过定位算法输出车辆在全球坐标系中的位置。理想条件下,定位模块利用RTK GPS系统就可以对无人车进行导航及定位。RTK GPS系统是通过计算电磁波的传播时间来判断车辆的位置,但是现实中电磁波的传播会因为大气层、高楼大厦、天气等因素产生时间误差,这意味着计算的距离数据不够准确,从而导致无法确定无人车处于哪个位置。而事实上,无人车在道路中的定位要求误差小于50cm,超过该数据,定位模块就无法用于实现自动驾驶。
因此,需要一种能够解决这些噪声问题以及单个传感器不够准确的方法。
发明内容
针对现有技术中的问题,本发明提供一种基于图优化的自动驾驶多传感器融合定位方法和装置、电子设备及存储介质。
第一方面,本发明提供一种基于图优化的自动驾驶多传感器融合定位方法,包括:
根据RTK提供的位置信息以及九轴IMU磁力计提供的方向信息确定在当前地图的初始位姿;
利用关键帧的观测信息与先验地图作匹配得到当前时刻关键帧的位姿;
将所述当前时刻关键帧的位姿作为优化因子添加到当前图中,并将上一时刻关键帧到所述当前时刻关键帧的约束添加到所述当前图中;
利用非线性优化方法构建求解器对所述当前图进行优化;以及
基于所述优化的结果,输出R和t,
其中R代表所述上一时刻关键帧的位姿到所述当前时刻的位姿关键帧的旋转矩阵,t代表所述上一时刻关键帧的位姿到所述当前时刻关键帧的位姿的平移矩阵。
进一步地,所述方法还包括:
添加新关键帧,并边缘化旧关键帧。
进一步地,所述方法还包括:
当关键帧的数量不等于窗口长度时,添加所述新关键帧;以及
当所述关键帧的数量等于所述窗口长度时,边缘化所述旧关键帧。
进一步地,所述关键帧是通过以下方法来确定的:
当正常行驶时,根据与上一关键帧的位置偏差或方向偏差来确定关键帧;以及
当停车时,将每一帧都确定为关键帧。
进一步地,所述上一时刻关键帧到所述当前时刻关键帧的约束是通过以下方法来获得的:
对于激光雷达约束,通过使用NDT或者ICP匹配方法,根据前后两关键帧数据进而得到相对位姿;
对于IMU约束,通过惯性积分从而得到前后两关键帧的相对位姿;以及
对于RTK约束,通过直接测量得到。
进一步地,所述利用非线性优化方法构建求解器对所述当前图进行优化,包括:
通过以下公式进行优化:
进一步地,所述方法还包括:
通过以下公式获得地图定位的滑动窗口模型:
HΔX=g,H=JTJ,g=-JTr
其中,J是函数r关于X的一阶导数,T表示矩阵的转置,H是函数r关于X的二阶导数。
第二方面,本发明提供一种基于图优化的自动驾驶多传感器融合定位装置,包括:
位姿初始化单元,用于根据RTK提供的位置信息以及九轴IMU磁力计提供的方向信息确定在当前地图的初始位姿;
地图匹配单元,用于利用关键帧的观测信息与先验地图作匹配得到当前时刻关键帧的位姿;
优化因子添加单元,用于将所述当前时刻关键帧的位姿作为优化因子添加到当前图中,并将上一时刻关键帧到所述当前时刻关键帧的约束添加到所述当前图中;
优化执行单元,用于利用非线性优化方法构建求解器对所述当前图进行优化;以及
输出单元,用于基于所述优化的结果,输出R和t,
其中R代表所述上一时刻关键帧的位姿到所述当前时刻关键帧的位姿的旋转矩阵,t代表所述上一时刻关键帧的位姿到所述当前时刻关键帧的位姿的平移矩阵。
第三方面,本发明还提供一种电子设备,包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现如第一方面中任一项所述基于图优化的自动驾驶多传感器融合定位方法的步骤。
第四方面,本发明还提供一种非暂态计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现如第一方面中任一项所述基于图优化的自动驾驶多传感器融合定位方法的步骤。
本发明通过采用低成本传感器结合优化方法实现车道级定位。不仅具有明显技术优势,有利于自动驾驶技术推进,同时能保证定位精度,使用更加方便,能为环境感知和车身控制提供基准数据。
附图说明
图1是示出本发明实施例提供的基于图优化的自动驾驶多传感器融合定位方法的流程图;
图2为本发明实施例提供的初始Hessian(海森矩阵)示意图;
图3为本发明实施例提供的新Hessian矩阵可视化结果图;
图4为本发明实施例提供的图优化模型示意图;
图5为本发明实施例提供的移除旧的帧示意图;
图6为本发明实施例提供的边缘化之后的模型示意图;
图7本发明实施例提供的添加新的关键帧示意图;
图8为本发明实施例提供的基于图优化的自动驾驶多传感器融合定位装置的结构示意图;以及
图9为本发明实施例提供的电子设备的结构示意图。
具体实施方式
为了更清楚地说明本发明或现有技术中的技术方案,以下将对实施例或现有技术描述中所需要使用的附图作一简单地介绍,显而易见地,以下描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
为了便于描述,对本发明IMU和GNSS的安装位置、安装误差角度和外观等应以实际安装情况为准,并作外参标定。
在Kitti工程中,基于图优化的滑动窗口模型。
如图1所示,本方案假定外参已经标定,因此流程图中不包括:
1)初始化Lidar和IMU之间的外参;
2)初始化速度、陀螺仪bias等;
3)初始化重力;
4)世界坐标系对齐(组合导航已经对齐)。
参照图1,本发明的基于图优化的自动驾驶多传感器融合定位方法包括以下步骤:
S101:根据RTK提供的位置信息以及九轴IMU磁力计提供的方向信息确定在当前地图的初始位姿,如下所示:
RTK是根据GPS获取的信号差分计算得到的一个位置补偿使得小车获取的位置精度在厘米级,九轴IMU磁力计获取的方向是相对UTM坐标系。
S103:利用关键帧的观测信息与先验地图作匹配得到当前时刻关键帧的位姿,如下所示:
根据激光雷达观测得到的点云信息与先验地图作ICP或NDT匹配计算得到当前位姿。
S105:将当前时刻关键帧的位姿作为优化因子(“顶点”)添加到当前图中,并将上一时刻关键帧到当前时刻关键帧的约束(“边”)添加到当前图中,如下所示:
初始位姿作为第一个顶点,然后添加下一时刻的关键帧位姿作为第二个顶点,再添加初始时刻到下一时刻关键帧的约束作为两顶点的边,以此类推。
在本发明中,上一时刻关键帧到当前时刻关键帧的约束可以通过以下方式获得:
对于激光雷达约束,使用NDT或者ICP匹配方法,根据前后两关键帧数据进而得到相对位姿;
对于IMU约束,进行惯性积分从而得到两关键帧相对位姿;
对于RTK约束,直接测量得到。
S107:利用非线性优化方法构建求解器对当前图进行优化,如下所示:
可以利用非线性优化方法构建求解器对图进行优化使得误差评估函数最小,具体如下:
其中,X表示当前关键帧最优位姿(在本发明中,使得上述评估函数最小的位姿被称为最优位姿),Gk表示激光雷达、IMU,RTK关键帧k的位姿,rG(Gk,X)表示激光雷达位姿、IMU位姿,RTK位姿与最优位姿的误差,∑表示窗口内的关键帧的观测误差平方和。
在本发明中,可以基于地图定位的滑动窗口模型来执行上述优化,该窗口模型用公式表示如下:
HΔX=g,H=JTJ,g=-JTr
其中,J是函数r关于X的一阶导数(雅可比矩阵),T表示矩阵的转置,H是函数r关于X的二阶导数(海森矩阵),这里用JTJ近似从而省略了H矩阵的求解过程,等式右侧定义为g。图2、图3为提供的初始H矩阵,其中,T0:第一帧待优化雷达位姿,T1:第二帧待优化雷达位姿,以此类推,M0:第一帧IMU bias和速度,同样,以此类推。
S109:基于优化的结果,输出R和t,如下所示:
根据上述优化的结果,输出R和t,其中R代表上一时刻关键帧的位姿到当前时刻关键帧的位姿的旋转矩阵,对应的是角度的旋转,t代表上一时刻关键帧的位姿到当前时刻关键帧的位姿的平移矩阵,对应的是位置的变化。
在本发明中,并不是对每一帧观测数据都计算位姿,而是只计算关键帧的位姿,关键帧可以是指连续几帧观测数据中所选择的代表性的一帧,并且由此计算出的位姿称为关键帧位姿。边缘化某个关键帧指的是保持这个关键帧的位姿结果求其他状态量以这个关键帧为条件的条件概率,相当于这个关键帧位姿作为先验信息提供给后续的计算。
可以针对不同的场景设置不同的关键帧提取策略。例如,在正常行驶时,不必像建图那样提取稀疏的关键帧;而停车时,由于对定位要求为高频率高精度,因此可以不需要边缘化。
在本发明中,在正常行驶时,按照以下方式提取关键帧:距上一关键帧位置偏差达到3米或者方向偏差达到10度(具体位置偏差和方向偏差可以根据车速而调整)作为新关键帧;而在停车时,按照以下方式提取关键帧:将每一帧都作为关键帧(因为此时需要高频率高精度的定位),并且不进行边缘化。
虽然以上示出了针对不同场景的帧提取策略,但是应注意的是,本发明不限于此,任何其它合适的帧提取策略都可以应用于本发明,例如,按照预定时间提取关键帧。
图4示出了本发明方法的核心思路是把融合方法从滤波改成图优化,其元素不再是简单的惯性解算,而是积分。随着时间的推移,图模型会越来越大,导致无法达到实时性。所以需要不断删除旧的帧,只优化最新的几个帧,即维持一个滑动窗口。通过模型把旧帧的约束传递下来,即边缘化,其过程(在整个流程中,不断往滑窗里添加新信息(新关键帧),并边缘化旧信息(旧关键帧)如下:
如图5和图6所示,移除旧的关键帧。注意的是:边缘化先验因子只有在第一次边缘化之前是不存在的,完成第一次边缘化之后就一直存在,并且随着后续新的边缘化进行,内容不断更新。
如图7,添加新的关键帧。此后,随着定位过程的进行,不断循环“边缘化旧关键帧→添加新关键帧”的过程,从而维持窗口长度(关键帧数的上限阈值)不变。
也就是说,当关键帧的数量(位姿数)不等于窗口长度时,添加新关键帧;以及,当关键帧的数量等于窗口长度时,边缘化旧关键帧。
图8为本发明实施例提供的基于图优化的自动驾驶多传感器融合定位装置的结构示意图。参照图8,该装置800包括:
位姿初始化单元801,用于根据RTK提供的位置信息以及九轴IMU磁力计提供的方向信息确定在当前地图的初始位姿;
地图匹配单元803,用于利用关键帧的观测信息与先验地图作匹配得到当前时刻关键帧的位姿;
优化因子添加单元805,用于将当前时刻关键帧的位姿作为优化因子添加到当前图中,并将上一时刻关键帧到当前时刻关键帧的约束添加到当前图中;
优化执行单元807,用于利用非线性优化方法构建求解器对当前图进行优化;以及
输出单元809,用于基于优化的结果,输出R和t。
由以上可知,装置800的各个单元801至809可以分别执行参照上述实施例描述的定位方法中的各个步骤,此处将不再对其细节进行描述。
本发明实施例通过采用低成本传感器结合优化方法实现车道级定位。不仅具有明显技术优势,有利于自动驾驶技术推进,同时能保证定位精度,使用更加方便,能为环境感知和车身控制提供基准数据。
此外,与现有技术相比,本发明的优点在于:EKF(扩展卡尔曼滤波器)以形式简洁、应用广泛著称。当在某段时间内估计某个不确定量时,一般会使用EKF。尽管非线性优化比滤波器占有优势,但是在计算资源受限或待估计量比较简单的情况下,EKF仍不失为一种有效的方式。但是滤波器方式在一定程度上假设了马尔可夫性,也就是K时刻的状态只与K-1时刻相关,而与K-1之前的状态和观测都无关(或者和前几个时刻的状态相关)。而非线性优化方法则倾向于实用所有的历史数据。如果当前帧确实与很久以前的数据有关(例如回环),那么滤波器将难以处理。
另一方面,本发明提供了一种电子设备。如图9所示,电子设备900包括处理器901、存储器902、通信接口903和通信总线904。
其中,处理器901、存储器902、通信接口903通过通信总线904完成相互间的通信。
处理器901用于调用存储器902中的计算机程序,处理器901执行计算机程序时实现如上所述的本发明实施例所提供的定位方法的步骤。
此外,上述存储器中的计算机程序可以通过软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干计算机程序以使得一台计算机设备(可以是个人计算机、服务器或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
另一方面,本发明提供了一种非暂态计算机可读存储介质,该非暂态计算机可读存储介质上存储有计算机程序,该计算机程序被处理器执行时实现如上所述的本发明实施例所提供的定位方法的步骤。
以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。本领域普通技术人员在不付出创造性的劳动的情况下,即可以理解并实施。
最后应说明的是:以上实施例仅用于说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。
Claims (10)
1.一种基于图优化的自动驾驶多传感器融合定位方法,其特征在于,所述方法包括:
根据RTK提供的位置信息以及九轴IMU磁力计提供的方向信息确定在当前地图的初始位姿;
利用关键帧的观测信息与先验地图作匹配得到当前时刻关键帧的位姿;
将所述当前时刻关键帧的位姿作为优化因子添加到当前图中,并将上一时刻关键帧到当前时刻关键帧的约束添加到所述当前图中;
利用非线性优化方法构建求解器对所述当前图进行优化;以及
基于所述优化的结果,输出R和t,
其中R代表所述上一时刻关键帧的位姿到所述当前时刻关键帧的位姿的旋转矩阵,t代表所述上一时刻关键帧的位姿到所述当前时刻关键帧的位姿的平移矩阵。
2.根据权利要求1所述的基于图优化的自动驾驶多传感器融合定位方法,其特征在于,所述方法还包括:
添加新关键帧,并边缘化旧关键帧。
3.根据权利要求1所述的基于图优化的自动驾驶多传感器融合定位方法,其特征在于,所述方法还包括:
当关键帧的数量不等于窗口长度时,添加所述新关键帧;以及
当所述关键帧的数量等于所述窗口长度时,边缘化所述旧关键帧。
4.根据权利要求1所述的基于图优化的自动驾驶多传感器融合定位方法,其特征在于,所述关键帧是通过以下方法来确定的:
当正常行驶时,根据与上一关键帧的位置偏差或方向偏差来确定关键帧;以及
当停车时,将每一帧都确定为关键帧。
5.根据权利要求1所述的基于图优化的自动驾驶多传感器融合定位方法,其特征在于,所述上一时刻关键帧到所述当前时刻关键帧的约束是通过以下方法来获得的:
对于激光雷达约束,通过使用NDT或者ICP匹配方法,根据前后两关键帧数据进而得到相对位姿;
对于IMU约束,通过惯性积分从而得到前后两关键帧的相对位姿;以及
对于RTK约束,通过直接测量得到。
7.根据权利要求6所述的基于图优化的自动驾驶多传感器融合定位方法,其特征在于,所述方法还包括:
通过以下公式获得地图定位的滑动窗口模型:
HΔX=g,H=JTJ,g=-JTr
其中,J是函数r关于X的一阶导数,T表示矩阵的转置,H是函数r关于X的二阶导数。
8.一种基于图优化的自动驾驶多传感器融合定位装置,其特征在于,包括:
位姿初始化单元,用于根据RTK提供的位置信息以及九轴IMU磁力计提供的方向信息确定在当前地图的初始位姿;
地图匹配单元,用于利用关键帧的观测信息与先验地图作匹配得到当前时刻关键帧的位姿;
优化因子添加单元,用于将所述当前时刻关键帧的位姿作为优化因子添加到当前图中,并将上一时刻关键帧到所述当前时刻关键帧的约束添加到所述当前图中;
优化执行单元,用于利用非线性优化方法构建求解器对所述当前图进行优化;以及
输出单元,用于基于所述优化的结果,输出R和t,
其中R代表所述上一时刻关键帧的位姿到所述当前时刻关键帧的位姿的旋转矩阵,t代表所述上一时刻关键帧的位姿到所述当前时刻关键帧的位姿的平移矩阵。
9.一种电子设备,其特征在于,包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现如权利要求1-7中任一项所述基于图优化的自动驾驶多传感器融合定位方法的步骤。
10.一种非暂态计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1-7中任一项所述基于图优化的自动驾驶多传感器融合定位方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110761883.8A CN113551666A (zh) | 2021-07-06 | 2021-07-06 | 自动驾驶多传感器融合定位方法和装置、设备及介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110761883.8A CN113551666A (zh) | 2021-07-06 | 2021-07-06 | 自动驾驶多传感器融合定位方法和装置、设备及介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113551666A true CN113551666A (zh) | 2021-10-26 |
Family
ID=78131356
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110761883.8A Pending CN113551666A (zh) | 2021-07-06 | 2021-07-06 | 自动驾驶多传感器融合定位方法和装置、设备及介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113551666A (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114998436A (zh) * | 2022-06-27 | 2022-09-02 | 北京易航远智科技有限公司 | 对象标注方法、装置、电子设备及存储介质 |
CN115183778A (zh) * | 2022-07-01 | 2022-10-14 | 北京斯年智驾科技有限公司 | 一种基于码头石墩的建图方法、装置、设备以及介质 |
CN115561731A (zh) * | 2022-12-05 | 2023-01-03 | 安徽蔚来智驾科技有限公司 | 位姿优化方法、点云地图建立方法、计算机设备及介质 |
CN116539026A (zh) * | 2023-07-06 | 2023-08-04 | 杭州华橙软件技术有限公司 | 地图构建方法、装置、设备及存储介质 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180299534A1 (en) * | 2017-04-14 | 2018-10-18 | Luminar Technologies, Inc. | Combining Lidar and Camera Data |
CN110030999A (zh) * | 2019-05-21 | 2019-07-19 | 杭州鸿泉物联网技术股份有限公司 | 一种基于惯性导航的定位方法、装置、系统和车辆 |
WO2020087846A1 (zh) * | 2018-10-31 | 2020-05-07 | 东南大学 | 基于迭代扩展卡尔曼滤波融合惯性与单目视觉的导航方法 |
CN111595333A (zh) * | 2020-04-26 | 2020-08-28 | 武汉理工大学 | 视觉惯性激光数据融合的模块化无人车定位方法及系统 |
CN112489427A (zh) * | 2020-11-26 | 2021-03-12 | 招商华软信息有限公司 | 一种车辆轨迹跟踪方法、装置、设备及存储介质 |
CN115407357A (zh) * | 2022-07-05 | 2022-11-29 | 东南大学 | 基于大场景的低线束激光雷达-imu-rtk定位建图算法 |
-
2021
- 2021-07-06 CN CN202110761883.8A patent/CN113551666A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180299534A1 (en) * | 2017-04-14 | 2018-10-18 | Luminar Technologies, Inc. | Combining Lidar and Camera Data |
WO2020087846A1 (zh) * | 2018-10-31 | 2020-05-07 | 东南大学 | 基于迭代扩展卡尔曼滤波融合惯性与单目视觉的导航方法 |
CN110030999A (zh) * | 2019-05-21 | 2019-07-19 | 杭州鸿泉物联网技术股份有限公司 | 一种基于惯性导航的定位方法、装置、系统和车辆 |
CN111595333A (zh) * | 2020-04-26 | 2020-08-28 | 武汉理工大学 | 视觉惯性激光数据融合的模块化无人车定位方法及系统 |
CN112489427A (zh) * | 2020-11-26 | 2021-03-12 | 招商华软信息有限公司 | 一种车辆轨迹跟踪方法、装置、设备及存储介质 |
CN115407357A (zh) * | 2022-07-05 | 2022-11-29 | 东南大学 | 基于大场景的低线束激光雷达-imu-rtk定位建图算法 |
Non-Patent Citations (5)
Title |
---|
CHANG, LE等: "GNSS/INS/LiDAR-SLAM Integrated Navigation System Based on Graph Optimization", REMOTE SENSING, vol. 11, no. 9, 28 April 2019 (2019-04-28), pages 1 - 21 * |
倪志康;厉茂海;林睿;孙立宁;刘仕琦;: "基于三维激光雷达与RTK融合的SLAM研究", 制造业自动化, no. 07, 25 July 2020 (2020-07-25), pages 51 - 54 * |
刘云鹏;张三元;王仁芳;张引;: "视觉注意模型的道路监控视频关键帧提取", 中国图象图形学报, no. 08, 16 August 2013 (2013-08-16), pages 933 - 943 * |
常乐: "基于图优化的LiDAR/INS/ODO/GNSS车载组合导航算法研究", 中国博士学位论文全文数据库 基础科学辑, no. 8, 15 August 2022 (2022-08-15), pages 008 - 2 * |
王金龙;马涛: "基于RFID的城市道路交通流预测方法研究", 中国新通信, no. 013, 31 December 2019 (2019-12-31), pages 123 - 124 * |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114998436A (zh) * | 2022-06-27 | 2022-09-02 | 北京易航远智科技有限公司 | 对象标注方法、装置、电子设备及存储介质 |
CN115183778A (zh) * | 2022-07-01 | 2022-10-14 | 北京斯年智驾科技有限公司 | 一种基于码头石墩的建图方法、装置、设备以及介质 |
CN115561731A (zh) * | 2022-12-05 | 2023-01-03 | 安徽蔚来智驾科技有限公司 | 位姿优化方法、点云地图建立方法、计算机设备及介质 |
CN115561731B (zh) * | 2022-12-05 | 2023-03-10 | 安徽蔚来智驾科技有限公司 | 位姿优化方法、点云地图建立方法、计算机设备及介质 |
CN116539026A (zh) * | 2023-07-06 | 2023-08-04 | 杭州华橙软件技术有限公司 | 地图构建方法、装置、设备及存储介质 |
CN116539026B (zh) * | 2023-07-06 | 2023-09-29 | 杭州华橙软件技术有限公司 | 地图构建方法、装置、设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113551666A (zh) | 自动驾驶多传感器融合定位方法和装置、设备及介质 | |
JP7179110B2 (ja) | 測位方法、装置、計算装置、コンピュータ可読記憶媒体及びコンピュータプログラム | |
KR102463176B1 (ko) | 위치 추정 장치 및 방법 | |
CN112230242B (zh) | 位姿估计系统和方法 | |
CN110307836B (zh) | 一种用于无人清扫车辆贴边清扫的精确定位方法 | |
CN112835085B (zh) | 确定车辆位置的方法和装置 | |
CN113405545B (zh) | 定位方法、装置、电子设备及计算机存储介质 | |
CN113933818A (zh) | 激光雷达外参的标定的方法、设备、存储介质及程序产品 | |
CN113984044A (zh) | 一种基于车载多感知融合的车辆位姿获取方法及装置 | |
US20220398825A1 (en) | Method for generating 3d reference points in a map of a scene | |
CN113436261B (zh) | 一种面向封闭园区自动驾驶的单目视觉惯性定位方法 | |
CN113465628A (zh) | 惯性测量单元数据补偿方法及系统 | |
CN110637209B (zh) | 估计机动车的姿势的方法、设备和具有指令的计算机可读存储介质 | |
CN110989619B (zh) | 用于定位对象的方法、装置、设备和存储介质 | |
CN114136315A (zh) | 一种基于单目视觉辅助惯性组合导航方法及系统 | |
CN113218389B (zh) | 一种车辆定位方法、装置、存储介质及计算机程序产品 | |
CN107270904B (zh) | 基于图像配准的无人机辅助引导控制系统及方法 | |
CN117782063A (zh) | 一种基于图优化的可变滑动窗口的多传感器融合定位方法 | |
CN111044053B (zh) | 单舵轮无人车的导航方法、装置和单舵轮无人车 | |
CN117268408A (zh) | 一种激光slam定位方法及系统 | |
KR102633705B1 (ko) | 자율주행을 위한 차량의 위치추정 장치 및 방법 | |
CN115790603A (zh) | 一种用于信息拒止环境下的无人机动态目标估计方法 | |
CN115667845A (zh) | 用于移动载体的导航辅助方法 | |
CN111712855A (zh) | 地面信息处理方法、装置和无人驾驶车辆 | |
CN115574818B (zh) | 基于改进联邦滤波的结构化道路车辆导航定位方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |