CN109946732B - 一种基于多传感器数据融合的无人车定位方法 - Google Patents
一种基于多传感器数据融合的无人车定位方法 Download PDFInfo
- Publication number
- CN109946732B CN109946732B CN201910202376.3A CN201910202376A CN109946732B CN 109946732 B CN109946732 B CN 109946732B CN 201910202376 A CN201910202376 A CN 201910202376A CN 109946732 B CN109946732 B CN 109946732B
- Authority
- CN
- China
- Prior art keywords
- angle
- vehicle
- error
- centimeter
- course
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Navigation (AREA)
- Traffic Control Systems (AREA)
Abstract
本发明公开了一种基于多传感器数据融合的无人车定位方法,该方法充分利用厘米级高精度地图、视觉和激光雷达传感器数据,在卫星定位信号被遮挡区域实现高精度定位。本发明通过实时监测卫星定位数据有效性,不满足无人车定位要求时,利用厘米级高精度地图、激光雷达、里程计、视觉多传感器数据融合对卫星定位数据进行辅助,同时,对惯性导航累积误差进行修正,提高定位系统的可靠性、连续性和精度,且不需要增加传感器硬件成本。
Description
技术领域
本发明涉及无人驾驶汽车技术中的定位与导航领域,尤其涉及一种基于多传感器数据融合的无人车定位方法。
背景技术
随着DARPA重启无人车技术研究,并先后于2004年、2005年和2007年举办了三届智能车挑战赛,谷歌大力投入自动驾驶技术研究,近年来全球范围内掀起了自动驾驶技术研究的热潮。参与者既有谷歌、苹果、Uber、BAT等顶尖互联网企业,也有特斯拉、奔驰、宝马、通用、凯迪拉克等传统车企,同时,英特尔、英伟达、博世、Mobileye等零部件供应商也参与其中,另外自动驾驶领域创业公司也如雨后春笋般应运而生。
自动驾驶技术经过十多年发展,逐渐从实验室研究、到封闭环境技术竞赛、再到固定场景示范应用,虽然取得了长足的进展,但距离实际应用仍有较大距离。车企普遍采用的由低级辅助驾驶到高级辅助驾驶,再到限定场景自动驾驶,最后到达全自动驾驶的路途并不十分顺利,例如特斯拉公司车辆配备的辅助驾驶系统,至今仍事故频出。谷歌、BAT互联网公司及创业公司采用的由低速、封闭场景逐渐向外延伸的技术路线发展也并不理想,目前仍然只能在封闭场景低速驾驶状态下执行简单确定性任务,并且可靠性较低。
无人车定位是限制自动驾驶技术发展的关键和瓶颈技术之一,依靠单一传感器难以达到理想的定位效果。高精度卫星导航接收机、惯性导航设备、激光雷达、视觉等传感器可以实现绝对或相对定位,但各有优缺点,多传感器融合技术是实现无人车精确、稳定、可靠定位的有效方法。
发明内容
针对目前无人车定位传感器存在的卫星导航接收机连续性差、惯性导航设备误差随时间累积、激光雷达和视觉传感器实时性差等诸多难题,本发明提出一种基于多传感器融合的无人车定位方法。
本发明所采用的技术方案如下:一种基于多传感器数据融合的无人车定位方法,包括如下步骤:
(1)通过卫星导航接收机输出的定位数据,实时监测数据有效性,当出现PDOP>5、可视星数目小于等于4两种情况中任意一种时,判别为卫星定位数据可用性下降;
(2)当卫星定位数据可用性下降时,无人车进行制动,制动过程中,通过里程计和惯导数据融合,对定位位置进行更新,车辆静止后对惯导设备的俯仰角误差、横滚角误差、航向角误差、加速度计和陀螺仪器件常值误差进行修正;
(3)利用激光雷达和视觉传感器分别获取道路边界和车道线在车体坐标系中的二次函数表示,计算车头方向相对于厘米级高精度地图中对应目标点航向的偏移角,并据此求取基于厘米级高精度地图的车辆航向角,对步骤(2)中的航向角进行更新;
(4)通过激光雷达点云、视觉、厘米级高精度地图对无人车航向、俯仰、横滚、定位信息更新后,无人车恢复运行,通过里程计和惯导数据融合进行实时位置更新,同时激光雷达、视觉厘米级高精度地图数据融合获取车辆航向,对惯导航向角参数进行修正。
进一步的,所述步骤(2)中车辆静止后对惯导设备的俯仰角误差、横滚角误差、航向角误差、加速度计和陀螺仪器件常值误差进行修正,具体过程如下:
车辆静止后真实的速度为0,惯导设备输出的速度即为误差,并以此建立误差模型,利用kalman滤波器对姿态失准角、水平速度误差、加速度计和陀螺仪器件常值进行估计,状态向量X如下所示:
姿态失准角和速度误差对应的状态方程如下:
公式(2)-(6)中,ωie为地球自转角速度,L为纬度,VE为东向速度,RM为子午圈曲率半径、RN为卯酉圈曲率半径,VN为北向速度,h为高度,fi(i=E,N,U)为加速度计输出的比力在导航系下的投影;
T为姿态矩阵,具体表达式如下:
其中γ为横滚角,φ为航向角,θ为俯仰角。
进一步的,所述步骤(3)具体计算过程如下:
1)利用视觉传感器获取当前车道线的二次函数表示,并投影到车体坐标系O-XY平面,计算二次函数和X轴交点的切线斜率k0,进而计算得到切线和Y轴夹角β0;
2)利用激光雷达扫描周边环境,提取出边界特征点,然后投影到车体坐标系O-XY平面,剔除野值点,并利用最小二乘算法拟合出道路边界在二维平面中的二次函数表示,计算该二次函数和的交点坐标A0(x0,y0),该点切线和Y轴夹角β1;
本发明的有益效果如下:定位传感器是无人车的重要感知设备,定位数据是无人车轨迹规划与决策功能模块的重要输入,但是,由于无人车运行的实际道路环境非常复杂,依靠惯导、卫星导航、激光雷达、视觉等单一传感器难以持续获得稳定可靠定位数据。本发明公开了一种基于多传感器融合的无人车定位方法,利用该方法可以有效解决隧道、“城市峡谷”、树冠遮挡道路环境下卫星导航定位数据不可用问题,为无人车提供持续、稳定、可靠的高精度定位数据。
附图说明
图1为基于传感器数据融合和车辆航向计算方法示意图;
图2为多传感器融合的自动驾驶车辆定位方法流程图;
图3为RTK异常状态下多传感器融合定位方法原理图。
具体实施方式
下面结合附图对本发明做进一步的说明。
一种基于多传感器数据融合的无人车定位方法,包括如下步骤:
(1)通过卫星导航接收机输出的定位数据,实时监测数据有效性,当出现PDOP>5、可视星数目小于等于4两种情况中任意一种时,判别为卫星定位数据可用性下降;
(2)当卫星定位数据可用性下降时,无人车进行制动,制动过程中,通过里程计和惯导数据融合,对定位位置进行更新,车辆静止后对惯导设备的俯仰角误差、横滚角误差、航向角误差、加速度计和陀螺仪器件常值误差进行修正,具体过程如下:
车辆静止后真实的速度为0,惯导设备输出的速度即为误差,并以此建立误差模型,利用kalman滤波器对姿态失准角、水平速度误差、加速度计和陀螺仪器件常值进行估计,状态向量如下所示:
姿态失准角和速度误差对应的状态方程如下:
公式(2)-(6)中,ωie为地球自转角速度,RM、RN为地球半径参数,VE为东向速度,VN为北向速度,h为高度,L为纬度,fi(i=E,N,U)为加速度计输出的比力在导航系下的投影,Tij为姿态矩阵中的元素,具体表达式如下:
(3)利用激光雷达和视觉传感器分别获取道路边界和车道线在车体坐标系中的二次函数表示,计算车头方向相对于厘米级高精度地图标注对应点航向的偏移角,并据此求取基于厘米级高精度地图的车辆航向角,对步骤(2)中的航向角进行更新,具体计算过程如下:
1)利用视觉传感器获取当前车道线的二次函数表示,并投影到车体坐标系O-XY平面,Y轴为车头方向,计算二次函数和X轴交点的切线斜率k0,进而计算得到切线和车头方向夹角β0(逆时针为负,顺时针为正,下同)。
2)利用16线激光雷达(VLP-16)扫描周边环境,提取出边界特征点,然后投影到车体坐标系O-XY平面,剔除野值点,并利用最小二乘算法拟合出道路边界在二维平面中的二次函数表示,计算该二次函数和的交点坐标A0(x0,y0),进而计算该点切线和车头方向的夹角β1;
(4)通过激光雷达点云、视觉、厘米级高精度地图对无人车航向、俯仰、横滚、定位信息更新后,无人车恢复运行,通过里程计和惯导数据融合进行实时位置更新,同时激光雷达、视觉厘米级高精度地图数据融合获取车辆航向,对惯导航向进行修正。
根据定位信息、视觉识别车道线信息、激光雷达识别道路边界信息、厘米级高精度地图数据获取车辆当前航向计算方法见附图1。附图1中,OXY坐标系为车体坐标系在水平方向的投影,原点O位于车头顶端中央,高度和地面平行,Y轴为车头正前方,X轴垂直于Y轴,指向车体右侧。β0为车道线函数和X轴交点切线和车头方向夹角,因此,垂直于此切线的直线y和道路边界函数的交点A0即为厘米级高精度地图中和车辆位置对应的道路边界点。ybj函数在A0点的切线和Y轴的夹角β1,即为车体航向角和道路边界A0点厘米级高精度地图中航向夹角,据此可以求解基于定位和厘米级高精度地图的可靠地车辆航向角。
自动驾驶车辆多传感器融合定位整体逻辑流程见附图2,RTK异常状态下,基于厘米级高精度地图的激光雷达、视觉、惯导和里程计多传感器融合定位原理见附图3。
如附图2所示,通过卫星导航接收机发送的导航数据中的有效标志位、PDOP值判别RTK工作状态,当标志位无效或者PDOP值大于5时,判定RTK工作异常,车辆自主制动,同时,利用惯导/里程计组合,对定位信息进行更新,直至通过里程计判别车速为0km/h。车辆静止后,利用零速修正算法对惯导姿态误差、航向误差进行估计,并将修正后的定位和航向角数据用于辅助激光雷达和视觉,获取基于厘米级高精度地图的融合定位和航向信息,两种定位信息相差不大于30米、航向信息相差不大于5°,则将该信息更新至惯导,无人车启动,否则,重新进行融合定位和航向信息解算流程。
如附图3所示,视觉传感器对车道线进行识别,并在车体坐标系中用拟合的二次函数表示,利用车头对应点的车道线函数切线,获得车头方向相对于车道线的偏离角;利用惯导/里程计的位置信息,激光雷达点云信息和厘米级高精度地图进行局部信息匹配,解算获得基于厘米级高精度地图的融合定位信息,同时,获得道路边界点,并拟合出道路边界在车体坐标系的二次函数表示;利用车道线偏离角得到的车头方向偏转角,计算得到无人车当前位置对应的道路边界点,基于厘米级高精度地图数据得到无人车航向角,融合定位信息和惯导数据相差不大于30米、航向信息和惯导数据相差不大于5°,则认定本次融合定位数据有效。
Claims (1)
1.一种基于多传感器数据融合的无人车定位方法,其特征在于,包括如下步骤:
步骤(1)通过卫星导航接收机输出的定位数据,实时监测数据有效性,当出现PDOP>5、可视星数目小于等于4两种情况中任意一种时,判别为卫星定位数据可用性下降;
步骤(2)当卫星定位数据可用性下降时,无人车进行制动,制动过程中,通过里程计和惯导数据融合,对定位位置进行更新,车辆静止后对惯导设备的俯仰角误差、横滚角误差、航向角误差、加速度计和陀螺仪器件常值误差进行修正;
步骤(3)利用激光雷达和视觉传感器分别获取道路边界和车道线在车体坐标系中的二次函数表示,计算车头方向相对于厘米级高精度地图中对应目标点航向的偏移角,并据此求取基于厘米级高精度地图的车辆航向角,对步骤(2)中的航向角进行更新;
步骤(4)通过激光雷达、视觉传感器、厘米级高精度地图对无人车航向、俯仰、横滚、定位信息更新后,无人车恢复运行,通过里程计和惯导数据融合进行实时位置更新,同时激光雷达、视觉传感器、厘米级高精度地图数据融合获取车辆航向,对惯导航向角参数进行修正;
所述步骤(2)中车辆静止后对惯导设备的俯仰角误差、横滚角误差、航向角误差、加速度计和陀螺仪器件常值误差进行修正,具体过程如下:
车辆静止后真实的速度为0,惯导设备输出的速度即为误差,并以此建立误差模型,利用kalman滤波器对姿态失准角、水平速度误差、加速度计和陀螺仪器件常值进行估计,状态向量X如下所示:
姿态失准角和速度误差对应的状态方程如下:
公式(2)-(6)中,ωie为地球自转角速度,L为纬度,VE为东向速度,RM为子午圈曲率半径、RN为卯酉圈曲率半径,VN为北向速度,h为高度,fi(i=E,N,U)为加速度计输出的比力在导航系下的投影;
T为姿态矩阵,具体表达式如下:
其中γ为横滚角,φ为航向角,θ为俯仰角;
所述步骤(3)具体计算过程如下:
1)利用视觉传感器获取当前车道线的二次函数表示,并投影到车体坐标系O-XY平面,计算二次函数和X轴交点的切线斜率k0,进而计算得到切线和Y轴夹角β0;
2)利用激光雷达扫描周边环境,提取出边界特征点,然后投影到车体坐标系O-XY平面,剔除野值点,并利用最小二乘算法拟合出道路边界在二维平面中的二次函数表示,计算该二次函数和的交点坐标A0(x0,y0),该点切线和Y轴夹角β1;
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910202376.3A CN109946732B (zh) | 2019-03-18 | 2019-03-18 | 一种基于多传感器数据融合的无人车定位方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910202376.3A CN109946732B (zh) | 2019-03-18 | 2019-03-18 | 一种基于多传感器数据融合的无人车定位方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109946732A CN109946732A (zh) | 2019-06-28 |
CN109946732B true CN109946732B (zh) | 2020-12-01 |
Family
ID=67010135
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910202376.3A Active CN109946732B (zh) | 2019-03-18 | 2019-03-18 | 一种基于多传感器数据融合的无人车定位方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109946732B (zh) |
Families Citing this family (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112923931A (zh) * | 2019-12-06 | 2021-06-08 | 北理慧动(常熟)科技有限公司 | 一种基于固定路线下的特征地图匹配与gps定位信息融合方法 |
US20210179115A1 (en) * | 2019-12-16 | 2021-06-17 | GM Global Technology Operations LLC | Method and apparatus for monitoring a yaw sensor |
CN111207761B (zh) * | 2019-12-31 | 2021-12-07 | 深圳一清创新科技有限公司 | 车辆定位方法、装置、计算机设备和存储介质 |
CN111158030A (zh) * | 2020-01-17 | 2020-05-15 | 珠海格力电器股份有限公司 | 卫星定位方法和装置 |
CN111252113B (zh) * | 2020-01-19 | 2021-10-26 | 合肥工大高科信息科技股份有限公司 | 一种基于信息共识的分布式机车定位方法及装置 |
CN113375661A (zh) * | 2020-02-25 | 2021-09-10 | 郑州宇通客车股份有限公司 | 一种无人驾驶系统的定位导航方法及系统 |
CN111707256A (zh) * | 2020-05-13 | 2020-09-25 | 苏州天炯信息科技有限公司 | 一种助航灯快速布置特种车辆的综合定位导航设备 |
CN111854730A (zh) * | 2020-06-19 | 2020-10-30 | 中国煤炭科工集团太原研究院有限公司 | 一种无人驾驶轻型无轨胶轮客货车定位方法及系统 |
CN111721289B (zh) * | 2020-06-28 | 2022-06-03 | 阿波罗智能技术(北京)有限公司 | 自动驾驶中车辆定位方法、装置、设备、存储介质及车辆 |
CN113932820A (zh) * | 2020-06-29 | 2022-01-14 | 杭州海康威视数字技术股份有限公司 | 对象检测的方法和装置 |
CN112014849B (zh) * | 2020-07-15 | 2023-10-20 | 广东工业大学 | 一种基于传感器信息融合的无人车定位修正方法 |
CN112050809B (zh) * | 2020-10-08 | 2022-06-17 | 吉林大学 | 轮式里程计与陀螺仪信息融合的无人车定向定位方法 |
CN112612788B (zh) * | 2020-12-11 | 2024-03-01 | 中国北方车辆研究所 | 一种无导航卫星信号下的自主定位方法 |
CN113009412A (zh) * | 2021-01-06 | 2021-06-22 | 武汉理工大学 | 基于rfid数字化路面的定位系统及方法 |
CN112985425A (zh) * | 2021-02-02 | 2021-06-18 | 恒大新能源汽车投资控股集团有限公司 | 基于异构感知数据融合的车辆定位方法、装置及系统 |
CN113514863A (zh) * | 2021-03-23 | 2021-10-19 | 重庆兰德适普信息科技有限公司 | 一种多传感器融合定位方法 |
CN113236363B (zh) * | 2021-04-23 | 2024-08-27 | 陕西陕煤黄陵矿业有限公司 | 开采设备导航定位方法、系统、设备及可读存储介质 |
CN113327443A (zh) * | 2021-05-31 | 2021-08-31 | 东风汽车集团股份有限公司 | 一种用于自动驾驶的地理围栏判定方法及装置 |
CN113447949B (zh) * | 2021-06-11 | 2022-12-09 | 天津大学 | 一种基于激光雷达和先验地图的实时定位系统及方法 |
CN113405549B (zh) * | 2021-06-17 | 2023-11-14 | 中寰卫星导航通信有限公司 | 车辆定位方法、组件、电子设备及存储介质 |
CN113534227B (zh) * | 2021-07-26 | 2022-07-01 | 中国电子科技集团公司第五十四研究所 | 一种适用于复杂非合作场景的多传感器融合绝对定位方法 |
WO2023023936A1 (zh) * | 2021-08-24 | 2023-03-02 | 华为技术有限公司 | 定位方法和定位装置 |
CN117990104A (zh) * | 2023-11-09 | 2024-05-07 | 南京晓庄学院 | 局部地图下共享平衡车高精自主导航系统 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN100541134C (zh) * | 2006-11-09 | 2009-09-16 | 复旦大学 | 利用gps与陀螺仪、里程计的组合定位方法与装置 |
CN103207634A (zh) * | 2013-03-20 | 2013-07-17 | 北京工业大学 | 一种智能车辆中差分gps与惯性导航数据融合的系统和方法 |
CN105205859B (zh) * | 2015-09-22 | 2018-05-15 | 王红军 | 一种基于三维栅格地图的环境特征的相似性度量方法 |
US10295365B2 (en) * | 2016-07-29 | 2019-05-21 | Carnegie Mellon University | State estimation for aerial vehicles using multi-sensor fusion |
TW201831920A (zh) * | 2017-02-22 | 2018-09-01 | 鴻海精密工業股份有限公司 | 自主移動設備 |
CN109425365B (zh) * | 2017-08-23 | 2022-03-11 | 腾讯科技(深圳)有限公司 | 激光扫描设备标定的方法、装置、设备及存储介质 |
CN108051839B (zh) * | 2017-10-27 | 2021-11-05 | 成都天合世纪科技有限责任公司 | 一种车载三维定位装置及三维定位的方法 |
-
2019
- 2019-03-18 CN CN201910202376.3A patent/CN109946732B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN109946732A (zh) | 2019-06-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109946732B (zh) | 一种基于多传感器数据融合的无人车定位方法 | |
CN107246868B (zh) | 一种协同导航定位系统及导航定位方法 | |
US11802769B2 (en) | Lane line positioning method and apparatus, and storage medium thereof | |
EP3109589B1 (en) | A unit and method for improving positioning accuracy | |
KR101454153B1 (ko) | 가상차선과 센서 융합을 통한 무인 자율주행 자동차의 항법시스템 | |
CN113945206A (zh) | 一种基于多传感器融合的定位方法及装置 | |
CN110307836B (zh) | 一种用于无人清扫车辆贴边清扫的精确定位方法 | |
CN107132563B (zh) | 一种里程计结合双天线差分gnss的组合导航方法 | |
Wang et al. | Vehicle localization at an intersection using a traffic light map | |
JP2008249639A (ja) | 自己位置標定装置、自己位置標定方法および自己位置標定プログラム | |
CN103777220A (zh) | 基于光纤陀螺、速度传感器和gps的实时精确位姿估计方法 | |
KR102331312B1 (ko) | 차량 내부 센서, 카메라, 및 gnss 단말기를 이용한 3차원 차량 항법 시스템 | |
CN109813306A (zh) | 一种无人车规划轨迹卫星定位数据可信度计算方法 | |
CN110823224B (zh) | 一种车辆定位方法及车辆 | |
CN113405555B (zh) | 一种自动驾驶的定位传感方法、系统及装置 | |
CN113252022A (zh) | 一种地图数据处理方法及装置 | |
Gao et al. | An integrated land vehicle navigation system based on context awareness | |
Niu et al. | Camera-based lane-aided multi-information integration for land vehicle navigation | |
Hu et al. | Kilometer sign positioning-aided INS/odometer integration for land vehicle autonomous navigation | |
CN115790613B (zh) | 一种视觉信息辅助的惯性/里程计组合导航方法及装置 | |
Sajeed et al. | Vehicle lane departure estimation on urban roads using GIS information | |
EP3828583A1 (en) | Analysis of localization errors in a mobile object | |
Kim et al. | High accurate affordable car navigation using built-in sensory data and images acquired from a front view camera | |
CN116608871A (zh) | 使用地图数据和视觉数据的交通工具定位 | |
TWI635302B (zh) | 載具即時精準定位系統 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
TR01 | Transfer of patent right | ||
TR01 | Transfer of patent right |
Effective date of registration: 20230807 Address after: Room 410, 4th Floor, No. 4, Yard 19, Huangping Road, Changping District, Beijing 102200 Patentee after: Beijing Kunpeng Borui Technology Co.,Ltd. Address before: 100039 times Instruments Co., Ltd., Ministry of space, No. 50, Yongding Road, Haidian District, Beijing Patentee before: Li Ziyue |