CN114184200B - 一种结合动态建图的多源融合导航方法 - Google Patents
一种结合动态建图的多源融合导航方法 Download PDFInfo
- Publication number
- CN114184200B CN114184200B CN202210133071.3A CN202210133071A CN114184200B CN 114184200 B CN114184200 B CN 114184200B CN 202210133071 A CN202210133071 A CN 202210133071A CN 114184200 B CN114184200 B CN 114184200B
- Authority
- CN
- China
- Prior art keywords
- camera
- map
- image
- guide line
- point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 44
- 238000013507 mapping Methods 0.000 title claims abstract description 14
- 230000004927 fusion Effects 0.000 title claims abstract description 11
- 238000005259 measurement Methods 0.000 claims abstract description 42
- 230000000007 visual effect Effects 0.000 claims abstract description 29
- 239000011159 matrix material Substances 0.000 claims description 35
- 230000007704 transition Effects 0.000 claims description 19
- 238000010276 construction Methods 0.000 claims description 15
- 239000013598 vector Substances 0.000 claims description 13
- 238000001914 filtration Methods 0.000 claims description 11
- 230000009466 transformation Effects 0.000 claims description 11
- 230000000875 corresponding effect Effects 0.000 claims description 6
- 238000006073 displacement reaction Methods 0.000 claims description 6
- 238000000605 extraction Methods 0.000 claims description 6
- 230000001965 increasing effect Effects 0.000 claims description 4
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 claims description 3
- 235000004522 Pentaglottis sempervirens Nutrition 0.000 claims description 3
- 230000002596 correlated effect Effects 0.000 claims description 3
- 238000001514 detection method Methods 0.000 claims description 3
- 238000009499 grossing Methods 0.000 claims description 3
- 238000007781 pre-processing Methods 0.000 claims description 3
- 238000012545 processing Methods 0.000 claims description 3
- 230000007613 environmental effect Effects 0.000 claims description 2
- 230000008447 perception Effects 0.000 abstract description 3
- 235000008331 Pinus X rigitaeda Nutrition 0.000 description 5
- 235000011613 Pinus brutia Nutrition 0.000 description 5
- 241000018646 Pinus brutia Species 0.000 description 5
- 230000004807 localization Effects 0.000 description 5
- 230000008901 benefit Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000006872 improvement Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000009825 accumulation Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/28—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
- G01C21/30—Map- or contour-matching
- G01C21/32—Structuring or formatting of map data
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/38—Electronic maps specially adapted for navigation; Updating thereof
- G01C21/3804—Creation or updating of map data
- G01C21/3833—Creation or updating of map data characterised by the source of data
- G01C21/3841—Data obtained from two or more sources, e.g. probe vehicles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S19/00—Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
- G01S19/38—Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
- G01S19/39—Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
- G01S19/42—Determining position
- G01S19/45—Determining position by combining measurements of signals from the satellite radio beacon positioning system with a supplementary measurement
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/251—Fusion techniques of input or preprocessed data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
Landscapes
- Engineering & Computer Science (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Automation & Control Theory (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Cheminformatics (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computer Networks & Wireless Communication (AREA)
- Navigation (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种结合动态建图的多源融合导航方法,包括以下步骤:步骤1,构建高精度3D点云地图和引导线地图;步骤2,对步骤1中所构建的3D点云地图进行辅助的全球导航卫星系统或惯性测量元件或视觉组合导航解算;步骤3,采用隐马尔可夫链模型将定位轨迹匹配到步骤1中所构建的引导线地图上;步骤4,用匹配后的位姿修正3D点云地图和引导线地图。本发明提出的方法消除了组合导航系统中VO算法的不稳定性以及视觉定位中未充分挖掘图像中有用信息辅助定位的问题;有效提高了组合导航系统速度的可靠性;充分挖掘了图像中有用信息辅助定位,实现对构建的地图进行实时更新,并有效的用于载体的场景感知与定位。
Description
技术领域
本发明涉及一种多源融合导航方法,特别是一种结合动态建图的多源融合导航方法。
背景技术
随着智能交通系统的发展,高性能车载导航定位技术需求不断增加。传统的GNSS/IMU组合导航是目前使用最为广泛的导航定位技术,在一定程度上解决了惯性测量元件(Inertial Measurement Unit,IMU)误差累积和全球导航卫星系统(Global NavigationSatellite System,GNSS)信号中断的问题。但是在城市峡谷环境下,随着GNSS信号中断时间变长,GNSS/IMU组合导航性能不断下降,不能满足精准定位的需求。视觉传感器具有体积小、功耗低、价格低廉,能够实现自主定位,地图构建,目标识别等优势,同时移动平台行驶受到道路等路面信息的约束,因此将视觉传感器和地图匹配来提高GNSS/IMU组合导航系统精度成为近年来研究的热点。
Chen和Chiang提出了一种用双目视觉传感器协助低精度惯性导航系统(InertialNavigation System,INS)/全球定位系统(Global Positioning System,GPS)组合系统的算法,利用视觉里程计(Visual Odometer,VO)的位置、速度信息辅助INS/GPS组合定位,虽然组合导航系统能够在一定程度上提高GPS信号中断时的定位精度,但是该系统的VO算法存在不稳定性,影响了系统最终定位的可靠性。Sun提出了一种使用非完整约束的基于两次扩展卡尔曼滤波的GNSS/IMU/VO组合导航方案,实验结果表明,在城市复杂环境下可以得到3.285m的三维位置误差。Liao、Li等人开发了一种基于扩展卡尔曼滤波的GNSS/INS/Vision紧耦合组合方案,提出了一种结合旋转二进制鲁棒独立基本特征(Binary RobustIndenpendent Elementary Features,BRIEF)描述子和稀疏光流跟踪法(Kanade-Lucas-Tomasi Tracking Method,KLT)的特征跟踪算法(参考:Liao J, Li X, Wang X, et al.Enhancing navigation performance through visual-inertial odometry in GNSS-degraded environment[J]. GPS Solutions, 2021, 25(2): 1-18.),实验结果证明在城市峡谷中,所提算法的导航性能相比于GNSS/INS松耦合组合导航有极大的提高,由于缺少地图辅助,当存在特征不匹配和复杂驾驶环境下的动态目标时,导航性能会变得比GNSS/INS松耦合组合导航更糟糕的情况。
Tao和Bonnifait等人提出了一种利用摄像机的车道检测功能检索道路标记的横向和方向信息进行自主实时定位的算法(参考:Tao Z, Bonnifait P, Fremont V, et al.Mapping and localization using GPS, lane markings and proprioceptive sensors[C]//2013 IEEE/RSJ International Conference on Intelligent Robots andSystems. IEEE, 2013: 406-412.),但是该方法需要移动平台在定位前通过高精度定位装置进行移动测绘。Nedevschi等人提出了一种基于贝叶斯网络的结合视觉和数字地图信息来识别当前车道的定位方案(参考:Nedevschi S, Popescu V, Danescu R, et al.Accurate ego-vehicle global localization at intersections through alignmentof visual data with digital map[J]. IEEE transactions on intelligenttransportation systems, 2012, 14(2): 673-687.),实现了亚米级全局定位精度;Wu提出了一种利用视觉识别道路上各种交通标志(箭头、人行横道和限速牌等)进行车道级定位的方法(参考:Wu T, Ranganathan A. Vehicle localization using road markings[C]//2013 IEEE Intelligent Vehicles Symposium (IV). IEEE, 2013: 1185-1190.);但是这两种车道级定位方案都依赖先验高精度3D数字地图信息。Zhu和Shen等人提出了一种基于视觉匹配路标点和车道线约束的GNSS/INS/Vision紧耦合组合导航算法(参考:ZhuF, Shen Y, Wang Y, et al. Fusing GNSS/INS/Vision with a Priori Feature Mapfor High-precision and Continuous Navigation[J]. IEEE Sensors Journal, 2021,21(20): 23370-23381.),在一定程度上可以提高定位精度。Liu等人提出了一种与GNSS原始观测量紧耦合的基于优化的视觉/惯性即时定位与建图(Simultaneous Localizationand Mapping,SLAM)组合导航方案(参考:Liu J, Gao W, Hu Z. Optimization-basedvisual-inertial SLAM tightly coupled with raw GNSS measurements[C]//2021 IEEEInternational Conference on Robotics and Automation (ICRA). IEEE, 2021:11612-11618.),将GNSS测量误差、重投影误差和IMU预积分误差进行联合图优化获得最终导航定位结果,但该算法在建图时并未充分利用图像中的有用信息,定位精度有望进一步提高。
现有的GNSS/IMU/Vision组合导航方案中,视觉测速存在不稳定性,当存在特征不匹配或复杂环境下的动态目标时,在缺少地图辅助的情况下,相机定位精度及视觉测速精度急剧下降,因此无法保证组合导航定位系统的可靠性;
现有的基于视觉匹配的GNSS/IMU/Vision组合导航方案中通常使用静态3D电子地图,而3D高精度数字电子地图存在更新滞后、精度不变的问题,虽然有些算法利用建立的3D点云地图协助定位,但是并未充分挖掘视觉图像中的有用信息,不能实现载体有效的场景感知,最终无法进一步提高组合导航定位精度。
发明内容
发明目的:本发明所要解决的技术问题是针对现有技术的不足,提供一种结合动态建图的多源融合导航方法。
为了解决上述技术问题,本发明公开了一种结合动态建图的多源融合导航方法,包括以下步骤:
步骤1,构建高精度3D点云地图和引导线地图;
步骤2,对步骤1中所构建的3D点云地图进行辅助的全球导航卫星系统或惯性测量元件或视觉组合导航解算;
步骤3,采用隐马尔可夫链模型将定位轨迹匹配到步骤1中所构建的引导线地图上;
步骤4,用匹配后的位姿修正3D点云地图和引导线地图。
本发明步骤1中,利用高精度全球导航卫星系统及惯性测量元件组合导航设备和相机构建高精度3D点云地图和引导线地图,包括以下步骤:
步骤1-1,构建3D点云地图;
步骤1-2,构建引导线地图;
步骤1-3,建立字典;
其中,步骤1-1中所述构建3D点云地图的方法,包括以下步骤:
步骤1-1-1,对相机拍摄的图像进行特征提取和特征匹配,使用尺度不变特征变换的特征来描述环境特征;
构建得到的3D点云地图中匹配的特征点在世界坐标系中的坐标G为:
本发明步骤1-2中所述构建引导线地图包括以下步骤:
步骤1-2-1,图像预处理:
在图像中设置引导线所在的区域并进行截取;使用高斯滤波器对截取的图像进行平滑;使用仿射变换将图像转换成鸟瞰图;通过设置颜色阈值,对图形进行二值化处理,得到二值化图像;
步骤1-2-2,引导线检测:
对上述二值化图像进行高斯直方图统计,将两个极大峰值作为左右引导线的搜索起点;设置滑动窗口的大小,将行驶引导道离散为多个窗口,利用高斯直方图统计窗口,将高斯分布曲线的最大峰值所在点作为窗口的每个中心;寻找所有滑动窗口的中心位置,将这些中心点通过直线拟合或曲线拟合得到当前引导线曲线参数;
步骤1-2-3,引导线跟踪:
引导线在前后两帧图像中的位置相互关联,根据前一帧中引导线的位置预测当前帧中引导线的坐标;采用速度模型建立上一帧引导线位置与当前帧中引导线的位置关系:
观测方程为:
获得第一帧引导线位置后,根据当前帧的观测值利用卡尔曼滤波对后续帧进行连续跟踪;
步骤1-2-4,建立引导线地图:
得到单应矩阵后,将检测的引导线像素坐标通过单应矩阵变换到相机坐标系,再利用高精度全球导航卫星系统及惯性测量元件求解的相机位姿,将引导线点从相机坐标系转换到世界坐标系,最终完成引导线地图的构建。
本发明步骤1-3中所述建立字典,包括以下步骤:
使用词袋模型计算图像间的相似性,采用k叉树结构建立字典,对每一帧图像均用单词描述,实现地图数据库中快速最近邻搜索构建一个深度d=7、每次分叉数k=10的树:
步骤1-3-1,采用k-means算法把所有单词分为k类,得到字典的第一层;
步骤1-3-2,对第一层的每个节点,把属于该节点的样本用k-means算法聚类成k类,得到下一层;
步骤1-3-3,对每一层采用上述方法,直到得到最后的叶子层;
本发明步骤2中所述3D点云地图辅助的全球导航卫星系统或惯性测量元件或视觉组合导航解算方法,包括以下步骤:
步骤2-1,3D点云地图辅助求解相机速度;
步骤2-2,惯性测量元件输出判断相机解算速度是否使用非完整约束进行约束;
步骤2-3,全球导航卫星系统或惯性测量元件或视觉松组合导航解算。
本发明步骤2-1中所述3D点云地图辅助求解相机速度方法,包括:
解算得到的最大相似度即为匹配到的地图数据库中的图片,找到匹配图片后,则获得图像像素坐标系中坐标和与之对应的路标点在世界坐标系中的坐标,接着利用PnP算法求解相机位姿,设相机的位姿为和,位姿的李代群用表示,即, 为的全零矩阵的转置,像素坐标的归一化平面齐次坐标为,其深度为,其对应的路标点在世界坐标系中的齐次坐标为,则两者之间的关系为:
写成矩阵形式为:
上式中,相机位姿未知并且存在观测噪声,存在重投影误差,PnP算法通过将误差求和,寻找使误差最小的相机位姿,即
本发明步骤2-2中所述惯性测量元件输出判断相机解算速度是否使用非完整约束进行约束,方法如下:
利用惯性测量元件输出的纵向和横向角速度判断移动平台是否发生换道和转弯,当惯性测量元件输出的沿载体横向的角速度时,判定移动平台横向速度为0,沿载体纵向的角速度时,判定移动平台纵向速度为0,即移动平台保持直行,此时,对相机求解的速度增加非完整约束:
本发明步骤2-3中所述全球导航卫星系统或惯性测量元件或视觉松组合导航解算,方法如下:
根据惯性导航的力学编排,构建基于扩展卡尔曼滤波的全球导航卫星系统或惯性测量元件或视觉松组合导航系统状态方程,即:
在全球导航卫星系统接收到星历文件和观测文件后,根据伪距单点定位和多普勒测速解算移动平台的三维位置和速度,得到全球导航卫星系统的观测方程:
经非完整约束的相机测速观测方程为:
得到全球导航卫星系统或惯性测量元件或视觉松组合导航系统状态方程和观测方程后,利用卡尔曼滤波解算车辆的导航参数。
本发明步骤3中所述用隐马尔可夫链模型将定位轨迹匹配到引导线地图上,方法如下:
采用隐马尔可夫链模型实现地图匹配的步骤如下:
步骤3-1,在引导线地图中寻找组合导航解算的移动平台位置在设定半径范围内的所有候选路段;
步骤3-2,针对每个候选路段计算观测概率和状态转移概率:
观测概率:
设组合导航定位点与候选点之间的距离误差服从零均值高斯分布,观测概率为:
其中, 为松组合系统解算的移动平台位置, 为t时刻第i条候选路段,假设为第i条候选路段的候选点, 为观测点与候选路段之间的距离,为当 t时刻的移动平台真实位置在引导道中的位置时观测到的概率,是组合导航解算位置的标准差,e为自然对数的底数, π是圆周率;
状态转移概率:
状态转移概率为组合导航解算的移动平台位置在引导线网络中从t时刻的一条候选路段 移动到 时刻的一条候选路段的概率;当前时刻组合导航定位点与下一时刻组合导航定位点的候选点之间的距离越小时,选择这条道路的可能性越大,反之则越小;构建转移概率:
步骤3-3,利用维特比算法求解最有可能的隐藏序列即最优路径,最终实现将定位轨迹匹配到引导线地图上。
本发明步骤4中所述用匹配后的位姿修正3D点云地图和引导线地图,方法如下:
在完成步骤3中所述定位轨迹与引导线地图匹配后,根据解算的移动平台高精度位姿,按照步骤1所述方法进一步修正3D点云地图和引导线地图,完成所述地图实时更新。
有益效果:
本发明提出的方法消除了组合导航中VO算法的不稳定性以及视觉定位中未充分挖掘图像中有用信息辅助定位的问题;
(1)针对GNSS/IMU/Vision组合导航系统中视觉获取速度存在不稳定性,利用构建的高精度3D点云地图辅助相机位姿估计,同时利用IMU输出的纵向和横向角速度判断移动平台是否发生换道和转弯,当移动平台保持直行时,对相机位置差分求解的移动平台速度增加NHC约束,使用经NHC约束的相机速度与GNSS/IMU系统进行组合导航求解移动平台的位姿,有效提高了组合导航系统速度的可靠性;
(2)针对现有的基于匹配的GNSS/IMU/Vision组合导航方案大多依赖高精度3D电子地图,而3D电子地图更新不及时和定位精度有限的问题以及融合多传感器的SLAM组合导航方案只对3D特征点进行建图,并未充分挖掘视觉图像中的其他有用信息辅助定位的问题,在利用高精度GNSS/IMU设备和视觉设备构建高精度3D点云地图的同时,挖掘图像中的引导线信息构建引导线地图,将GNSS/IMU/Vision组合导航解算地存在着一定误差的定位轨迹通过隐马尔可夫链模型精确匹配到引导线地图上,从而获得更准确的车载位置信息和所在路段信息, 充分挖掘了图像中有用信息辅助定位,实现对构建的地图进行实时更新,并有效的用于载体的场景感知与定位。
附图说明
下面结合附图和具体实施方式对本发明做更进一步的具体说明,本发明的上述和/或其他方面的优点将会变得更加清楚。
图1为本发明一种结合动态建图的多源融合导航方法流程图。
具体实施方式
本发明的核心内容为一种结合动态建图的多源融合导航方法,包括如下4个阶段:(1)构建高精度3D点云地图和引导线地图;(2)点云地图辅助的GNSS/IMU/Vision组合导航解算;(3)隐马尔可夫链模型将定位轨迹匹配到引导线地图上;(4)用匹配后的位姿修正3D点云地图和引导线地图。其总体流程如图1所示:
(1)构建高精度3D点云地图和引导线地图
首先,利用高精度GNSS/IMU组合导航设备和相机构建高精度3D点云地图和引导线地图。具体步骤如下:
1)构建3D点云地图
第一步:对相机拍摄的图像进行特征提取和特征匹配,由于尺度不变特征变换(Scale Invariant Feature Transform,SIFT)特征具有尺度不变性、旋转不变性,有着较好的稳定性、可靠性和准确性,在本发明中,使用SIFT特征来描述环境特征;
2)构建引导线地图
第一步:图像预处理。在图像中设置感兴趣区域即引导线所在的区域并进行截取;使用高斯滤波器对截取的图像进行平滑;使用仿射变换将图像转换成鸟瞰图;通过设置颜色阈值,对图形进行二值化处理。
第二步:引导线检测。对二值化图像进行高斯直方图统计,将两个极大峰值作为左右引导线的搜索起点;设置滑动窗口的大小,将车道离散为多个窗口,利用高斯直方图统计窗口,将高斯分布曲线的最大峰值所在点作为窗口的每个中心;寻找所有滑动窗口的中心位置,将这些中心点通过直线拟合或曲线拟合得到当前引导线曲线参数。
第三步:引导线跟踪。引导线在前后两帧图像中的位置是相互关联的,可以根据前一帧中引导线的位置预测当前帧中引导线的坐标。采用速度模型建立上一帧引导线位置与当前帧中引导线的位置关系:
观测方程为:
在获得第一帧引导线的位置后,根据当前帧的观测值即可利用卡尔曼滤波对后续帧进行连续跟踪。
在得到单应矩阵后,可以将检测的引导线像素坐标通过单应矩阵变换到相机坐标系,再利用高精度GNSS/IMU求解的相机位姿,将引导线点从相机坐标系转换到世界坐标系,最终完成引导线地图的构建。
3)建立字典
在巨大的地图数据库中实现快速最近邻搜索是极其困难的,为了提高匹配效率,使用词袋模型计算图像间的相似性,采用k叉树结构建立字典,对每一帧图像都用单词来描述。构建一个深度d=7、每次分叉数k=10的树:
第一步:采用k-means算法(参考:杨淑莹,郑清春.模式识别与智能计算—MATLAB技术实现[M].第4版.电子工业出版社, 2019.11 :202-206.)把所有单词分为k个类,得到字典的第一层;
第二步:对第一层的每个节点,把属于该节点的样本再次用k-means算法聚类成k类,得到下一层;
第三步:依次类推,直到得到最后的叶子层。
(2)点云地图辅助的GNSS/IMU/Vision组合导航解算
解算的最大相似度即为匹配到的地图数据库中的图片,找到匹配图片后,则可获得图像像素坐标系中坐标和与之对应的路标点在世界坐标系中的坐标,接着利用PnP算法(参考:高翔,张涛.视觉SLAM十四讲[M].第2版.电子工业出版社, 2017.3 :180-184.)求解相机位姿,PnP算法是通过迭代求出使重投影误差即像素坐标与3D点坐标按照当前估计的位姿进行投影得到位姿相比较得到的误差最小的相机外参的方法。假设相机的位姿为和,位姿的李代群用表示,即,为的全零矩阵的转置,像素坐标的归一化平面齐次坐标为 ,像素点的深度为,其对应的路标点在世界坐标系中的齐次坐标为,则两者之间的关系为:
写成矩阵形式为:
上式中,相机位姿未知并且存在观测噪声,存在重投影误差,PnP算法通过将误差求和,寻找使误差最小的相机位姿,即
第二步:IMU输出判断相机解算速度是否使用NHC约束。
利用IMU输出的纵向和横向角速度判断移动平台是否发生换道和转弯,当IMU输出的角速度时,默认移动平台横向速度为0, 时,默认移动平台纵向速度为0,即移动平台保持直行,此时,对相机求解的速度增加NHC约束:
第三步:GNSS/IMU/Vision松组合导航解算。
根据惯性导航的力学编排原理,构建基于扩展卡尔曼滤波的GNSS/IMU/Vision松组合导航系统状态方程,即
在GNSS接收机接收到星历文件和观测文件后,根据伪距单点定位和多普勒测速解算移动平台的3维位置和速度,可以得到GNSS观测方程:
经NHC约束的相机测速观测方程为:
在得到GNSS/IMU/Vision松组合导航系统状态方程和观测方程后,可以利用卡尔曼滤波解算车辆的导航参数。
(3)用隐马尔可夫链模型将定位轨迹匹配到引导线地图上
由于城市环境的复杂性,GNSS/INS/Vision松组合导航系统解算的移动平台位置存在着一定的误差,本发明利用构建的引导线地图,基于隐马尔可夫链(Hidden MarkovModels,HMM)模型(参考:Hansson A, Korsberg E, Maghsood R, et al. Lane-level mapmatching based on HMM[J]. IEEE Transactions on Intelligent Vehicles, 2020.)将定位轨迹准确地匹配到该地图上,从而提高导航定位精度。
基于HMM模型的地图匹配算法主要解决在已知模型参数和观测序列的情况下,寻找使观测序列出现概率最大的状态序列即最优路径。HMM模型主要包含三个参数:初始状态概率向量、状态转移概率矩阵和观测概率矩阵。用HMM模型实现地图匹配的步骤如下:
第一步:在车道线地图中寻找组合导航解算的车辆位置10m半径范围内的所有候选路段;
第二步:针对每个候选路段计算观测概率和状态转移概率:
观测概率:
假设组合导航定位点与候选点之间的距离误差服从零均值高斯分布,观测概率为:
其中, 为松组合系统解算的移动平台位置,为t时刻第i条候选路段,假设为第i条候选路段的候选点, 为观测点 与候选路段之间的距离为当时刻的移动平台真实位置在引导道中的位置 时观测到的概率,是组合导航解算位置的标准差, e为自然对数的底数, π是圆周率。状态转移概率:
状态转移概率是指组合导航解算的载体位置在引导线网络中从时刻的一条候选路段 移动到时刻的一条候选路段的概率。当前时刻组合导航定位点与下一时刻组合导航定位点的候选点之间的距离越小时,选择这条道路的可能性越大,反之则越小。根据以上,可以构建转移概率:
第三步:利用维特比算法(Viterbi Algorithm ,VA)求解最有可能的隐藏序列即最优路径(参考:Forney G D. The viterbi algorithm[J]. Proceedings of the IEEE,1973, 61(3): 268-278.)。
(4)用最终解算的位姿修正3D点云地图和引导线地图
在通过GNSS/IMU/Vision松组合导航解算和地图匹配后,可以获得移动平台的高精度位姿,根据解算的移动平台高精度位姿,进一步修正3D点云地图和引导线地图(步骤同3D点云地图构建和引导线地图构建),从而实现地图的实时更新,并用于下一个历元的计算。
本发明提供了一种结合动态建图的多源融合导航方法,具体实现该技术方案的方法和途径很多,以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。本实施例中未明确的各组成部分均可用现有技术加以实现。
Claims (1)
1.一种结合动态建图的多源融合导航方法,其特征在于,包括以下步骤:
步骤1,构建高精度3D点云地图和引导线地图;
步骤2,对步骤1中所构建的3D点云地图进行辅助的全球导航卫星系统或惯性测量元件或视觉组合导航解算;
步骤3,采用隐马尔可夫链模型将定位轨迹匹配到步骤1中所构建的引导线地图上;
步骤4,用匹配后的位姿修正3D点云地图和引导线地图;
步骤1中,利用高精度全球导航卫星系统及惯性测量元件组合导航设备和相机构建高精度3D点云地图和引导线地图,包括以下步骤:
步骤1-1,构建3D点云地图;
步骤1-2,构建引导线地图;
步骤1-3,建立字典;
其中,步骤1-1中所述构建3D点云地图的方法,包括以下步骤:
步骤1-1-1,对相机拍摄的图像进行特征提取和特征匹配,使用尺度不变特征变换的特征来描述环境特征;
构建得到的3D点云地图中匹配的特征点在世界坐标系中的坐标G为:
步骤1-2中所述构建引导线地图包括以下步骤:
步骤1-2-1,图像预处理:
在图像中设置引导线所在的区域并进行截取;使用高斯滤波器对截取的图像进行平滑;使用仿射变换将图像转换成鸟瞰图;通过设置颜色阈值,对图形进行二值化处理,得到二值化图像;
步骤1-2-2,引导线检测:
对上述二值化图像进行高斯直方图统计,将两个极大峰值作为左右引导线的搜索起点;设置滑动窗口的大小,将行驶引导道离散为多个窗口,利用高斯直方图统计窗口,将高斯分布曲线的最大峰值所在点作为窗口的每个中心;寻找所有滑动窗口的中心位置,将这些中心点通过直线拟合或曲线拟合得到当前引导线曲线参数;
步骤1-2-3,引导线跟踪:
引导线在前后两帧图像中的位置相互关联,根据前一帧中引导线的位置预测当前帧中引导线的坐标;采用速度模型建立上一帧引导线位置与当前帧中引导线的位置关系:
观测方程为:
获得第一帧引导线位置后,根据当前帧的观测值利用卡尔曼滤波对后续帧进行连续跟踪;
步骤1-2-4,建立引导线地图:
得到单应矩阵后,将检测的引导线像素坐标通过单应矩阵变换到相机坐标系,再利用高精度全球导航卫星系统及惯性测量元件求解的相机位姿,将引导线点从相机坐标系转换到世界坐标系,最终完成引导线地图的构建;
步骤1-3中所述建立字典,包括以下步骤:
使用词袋模型计算图像间的相似性,采用k叉树结构建立字典,对每一帧图像均用单词描述,实现地图数据库中快速最近邻搜索构建一个深度d=7、每次分叉数k=10的树:
步骤1-3-1,采用k-means算法把所有单词分为k类,得到字典的第一层;
步骤1-3-2,对第一层的每个节点,把属于该节点的样本用k-means算法聚类成k类,得到下一层;
步骤1-3-3,对每一层采用上述方法,直到得到最后的叶子层;
步骤2中所述3D点云地图辅助的全球导航卫星系统或惯性测量元件或视觉组合导航解算方法,包括以下步骤:
步骤2-1,3D点云地图辅助求解相机速度;
步骤2-2,惯性测量元件输出判断相机解算速度是否使用非完整约束进行约束;
步骤2-3,全球导航卫星系统或惯性测量元件或视觉松组合导航解算;
步骤2-1中所述3D点云地图辅助求解相机速度方法,包括:
解算得到的最大相似度即为匹配到的地图数据库中的图片,找到匹配图片后,则获得图像像素坐标系中坐标和与之对应的路标点在世界坐标系中的坐标,接着利用PnP算法求解相机位姿,设相机的位姿为和,位姿的李代群用表示,即, 为的全零矩阵的转置,像素坐标的归一化平面齐次坐标为,其深度为,其对应的路标点在世界坐标系中的齐次坐标为,则两者之间的关系为:
写成矩阵形式为:
上式中,相机位姿未知并且存在观测噪声,存在重投影误差,PnP算法通过将误差求和,寻找使误差最小的相机位姿,即
步骤2-2中所述惯性测量元件输出判断相机解算速度是否使用非完整约束进行约束,方法如下:
利用惯性测量元件输出的纵向和横向角速度判断移动平台是否发生换道和转弯,当惯性测量元件输出的沿载体横向的角速度时,判定移动平台横向速度为0,沿载体纵向的角速度时,判定移动平台纵向速度为0,即移动平台保持直行,此时,对相机求解的速度增加非完整约束:
步骤2-3中所述全球导航卫星系统或惯性测量元件或视觉松组合导航解算,方法如下:
根据惯性导航的力学编排,构建基于扩展卡尔曼滤波的全球导航卫星系统或惯性测量元件或视觉松组合导航系统状态方程,即:
在全球导航卫星系统接收到星历文件和观测文件后,根据伪距单点定位和多普勒测速解算移动平台的三维位置和速度,得到全球导航卫星系统的观测方程:
经非完整约束的相机测速观测方程为:
得到全球导航卫星系统或惯性测量元件或视觉松组合导航系统状态方程和观测方程后,利用卡尔曼滤波解算车辆的导航参数;
步骤3中所述用隐马尔可夫链模型将定位轨迹匹配到引导线地图上,方法如下:
采用隐马尔可夫链模型实现地图匹配的步骤如下:
步骤3-1,在引导线地图中寻找组合导航解算的移动平台位置在设定半径范围内的所有候选路段;
步骤3-2,针对每个候选路段计算观测概率和状态转移概率:
观测概率:
设组合导航定位点与候选点之间的距离误差服从零均值高斯分布,观测概率为:
其中, 为松组合系统解算的移动平台位置, 为t时刻第i条候选路段,假设为第i条候选路段的候选点, 为观测点与候选路段之间的距离,为当 时刻的移动平台真实位置在引导道中的位置时观测到的概率,是组合导航解算位置的标准差,e为自然对数的底数, π是圆周率;
状态转移概率:
状态转移概率为组合导航解算的移动平台位置在引导线网络中从t时刻的一条候选路段 移动到 时刻的一条候选路段的概率;当前时刻组合导航定位点与下一时刻组合导航定位点的候选点之间的距离越小时,选择这条道路的可能性越大,反之则越小;构建转移概率:
步骤3-3,利用维特比算法求解最有可能的隐藏序列即最优路径,最终实现将定位轨迹匹配到引导线地图上;
步骤4中所述用匹配后的位姿修正3D点云地图和引导线地图,方法如下:
在完成步骤3中所述定位轨迹与引导线地图匹配后,根据解算的移动平台高精度位姿,按照步骤1所述方法进一步修正3D点云地图和引导线地图,完成所述地图实时更新。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210133071.3A CN114184200B (zh) | 2022-02-14 | 2022-02-14 | 一种结合动态建图的多源融合导航方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210133071.3A CN114184200B (zh) | 2022-02-14 | 2022-02-14 | 一种结合动态建图的多源融合导航方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114184200A CN114184200A (zh) | 2022-03-15 |
CN114184200B true CN114184200B (zh) | 2022-06-17 |
Family
ID=80545860
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210133071.3A Active CN114184200B (zh) | 2022-02-14 | 2022-02-14 | 一种结合动态建图的多源融合导航方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114184200B (zh) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114782539B (zh) * | 2022-06-21 | 2022-10-11 | 中航金城无人系统有限公司 | 一种多云天气下基于云层观测的视觉定位系统及方法 |
CN115426401B (zh) * | 2022-08-31 | 2023-05-19 | 国家开放大学 | 基于教学空间的讯息推送方法与装置 |
CN116086453B (zh) * | 2022-12-12 | 2024-03-12 | 运来智能装备(无锡)有限公司 | 一种基于概率优化计算的惯导和地图组合定位方法 |
CN116086469B (zh) * | 2023-01-16 | 2023-10-24 | 禾多科技(北京)有限公司 | 一种车道定位方法及装置 |
CN117492056B (zh) * | 2023-12-26 | 2024-03-22 | 合众新能源汽车股份有限公司 | 车辆融合定位方法、系统、装置和计算机可读介质 |
CN118067148B (zh) * | 2024-04-17 | 2024-07-09 | 深圳市科乐达电子科技有限公司 | 一种基于大数据分析的车载导航系统 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106595680A (zh) * | 2016-12-15 | 2017-04-26 | 福州大学 | 一种基于隐马尔可夫模型的车辆gps数据地图匹配方法 |
CN109376785B (zh) * | 2018-10-31 | 2021-09-24 | 东南大学 | 基于迭代扩展卡尔曼滤波融合惯性与单目视觉的导航方法 |
US11243081B2 (en) * | 2019-03-29 | 2022-02-08 | Trimble Inc. | Slam assisted INS |
CN109974739B (zh) * | 2019-04-15 | 2020-11-10 | 西安交通大学 | 基于高精度地图的全局导航系统及导航信息生成方法 |
CN111811506B (zh) * | 2020-09-15 | 2020-12-01 | 中国人民解放军国防科技大学 | 视觉/惯性里程计组合导航方法、电子设备及存储介质 |
-
2022
- 2022-02-14 CN CN202210133071.3A patent/CN114184200B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN114184200A (zh) | 2022-03-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN114184200B (zh) | 一种结合动态建图的多源融合导航方法 | |
Rozenberszki et al. | LOL: Lidar-only Odometry and Localization in 3D point cloud maps | |
Mohamed et al. | A survey on odometry for autonomous navigation systems | |
CN113485441B (zh) | 结合无人机高精度定位和视觉跟踪技术的配网巡检方法 | |
CN110412635B (zh) | 一种环境信标支持下的gnss/sins/视觉紧组合方法 | |
Poddar et al. | Evolution of visual odometry techniques | |
CN109945858A (zh) | 用于低速泊车驾驶场景的多传感融合定位方法 | |
Parra et al. | Robust visual odometry for vehicle localization in urban environments | |
CN111862673A (zh) | 基于顶视图的停车场车辆自定位及地图构建方法 | |
Dumble et al. | Airborne vision-aided navigation using road intersection features | |
US20220398825A1 (en) | Method for generating 3d reference points in a map of a scene | |
CN115407357A (zh) | 基于大场景的低线束激光雷达-imu-rtk定位建图算法 | |
Wen et al. | TM 3 Loc: Tightly-coupled monocular map matching for high precision vehicle localization | |
Zhou et al. | Lane information extraction for high definition maps using crowdsourced data | |
Yan et al. | SensorX2car: Sensors-to-car calibration for autonomous driving in road scenarios | |
CN108921896B (zh) | 一种融合点线特征的下视视觉罗盘 | |
Hoang et al. | A simplified solution to motion estimation using an omnidirectional camera and a 2-D LRF sensor | |
Lu et al. | Vision-based localization methods under GPS-denied conditions | |
Tang et al. | Environmental perception for intelligent vehicles | |
García-García et al. | 3D visual odometry for road vehicles | |
Kogan et al. | Lane-level positioning with sparse visual cues | |
Aggarwal | Machine vision based SelfPosition estimation of mobile robots | |
Lan et al. | Highly robust and accurate multi-sensor fusion localization system for complex and challenging scenarios | |
Mao et al. | Precise visual-inertial localization for UAV with the aid of a 2D georeferenced map | |
Evlampev et al. | Map relative localization based on road lane matching with Iterative Closest Point algorithm |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CB03 | Change of inventor or designer information |
Inventor after: Sun Rui Inventor after: Wang Yuanyuan Inventor after: Mao Yi Inventor after: Liu Xiaofeng Inventor after: Yang Yi Inventor before: Sun Rui Inventor before: Wang Yuanyuan Inventor before: Mao Yi Inventor before: Liu Xiaofeng Inventor before: Yang Yi |
|
CB03 | Change of inventor or designer information |