CN114565674A - 自动驾驶车辆城市结构化场景纯视觉定位方法及装置 - Google Patents
自动驾驶车辆城市结构化场景纯视觉定位方法及装置 Download PDFInfo
- Publication number
- CN114565674A CN114565674A CN202210201317.6A CN202210201317A CN114565674A CN 114565674 A CN114565674 A CN 114565674A CN 202210201317 A CN202210201317 A CN 202210201317A CN 114565674 A CN114565674 A CN 114565674A
- Authority
- CN
- China
- Prior art keywords
- marker
- dimensional
- vehicle
- markers
- current
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/003—Navigation within 3D models or images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Software Systems (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Multimedia (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种自动驾驶车辆城市结构化场景纯视觉定位方法及装置,该方法包括:设置并行的两线程:视觉SLAM定位线程,其用于采用基于局部地图的ORB特征点法实时获取车辆当前位姿;离线语义地图匹配定位线程,其包括:1)训练并检测相机获取的原始图像中的结构化语义标志物;2)根据地面先验,获取标志物在图像坐标系的二维信息;3)对标志物进行时域跟踪,当同一帧检测获取标志物数量不少于预设数时,构建车辆与标志物的二维拓扑图,其拓扑边权重由当前帧所关联的标志物可信度确定;4)根据车辆当前位置,依据二维拓扑图进行地图搜索匹配,恢复车辆当前二维位姿;5)将运行轨迹的信息和标志物信息上传至云端,更新离线地图语义信息库。
Description
技术领域
本发明涉及自动驾驶技术领域,特别是关于一种基于先验地图的自动驾驶车辆城市结构化场景纯视觉定位方法及装置。
背景技术
AV(Autonomous vehicles;自动驾驶车辆)能够通过车载传感器解算自身位姿,并结合位姿信息进行自主规划及横纵向控制,其中必然使用定位方法。定位方法大体分为基于GNSS(Global Navigation Satellite System;全球导航卫星系统)的绝对定位和基于相机、激光雷达、IMU(Inertial Measurement Unit;惯性测量单元)等环境感知传感器的相对定位。
绝对定位通常依赖于GNSS的可用性,GNSS包含诸如GPS(Global PositionSystem;全球定位系统)、Glonass(global navigation satellite system;格洛纳斯系统)、北斗卫星导航系统和Galileo(Galileo satellite navigation system;伽利略定位系统)等。而环境或结构干扰容易导致GNSS信号丢失,现有技术往往通过将GNSS与IMU进行组合,导航定位,这样可可以在GNSS信号短暂缺失的情形下短暂地提供准确的定位信息。
相对定位则指使用相机、激光雷达、毫米波雷达和超声定位系统感知周遭环境,根据所提取到的环境特征点、线、面、距离及语义信息,实现AV的局部定位。
在AV众多定位方法中,视觉定位由于具有成本低、语义信息丰富的特点,受到了广大科研者的青睐。然而,作为相对定位的分支,视觉定位方法面临大范围未知场景时,往往存在较大的累计误差,且定位结果无法与全局地图构建关联。此外,单目视觉定位方法无法恢复出尺度信息,长时距定位存在较大尺度漂移,因而面对无GNSS信号的长距离定位任务,现有多数算法无法满足AV定位需求。如何获取持续、可靠的全局定位信息,成为了AV视觉定位实用化所面临的一大瓶颈。现有技术多采取关联全局地图的方式来解决这个问题,但是,长时、无GPS信号的复杂城市工况下的定位问题仍亟待解决。
发明内容
本发明的目的在于提供一种基于先验地图的自动驾驶车辆城市结构化场景纯视觉定位方法及装置来克服或至少减轻现有技术的上述缺陷中的至少一个。
为实现上述目的,本发明提供一种自动驾驶车辆城市结构化场景纯视觉定位方法,其包括:
设置并行的两线程:
一所述线程为视觉SLAM定位线程,其用于采用基于局部地图的ORB特征点法实时获取车辆当前位姿;
另一所述线程为离线语义地图匹配定位线程,其用于通过地面先验,恢复所述视觉SLAM定位线程所获取的特征点的尺度,其具体包括:
1)训练并检测相机获取的原始图像中的结构化语义标志物;
2)根据地面先验,获取所述标志物在图像坐标系的二维信息;
3)对所述标志物进行时域跟踪,当同一帧检测获取所述标志物数量不少于预设数目时,构建车辆与标志物的二维拓扑图,且其拓扑边权重由当前帧所关联的所述标志物可信度确定;
4)根据车辆当前位置,依据所述二维拓扑图进行地图搜索匹配,以恢复车辆当前二维位姿;
5)由连续时刻车辆二维位姿信息构建运行轨迹,将所述运行轨迹的信息和所述标志物信息上传至云端,更新离线地图语义信息库。
进一步地,所述步骤2)具体包括:
2.1)在同步运行的视觉SLAM定位线程中,提取ORB特征点,再采取三角化不断恢复无尺度约束的三维特征点的三维信息;
2.2)在每个标志物识别框内选择所需的标志物;
2.3)将步骤2.1)得到的三维特征点反投影到相机帧中,估计相关地平面参数并利用几何约束细化选取近地特征点;
2.4)使用滑动窗口策略跟踪连续多帧近地特征点,依照步骤2.3)选取的近地特征点策略再次使用RANSAC平面拟合法,获取最优地面点集并拟合地平面参数;
2.5)基于地面假设模型恢复2.4)获得的近地特征点的真实空间坐标,进而得到步骤2.1)获得的所有无尺度特征点的真实尺度,依此获取各标志物的三维信息。
进一步地,所述步骤2.2)具体包括:
2.22)剔除满足如下条件之一的所述三维特征点:
2.23)返回步骤2.21),直至识别框内的所述三维特征点的标准差σd小于预设距离值,最后丢弃三维特征点的数量小于预设数的标志物。
进一步地,所述步骤2.3)具体包括:
2.31)采用Hesse形式参数化表示地平面;
2.32)构建平面匹配模型使用RANSAC算法拟合地平面;其中,表示平面单位法向量,nπ1,nπ2,nπ3分别为单位法向量在三轴的分量,Xi表示第i个所述三维特征点的三维空间坐标,d表示平面距离坐标系原点的距离;
进一步地,所述步骤3)具体包括:
3.1)根据γl=γd÷d,判断当前帧所关联标志物位置可信度γl,其中,γd表示根据YOLO-v5检测时网络直接输出的标志物检测置信度,d表示由步骤2)获得的各标志物的三维信息获取的标志物到当前帧之间的距离标志物距离;
3.2)保留当前帧所关联标志物的γl超过阈值γthreshold的标志物,其余标志物进行时域跟踪,即后续连续时刻重复上述步骤3.1)到3.2),直到该标志物满足γl>γthreshold,期间,若该标志物连续三帧丢失,则丢弃该标志物;
3.3)当前帧所检测到的可信标志物数量超过预设数时,连接车辆位姿节点及标志物节点,构建二维拓扑图,并依据位置可信度赋予连接边权重,构建标志物拓扑连接图。
进一步地,所述步骤4)具体包括:
4.1)使用下式提供的匀速车辆模型获取当前时刻车辆初始位姿Ti:
Ti=Ti-1 2/Ti-2
式中,Ti-2、Ti-1分别表示前两个时刻的车辆位姿;
4.2)根据步骤4.1)所获取当前时刻车辆位姿Ti、步骤1)标志物检测所获取当前所观测到标志物类别,在预先下载好的NDS离线地图的相应层级中搜索同类别标志物信息及周围路网信息,并加载当前时刻初始位置Ti周围九宫格的地图块信息,并将该地图块信息于车端分配相应空间进行缓存;
4.3)依据步骤4.2)中的当前所观测到的标志物类别、当前时刻初始位置Ti进行搜索匹配,依据γl计算得到的地图特征置信度αs;
4.4)选择置信度最高的两个标志物位置信息,恢复车辆当前二维位姿,返回步骤4.3),直到定位结果收敛。
进一步地,所述步骤4.4)中,恢复车辆当前二维位姿的方法具体包括:
使用当前帧所选取的两个标志物相对于当前相机位姿的观测误差构建当前帧误差方程e=[e1 e2],使用奇异值分解求解e=0,得到车辆当前二维位姿,其中,e1和e2通过以下误差方程获得:
式中,m取1、2分别表示当前帧所关联的两个标志物序号, 表示标志物m相对于当前相机位姿的径长观测误差,表示标志物m相对于当前相机位姿的角度观测误差;wm=[xm ym]τ表示标志物m在当前时刻相机坐标系下的真实位置;表示标志物m的观测值,分别表示标志物m的径长和角度的观测值; 表示观测方程;τ表示转置;上式由观测方程与观测值作差获得,求解得到当前帧的车辆二维位姿wi。
本发明还提供一种自动驾驶车辆城市结构化场景纯视觉定位系统,包括:
视觉SLAM定位线程,其用于采用基于局部地图的ORB特征点法实时获取车辆当前位姿;
离线语义地图匹配定位线程,其用于通过地面先验,恢复所述视觉SLAM定位线程所获取的特征点的尺度,其具体包括:
标志物检测单元,其用于训练并检测相机获取的原始图像中的结构化语义标志物;
标志物二维信息获取单元,其用于根据地面先验,获取所述标志物在图像坐标系的二维信息;
拓扑构建单元,其用于对所述标志物进行时域跟踪,当同一帧检测获取标志物数量不少于预设数目时,构建车辆与标志物的二维拓扑图,且其拓扑边权重由当前帧所关联的标志物可信度确定;
位姿恢复单元,其用于根据车辆当前位置,依据所述二维拓扑图进行地图搜索匹配,以恢复车辆当前二维位姿;
信息更新单元,其用于由时序位姿信息构建运行轨迹,将运行轨迹的信息和所述标志物信息上传至云端,更新离线地图语义信息库。
进一步地,所述标志物二维信息获取单元具体包括:
特征点三维信息获取子单元,其用于在同步运行的视觉SLAM定位线程中,提取ORB特征点,再采取三角化不断恢复特征点三维信息,此时的特征点无尺度约束;
标志物选取子单元,其用于在每个标志物识别框内选择所需的标志物;
近地特征点选取子单元,其用于将特征点三维信息获取子单元得到的三维特征点反投影到相机帧中,估计相关地平面参数并利用几何约束细化选取近地特征点;
地平面参数拟合子单元,其用于使用滑动窗口策略跟踪连续多帧近地特征点,依照近地特征点选取子单元选取的近地特征点策略再次使用RANSAC平面拟合法,获取最优地面点集并拟合地平面参数;
标志物的三维信息获取子单元,其用于基于地面假设模型恢复地平面参数拟合子单元获得的近地特征点的真实空间坐标,进而得到特征点三维信息获取子单元获得的所有无尺度特征点的真实尺度,依此获取各标志物的三维信息。
进一步地,所述拓扑构建单元具体包括:
标志物距离获取子单元,其用于根据γl=γd÷d,判断当前帧所关联标志物位置可信度γl,其中,γd表示根据YOLO-v5检测时网络直接输出的标志物检测置信度,d表示由标志物二维信息获取单元获得的各标志物的三维信息获取的标志物到当前帧之间的距离;
标志物搜索子单元,其用于保留当前帧所关联标志物的γl超过阈值γthreshold的标志物,其余标志物进行时域跟踪,直到该标志物满足γl>γthreshold,期间,若该标志物连续三帧丢失,则丢弃该标志物;
拓扑连接图构建子单元,其用于当前帧所检测到的可信标志物数量超过预设数时,连接车辆位姿节点及标志物节点,构建二维拓扑图,并依据位置可信度赋予连接边权重,构建标志物拓扑连接图。
本发明由于采取以上技术方案,其具有以下优点:
1、本发明采取双定位线程并行模式,视觉SLAM定位线程在短时域内误差较小,为离线语义地图匹配定位线程提供地图匹配初始位置,可有效避免后者匹配定位时的发散问题,且当离线语义地图匹配定位线程无法检测到语义信息时仍可获得较为准确的位置信息;
2、所述视觉SLAM定位线程结合地面模型,采取滑动窗口策略跟踪多帧近地特征点,恢复地面参数,有效抑制单目视觉SLAM过程所产生的尺度漂移;
3、所述离线语义地图匹配定位线程反馈全局位置信息,可消除视觉SLAM定位线程累计漂移;
4、众包式地图数据库在线更新方法有利于提升地图信息时效性。
附图说明
图1为本发明实施例提供的自动驾驶车辆城市结构化场景纯视觉定位方法的架构图。
图2为本发明实施例提供的离线语义地图加载及更新流程示意图。
具体实施方式
下面结合附图和实施例对本发明进行详细的描述。
如图1和图2所示,本发明实施例提供的自动驾驶车辆城市结构化场景纯视觉定位方法包括:
设置并行的两线程:
一所述线程为视觉SLAM定位线程,其用于采用基于局部地图的ORB(OrientedFAST and Rotated BRIEF,具有旋转-尺度不变性的快速提取特征点)特征点法进行定位,实时获取车辆当前位姿,车辆位姿包括车辆的位置(x,y,z)、姿态(横摆角、侧偏角、俯仰角);
另一所述线程为离线语义地图匹配定位线程,其用于通过地面先验,恢复视觉SLAM线程所获取的特征点的尺度,其具体包括:
1)训练并使用YOLO-v5目标检测算法检测相机获取的原始图像中的结构化语义标志物,包含但不限于车道线、道路标志牌和交通信号灯等不同类型的目标。
2)根据地面先验,例如:相机相对于地面的安装高度和角度,恢复步骤1)检测到的标志物在相机坐标系中的三维信息,再投影获取标志物在图像坐标系的二维信息。
3)对步骤1)检测到的标志物进行时域跟踪,抑制同一标志物在连续帧检测过程中的漏检、误检。当同一帧检测获取标志物数量不少于预设数目时,构建车辆与标志物的二维拓扑图,其拓扑边权重由当前帧所关联的标志物可信度确定。
4)根据车辆当前位置,依据步骤3)构建好的车辆与标志物的二维拓扑图进行地图搜索匹配,并恢复车辆当前二维位姿。
5)由时序位姿信息构建运行轨迹,将运行轨迹的信息和所述标志物信息上传至云端,更新离线地图语义信息库。
本发明实施例仅使用相机,检测环境中的结构化语义信息,并通过相机安装先验恢复出标志物的几何尺寸,将标志物与离线地图数据库进行匹配、优化求解车辆当前二维位置信息,为维护实时性,对离线地图数据库信息进行在线更新。
上述步骤1)中,针对不同标志物特性的差异性,采取双模型独立检测策略对所述标志物进行检测,具体包括:
1.1)对于三维物体,例如道路标志牌、交通信号灯等物体,直接在去畸变后的原始图像中进行目标检测。
1.2)对于地面上的二维目标,例如车道线、交通引导线等,对原始图像进行鸟瞰图投影,获得单帧鸟瞰图,然后将不同时刻的鸟瞰图进行拼接,最后在拼接好的鸟瞰图中进行目标检测。
还可以使用原图同步或现有技术其它方法检测1.1)、1.2)所述二维、三维目标。
上述步骤2)中,根据地面先验,例如:相机相对于地面的安装高度和角度,恢复步骤1)检测到的标志物在相机坐标系中的三维位置的具体方法包括:
2.1)在同步运行的视觉SLAM定位线程中,提取ORB特征点,再采取三角化不断恢复特征点三维信息,此时特征点无尺度约束。
其中,提取ORB特征点的方法具体包括:在标志物识别框中采取更低的自适应阈值进行特征点提取,以保证每个标志物识别框中特征点的数量大于预设数,例如:10。
2.2)在每个标志物识别框内选择所需的标志物。
步骤2.2)具体包括:
2.22)剔除满足如下条件之一的所述三维特征点:
2.23)返回步骤2.21),直至特征点的距离收敛,即:识别框内的所述三维特征点的标准差σd小于预设距离值(例如:0.5米)最后丢弃特征点的数量小于预设数的标志物,比如:5。
其中,收敛判别准则为:所计算标准差小于经验值,比如0.5米。
2.3)将步骤2.1)得到的三维特征点反投影到相机帧中,估计相关地平面参数并利用几何约束细化选取近地特征点,具体过程如下:
2.32)构建平面匹配模型使用RANSAC(Random SampleConsensus,随机采样一致性)算法拟合地平面;其中,表示平面单位法向量,nπ1,nπ2,nπ3分别为单位法向量在三轴的分量,Xi表示第i个所述三维特征点的三维空间坐标,d表示平面距离坐标系原点的距离。
2.4)使用滑动窗口策略跟踪连续多帧近地特征点,依照步骤2.3)选取的近地特征点策略再次获取最优地面点集并拟合地平面参数,此时距离阈值可以选取为dthreshold的一半,即其中,滑动窗口策略中的滑动窗口尺寸nw为经验值。当然,该步骤也可以构建局部地图选取近地特征点,即保留当前帧、以及与当前帧具有共视特征点的帧的所有近地特征点。获取最优地面点集并拟合地平面参数的方法可以使用RANSAC平面拟合法,也可以使用PCA(Principal Component Analysis,主成分分析)平面拟合法,还可以使用平面聚类算法等。
2.5)基于地面假设模型恢复2.4)获得的近地特征点的真实空间坐标,进而得到步骤2.1)获得的所有无尺度特征点的真实尺度,依此获取各标志物的三维信息。
上述步骤3)中,构建车辆与标志物的二维拓扑图,以清晰表达标志物同当前时刻车辆位姿的连接关系,其方法包括:
3.1)根据标志物检测置信度和标志物距离,判断当前帧所关联标志物位置可信度,即γl=γd÷d,其中,γl表示标志物位置可信度,γd表示根据YOLO-v5检测时网络直接输出的标志物检测置信度,d表示由步骤2.5)获得的各标志物的三维信息获取的标志物到当前帧之间的距离。
3.2)保留当前帧所关联标志物位置可信度超过阈值γthreshold的标志物,其余标志物进行时域跟踪,即后续连续时刻重复上述步骤3.1)到3.2)过程,直到该标志物满足γl>γthreshold,期间,若该标志物连续三帧丢失,则丢弃该标志物。其中,γthreshold的具体数值值由经验值给定,例如0.025m-1。
3.3)当前帧所检测到的可信标志物数量超过预设数时,连接车辆位姿节点及标志物节点,构建二维拓扑图,并依据位置可信度赋予连接边权重,构建标志物拓扑连接图。其中,预设数选择求解车辆位姿最少需要的数目,如:2个。
上述步骤4)中,为满足增量更新需求,选取NDS(Navigation Data StandardAssociation,面向汽车生态系统的地图数据全球标准)地图数据存储标准,地图主要由路网、标志物POI、名称和视图四部分组成,在网络良好时自动从云端将地图下载到车端。步骤4)具体包括:
4.1)使用下式提供的匀速车辆模型获取当前时刻i车辆初始位姿Ti:
Ti=Ti-1 2/Ti-2
式中,Ti-2、Ti-1分别表示i-2、i-1时刻的车辆位姿。
对于多传感器而言,还可以使用IMU数据、轮速计数据等。
4.2)根据步骤4.1)所获取当前时刻车辆位姿Ti、步骤1)标志物检测所获取当前所观测到标志物类别,在预先下载好的NDS离线地图的相应层级中搜索同类别标志物信息及周围路网信息,为保证信息加载轻量性及搜索可靠性,加载当前时刻初始位置Ti周围九宫格的地图块信息,该信息于车端(车上的计算机)分配相应空间进行缓存。
4.3)依据步骤4.2)中的当前所观测到的标志物类别、当前时刻初始位置Ti进行搜索匹配,依据下式计算得到的地图特征置信度αs:
αs=γl×σ
式中,σ表示该类别物体在周边密集程度,该参数反映标志物误匹配概率。
也可以不考虑该类别标志物的密集程度,即αs=γl。
4.4)选择置信度最高的两个标志物位置信息,恢复车辆当前二维位姿,返回步骤4.3),直到定位结果收敛。其中,恢复车辆当前二维位姿的方法包括:
使用当前帧所选取的两个标志物相对于当前相机位姿的观测误差构建当前帧误差方程e=[e1 e2],使用奇异值分解求解e=0,得到车辆当前二维位姿,其中,e1和e2通过以下误差方程获得:
式中,m取1、2分别表示当前帧所关联的两个标志物序号, 表示标志物m相对于当前相机位姿的径长观测误差,表示标志物m相对于当前相机位姿的角度观测误差;wm=[xm ym]τ表示标志物m在当前时刻相机坐标系下的真实位置;表示标志物m的观测值,分别表示标志物m的径长和角度的观测值; 表示观测方程;τ表示转置;上式由观测方程与观测值作差获得,求解得到当前帧的车辆二维位姿wi。
上述实施例中,还可以采用BA优化或卡尔曼滤波等方法恢复车辆当前二维位姿。
上述步骤5)为离线过程,其包含步骤如下:
5.1)车端将车辆轨迹信息、标志物待更新信息同步传输给云端;
5.2)云端同步加载离线地图数据和待更新地图数据;
5.3)基于车辆轨迹信息拓扑关系与离线地图道路网建立关联关系;
5.4)建立离线地图数据和待更新地图数据之间的标志物关联关系;
5.5)收集关联地物空间位置点及关联车道特征变化点坐标,根据所述特征变化点构建仿射变换关系,通过已生成仿射变换关系对待更新数据中的车道、地物空间坐标进行仿射变换,生成变换后车道数据和地物数据,提升待更新数据精度;
5.6)对比待更新数据与离线地图数据,识别提取车道级差异数据,利用所述差异数据,更新地图数据。
最后需要指出的是:以上实施例仅用以说明本发明的技术方案,而非对其限制。本领域的普通技术人员应当理解:可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。
Claims (10)
1.一种自动驾驶车辆城市结构化场景纯视觉定位方法,其特征在于,包括:
设置并行的两线程:
一所述线程为视觉SLAM定位线程,其用于采用基于局部地图的ORB特征点法实时获取车辆当前位姿;
另一所述线程为离线语义地图匹配定位线程,其用于通过地面先验,恢复所述视觉SLAM定位线程所获取的特征点的尺度,其具体包括:
1)训练并检测相机获取的原始图像中的结构化语义标志物;
2)根据地面先验,获取所述标志物在图像坐标系的二维信息;
3)对所述标志物进行时域跟踪,当同一帧检测获取所述标志物数量不少于预设数目时,构建车辆与标志物的二维拓扑图,且其拓扑边权重由当前帧所关联的所述标志物可信度确定;
4)根据车辆当前位置,依据所述二维拓扑图进行地图搜索匹配,以恢复车辆当前二维位姿;
5)由连续时刻车辆二维位姿信息构建运行轨迹,将所述运行轨迹的信息和所述标志物信息上传至云端,更新离线地图语义信息库。
2.如权利要求1所述的自动驾驶车辆城市结构化场景纯视觉定位方法,其特征在于,所述步骤2)具体包括:
2.1)在同步运行的视觉SLAM定位线程中,提取ORB特征点,再采取三角化不断恢复无尺度约束的三维特征点的三维信息;
2.2)在每个标志物识别框内选择所需的标志物;
2.3)将步骤2.1)得到的三维特征点反投影到相机帧中,估计相关地平面参数并利用几何约束细化选取近地特征点;
2.4)使用滑动窗口策略跟踪连续多帧近地特征点,依照步骤2.3)选取的近地特征点策略再次使用RANSAC平面拟合法,获取最优地面点集并拟合地平面参数;
2.5)基于地面假设模型恢复2.4)获得的近地特征点的真实空间坐标,进而得到步骤2.1)获得的所有无尺度特征点的真实尺度,依此获取各标志物的三维信息。
5.如权利要求1-4中任一项所述的自动驾驶车辆城市结构化场景纯视觉定位方法,其特征在于,所述步骤3)具体包括:
3.1)根据γl=γd÷d,判断当前帧所关联标志物位置可信度γl,其中,γd表示根据YOLO-v5检测时网络直接输出的标志物检测置信度,d表示由步骤2)获得的各标志物的三维信息获取的标志物到当前帧之间的距离标志物距离;
3.2)保留当前帧所关联标志物的γl超过阈值γthreshold的标志物,其余标志物进行时域跟踪,即后续连续时刻重复上述步骤3.1)到3.2),直到该标志物满足γl>γthreshold,期间,若该标志物连续三帧丢失,则丢弃该标志物;
3.3)当前帧所检测到的可信标志物数量超过预设数时,连接车辆位姿节点及标志物节点,构建二维拓扑图,并依据位置可信度赋予连接边权重,构建标志物拓扑连接图。
6.如权利要求5所述的自动驾驶车辆城市结构化场景纯视觉定位方法,其特征在于,所述步骤4)具体包括:
4.1)使用下式提供的匀速车辆模型获取当前时刻i车辆初始位姿Ti:
Ti=Ti-1 2/Ti-2
式中,Ti-2、Ti-1分别表示i-2、i-1时刻的车辆位姿;
4.2)根据步骤4.1)所获取当前时刻车辆位姿Ti、步骤1)标志物检测所获取当前所观测到标志物类别,在预先下载好的NDS离线地图的相应层级中搜索同类别标志物信息及周围路网信息,并加载当前时刻初始位置Ti周围九宫格的地图块信息,并将该地图块信息于车端分配相应空间进行缓存;
4.3)依据步骤4.2)中的当前所观测到的标志物类别、当前时刻初始位置Ti进行搜索匹配,依据γl计算得到的地图特征置信度αs;
4.4)选择置信度最高的两个标志物位置信息,恢复车辆当前二维位姿,返回步骤4.3),直到定位结果收敛。
7.如权利要求6所述的自动驾驶车辆城市结构化场景纯视觉定位方法,其特征在于,所述步骤4.4)中,恢复车辆当前二维位姿的方法具体包括:
使用当前帧所选取的两个标志物相对于当前相机位姿的观测误差构建当前帧误差方程e=[e1 e2],使用奇异值分解求解e=0,得到车辆当前二维位姿,其中,e1和e2通过以下误差方程获得:
8.一种自动驾驶车辆城市结构化场景纯视觉定位系统,其特征在于,包括:
视觉SLAM定位线程,其用于采用基于局部地图的ORB特征点法实时获取车辆当前位姿;
离线语义地图匹配定位线程,其用于通过地面先验,恢复所述视觉SLAM定位线程所获取的特征点的尺度,其具体包括:
标志物检测单元,其用于训练并检测相机获取的原始图像中的结构化语义标志物;
标志物二维信息获取单元,其用于根据地面先验,获取所述标志物在图像坐标系的二维信息;
拓扑构建单元,其用于对所述标志物进行时域跟踪,当同一帧检测获取标志物数量不少于预设数目时,构建车辆与标志物的二维拓扑图,且其拓扑边权重由当前帧所关联的标志物可信度确定;
位姿恢复单元,其用于根据车辆当前位置,依据所述二维拓扑图进行地图搜索匹配,以恢复车辆当前二维位姿;
信息更新单元,其用于由时序位姿信息构建运行轨迹,将运行轨迹的信息和所述标志物信息上传至云端,更新离线地图语义信息库。
9.如权利要求8所述的自动驾驶车辆城市结构化场景纯视觉定位系统,其特征在于,所述标志物二维信息获取单元具体包括:
特征点三维信息获取子单元,其用于在同步运行的视觉SLAM定位线程中,提取ORB特征点,再采取三角化不断恢复特征点三维信息,此时的特征点无尺度约束;
标志物选取子单元,其用于在每个标志物识别框内选择所需的标志物;
近地特征点选取子单元,其用于将特征点三维信息获取子单元得到的三维特征点反投影到相机帧中,估计相关地平面参数并利用几何约束细化选取近地特征点;
地平面参数拟合子单元,其用于使用滑动窗口策略跟踪连续多帧近地特征点,依照近地特征点选取子单元选取的近地特征点策略再次使用RANSAC平面拟合法,获取最优地面点集并拟合地平面参数;
标志物的三维信息获取子单元,其用于基于地面假设模型恢复地平面参数拟合子单元获得的近地特征点的真实空间坐标,进而得到特征点三维信息获取子单元获得的所有无尺度特征点的真实尺度,依此获取各标志物的三维信息。
10.如权利要求8或9所述的自动驾驶车辆城市结构化场景纯视觉定位系统,所述拓扑构建单元具体包括:
标志物距离获取子单元,其用于根据γl=γd÷d,判断当前帧所关联标志物位置可信度γl,其中,γd表示根据YOLO-v5检测时网络直接输出的标志物检测置信度,d表示由标志物二维信息获取单元获得的各标志物的三维信息获取的标志物到当前帧之间的距离;
标志物搜索子单元,其用于保留当前帧所关联标志物的γl超过阈值γthreshold的标志物,其余标志物进行时域跟踪,直到该标志物满足γl>γthreshold,期间,若该标志物连续三帧丢失,则丢弃该标志物;
拓扑连接图构建子单元,其用于当前帧所检测到的可信标志物数量超过预设数时,连接车辆位姿节点及标志物节点,构建二维拓扑图,并依据位置可信度赋予连接边权重,构建标志物拓扑连接图。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210201317.6A CN114565674B (zh) | 2022-03-03 | 2022-03-03 | 自动驾驶车辆城市结构化场景纯视觉定位方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210201317.6A CN114565674B (zh) | 2022-03-03 | 2022-03-03 | 自动驾驶车辆城市结构化场景纯视觉定位方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114565674A true CN114565674A (zh) | 2022-05-31 |
CN114565674B CN114565674B (zh) | 2023-07-04 |
Family
ID=81718427
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210201317.6A Active CN114565674B (zh) | 2022-03-03 | 2022-03-03 | 自动驾驶车辆城市结构化场景纯视觉定位方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114565674B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115512065A (zh) * | 2022-11-17 | 2022-12-23 | 之江实验室 | 一种基于分块化的大规模场景下实时地图构建方法和装置 |
CN115661299A (zh) * | 2022-12-27 | 2023-01-31 | 安徽蔚来智驾科技有限公司 | 车道线地图的构建方法、计算机设备及存储介质 |
CN116295457A (zh) * | 2022-12-21 | 2023-06-23 | 辉羲智能科技(上海)有限公司 | 一种基于二维语义地图的车辆视觉定位方法及系统 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140270484A1 (en) * | 2013-03-14 | 2014-09-18 | Nec Laboratories America, Inc. | Moving Object Localization in 3D Using a Single Camera |
US20180101739A1 (en) * | 2016-10-07 | 2018-04-12 | Ford Global Technologies, Llc | Rear obstacle detection and distance estimation |
CN109887032A (zh) * | 2019-02-22 | 2019-06-14 | 广州小鹏汽车科技有限公司 | 一种基于单目视觉slam的车辆定位方法及系统 |
CN111402336A (zh) * | 2020-03-23 | 2020-07-10 | 中国科学院自动化研究所 | 基于语义slam的动态环境相机位姿估计及语义地图构建方法 |
CN112258409A (zh) * | 2020-10-22 | 2021-01-22 | 中国人民武装警察部队工程大学 | 一种用于无人驾驶的单目相机绝对尺度恢复方法及装置 |
CN113674416A (zh) * | 2021-08-26 | 2021-11-19 | 中国电子科技集团公司信息科学研究院 | 三维地图的构建方法、装置、电子设备及存储介质 |
-
2022
- 2022-03-03 CN CN202210201317.6A patent/CN114565674B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140270484A1 (en) * | 2013-03-14 | 2014-09-18 | Nec Laboratories America, Inc. | Moving Object Localization in 3D Using a Single Camera |
US20180101739A1 (en) * | 2016-10-07 | 2018-04-12 | Ford Global Technologies, Llc | Rear obstacle detection and distance estimation |
CN109887032A (zh) * | 2019-02-22 | 2019-06-14 | 广州小鹏汽车科技有限公司 | 一种基于单目视觉slam的车辆定位方法及系统 |
CN111402336A (zh) * | 2020-03-23 | 2020-07-10 | 中国科学院自动化研究所 | 基于语义slam的动态环境相机位姿估计及语义地图构建方法 |
CN112258409A (zh) * | 2020-10-22 | 2021-01-22 | 中国人民武装警察部队工程大学 | 一种用于无人驾驶的单目相机绝对尺度恢复方法及装置 |
CN113674416A (zh) * | 2021-08-26 | 2021-11-19 | 中国电子科技集团公司信息科学研究院 | 三维地图的构建方法、装置、电子设备及存储介质 |
Non-Patent Citations (2)
Title |
---|
WENXIN WU等: ""YOLO-SLAM: A semantic SLAM system towards dynamic environment with geometric constraint"", 《NEURAL COMPUTING AND APPLICATIONS》, vol. 34 * |
卢天利: ""基于地面匹配的单目SLAM局部尺度恢复"", 《工业控制计算机》, vol. 32, no. 08 * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115512065A (zh) * | 2022-11-17 | 2022-12-23 | 之江实验室 | 一种基于分块化的大规模场景下实时地图构建方法和装置 |
CN116295457A (zh) * | 2022-12-21 | 2023-06-23 | 辉羲智能科技(上海)有限公司 | 一种基于二维语义地图的车辆视觉定位方法及系统 |
CN116295457B (zh) * | 2022-12-21 | 2024-05-24 | 辉羲智能科技(上海)有限公司 | 一种基于二维语义地图的车辆视觉定位方法及系统 |
CN115661299A (zh) * | 2022-12-27 | 2023-01-31 | 安徽蔚来智驾科技有限公司 | 车道线地图的构建方法、计算机设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN114565674B (zh) | 2023-07-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11176701B2 (en) | Position estimation system and position estimation method | |
JP6976641B2 (ja) | 高精度道路地図の更新のためのオブジェクトの変化検知システム及びその制御方法 | |
CN110412635B (zh) | 一种环境信标支持下的gnss/sins/视觉紧组合方法 | |
CN114565674B (zh) | 自动驾驶车辆城市结构化场景纯视觉定位方法及装置 | |
Alonso et al. | Accurate global localization using visual odometry and digital maps on urban environments | |
CN110617821B (zh) | 定位方法、装置及存储介质 | |
CN114526745B (zh) | 一种紧耦合激光雷达和惯性里程计的建图方法及系统 | |
KR20210111180A (ko) | 위치 추적 방법, 장치, 컴퓨팅 기기 및 컴퓨터 판독 가능한 저장 매체 | |
CN111065043B (zh) | 一种基于车路通信的隧道内车辆融合定位系统及方法 | |
JP2018028489A (ja) | 位置推定装置、位置推定方法 | |
JP7245084B2 (ja) | 自動運転システム | |
CN112162297B (zh) | 一种剔除激光点云地图中动态障碍伪迹的方法 | |
CN113920198B (zh) | 一种基于语义边缘对齐的由粗到精的多传感器融合定位方法 | |
US20220398825A1 (en) | Method for generating 3d reference points in a map of a scene | |
CN114325634A (zh) | 一种基于激光雷达的高鲁棒性野外环境下可通行区域提取方法 | |
CN113252051A (zh) | 一种地图构建方法及装置 | |
CN111623773A (zh) | 一种基于鱼眼视觉和惯性测量的目标定位方法及装置 | |
JP2020153956A (ja) | 移動体位置推定システムおよび移動体位置推定方法 | |
CN115564865A (zh) | 一种众包高精地图的构建方法、系统、电子设备及车辆 | |
US20200249695A1 (en) | Method for localizing a vehicle | |
Andert et al. | On the safe navigation problem for unmanned aircraft: Visual odometry and alignment optimizations for UAV positioning | |
CN115183762A (zh) | 一种机场仓库内外建图方法、系统、电子设备及介质 | |
CN113838129B (zh) | 一种获得位姿信息的方法、装置以及系统 | |
US20210304518A1 (en) | Method and system for generating an environment model for positioning | |
CN114127738A (zh) | 自动地图制作和定位 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |