CN111274847A - 一种定位方法 - Google Patents
一种定位方法 Download PDFInfo
- Publication number
- CN111274847A CN111274847A CN201811474110.6A CN201811474110A CN111274847A CN 111274847 A CN111274847 A CN 111274847A CN 201811474110 A CN201811474110 A CN 201811474110A CN 111274847 A CN111274847 A CN 111274847A
- Authority
- CN
- China
- Prior art keywords
- map
- images
- key
- frames
- points
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种定位方法,在人工驾驶模式下通过环视鱼眼相机获取车辆行驶周边环境关键帧图像,提取每个关键帧图像的特征点,并构建特征点地图。在智能驾驶模式下,通过环视鱼眼相机实时获取当前场景的帧图像,并提取当前帧图像的特征点,并将当前帧图像特征点与特征点地图进行匹配,采用基于车体运动模型的两点法对当前帧与匹配成功的关键帧进行位姿估计,从而实时确定车辆的位置信息。相对于现有技术,本发明无需多个传感器即可实现对车辆的定位,不仅造价便宜而且易于推广。
Description
技术领域
本发明涉及智能驾驶技术领域,特别是涉及一种定位方法。
背景技术
随着社会经济发展和科技进步,全球汽车保有量逐年攀升,个人出行便利的同时,也带了很多问题,如交通事故频发。研究表明,交通事故大多数情况下是由人为因素造成的。智能驾驶技术可以大大降低事故发生率。近年来智能驾驶技术得到了快速发展,相关技术在汽车上得到越来越广泛的应用。然而受限于目前智能驾驶技术水平,现有的智能驾驶技术还不能实现完全的无人驾驶,不能适用于所有的驾驶场景,只能在特定场景下开启智能驾驶模式。实现智能驾驶核心的技术之一就是定位技术,精准的定位才能保障智能驾驶的安全。
现有的智能驾驶定位技术通常采用GPS、激光雷达、双目相机、高精度地图、IMU、UWB等其中多个传感器融合定位。虽然融合定位技术的精度较高,但是多个传感器的造价昂贵,不利于大范围推广。
发明内容
为解决上述技术问题,本发明实施例提供了一种定位方法,技术方案如下:
一种定位方法,包括:
在智能驾驶模式下,通过四个环视鱼眼相机获取车辆行驶周边环境的当前帧图像,并提取所述当前帧图像的特征点,计算当前帧图像的词带向量和特征点描述子;
将所述当前帧图像与特征点地图中的关键帧进行匹配,利用词带向量从所述特征点地图中选取预设数量的关键帧作为备选,并计算每一所述备选关键帧的词带向量;
计算每一所述备选关键帧的词带向量与所述当前帧图像的词带向量的相似度评分,将相似度评分最高的备选关键帧作为成功匹配的关键帧;
采用基于车体运动模型的两点法对当前帧图像与成功匹配的备选关键帧进行位姿估计,并基于所述位姿估计的结果计算出所述车辆的位置,将所述车辆的位置作为初始位姿;
判断所述车辆是否匀速行驶、且所述车辆的运动方向是否未发生改变;
若是,采用运动模型,用上一帧的位姿和速度来估计当前帧的位姿,所述上一帧的位姿为所述初始位姿;
否则,采用参考关键帧模型,计算当前帧图像的特征点描述子,根据当前帧图像的特征点描述子和上一帧图像的特征点描述子确定当前帧图像和上一帧图像匹配的特征点,采用两点法计算帧间位姿估计,基于所述位姿变化和所述初始位姿估计当前帧的位姿,所述上一帧的位姿为所述初始位姿。
优选地,还包括:
在人工驾驶模式下,通过所述环视鱼眼相机获得所述车辆行驶周边环境的帧图像,每帧所述帧图像包括四张图像;
提取初始的两帧图像的特征点,并计算初始两帧图像的特征点描述子,根据特征点描述子进行匹配;
检测特征点的匹配对个数是否满足预设标准;
若是,采用基于车体运动模型的两点法计算帧间位姿;
通过初始两帧图像位姿和三维地图点,创建初始化地图,所述三维地图点为对匹配的所述特征点进行三角化得到,所述初始化地图为所述特征点地图的初始状态;
将所述初始的两帧图像设置为关键帧,并在所述初始化地图中插入所述关键帧;根据三维地图点创建对应地图点,将地图点与关键帧、地图进行数据关联。
对所述初始化地图进行多相机全局光束平差法优化。
从所述环视鱼眼相机获得的、除所述初始的两帧图像的帧图像中提取关键帧图像;
提取所述关键帧图像的特征点,计算所述关键帧图像的特征点描述子;
根据关键帧之间的共视关系得到新增加关键帧的共视关键帧,再对该关键帧及其共视关键帧通过它们的特征点描述子进行匹配;
根据所述特征匹配的结果,采用基于车体运动模型的两点法进行帧间位姿估计;
将匹配的特征点进行三角化,根据深度、视差、误差等条件筛选,得到与三角化的特征点对应的地图点,所述匹配的特征点属于所述特征匹配的结果;
利用所述关键帧和地图点的关系、关键帧与共视关键帧的关系将所述关键帧和地图点插入所述特征点地图中;
对所述特征点地图进行多相机局部光束平差法优化;
融合优化后的特征点地图中的关键帧,删除冗余的关键帧;
计算当前关键帧和每个共视关键帧的词带相似度得分,根据相似度得分确定闭环候选帧,所述当前关键帧属于所述关键帧图像;
对所述特征点地图进行sim3优化,更新当前关键帧的特征点与地图点的匹配;
判断匹配个数是否达到预设标准,若是,对所述当前关键帧帧及相邻的关键帧进行闭环融合,并对所述特征点地图进行多相机全局光束平差法优化。
优选地,在所述两帧图像之间进行特征点的匹配,包括:
当所述两帧图像为同相机不同时序上的图像时,使用所述两帧图像进行同相机不同时序图像之间的特征点匹配;
当所述两帧图像为不同相机不同时序上的图像时,对所述两帧图像进行校正,并使用矫正后的图像进行特征点匹配,并将矫正后的图像投影回原图像。
优选地,不同动态场景下特征点的匹配,包括:
当所述车辆行驶周边环境运动物体点少且变化少的动态场景时,采用基于网格的运动统计的方法完成特征点的匹配,并用IMU约束和运动约束剔除错误的匹配。;
当所述车辆行驶周边环境为运动物体点多的动态场景时,采用条件随机场分割的方法建立高层语义地图,将每一帧语义分割出的车辆和行人的特征点从匹配出的特征点中删除。
本发明实施例提供的技术方案,在人工驾驶模式下通过环视鱼眼相机获取车辆行驶周边环境关键帧图像,提取每个关键帧图像的特征点,并构建特征点地图。在智能驾驶模式下,通过环视鱼眼相机实时获取当前场景的帧图像,并提取当前帧图像的特征点,将当前帧图像特征点与特征点地图进行匹配,采用基于车体运动模型的两点法对当前帧与匹配成功的关键帧进行位姿估计,从而实时确定车辆的位置信息。相对于现有技术,本发明无需多个传感器即可实现对车辆的定位,不仅造价便宜而且易于推广。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单的介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例所提供的一种定位方法的一种流程示意图;
图2为本发明实施例所提供的智能驾驶匹配定位前人工驾驶模式下建图过程的一种流程示意图;
图3为本发明实施例所提供的一种定位装置的一种结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
请参阅图1,图1为本发明实施例提供的一种基于SLAM的定位方法的一种实现流程图,该方法包括:
步骤S101、在人工驾驶模式下通过环视鱼眼相机获取车辆行驶周边环境帧图像,每一帧图像包括四张图像。
本实施例中的环视鱼眼相机具体可以分别分布在车辆的前、后、左、右四个方位上,四个方位的鱼眼相机能够实现车辆360°环视拼接。
本实施例中的帧图像包括由四个方位上的鱼眼相机采集的四张图像。
步骤S102、从帧图像中选取关键帧图像,并提取每个关键帧图像的特征点,构建特征点的特征点地图。
需要说明的是,所谓关键帧图像指的是用于实现特征点地图构建的帧图像。由于所用鱼眼相机的采集频率较快,采集的相邻帧图像相似度比较高,不容易检测出历史数据中的回环,因此采用预设规则对鱼眼相机采集的帧图像进行选取,选取的帧图像称之为关键帧图像。
步骤S101与步骤S102是预先实现的过程,即在对车辆实时定位之前,预先获取车辆行驶过程的关键帧图像并依据关键帧图像完成特征点地图的构建。
步骤S103、在智能驾驶模式下,通过环视鱼眼相机实时获取当前场景的帧图像,并提取当前帧图像的特征点,计算当前帧图像的Bow向量和特征点描述子。
本发明实施例实现的是在智能驾驶模式下对车辆的定位,因此在步骤S103之前,还可以包括:
获取当前车辆状态信息和环境信息;
根据当前车辆状态信息和环境信息,判断是否满足由人工驾驶模式切换到智能驾驶模式的条件;
若是,则执行步骤S103。
步骤S104、将所述当前帧图像与特征点地图中的关键帧进行匹配,利用Bow选取若干关键帧作为备选,并计算备选关键帧的Bow向量。
步骤S105、计算备选关键帧Bow与当前帧Bow向量的相似度评分,选出相似度评分最高的备选关键帧作为成功匹配的关键帧。
步骤S106、采用基于车体运动模型的两点法对当前帧与匹配成功的关键帧进行位姿估计,并基于所述位姿估计结果计算出所述车辆的位置,将所述车辆的位置作为初始位姿。
步骤S103-步骤S106实现的是根据预先创建的特征点地图对车辆实时定位。具体地,在智能驾驶模式下,实时获取车辆行驶周围环境的帧图像,并将帧图像与预先构建的特征点地图进行匹配,采用基于车体运动模型的两点法计算帧间位姿估计,从而确定当前车辆的位置。
步骤S107、完成初始位置估计后,判断车辆匀速行驶,运动方向是否比较一致,若是则执行步骤S108,若不是则执行步骤S111。
步骤S108、采用运动模型进行特征匹配跟踪。
步骤S109、用上一帧的位姿和速度来估计当前帧的位姿。上一帧的速度可以通过轮速计得到。
步骤S110、根据位姿估计结果计算出车辆位置信息。
若车辆行驶状态不满足运动模型“匀速行驶,运动方向是否比较一致”的条件,则执行步骤111。
步骤S111、采用参考关键帧模型进行特征匹配跟踪。
步骤S112、计算当前帧图像的特征点描述子,根据当前帧图像的特征点描述子和上一帧图像的特征点描述子确定当前帧图像和上一帧图像匹配的特征点。
步骤S113、判断当前帧与上一帧匹配是否成功,若匹配成功则执行步骤S114,若匹配失败,说明跟踪丢失,无法确定真实位置,则需要重定位,执行步骤S103。
步骤S114、采用两点法计算帧间位姿估计。
步骤S115、根据位姿估计结果计算出车辆位置信息。
若当前帧与最近邻关键帧的匹配也失败了,说明跟踪丢失,无法确定真实位置,则需要重定位,将当前帧图像与特征点地图进行匹配。
在实际应用中,为实现高精度定位,先对环境建立地图,在有地图的情况下进行定位。
首先,使用SFM离线的建立高精度的特征点地图。在智能驾驶模式下,获取当前帧图像后,先使用词袋检测筛选出最相似的几个关键帧作为备选,并计算备选关键帧的Bow向量。
计算备选关键帧Bow与当前帧Bow向量的相似度评分,选出相似度评分最高的备选关键帧作为成功匹配的关键帧。
然后用当前帧图像特征点进行匹配,确定初始位姿。
最后使用3D地图点与特征点进行绝对位姿匹配,完成当前帧有地图情况下的精确定位。
本发明实施例提供的技术方案,在人工驾驶模式下通过环视鱼眼相机获取车辆行驶周边环境关键帧图像,提取每个关键帧图像的特征点,并构建特征点地图。在智能驾驶模式下,通过环视鱼眼相机实时获取当前场景的帧图像,并提取当前帧图像的特征点,并将当前帧图像特征点与特征点地图进行匹配,从而实时确定车辆的位置信息。相对于现有技术,本发明无需多个传感器即可实现对车辆的定位,不仅造价便宜而且易于推广。
基于上一实施例,本发明提供了在SLAM进行智能驾驶匹配定位前人工驾驶模式下建图过程,如图2所示,包括:
步骤S201、提取初始的两帧多相机图像的特征点,并计算初始两帧图像的特征点描述子,根据特征点描述子进行匹配;
由于初始帧图像也包括四张图像,因此在提取特征点时,并行提取四张图像中的每一张图像的特征点。
步骤S202、判断检测特征匹配对个数是否满足预设标准,若满足预设标准则初始化成功,执行步骤S203。反之,初始化失败,需重新选取初始的帧图像进行前述过程,执行S201。
步骤S203、初始化成功后采用基于车体运动模型的两点法计算帧间位姿;
步骤S204、通过初始两帧图像位姿以及三角化后的三维地图点,创建初始化地图。将初始化成功的两帧设置为关键帧,计算对应的BoW,并在地图中插入这两个关键帧。根据三维地图点创建对应地图点,将地图点与关键帧、地图进行数据关联。
步骤S205、对前述初始化地图进行多相机全局BA(Bundle Adjustment,即光束平差法)优化。
步骤S206、从所述环视鱼眼相机获得的、除所述初始的两帧图像的帧图像中提取关键帧图像;
步骤S207、提取关键帧图像的特征点,计算所述关键帧图像的特征点描述子;
步骤S208、根据关键帧之间的共视关系得到新增加关键帧的共视关键帧,再对该关键帧及其共视关键帧通过它们的特征点描述子进行匹配。
需要说明的是,针对动态场景采取了两种策略以提高匹配的效率和准确率。对于运动物体点少且变化少的动态场景,采用网格的运动统计的方法匹配,将运动平滑度作为统计量进行局部匹配,并用IMU约束和运动约束剔除错误的匹配。同时,利用联合概率数据关联方法对特征点在时间序列上进行关联跟踪,剔除与相机运动违背的特征点。对于运动物体点多的动态场景,采用条件随机场分割的方法建立高层语义地图,将环视系统每一帧语义分割的车辆、行人等特征点从匹配中删除,以增强动态环境下的匹配。
步骤S209、根据所述特征匹配的结果,采用基于车体运动模型的两点法进行帧间位姿估计;
步骤S210、将匹配的特征点进行三角化,根据深度、视差、误差等条件筛选,得到与三角化的特征点对应的地图点,所述匹配的特征点属于所述特征匹配的结果;
步骤S211、利用所述关键帧和地图点的关系、关键帧与共视关键帧的关系将所述关键帧和地图点插入所述特征点地图中;
步骤S212、对所述特征点地图进行多相机局部光束平差法优化;
步骤S213、融合优化后的特征点地图中的关键帧,删除冗余的关键帧;
步骤S214、计算当前关键帧和每个共视关键帧的词带相似度得分,根据相似度得分确定闭环候选帧,所述当前关键帧属于所述关键帧图像;
步骤S215、对所述特征点地图进行sim3优化,更新当前关键帧的特征点与地图点的匹配;
步骤S216、判断匹配个数是否达到预设标准,若是,则闭环检测成功,执行步骤S217;
步骤S217、对所述当前关键帧帧及相邻的关键帧进行闭环融合,并对所述特征点地图进行多相机全局光束平差法优化。
请参阅图3,图3为本发明实施例提供的定位装置的一种结构示意图,该装置包括:
获得单元310,用于在智能驾驶模式下,通过环视鱼眼相机获取当前场景的帧图像,每一所述帧图像包括四张图像;
处理单元320,用于提取每个所述帧图像的特征点;
需要说明的是,在提取特征点和进行匹配之前时,使用IMU在帧间进行预积分,估计两帧间的先验位姿变换,并使用这个先验位姿来约束特征点匹配,保证高速运动时的匹配精确度。
第一获取单元330,用于通过所述环视鱼眼相机实时获取当前场景的帧图像,即当前帧图像;
第一确定单元340,用于从所述的关键帧图像中,确定与所述当前帧图像特征匹配的关键帧图像;
需要说明的是,在高速运动情况下,当特征点提取失败和匹配情况差的情况下,可以使用IMU预积分得到的先验位姿进行补偿运动估计,保证高速运动情况下时系统稳定性。
第二确定单元350,用于当前述确定单元确定与所述当前帧图像匹配的关键帧图像时,根据匹配结果计算当前位姿信息,从而确定当前车辆的位置。
优选地,还包括:
第一存储单元,利用与目标行驶环境相似或相同的场景图像数据集离线训练词袋,创建词袋。
第二存储单元,用于特征点匹配之前,提取图像特征点并生成词袋。
第三存储单元,用于地图存储。
优选地,还包括:
第一优化单元,为提高该发明应用的实时性和光照适应性,特征点选用AKAZE特征点;
第二优化单元,在SLAM前端模块,在同相机不同时序上的特征点匹配使用原图像进行匹配,在不同相机不同时序上的特征点匹配使用矫正后图像进行匹配,再投影回原图像;
第三优化单元,在SLAM前端模块,帧间位姿估计采用基于车体运动模型的两点法;
第四优化单元,在SLAM地图模块,对于运动物体点少且变化少的动态场景,采用基于网格的运动统计的方法匹配,将运动平滑度作为统计量进行局部匹配,用IMU约束和运动约束剔除错误的匹配。同时,利用联合概率数据关联方法对特征点在时间序列上进行关联跟踪,剔除与相机运动违背的特征点;
第五优化单元,在SLAM地图模块,对于运动物体点多的动态场景,采用条件随机场分割的方法建立高层语义地图,将环视系统每一帧语义分割的车辆、行人等特征点从匹配中删除,以增强动态环境下的匹配;
第六优化单元,在SLAM后端优化模块,融合IMU,将相机误差与IMU误差联合优化,估计出较为鲁棒的车身运动。
在智能驾驶模式下,通过环视鱼眼相机获取当前场景的帧图像,每一所述帧图像包括四张图像;
提取每个所述帧图像的特征点,并构建特征点的特征点地图;
所述环视鱼眼相机实时获取当前场景的帧图像,即当前帧图像;
从所述的关键帧图像中,确定与所述当前帧图像特征匹配的关键帧图像;
当所述确定单元确定与所述当前帧图像匹配的关键帧图像时,采用两点法计算当前位姿信息,从而确定当前车辆的位置;
本发明实施例提供的技术方案,在人工驾驶模式下通过环视鱼眼相机获取车辆行驶周边环境关键帧图像,提取每个关键帧图像的特征点,并构建特征点地图。在智能驾驶模式下,通过环视鱼眼相机实时获取当前场景的帧图像,并提取当前帧图像的特征点,并将当前帧图像特征点与特征点地图进行匹配,从而实时确定车辆的位置信息。相对于现有技术,本发明无需多个传感器即可实现对车辆的定位,不仅造价便宜而且易于推广。
本发明的说明书和权利要求书及上述附图中的术语“第一”、“第二”、“第三”“第四”等(如果存在)是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本发明的实施例例如能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
对于装置或系统实施例而言,由于其基本相应于方法实施例,所以相关之处参见方法实施例的部分说明即可。以上所描述的装置或系统实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。本领域普通技术人员在不付出创造性劳动的情况下,即可以理解并实施。
在本发明所提供的几个实施例中,应该理解到,所揭露的系统,装置和方法,在没有超过本发明的精神和范围内,可以通过其他的方式实现。当前的实施例只是一种示范性的例子,不应该作为限制,所给出的具体内容不应该限制本发明的目的。例如,所述单元或子单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或多个子单元结合一起。另外,多个单元可以或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。
另外,所描述系统,装置和方法以及不同实施例的示意图,在不超出本发明的范围内,可以与其它系统,模块,技术或方法结合或集成。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
以上所述仅是本发明的具体实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。
Claims (4)
1.一种定位方法,其特征在于,包括:
在智能驾驶模式下,通过四个环视鱼眼相机获取车辆行驶周边环境的当前帧图像,并提取所述当前帧图像的特征点,计算当前帧图像的词带向量和特征点描述子;
将所述当前帧图像与特征点地图中的关键帧进行匹配,利用词带向量从所述特征点地图中选取预设数量的关键帧作为备选,并计算每一所述备选关键帧的词带向量;
计算每一所述备选关键帧的词带向量与所述当前帧图像的词带向量的相似度评分,将相似度评分最高的备选关键帧作为成功匹配的关键帧;
采用基于车体运动模型的两点法对当前帧图像与成功匹配的备选关键帧进行位姿估计,并基于所述位姿估计的结果计算出所述车辆的位置,将所述车辆的位置作为初始位姿;
判断所述车辆是否匀速行驶、且所述车辆的运动方向是否未发生改变;
若是,采用运动模型,用上一帧的位姿和速度来估计当前帧的位姿,所述上一帧的位姿为所述初始位姿;
否则,采用参考关键帧模型,计算当前帧图像的特征点描述子,根据当前帧图像的特征点描述子和上一帧图像的特征点描述子确定当前帧图像和上一帧图像匹配的特征点,采用两点法计算帧间位姿估计,基于所述位姿变化和所述初始位姿估计当前帧的位姿,所述上一帧的位姿为所述初始位姿。
2.根据权利要求1所述的方法,还包括:
在人工驾驶模式下,通过所述环视鱼眼相机获得所述车辆行驶周边环境的帧图像,每帧所述帧图像包括四张图像;
提取初始的两帧图像的特征点,并计算初始两帧图像的特征点描述子,根据特征点描述子进行匹配;
检测特征点的匹配对个数是否满足预设标准;
若是,采用基于车体运动模型的两点法计算帧间位姿;
通过非静止状态下初始两帧图像位姿和三维地图点,创建初始化地图,所述三维地图点为对匹配的所述特征点进行三角化得到,所述初始化地图为所述特征点地图的初始状态;
将所述初始的两帧图像设置为关键帧,并在所述初始化地图中插入所述关键帧;根据三维地图点创建对应地图点,将地图点与关键帧、地图进行数据关联;
对所述初始化地图进行多相机全局光束平差法优化;
从所述环视鱼眼相机获得的、除所述初始的两帧图像的帧图像中提取关键帧图像;
提取所述关键帧图像的特征点,计算所述关键帧图像的特征点描述子;
根据关键帧之间的共视关系得到新增加关键帧的共视关键帧,再对该关键帧及其共视关键帧通过它们的特征点描述子进行匹配;
根据所述特征匹配的结果,采用基于车体运动模型的两点法进行帧间位姿估计;
将匹配的特征点进行三角化,根据深度、视差、误差等条件筛选,得到与三角化的特征点对应的地图点,所述匹配的特征点属于所述特征匹配的结果;
利用所述关键帧和地图点的关系、关键帧与共视关键帧的关系将所述关键帧和地图点插入所述特征点地图中;
对所述特征点地图进行多相机局部光束平差法优化;
融合优化后的特征点地图中的关键帧,删除冗余的关键帧;
计算当前关键帧和每个共视关键帧的词带相似度得分,根据相似度得分确定闭环候选帧,所述当前关键帧属于所述关键帧图像;
对所述特征点地图进行s im3优化,更新当前关键帧的特征点与地图点的匹配;
判断匹配个数是否达到预设标准,若是,对所述当前关键帧帧及相邻的关键帧进行闭环融合,并对所述特征点地图进行多相机全局光束平差法优化。
3.根据权利要求2所述的方法,其特征在于,在所述两帧图像之间进行特征点的匹配,包括:
当所述两帧图像为同相机不同时序上的图像时,使用所述两帧图像进行同相机不同时序图像之间的特征点匹配;
当所述两帧图像为不同相机不同时序上的图像时,对所述两帧图像进行校正,并使用矫正后的图像进行特征点匹配,并将矫正后的图像投影回原图像。
4.根据权利要求2所述的方法,其特征在于,不同动态场景下特征点的匹配,包括:
当所述车辆行驶周边环境运动物体点少且变化少的动态场景时,采用基于网格的运动统计的方法完成特征点的匹配,并用IMU约束和运动约束剔除错误的匹配;
当所述车辆行驶周边环境为运动物体点多的动态场景时,采用条件随机场分割的方法建立高层语义地图,将每一帧语义分割出的车辆和行人的特征点从匹配出的特征点中删除。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811474110.6A CN111274847B (zh) | 2018-12-04 | 2018-12-04 | 一种定位方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811474110.6A CN111274847B (zh) | 2018-12-04 | 2018-12-04 | 一种定位方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111274847A true CN111274847A (zh) | 2020-06-12 |
CN111274847B CN111274847B (zh) | 2023-04-07 |
Family
ID=71001339
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811474110.6A Active CN111274847B (zh) | 2018-12-04 | 2018-12-04 | 一种定位方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111274847B (zh) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111862216A (zh) * | 2020-07-29 | 2020-10-30 | 上海高仙自动化科技发展有限公司 | 计算机设备定位方法、装置、计算机设备和存储介质 |
CN111986261A (zh) * | 2020-08-13 | 2020-11-24 | 清华大学苏州汽车研究院(吴江) | 一种车辆定位方法、装置、电子设备及存储介质 |
CN112198878A (zh) * | 2020-09-30 | 2021-01-08 | 深圳市银星智能科技股份有限公司 | 一种即时地图构建方法、装置、机器人及存储介质 |
CN112381726A (zh) * | 2020-10-29 | 2021-02-19 | 浙江吉利控股集团有限公司 | 一种地下车库全局图的构建方法及装置 |
CN113008274A (zh) * | 2021-03-19 | 2021-06-22 | 奥特酷智能科技(南京)有限公司 | 车辆初始化定位方法、系统及计算机可读介质 |
CN114279456A (zh) * | 2021-12-06 | 2022-04-05 | 纵目科技(上海)股份有限公司 | 图片构建/车辆定位方法、系统、终端及计算机存储介质 |
CN117437288A (zh) * | 2023-12-19 | 2024-01-23 | 先临三维科技股份有限公司 | 摄影测量方法、装置、设备及存储介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017128934A1 (zh) * | 2016-01-29 | 2017-08-03 | 成都理想境界科技有限公司 | 一种实现增强现实的方法、服务器、终端及系统 |
CN107369183A (zh) * | 2017-07-17 | 2017-11-21 | 广东工业大学 | 面向mar的基于图优化slam的跟踪注册方法及系统 |
CN108398139A (zh) * | 2018-03-01 | 2018-08-14 | 北京航空航天大学 | 一种融合鱼眼图像与深度图像的动态环境视觉里程计方法 |
CN108446600A (zh) * | 2018-02-27 | 2018-08-24 | 上海汽车集团股份有限公司 | 一种车辆驾驶员疲劳监测预警系统及方法 |
-
2018
- 2018-12-04 CN CN201811474110.6A patent/CN111274847B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017128934A1 (zh) * | 2016-01-29 | 2017-08-03 | 成都理想境界科技有限公司 | 一种实现增强现实的方法、服务器、终端及系统 |
CN107369183A (zh) * | 2017-07-17 | 2017-11-21 | 广东工业大学 | 面向mar的基于图优化slam的跟踪注册方法及系统 |
CN108446600A (zh) * | 2018-02-27 | 2018-08-24 | 上海汽车集团股份有限公司 | 一种车辆驾驶员疲劳监测预警系统及方法 |
CN108398139A (zh) * | 2018-03-01 | 2018-08-14 | 北京航空航天大学 | 一种融合鱼眼图像与深度图像的动态环境视觉里程计方法 |
Non-Patent Citations (2)
Title |
---|
艾青林等: "基于ORB关键帧匹配算法的机器人SLAM实现", 《机电工程》 * |
陈常等: "基于视觉的同时定位与地图构建的研究进展", 《计算机应用研究》 * |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111862216A (zh) * | 2020-07-29 | 2020-10-30 | 上海高仙自动化科技发展有限公司 | 计算机设备定位方法、装置、计算机设备和存储介质 |
CN111862216B (zh) * | 2020-07-29 | 2023-05-26 | 上海高仙自动化科技发展有限公司 | 计算机设备定位方法、装置、计算机设备和存储介质 |
CN111986261A (zh) * | 2020-08-13 | 2020-11-24 | 清华大学苏州汽车研究院(吴江) | 一种车辆定位方法、装置、电子设备及存储介质 |
CN111986261B (zh) * | 2020-08-13 | 2023-08-18 | 清华大学苏州汽车研究院(吴江) | 一种车辆定位方法、装置、电子设备及存储介质 |
CN112198878A (zh) * | 2020-09-30 | 2021-01-08 | 深圳市银星智能科技股份有限公司 | 一种即时地图构建方法、装置、机器人及存储介质 |
CN112198878B (zh) * | 2020-09-30 | 2021-09-28 | 深圳市银星智能科技股份有限公司 | 一种即时地图构建方法、装置、机器人及存储介质 |
CN112381726A (zh) * | 2020-10-29 | 2021-02-19 | 浙江吉利控股集团有限公司 | 一种地下车库全局图的构建方法及装置 |
CN113008274A (zh) * | 2021-03-19 | 2021-06-22 | 奥特酷智能科技(南京)有限公司 | 车辆初始化定位方法、系统及计算机可读介质 |
CN114279456A (zh) * | 2021-12-06 | 2022-04-05 | 纵目科技(上海)股份有限公司 | 图片构建/车辆定位方法、系统、终端及计算机存储介质 |
CN114279456B (zh) * | 2021-12-06 | 2024-04-30 | 纵目科技(上海)股份有限公司 | 图片构建/车辆定位方法、系统、终端及计算机存储介质 |
CN117437288A (zh) * | 2023-12-19 | 2024-01-23 | 先临三维科技股份有限公司 | 摄影测量方法、装置、设备及存储介质 |
CN117437288B (zh) * | 2023-12-19 | 2024-05-03 | 先临三维科技股份有限公司 | 摄影测量方法、装置、设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN111274847B (zh) | 2023-04-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111274847B (zh) | 一种定位方法 | |
CN109166149B (zh) | 一种融合双目相机与imu的定位与三维线框结构重建方法与系统 | |
US11094198B2 (en) | Lane determination method, device and storage medium | |
CN109887053B (zh) | 一种slam地图拼接方法及系统 | |
CN109509230B (zh) | 一种应用于多镜头组合式全景相机的slam方法 | |
JP7326720B2 (ja) | 移動体位置推定システムおよび移動体位置推定方法 | |
Peng et al. | Ida-3d: Instance-depth-aware 3d object detection from stereo vision for autonomous driving | |
CN109074085B (zh) | 一种自主定位和地图建立方法、装置和机器人 | |
CN107735797B (zh) | 用于确定第一坐标系与第二坐标系之间的运动的方法 | |
CN110176032B (zh) | 一种三维重建方法及装置 | |
CN111652934A (zh) | 定位方法及地图构建方法、装置、设备、存储介质 | |
CN107167826B (zh) | 一种自动驾驶中基于可变网格的图像特征检测的车辆纵向定位系统及方法 | |
CN110570453B (zh) | 一种基于双目视觉的闭环式跟踪特征的视觉里程计方法 | |
Parra et al. | Robust visual odometry for vehicle localization in urban environments | |
CN108519102B (zh) | 一种基于二次投影的双目视觉里程计算方法 | |
CN106127788A (zh) | 一种视觉避障方法和装置 | |
CA3083430C (en) | Urban environment labelling | |
CN116255992A (zh) | 一种同时定位与建图的方法和装置 | |
CN111508258A (zh) | 一种定位方法及装置 | |
CN111652929A (zh) | 一种视觉特征的识别定位方法及系统 | |
CN112419497A (zh) | 基于单目视觉的特征法与直接法相融合的slam方法 | |
CN114413881A (zh) | 高精矢量地图的构建方法、装置及存储介质 | |
CN110827353A (zh) | 一种基于单目摄像头辅助的机器人定位方法 | |
CN116295412A (zh) | 一种基于深度相机的室内移动机器人稠密建图与自主导航一体化方法 | |
CN116469079A (zh) | 一种自动驾驶bev任务学习方法及相关装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |