CN112598736A - 一种基于地图构建的视觉定位方法及装置 - Google Patents
一种基于地图构建的视觉定位方法及装置 Download PDFInfo
- Publication number
- CN112598736A CN112598736A CN202011556321.1A CN202011556321A CN112598736A CN 112598736 A CN112598736 A CN 112598736A CN 202011556321 A CN202011556321 A CN 202011556321A CN 112598736 A CN112598736 A CN 112598736A
- Authority
- CN
- China
- Prior art keywords
- map
- dimensional
- point cloud
- image
- visual positioning
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000000007 visual effect Effects 0.000 title claims abstract description 62
- 238000000034 method Methods 0.000 title claims abstract description 34
- 238000010276 construction Methods 0.000 title claims abstract description 23
- 238000003384 imaging method Methods 0.000 claims abstract description 42
- 238000013507 mapping Methods 0.000 claims abstract description 35
- 239000013598 vector Substances 0.000 claims description 11
- 238000004590 computer program Methods 0.000 claims description 9
- 238000010586 diagram Methods 0.000 description 7
- 230000000694 effects Effects 0.000 description 4
- 239000000284 extract Substances 0.000 description 3
- 230000036544 posture Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 238000009826 distribution Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- FPIGOBKNDYAZTP-UHFFFAOYSA-N 1,2-epoxy-3-(4-nitrophenoxy)propane Chemical compound C1=CC([N+](=O)[O-])=CC=C1OCC1OC1 FPIGOBKNDYAZTP-UHFFFAOYSA-N 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/90—Determination of colour characteristics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10012—Stereo images
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
Abstract
本发明公开一种基于地图构建的视觉定位方法及装置,该方法步骤包括:S1.获取周围环境的图像并提取图像的特征信息,构建具有空间信息以及特征信息的三维点云地图;S2.由成像设备实时获取二维图像并提取图像的特征信息,根据提取到的特征信息构建实时获取的二维图像与三维点云地图之间的映射关系,根据映射关系定位出成像设备在三维点云地图中的位置。本发明具有实现方法简单、定位精度高以及鲁棒性强等优点。
Description
技术领域
本发明涉及视觉定位技术领域,尤其涉及一种基于地图构建的视觉定位方法及装置。
背景技术
视觉定位即为利用图像采集设备采集的图像信息实现定位。现有技术中,视觉定位方法通常是基于光流或者特征点实现,但是该类视觉定位方法会存在以下问题:
1、由于特征点是由图像生成,而这类特征点的位置精度较低,会直接影响定位的精度。
2、由视觉直接提取的特征点还存在不稳定的问题,如特征点可能由路上的落叶、高楼等的倒影获得,这种特征在短时间内位置会发生巨大的变化甚至消失,基于这类不稳定特征进行定位,会使得定位鲁棒性较低。
在如无人驾驶等的应用场景中,需要为车辆提供地图数据,该地图数据通常为激光点云类的数据,但是激光点云图无法直接应用于视觉定位。专利申请201910587663.0公开了一种视觉建图的校准方法,该方法通过获取视觉传感器采集的图像数据,根据图像数据确定视觉传感器的运动轨迹,基于视觉传感器的运动轨迹和图像数据生成初始视觉地图,再对初始视觉地图进行校准,该方法可以通过构建视觉地图,以用于视觉定位,但是地图构建方式复杂,且依赖于该地图构建方式所实现的视觉定位实际定位精度并不高。
发明内容
本发明要解决的技术问题就在于:针对现有技术存在的技术问题,本发明提供一种实现方法简单、定位精度高以及鲁棒性强的基于地图构建的视觉定位方法及装置。
为解决上述技术问题,本发明提出的技术方案为:
一种基于地图构建的视觉定位方法,步骤包括:
S1.地图构建:获取周围环境的图像并提取图像的特征信息,构建具有空间信息以及所述特征信息的三维点云地图;
S2.视觉定位:由成像设备实时获取二维图像并提取图像的特征信息,根据提取到的特征信息构建实时获取的二维图像与所述三维点云地图之间的映射关系,根据所述映射关系定位出所述成像设备在所述三维点云地图中的位置。
进一步的:所述图像的特征信息包括语义特征、几何特征、色彩特征中一种或多种的组合。
进一步的:所述三维点云地图包括多个子地图,每个所述子地图包括一个以上的点包,所述点包包括点云的空间信息及点云对应的所述特征信息。
进一步的:所述步骤S2中,通过对比所述二维图像的特征信息与所述三维点云地图的特征信息,得到在所述三维点云地图中的初始位姿估计。
进一步的:所述初始位姿估计中,分别计算实时提取到的特征信息所形成的特征向量与所述三维点云地图中各子地图之间的距离,由最小距离对应的所述子地图确定得到所述初始位置估计。
进一步的:所述步骤S2中构建映射关系时,先将所述三维点云地图中各子地图分别与所述二维图像进行数据关联;然后从所述二维图像中提取二维特征点,并与所述三维点云地图中特征点进行对应匹配,计算出所述二维图像与所述三维点云地图之间的映射关系。
进一步的:所述进行数据关联时,遍历实时获取的所述二维图像,将所述二维图像的特征信息分别与所述三维点云地图中各子地图的点包进行匹配,如果匹配成功则进行数据关联,所述点包包括点云的空间信息及点云对应的所述特征信息。
进一步的:进行对应匹配后还包括对匹配上的点进行二次关联步骤,具体步骤包括:当待匹配的两个目的特征点之间满足色彩特征、语义特征、几何特征中任意一种或多种符合预设条件时,最终确定两个目的特征点关联成功。
一种基于地图构建的视觉定位装置,包括:
地图构建模块,用于获取周围环境的图像并提取图像的特征信息,构建具有空间信息以及特征信息的三维点云地图;
视觉定位模块,用于由成像设备实时获取二维图像并提取图像的特征信息,根据提取到的特征信息构建实时获取的二维图像与所述三维点云地图之间的映射关系,根据所述映射关系定位出所述成像设备在所述三维点云地图中的位置。
一种基于地图构建的视觉定位装置,包括处理器以及存储器,所述存储器用于存储计算机程序,所述处理器用于执行所述计算机程序,其特征在于,所述处理器用于执行所述计算机程序,以执行如上述的方法。
与现有技术相比,本发明的优点在于:
1、本发明通过先构建三维点云地图,该三维点云地图不仅包含空间信息,还包含特征信息,实时获取到二维图像后,将二维图像与三维点云地图进行映射,由映射关系定位出成像设备在三维点云地图中的位置,从而结合三维点云地图构建实现视觉定位,降低视觉定位的复杂度,同时利用三维点云地图的信息,有效提高视觉定位的精度以及鲁棒性。
2、本发明进一步通过在图像中提取语义特征、几何特征、色彩特征三类视觉特征,融合语义特征、几何特征、色彩特征三种约束,可以进一步提高定位的鲁棒性。
附图说明
图1是本实施例基于地图构建的视觉定位方法的实现流程示意图。
图2是本实施例中提取的特征信息原理示意图。
图3是本实施例中特征地图的形成原理示意图。
图4是在具体应用实施例中得到的三维点云效果示意图。
图5是本实施例中提取三维特征点的原理示意图。
图6是在具体应用实施例中得到的匹配特征点的效果示意图。
图7是在具体应用实施例中特征点匹配后的效果示意图。
图8是本实施例采用PNP方法的原理示意图。
图9是本实施例中实现视觉定位的详细流程示意图。
具体实施方式
以下结合说明书附图和具体优选的实施例对本发明作进一步描述,但并不因此而限制本发明的保护范围。
如图1,本实施例基于地图构建的视觉定位方法的步骤包括:
S1.地图构建:获取周围环境的图像并提取图像的特征信息,构建具有空间信息以及特征信息的三维点云地图;
S2.视觉定位:由成像设备实时获取二维图像并提取图像的特征信息,根据提取到的特征信息构建实时获取的二维图像与三维点云地图之间的映射关系,根据映射关系定位出成像设备在三维点云地图中的位置。
对于无人驾驶车辆来说,若在车辆上配置激光雷达,可扫描到点云数据,将该扫描到的点云与为车辆提供的地图点云进行匹配后,可得到车辆在地图中的位置,实现定位功能。本实施例利用该特性,通过先构建三维点云地图,该三维点云地图不仅包含空间信息,还包含特征信息,实时获取到二维图像后,将二维图像与三维点云地图进行映射,由映射关系定位出成像设备在三维点云地图中的位置,从而结合三维点云地图构建实现视觉定位,降低视觉定位的复杂度,同时利用三维点云地图的信息,有效提高视觉定位的精度以及鲁棒性。
上述图像的特征信息具体包括语义特征、几何特征以及色彩特征等的信息,如图2所示,语义特征具体为交通标志牌、车道线、路肩等语义的特征;几何特征具体包括图像中的直线特征、角点特征等,角点特征具体可由orb、sift、surf等角点提取算法获得,角点特征也包括了描述子;色彩特征具体包括色彩、图像块灰度二阶中心距等特征。本实施例通过在图像中提取上述三类视觉特征,使得可以融合语义特征、几何特征、色彩特征三种约束,可以进一步提高定位的鲁棒性。
本实施例具体由激光雷达扫描点云数据,构建形成三维点云图像。上述三维点云地图包括多个子地图,每个子地图包括一个或以上的点包,点包包括点云的空间信息及点云对应的特征信息,如图3所示。基于激光获取特征点,能够得到位置精度更高的特征点。
为进行地图构建,本实施例具体配置一台建图设备,该建图设备包括激光雷达、二维成像设备两种传感器,二维成像设备可以为单目摄像头、鱼眼摄像头、环视摄像头等,离线标定激光、二维成像设备之间的外参,使得两种传感器的坐标统一;再由激光雷达、二维成像设备的外参,可将图像的特征信息映射到三维激光点云上。
在具体应用实施例中,本实施例建图过程中,先通过二维成像设备获取图像,在图像中提取上述三类视觉特征,即语义特征、几何特征以及色彩特征;然后由激光雷达、二维成像设备的外参,将图像的特征信息映射到三维激光点云上;由点云的空间信息及该点对应的特征信息构成点包;再将点云进行拼接(如使用高精度定位设备),即可得到具备特征信息的三维点云地图。
上述得到的三维点云地图进行地图表示时,包含了地图特征信息的点包可构成特征地图,特征地图由若干个子地图构成;每个子地图包含一个以上的点包,同一个子地图中的点包具有相似的被观测姿态,一个点包可以同时属于多个子地图,地图中的点包至少属于一个子地图。
上述特征地图中的点包同时具备特征信息与空间信息,每个点包具体都包含有色彩特征,但可能不一定具备语义特征与几何特征;空间信息具体包括该点云的被观测角度、由测量装置转化而来的三维坐标。在具体应用实施例中,对子地图统计所属点包中三类特征的点包个数分布,可得如下表1。当固定特征类别顺序不变,并对具体属性归一化,就可以得到该子地图对应的特征向量。
表1:点包特征分布统计
由点包中的色彩特征和空间信息,可以绘制具备色彩信息的三维点云,具体应用实施例中得到的效果如图4所示。
上述特征除使用二维成像设备提取外,也可由激光点云或者其他传感器数据提取,激光雷达也可替换为其他3d环境感知设备,如RGB-D、毫米波雷达等。还可采用如激光定位、视觉定位、wifi指纹、蓝牙定位等方式作为特征进行定位。
本实施例步骤S2中,具体通过对比从二维图像的特征信息与三维点云地图的特征信息,得到在三维点云地图中的初始位姿估计,以确定成像设备的初始位姿。
上述初始位姿估计中,具体分别计算实时提取到的特征信息所形成的特征向量与三维点云地图中各子地图之间的距离,由最小距离对应的子地图确定得到初始位置估计。
在具体应用实施例中,在定位启动时刻,二维成像设备实时获取图像,在图像中提取三类视觉特征,生成该帧图像的特征向量;计算该帧图像的特征向量与不同子地图中的特征向量的欧式距离,由最小欧式距离通过如PNP方法即可求解得到初始位姿;将该位姿所属子地图的相关特征点信息,放入待匹配特征列表以进行后续特征点匹配。
本实施例步骤S2中构建映射关系时,具体先将三维点云地图中各子地图分别与二维图像进行数据关联;然后从二维图像中提取二维特征点,并与三维点云地图中特征点进行对应匹配,计算出二维图像与三维点云地图之间的映射关系。
上述进行数据关联时,具体遍历实时获取的二维图像,将二维图像的特征信息分别与三维点云地图中各子地图的点包进行匹配,如果匹配成功则进行数据关联。本实施例具体将检索得到的视觉特征与待匹配特征列表中的特征进行如下三项匹配:
a)色彩特征匹配
将对应区域分为若干子块,以子块内的像素灰度值为采样对象,计算子块内图像灰度二阶中心距与图像灰度三阶中心距;分别以每个子块的这两个属性为采样对象,求方差,若方差小于一定阈值,则说明两者纹理相同。
b)几何特征匹配
将子地图中的几何特征投影到二维平面,比较该特征在二维平面的相似度。比如,线特征相关点云投影到到二维成像设备的成像平面,对比两条直线之间的角度与长度,长度小于一定阈值则可视两条直线属于同一条直线。
c)语义特征匹配
由二维成像设备获取的图像提取语义信息,与点云地图中的语义特征对比,当两者类别及长宽高等物理属性之差小于一定阈值,则可视两个语义对象为同一物体。
当上述三种特征均满足匹配条件时,则可判定为该对象数据关联成功。可以理解的是,当然还可以配置其他类型的匹配条件以实现更为精确或高效的数据关联。
数据关联后,本实施例进一步计算出三维地图特征与二维视觉特征(实时由二维成像设备获取的二维图像画面中的特征)的映射关系,初始映射即为三维点云投影到二维平面后的映射,映射具体可采用PNP技术,具体步骤如下:
步骤a.在三维点云中提取特征点。
基于针孔成像模型,如图5所示,本实施例将子地图中的三维点云投影到当前视觉成像设备所在的二维成像平面,生成二维投影图像,该图像的每个像素保留了三维点云的色彩信息;匹配二维投影图像上的特征与视觉成像设备上所得二维图像特征;对二维投影图像中,对特征匹配成功的区域提取可用于角点匹配的ORB特征点和FAST描述子,并将二维特征点反投影到三维空间,即可得到三维特征点。
步骤b.在二维图像中提取特征点。
在视觉成像设备中得到的二维图像中特征匹配成功的区域提取ORB特征点和FAST描述子。
步骤c.特征点匹配。
匹配二维投影图像与视觉成像设备所得二维图像中的特征点。
上述基于FAST描述子的特征点匹配可能会出现匹配错误的现象,如图6所示。本实施例进一步进行匹配后还包括对匹配上的点进行二次关联步骤,具体步骤包括:当待匹配的两个目的特征点之间满足色彩特征、语义特征、几何特征中任意一种或多种符合预设条件时,最终确定两个目的特征点关联成功,以避免特征点匹配错误的情况,确保匹配精度。
在具体应用实施例中,上述二次关联的条件具体配置如下:
1)色彩特征条件:三维特征点对应的点包附近,相邻点包色彩特征之差(即对应梯度),与二维成像设备获取图像中的二维特征点附近图像梯度之差应小于一定阈值才判断为关联成功。
2)语义特征条件:对比语义特征(实例分割结果),点对所属实例是同一物体才判断为关联成功。如图7中相同颜色的像素属于同一实例。
3)几何特征条件:对比几何特征,点包对应实例长宽高等物理属性之差应小于一定阈值才判断为关联成功。
当点对的色彩、语义、几何特征均满足上述二次关联条件时,将点对保存至待匹配点对列表,否则将点对视为匹配错误的点对进行删除。由二次关联匹配成功的点包对,可得如图7所示的匹配点。可以理解的是,当然还可以采用上述任意一种或两种条件作为二次关联条件,甚至可以设置其他的条件作为二次关联条件。
本实施例由待匹配点对列表中的点对,具体使用PNP技术(如P3P、EPNP、DLT等)求解出成像设备(摄像头)的姿态,然后根据映射关系即可求出二维成像设备在特征地图中的位置。
上述PNP方法具体如图8所示,其中ABC为三维特征点,abc为三维特征点投影到二维成像平面上的二维特征点,由于三维特征点的空间位置已知、二维特征点在成像平面的二维坐标已知,根据几何映射关系即可以得到相机位姿。
如图9所示,本实施例中上述步骤S2的具体步骤包括:
S21.初始估计:对比子地图特征向量与实时获取图像的特征向量,即对比三维点云地图与二维图像的特征信息,得到初始位姿估计;
S22.数据关联:通过地图特征将子地图的点包与二维图像关联起来,即将三维点云地图中各子地图分别与二维图像进行数据关联:
S23.点云映射:从二维图像中提取二维特征点,并与三维点云地图中特征点进行对应;
S24.姿态估计:由二维特征点与点包对应关系,计算出二维成像设备在三维点云地图中的姿态。
本实施例基于地图构建的视觉定位装置包括:
地图构建模块,用于获取周围环境的图像并提取图像的特征信息,构建具有空间信息以及特征信息的三维点云地图;
视觉定位模块,用于由成像设备实时获取二维图像并提取图像的特征信息,根据提取到的特征信息构建实时获取的二维图像与三维点云地图之间的映射关系,根据映射关系定位出成像设备在三维点云地图中的位置。
本实施例中,视觉定位模块模块,包括:
初始估计单元,用于对比子地图特征向量与实时获取图像的特征向量,即对比三维点云地图与二维图像的特征信息,得到初始位姿估计;
数据关联单元,用于通过地图特征将子地图的点包与二维图像关联起来,即将三维点云地图中各子地图分别与二维图像进行数据关联:
点云映射单元,用于从二维图像中提取二维特征点,并与三维点云地图中特征点进行对应;
姿态估计单元,用于由二维特征点与点包对应关系,计算出二维成像设备在三维点云地图中的姿态
本实施例基于地图构建的视觉定位装置与上述基于地图构建的视觉定位方法为一一对应,在此不再一一赘述。
在另一实施例中,本发明基于地图构建的视觉定位装置还可以为:包括处理器以及存储器,存储器用于存储计算机程序,处理器用于执行计算机程序,其特征在于,处理器用于执行计算机程序,以执行如上述基于地图构建的视觉定位方法。
上述只是本发明的较佳实施例,并非对本发明作任何形式上的限制。虽然本发明已以较佳实施例揭露如上,然而并非用以限定本发明。因此,凡是未脱离本发明技术方案的内容,依据本发明技术实质对以上实施例所做的任何简单修改、等同变化及修饰,均应落在本发明技术方案保护的范围内。
Claims (10)
1.一种基于地图构建的视觉定位方法,其特征在于,步骤包括:
S1.地图构建:获取周围环境的图像并提取图像的特征信息,构建具有空间信息以及所述特征信息的三维点云地图;
S2.视觉定位:由成像设备实时获取二维图像并提取图像的特征信息,根据提取到的特征信息构建实时获取的二维图像与所述三维点云地图之间的映射关系,根据所述映射关系定位出所述成像设备在所述三维点云地图中的位置。
2.根据权利要求1所述的基于地图构建的视觉定位方法,其特征在于,所述图像的特征信息包括语义特征、几何特征、色彩特征中一种或多种的组合。
3.根据权利要求1所述的基于地图构建的视觉定位方法,其特征在于:所述三维点云地图包括多个子地图,每个所述子地图包括一个以上的点包,所述点包包括点云的空间信息及点云对应的所述特征信息。
4.根据权利要求1或2或3所述的基于地图构建的视觉定位方法,其特征在于,所述步骤S2中,通过对比所述二维图像的特征信息与所述三维点云地图的特征信息,得到在所述三维点云地图中的初始位姿估计。
5.根据权利要求4所述的基于地图构建的视觉定位方法,其特征在于,所述初始位姿估计中,分别计算实时提取到的特征信息所形成的特征向量与所述三维点云地图中各子地图之间的距离,由最小距离对应的所述子地图确定得到所述初始位置估计。
6.根据权利要求1或2或3所述的基于地图构建的视觉定位方法,其特征在于,所述步骤S2中构建映射关系时,先将所述三维点云地图中各子地图分别与所述二维图像进行数据关联;然后从所述二维图像中提取二维特征点,并与所述三维点云地图中特征点进行对应匹配,计算出所述二维图像与所述三维点云地图之间的映射关系。
7.根据权利要求6所述的基于地图构建的视觉定位方法,其特征在于,所述进行数据关联时,遍历实时获取的所述二维图像,将所述二维图像的特征信息分别与所述三维点云地图中各子地图的点包进行匹配,如果匹配成功则进行数据关联,所述点包包括点云的空间信息及点云对应的所述特征信息。
8.根据权利要求6所述的基于地图构建的视觉定位方法,其特征在于,进行对应匹配后还包括对匹配上的点进行二次关联步骤,具体步骤包括:当待匹配的两个目的特征点之间满足色彩特征、语义特征、几何特征中任意一种或多种符合预设条件时,最终确定两个目的特征点关联成功。
9.一种基于地图构建的视觉定位装置,其特征在于,包括:
地图构建模块,用于获取周围环境的图像并提取图像的特征信息,构建具有空间信息以及特征信息的三维点云地图;
视觉定位模块,用于由成像设备实时获取二维图像并提取图像的特征信息,根据提取到的特征信息构建实时获取的二维图像与所述三维点云地图之间的映射关系,根据所述映射关系定位出所述成像设备在所述三维点云地图中的位置。
10.一种基于地图构建的视觉定位装置,包括处理器以及存储器,所述存储器用于存储计算机程序,所述处理器用于执行所述计算机程序,其特征在于,所述处理器用于执行所述计算机程序,以执行如权利要求1~8中任意一项所述方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011556321.1A CN112598736A (zh) | 2020-12-24 | 2020-12-24 | 一种基于地图构建的视觉定位方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011556321.1A CN112598736A (zh) | 2020-12-24 | 2020-12-24 | 一种基于地图构建的视觉定位方法及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112598736A true CN112598736A (zh) | 2021-04-02 |
Family
ID=75202667
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011556321.1A Pending CN112598736A (zh) | 2020-12-24 | 2020-12-24 | 一种基于地图构建的视觉定位方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112598736A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113820697A (zh) * | 2021-09-09 | 2021-12-21 | 中国电子科技集团公司第五十四研究所 | 一种基于城市建筑特征与三维地图的视觉定位方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018006082A2 (en) * | 2016-07-01 | 2018-01-04 | Uber Technologies, Inc. | Autonomous vehicle control using submaps |
CN108734654A (zh) * | 2018-05-28 | 2018-11-02 | 深圳市易成自动驾驶技术有限公司 | 绘图与定位方法、系统及计算机可读存储介质 |
CN109993793A (zh) * | 2019-03-29 | 2019-07-09 | 北京易达图灵科技有限公司 | 视觉定位方法及装置 |
CN111325796A (zh) * | 2020-02-28 | 2020-06-23 | 北京百度网讯科技有限公司 | 用于确定视觉设备的位姿的方法和装置 |
-
2020
- 2020-12-24 CN CN202011556321.1A patent/CN112598736A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018006082A2 (en) * | 2016-07-01 | 2018-01-04 | Uber Technologies, Inc. | Autonomous vehicle control using submaps |
CN108734654A (zh) * | 2018-05-28 | 2018-11-02 | 深圳市易成自动驾驶技术有限公司 | 绘图与定位方法、系统及计算机可读存储介质 |
CN109993793A (zh) * | 2019-03-29 | 2019-07-09 | 北京易达图灵科技有限公司 | 视觉定位方法及装置 |
CN111325796A (zh) * | 2020-02-28 | 2020-06-23 | 北京百度网讯科技有限公司 | 用于确定视觉设备的位姿的方法和装置 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113820697A (zh) * | 2021-09-09 | 2021-12-21 | 中国电子科技集团公司第五十四研究所 | 一种基于城市建筑特征与三维地图的视觉定位方法 |
CN113820697B (zh) * | 2021-09-09 | 2024-03-26 | 中国电子科技集团公司第五十四研究所 | 一种基于城市建筑特征与三维地图的视觉定位方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110568447B (zh) | 视觉定位的方法、装置及计算机可读介质 | |
US20210190497A1 (en) | Simultaneous location and mapping (slam) using dual event cameras | |
CN109345588B (zh) | 一种基于Tag的六自由度姿态估计方法 | |
CN108955718B (zh) | 一种视觉里程计及其定位方法、机器人以及存储介质 | |
JP6031554B2 (ja) | 単眼カメラに基づく障害物検知方法及び装置 | |
US20210375036A1 (en) | Three-dimensional reconstruction method, apparatus and system, model training method and storage medium | |
CN110176032B (zh) | 一种三维重建方法及装置 | |
CN109993793B (zh) | 视觉定位方法及装置 | |
CN113989450B (zh) | 图像处理方法、装置、电子设备和介质 | |
Muñoz-Bañón et al. | Targetless camera-LiDAR calibration in unstructured environments | |
CN112346073A (zh) | 一种动态视觉传感器与激光雷达数据融合方法 | |
US11748998B1 (en) | Three-dimensional object estimation using two-dimensional annotations | |
CN111998862B (zh) | 一种基于bnn的稠密双目slam方法 | |
WO2022183685A1 (zh) | 目标检测方法、电子介质和计算机存储介质 | |
CN113240734B (zh) | 一种基于鸟瞰图的车辆跨位判断方法、装置、设备及介质 | |
CN113393524B (zh) | 一种结合深度学习和轮廓点云重建的目标位姿估计方法 | |
CN110567441B (zh) | 基于粒子滤波的定位方法、定位装置、建图及定位的方法 | |
CN115376109B (zh) | 障碍物检测方法、障碍物检测装置以及存储介质 | |
WO2022048493A1 (zh) | 摄像头外参标定的方法与装置 | |
CN115690469A (zh) | 一种双目图像匹配方法、装置、设备和存储介质 | |
CN114608521B (zh) | 单目测距方法及装置、电子设备和存储介质 | |
CN112036359A (zh) | 一种车道线的拓扑信息获得方法、电子设备及存储介质 | |
CN114662587A (zh) | 一种基于激光雷达的三维目标感知方法、装置及系统 | |
CN111553342B (zh) | 一种视觉定位方法、装置、计算机设备和存储介质 | |
CN112598736A (zh) | 一种基于地图构建的视觉定位方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20210402 |
|
RJ01 | Rejection of invention patent application after publication |