CN107709930A - 用于表示地图要素的方法和装置以及用于定位车辆/机器人的方法和装置 - Google Patents
用于表示地图要素的方法和装置以及用于定位车辆/机器人的方法和装置 Download PDFInfo
- Publication number
- CN107709930A CN107709930A CN201580080875.XA CN201580080875A CN107709930A CN 107709930 A CN107709930 A CN 107709930A CN 201580080875 A CN201580080875 A CN 201580080875A CN 107709930 A CN107709930 A CN 107709930A
- Authority
- CN
- China
- Prior art keywords
- signature
- map
- hybrid models
- gauss hybrid
- map elements
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 91
- 239000000203 mixture Substances 0.000 claims description 102
- 238000003860 storage Methods 0.000 claims description 32
- 230000008878 coupling Effects 0.000 claims description 6
- 238000010168 coupling process Methods 0.000 claims description 6
- 238000005859 coupling reaction Methods 0.000 claims description 6
- 238000005457 optimization Methods 0.000 claims description 5
- 238000012545 processing Methods 0.000 claims description 3
- 230000004807 localization Effects 0.000 abstract description 5
- 238000005516 engineering process Methods 0.000 abstract description 4
- 238000004891 communication Methods 0.000 description 9
- 238000010586 diagram Methods 0.000 description 8
- 239000012634 fragment Substances 0.000 description 8
- 230000001052 transient effect Effects 0.000 description 8
- 238000000429 assembly Methods 0.000 description 4
- 230000000712 assembly Effects 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 230000008901 benefit Effects 0.000 description 3
- 238000009826 distribution Methods 0.000 description 3
- 238000005192 partition Methods 0.000 description 3
- 238000005259 measurement Methods 0.000 description 2
- 238000002310 reflectometry Methods 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000010267 cellular communication Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000000151 deposition Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000000802 evaporation-induced self-assembly Methods 0.000 description 1
- 238000003709 image segmentation Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
- G01C21/3626—Details of the output of route guidance instructions
- G01C21/3635—Guidance using 3D or perspective road maps
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/28—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
- G01C21/30—Map- or contour-matching
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/38—Electronic maps specially adapted for navigation; Updating thereof
- G01C21/3863—Structures of map data
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/213—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
- G06F18/2137—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on criteria of topology preservation, e.g. multidimensional scaling or self-organising maps
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/10—Constructive solid geometry [CSG] using solid primitives, e.g. cylinders, cubes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Theoretical Computer Science (AREA)
- Geometry (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Software Systems (AREA)
- Electromagnetism (AREA)
- Aviation & Aerospace Engineering (AREA)
- Computer Graphics (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
- Traffic Control Systems (AREA)
Abstract
用于表示地图要素的方法和装置以及用于在此基础上定位车辆/机器人的方法和装置。用于表示地图要素的方法包括:生成地图要素的高斯混合模型(110);生成用于识别地图要素的签名,其中,该签名包括地图要素的属性(120);以及生成签名高斯混合模型(130),该签名高斯混合模型包括高斯混合模型、签名和地图要素存在概率。在此基础上提供用于表示地图要素的新技术并且提供改进的车辆/机器人定位技术。
Description
技术领域
本公开总体上涉及车辆/机器人定位领域,更具体地,本公开涉及涉及用于表示地图要素的方法和装置以及用于定位车辆/机器人的方法和装置。
背景技术
车辆/机器人定位技术已经被研究多年,而且许多所提出的益处也已经在各种应用中被证明。多种地图已经被研发出并且被应用于车辆/机器人定位中,例如:由激光点组成的点地图;将环境分为栅格的栅格地图,其中,每个栅格单元记录其是否被占用并且记录占用概率;利用一种或多种几何图元来表示环境中的实体的几何图元地图;特征地图,该特征地图主要由特征点及其从其它类型的数据(例如点云、相机图像等)中提取的对应描述符组成;利用单一加权(uni-weighted)的高斯混合模型来表示环境的正态分布变换(NDT)地图,其中,每个高斯分布模拟环境的一个唯一栅格单元;将环境分为栅格的正态分布变换占用地图(NDT-OM),在所述栅格的每个栅格单元内在该单元中的数据点之间计算高斯分布,并且表示该单元的占用概率的权重被维持用于该高斯分布。
车辆/机器人借以通过使用例如Odometry、GPS、激光扫描仪、相机等感测器来定位自身的现有方法和系统主要包括:以由车辆/机器人所获得的激光点与栅格地图的匹配为基础的定位;以激光点与点云地图的匹配为基础的定位;以激光点特征与点云地图特征的匹配为基础的定位。
发明内容
本发明的一个方面在于提供用于表示地图要素的新颖的方法和装置。
本发明的另一方面在于提供用于定位车辆/机器人的改进的方法和装置。
根据本发明的一种示例性实施例,提供一种由计算机实施的用于表示地图要素的方法,该方法包括:生成地图要素的高斯混合模型;生成用于识别地图要素的签名,其中,所述签名包括地图要素的属性;以及生成用于表示地图要素的签名高斯混合模型,其中,所述签名高斯混合模型包括所述高斯混合模型、所述签名和地图要素存在概率。
根据本发明的一种示例性实施例,提供一种由计算机实施的用于定位车辆/机器人的方法,该方法包括:读取车辆/机器人当前所在的地图区段的签名高斯混合地图,其中,所述签名高斯混合地图包括该地图区段内的地图要素的签名高斯混合模型,并且这些签名高斯混合模型利用所述用于表示地图要素的方法生成;利用所述用于表示地图要素的方法生成由车辆/机器人获得的实时点云或图像内的地图要素的签名高斯混合模型;以所述实时点云或图像内的地图要素的签名高斯混合模型的签名为基础,建立签名高斯混合地图与实时点云或图像内的地图要素的签名高斯混合模型之间的一个或多个对应关系;以及,以所建立的所述一个或多个对应关系为基础,将签名高斯混合地图与实时点云或图像内的地图要素的签名高斯混合模型进行匹配。
根据本公开的一种示例性实施例,提供一种用于表示地图要素的装置,该装置包括存储器和与该存储器耦接的处理器,在所述存储器中存储有可由计算机执行的指令,所述处理器被配置用于:生成地图要素的高斯混合模型;生成用于识别地图要素的签名,其中,所述签名包括地图要素的属性;以及生成用于表示地图要素的签名高斯混合模型,其中,所述签名高斯混合模型包括所述高斯混合模型、所述签名和地图要素存在概率。
根据本公开的一种示例性实施例,提供一种用于定位车辆/机器人的装置,该装置包括存储器和与该存储器耦接的处理器,在所述存储器中存储有可由计算机执行的指令,所述处理器被配置用于:读取车辆/机器人当前所在的地图区段的签名高斯混合地图,其中,所述签名高斯混合地图包括该地图区段内的地图要素的签名高斯混合模型,并且这些签名高斯混合模型利用所述用于表示地图要素的方法生成;利用所述用于表示地图要素的方法生成由车辆/机器人获得的实时点云或图像内的地图要素的签名高斯混合模型;以所述实时点云或图像内的地图要素的签名高斯混合模型的签名为基础,建立签名高斯混合地图与实时点云或图像内的地图要素的签名高斯混合模型之间的一个或多个对应关系;以及以所建立的所述一个或多个对应关系为基础,将签名高斯混合地图与实时点云或图像内的地图要素的签名高斯混合模型进行匹配。
根据本公开的一种示例性实施例,提供一种非瞬态存储介质,在该非瞬态存储介质上存储有指令,所述指令在被执行时使处理器实施所述由计算机实施的用于表示地图元素的方法,所述非瞬态存储介质包括:使处理器生成地图要素的高斯混合模型的指令;使处理器生成用于识别地图要素的签名的指令,其中,所述签名包括地图要素的属性;以及使处理器生成用于表示地图要素的签名高斯混合模型的指令,其中,所述签名高斯混合模型包括所述高斯混合模型、所述签名和地图要素存在概率。
根据本公开的一种示例性实施例,提供一种非瞬态存储介质,在该非瞬态存储介质上存储有指令,所述指令在被执行时使处理器实施所述由计算机实施的用于定位车辆/机器人的方法,所述非瞬态存储介质包括:使处理器读取车辆/机器人当前所在的地图区段的签名高斯混合地图的指令,其中,所述签名高斯混合地图包括该地图区段内的地图要素的签名高斯混合模型,并且这些签名高斯混合模型利用所述用于表示地图要素的方法生成;使处理器利用所述用于表示地图要素的方法生成由车辆/机器人获得的实时点云或图像内的地图要素的签名高斯混合模型的指令;使处理器以所述实时点云或图像内的地图要素的签名高斯混合模型的签名为基础建立签名高斯混合地图与实时点云或图像内的地图要素的签名高斯混合模型之间的一个或多个对应关系的指令;以及使处理器以所建立的所述一个或多个对应关系为基础将签名高斯混合地图与实时点云或图像内的地图要素的签名高斯混合模型进行匹配的指令。
本公开的进一步适用范围将由以下的详细描述变得显而易见。然而应该理解的是,详细的描述和具体的示例尽管表明了本公开的优选实施例,但是它们仅以说明性的方式给出,因为在本公开的精神和范围内的各种变化和修改将通过下面的详细描述对于本领域技术人员而言变得显而易见。
附图说明
本公开的上述方面和优点以及其它方面和优点将由以下结合附图对示例性实施例的详细描述变得显而易见,所述附图示例性地示出本公开的原理。
图1示出根据本公开的一种示例性实施例的用于表示地图要素的方法的高级流程图;
图2(a)-(g)分别示意性地示出:地面实况部分;对应于所述地面实况部分的数字交通地图部分;签名高斯混合地图,其通过利用所述用于表示地图要素的方法来表示所述数字交通地图部分中的地图要素而获得;具有点簇的点云;用于点云内的点簇的签名高斯混合模型,其通过利用所述用于表示地图要素的方法来表示所述点簇而获得;由车辆/机器人获得的具有若干个片段的图像;以及通过利用所述用于表示地图要素的方法来表示所述图像中的各片段而获得的示图。
图3示出根据本公开的一种示例性实施例的用于定位车辆/机器人的方法的流程图;
图4示出根据本公开的一种示例性实施例的用于表示地图要素的装置;
图5示出根据本公开的一种示例性实施例的用于定位车辆/机器人的装置;
图6示出用于表示地图要素的装置与用于定位车辆/机器人的装置之间的连接示意图;以及
图7示出根据本公开的一种示例性实施例的计算设备的框图,该计算设备是可应用于本公开的各方面的硬件设备的一个示例。
具体实施方式
为了深入理解所描述的示例性实施例,在下面的详细描述中阐述了大量具体细节。然而,对于本领域技术人员来说显而易见的是,所描述的实施例可以在没有这些具体细节的一部分或者全部的情况下实施。在其它的示例性实施例中并未详细描述公知的结构或过程步骤,以便避免不必要地模糊本公开的构思。
本公开的总体构思在于提供用于表示地图要素的新方法和装置。本公开的另一方面在于提供改进的车辆/机器人定位方法和装置。
首先参考图1,在该图中示出根据本公开的一种示例性实施例的由计算机实施的用于表示地图要素的方法100的高级流程图。
方法100从生成110地图要素的高斯混合模型开始。在此使用的地图要素可以是数字地图中的几何图形或点簇或者是图像中的图像片段。数字地图可包括数字交通地图或点云地图。备选地,地图要素可以是由车辆/机器人获得的实时点云中的点簇或者是由车辆/机器人获得的图像(例如相机图像)中的图像片段。数字地图可包括地图要素的几何信息或者可包括能用于确定所述地图要素的几何信息的其它信息(例如所述地图要素的类别信息)。地图要素可对应于物理世界中的物理对象。
此外,几何图形、点簇或图像片段可以是能由几何图元单独地或者组合地来近似的形状。例如,数字交通地图中的地图要素可以是该地图中的可与物理世界中的限速板对应的几何图形。该几何图形的形状可近似于由作为板体的圆形图元和作为板柱的直线段图元组成的形状。作为另一个例子,点云地图或实时点云中的地图要素可以是可与物理世界中的沿着道路的树对应的点簇。该点簇的形状可近似于由作为树干的矩形图元和作为树冠的三角形图元组成的形状。作为另一个例子,图像中的地图要素的形状可以是可与物理世界中的沿着道路的树对应的图像片段。该图像片段的形状可近似于由作为树干的矩形图元和作为树冠的三角形图元组成的形状。
可想到的是,可利用任何已经存在的或者进一步发展的聚类法(例如区域生长或K-means等)来生成点云中的点簇。点簇的几何信息可从点簇内的数据点之间的相对位置关系、例如所述数据点之间的距离来确定。
还想到的是,可利用任何已经存在的或者进一步发展的图像分割法(例如区域生长、K-means、马尔可夫随机场等)来生成图像中的图像片段。
在一个示例中,几何图元可包括直线段、弧线段、螺旋段、平面矩形、平面三角形、平面圆形/球面、平面椭圆形、球体曲面片、柱体曲面片、3D立方体、3D球体和3D柱体中的至少一个。已知任何几何图形都可由几何图元单独地或者组合地表示。
此外,在此使用的高斯混合模型是一种包括多个高斯分布的密度模型。例如,典型的一维高斯混合模型可采用如下方程(1)的形式:
其中,K为在高斯混合模型中包含的高斯分布的数量,πk为第k个高斯分布的组合权重,并且p(x|k)为第k个高斯分布的概率密度函数,该概率密度函数由第k个高斯分布的均值μk和方差bk定义。特别地,典型的一维高斯分布(即,高斯分布的概率密度函数)可采用如下方程(2)的形式:
其中,μk为均值并且pk为方差。
因此,生成地图要素的高斯混合模型可包括如下过程:给定被认为满足高斯混合模型的数据点,确定(a)高斯混合模型中包含的高斯分布的数量、(b)高斯混合模型中的每个高斯分布的组合权重以及(c)每个高斯分布的均值μk和方差tk参数。
在此,仅阐明一维高斯混合模型的示例形式和一维高斯分布的示例形式。但二维和三维高斯混合模型具有相似的形式并且为本领域技术人员所熟知。
根据高斯分布的定义,已知二维空间中的高斯分布的几何形状类似于椭圆形的形状,而三维空间中的高斯分布的几何形状类似于椭圆体的形状。
在一个示例中,地图要素的高斯混合模型可通过用几何图元的高斯混合模型来近似地图要素的形状而生成。值得注意的是,可利用地图要素的几何信息或地图要素的其它信息(例如地图要素的类别信息)来确定地图要素的形状并且这样的信息可从数字地图获得。地图要素的高斯混合模型可利用几何图元单独或组合的高斯混合模型来生成。作为一个示例,地图要素具有与平面椭圆形图元的形状近似的形状,所述平面椭圆形图元的形状可基于该地图要素的几何参数利用所述平面椭圆形图元的高斯混合模型来生成。作为另一个示例,地图要素具有与三角形图元和直线段图元的形状近似的形状,所述三角形图元和直线段图元的形状可基于该地图要素的几何参数利用所述三角形图元的高斯混合模型和所述直线段图元高斯混合模型的组合来生成。
几何图元的高斯混合模型可包括一个或多个高斯分布,每个高斯分布具有具体的均值、方差和组合权重。高斯混合模型中的高斯分布的数量可基于精度要求来选择。几何图元的高斯混合模型可由几何图元的几何参数来表达。在此,以长度为“l”的直线段图元为例。如果确定使用一个高斯分布来表示直线段图元,则该高斯分布的均值为所述直线段的中心。即,所述均值可被表达为直线段图元的长度“l”的函数。类似地,该高斯分布的方差也可由直线段图元的几何参数(例如在该示例中为长度“l”)来表达。此外,因为在高斯混合模型中只有一个高斯分布,所以该高斯分布的组合权重为1。
然后,地图要素的高斯混合模型例如可通过代替法来生成,即通过利用几何图元的几何参数来代替地图要素的具体几何参数。如果地图要素具有与若干个几何图元组合的形状近似的形状,则生成地图要素的高斯混合模型还可包括组合所述几何图元的高斯混合模型,以便生成地图要素的高斯混合模型。在一个示例中,地图要素的由几何图元各自的高斯混合模型所表示的子要素与地图要素的面积之间的面积比可用作所述几何图元各自的高斯混合模型的权重,从而形成地图要素的高斯混合模型。
几何图元的高斯混合模型可预先计算并存储以便后续使用,从而提高生成地图要素的高斯混合模型时的计算效率。
在一个示例中,计算几何图元的高斯混合模型可包括对该几何图元进行采样并且然后利用由所述采样产生的数据点来确定每个高斯分布的参数,例如其具体均值、方差和组合权重。例如,高斯分布的具体均值、方差和组合权重可例如利用期望最大化(EM)算法来计算。
备选地,当计算属于平面图元或立体图元的几何图元的高斯混合模型时,该几何图元的边界可用于生成该几何图元的四叉树分割或八叉树分割。然后,可将高斯分布放入位于所述几何图元内的每个空白单元中,从而形成所述几何图元的高斯混合模型。分割的数量、即高斯混合模型内的高斯分布的数量可取决于精度要求。显然,被放入每个空白单元的每个高斯分布的均值为该空白单元的中心。此外,每个高斯分布的方差可基于对应空白单元的几何参数来确定。另外,各高斯分布的组合权重可通过各对应空白单元之间的面积比来确定。
可想到的是,可以为一个几何图元计算若干个精度等级的高斯混合模型并且将这些高斯混合模型存储起来以便后续使用。以三角形图元为例:根据精度要求,三角形图元可通过使用四叉树算法由具有一个高斯分布的高斯混合模型、具有四个高斯分布的高斯混合模型、或具有十一个高斯分布的高斯混合模型来表达。
在另一个示例中,点簇或图像片段的高斯混合模型也可利用所述点簇或图像片段的边界来计算,以便生成该簇或片段的四叉树分割,然后将高斯分布放入位于所述点簇或图像片段内的每个空白单元中。备选地,点簇的高斯混合模型可通过如下方式来生成,即:利用位于点簇内的点来计算该点簇的高斯混合模型、例如利用EM算法。
然后可生成用于识别地图要素的签名120,其中,该签名包括地图要素的属性。例如,地图要素的属性可包括地图要素的类型、反射率或平坦度。在一个示例中,可将签名构造为包括地图要素的属性的矢量。还可想到的是,除了以上所提及那些属性之外的属性可用于构造签名。
随后,可产生用于表示地图要素的签名高斯混合模型130,其中,该签名高斯混合模型可包括所述高斯混合模型、所述签名和地图要素存在概率。在此,存在概率是一个统计学概念。即,对于一次观察,地图要素的存在概率为1或0,而对于多于一次的观察,该存在概率为0至1范围内的概率。地图要素的存在概率可预先知道或可利用所观察的数据点来估计。例如,地图要素的存在概率可从数字地图获得或者可利用多次有效观察来估计。利用存在概率能够表示动态的地图要素。
可想到的是,生成高斯混合模型所需要的数据(例如,用于计算高斯混合模型的每个高斯分布的具体均值、方差和组合权重的数据,用于确定地图要素的形状的数据等等)、签名和/或地图要素存在概率可从数据源获得、例如从数字交通地图或点云地图供应商获得或者由车辆/机器人实时获得。数字交通地图可以是商业上可购得的地图(例如Google地图、HERE地图、街景地图等)。此外,点云可以是例如由velodyne的LiDAR激光系统获得的密集点云,也可以是例如由一个或多个IBEO激光扫描仪获得的稀疏点云等。
利用签名高斯混合模型来表示地图要素将会降低存储需求并且提高对噪声的容忍度。
可将各地图要素的签名高斯混合模型组合形成一个签名高斯混合地图,其中,各地图要素的存在概率作为对应的签名高斯混合模型的存在权重。
图2(a)-(g)分别示意性示出:地面实况部分;对应于所述地面实况部分的数字交通地图部分;签名高斯混合地图,其通过利用所述方法100来表示所述数字交通地图部分中的地图要素而获得;具有点簇的点云;用于点云内的点簇的签名高斯混合模型,其通过利用所述方法100来表示所述点簇而获得;由车辆/机器人获得的具有若干个片段(即地图要素)的图像;以及通过利用所述方法100来表示所述图像中的片段而获得的示图。
图2(a)示出具有若干个物体(例如具有树冠和树干的树、具有支柱的限速板、具有支柱的方向指示板、具有支柱和托座的路灯等)的地面实况部分。图2(b)示出该地面实况部分的数字交通地图部分。图2(c)示出利用所述方法100来表示该数字交通地图部分中的地图要素的示意图。
如在图2(c)中所示的那样,限速板由具有两个高斯分布的高斯混合模型来表示,即:一个高斯分布用于板体,而另一个高斯分布用于支柱;树由具有五个高斯分布的高斯混合模型来表示,即:四个高斯分布用于树冠并且一个高斯分布用于树干;路灯由具有三个高斯分布的高斯混合模型来表示,即:一个高斯分布用于灯体,而另外两个高斯分布用于支柱和托座;以及方向指示板由具有三个高斯分布的高斯混合模型来表示,即:一个高斯分布用于支柱,而另外两个高斯分布用于板体。
图2(d)示出具有若干个点簇的点云。该点云可由车辆/机器人获得。图2(e)示出利用所述方法100来表示点云中的点簇的示意图。如在图2(e)中所示的那样,点云中的点簇已经分别由高斯混合模型表示。
图2(f)示出具有若干个片段(即地图要素)的图像。该图像可由车辆/机器人例如通过该车辆/机器人的相机获得。图2(g)示出利用所述方法100表示所述图像中的片段的示意图。如在图2(g)中所示的那样,所述图像中的片段已经分别由高斯混合模型表示。
尽管在图2(c)、图2(e)和图2(g)中未示出,也可想到的是,可在图上显示地图要素(包括点簇)的签名。
还值得注意的是,图像和其中的地图要素的签名高斯混合模型是2D的,而点云、点云地图、数字交通地图和其中的地图要素的签名高斯混合模型是3D的。
现在将参考图3讨论由计算机实施的用于定位车辆/机器人的方法,该图示出用于定位车辆/机器人的过程300的流程图。
如在310处所示的那样,读取车辆/机器人当前所在的地图区段的签名高斯混合地图,其中,所述签名高斯混合地图包括该地图区段内的地图要素的签名高斯混合模型,并且所述地图要素的签名高斯混合模型可利用所述方法100来生成。可想到的是,所述地图区段的签名高斯混合地图可从装置读取,该装置例如可以是车辆/机器人本身或与该车辆/机器人通信的服务器。
在一个示例中,为了读取车辆/机器人当前所在的地图区段的签名高斯混合地图,可读取识别该地图区段的信息。例如,识别车辆/机器人当前所在的地图区段的信息可从装置读取,以便相应地读取该地图区段的签名高斯混合地图,该装置例如可以是车辆/机器人本身或与该车辆/机器人通信的服务器。可想到的是,签名高斯混合地图可例如由与车辆/机器人通信的服务器预先生成,并且在获得识别车辆/机器人被认为当前所在的地图区段的信息后,可将对应于该地图区段的签名高斯混合地图发送给所述车辆/机器人。也可想到的是,在获得识别所述地图区段的信息以及构造该地图区段的签名高斯混合地图所需要的数据之后,可由车辆/机器人生成所述地图区段的签名高斯混合地图。例如,在确定车辆/机器人当前所在的地图区段并且获得对应于该地图区段的数字交通地图的子部分之后,所述车辆/机器人可相应地生成所述地图区段的签名高斯混合地图。
作为一个具体示例,如果(例如通过GPS、IMU、Odometry等)确定车辆/机器人当前位于XX市XXX路XXXX号,则半径为1公里并且包含当前位置XX市XXX路XXXX号的圆形地图区段将被识别为车辆/机器人当前所在的地图区段。随后可读取该地图区段的签名高斯混合地图。应该注意,地图区段的形状以及地图区段的几何参数可由用户规定或者由车辆/机器人自动确定。
如在320处所示的那样,利用所述方法100生成由车辆/机器人获得的实时点云或图像内的地图要素(即点簇或图像片段)的签名高斯混合模型。所述实时点云或图像可由车辆/机器人利用例如Velodyne的LiDAR激光系统、IBEO激光扫描仪、黑白/彩色相机、单目/立体相机等来获得。也可想到利用其它设备来获得所述实时点云或图像。
如在330处所示的那样,以实时点云或图像内的地图要素的签名高斯混合模型的签名为基础可建立签名高斯混合地图与实时点云或图像内的地图要素的签名高斯混合模型之间的一个或多个对应关系。特别地,基于签名建立所述一个或多个对应关系可包括确定签名的相似度。
在一个示例中,可将实时点云或图像内的地图要素的签名高斯混合模型的签名与签名高斯混合地图内的地图要素的签名高斯混合模型的签名比较,以便确定它们的相似度。如上所述,可将签名构造为矢量。因此,用于确定矢量相似度的度量(例如距离)可用来匹配签名。
例如,对于实时点云或图像内的每个地图要素,可将该地图要素的签名与签名高斯混合地图内的地图要素的签名高斯混合模型的签名比较,以便找到可能匹配的签名。在确定匹配的签名之后,在其基础上可建立签名高斯混合地图与实时点云或图像内的地图要素的签名高斯混合模型之间的对应关系。
基于签名的比较,实时点云或图像内的一个地图要素可能被认为对应于签名高斯混合地图中的多个地图要素。或者,实时点云或图像中的多个地图要素可能被认为对应于签名高斯混合地图中的一个地图要素。实时点云或图像内的一个或多个地图要素也可能在签名高斯混合地图中没有匹配的地图要素。对于每种可能性都建立一个可能的对应关系,从而导致签名高斯混合地图与实时点云或图像内的地图要素的签名高斯混合模型之间存在几个可能的对应关系。
作为一个示例,在一个对应关系中,实时点云或图像中的地图要素a、b、c、d和e可被认为分别对应于签名高斯混合地图中的地图要素A、B、C、D和E。而在另一个对应关系中,地图要素a和b可被认为都对应于地图要素A,而其它地图要素被认为未匹配。
如在340处所示的那样,以在330处建立的所述一个或多个对应关系为基础,可将签名高斯混合地图与实时点云或图像内的地图要素的签名高斯混合模型进行匹配。如果在步骤330仅建立了一个对应关系,则可将签名高斯混合地图与实时点云或图像内的地图要素的签名高斯混合模型直接匹配。
如果在330处建立了多个对应关系,则签名高斯混合地图与实时点云或图像内的地图要素的签名高斯混合模型的匹配可包括:基于在330处建立的所述一个或多个对应关系,确定签名高斯混合地图内的地图要素的签名高斯混合模型与实时点云或图像内的对应地图要素的签名高斯混合模型的相似度。
在一个示例中,欧几里得距离被用作用于确定各签名高斯混合模型的相似度的度量。在此,欧几里得距离指的是m维空间中的两个点之间的真实距离,其中,m可以是等于或大于1的整数。
然后,签名高斯混合地图与实时点云或图像内的地图要素的签名高斯混合模型的匹配包括:对签名高斯混合地图与实时点云或图像内的地图要素的签名高斯混合模型之间的欧几里得距离进行优化。在一个示例中,所述优化可涉及下列操作。
对于在330中建立的每个对应关系,计算签名高斯混合地图内的地图要素的每个签名高斯混合模型与实时点云或图像内的对应地图要素的签名高斯混合模型(在该对应关系中表明的那样)之间的欧几里得距离,从而产生一个欧几里得距离组。
然后,可将该欧几里得距离组的总和定义为签名高斯混合地图与实时点云或图像内的地图要素的签名高斯混合模型之间的欧几里得距离。备选地,可将该欧几里得距离组的加权总和定义为签名高斯混合地图与实时点云或图像内的地图要素的签名高斯混合模型之间的欧几里得距离,其中,权重为签名高斯混合地图内的签名高斯混合模型的存在概率。在此,将针对每个对应关系所计算的欧几里得距离组的总和或加权总和定义为签名高斯混合地图与实时点云或图像内的地图要素的签名高斯混合模型之间的欧几里得距离。然而,也可想到的是,可将针对每个对应关系所计算的欧几里得距离组的其它组合定义为签名高斯混合地图与实时点云或图像内的地图要素的签名高斯混合模型之间的欧几里得距离。
导致签名高斯混合地图与实时点云或图像内的地图要素的签名高斯混合模型之间的欧几里得距离最小的对应关系可被认为是可接受的对应关系。基于所述对应关系,实时点云或图像内的地图要素的签名高斯混合模型与签名高斯混合地图匹配并且基于所述对应关系可获得车辆/机器人的定位结果。
还可想到不同于欧几里得距离的度量,例如曼哈顿距离可用于匹配签名高斯混合地图与实时点云或图像内的地图要素的签名高斯混合模型。
此外,如上所述,所述图像和其中的地图要素的签名高斯混合模型是2D的,而点云、点云地图、数字交通地图和其中的地图要素的签名高斯混合模型是3D的。因此,当将具有2D签名高斯混合模型的地图要素与3D点簇、点簇地图、数字交通地图或其地图要素进行匹配时,可增加空间限制来解决2D-3D匹配。
在一个示例中,所述方法300进一步可包括读取与车辆/机器人的先前姿态有关的信息以及读取反映该先前姿态的不确定区域的数据。然后,签名高斯混合地图与实时点云或图像内的地图要素的签名高斯混合模型之间的欧几里得距离的优化可包括:利用被限制在预定义的空间上和在不确定区域内的车辆/机器人的姿态来优化所述欧几里得距离。所述预定义的空间例如可是SE(3)空间、即六维欧几里得空间。
在一个示例中,与车辆/机器人的先前姿态有关的信息和反映该先前姿态的不确定区域的数据可由服务器确定并且发送给车辆/机器人或者可由车辆/机器人本身确定。例如,车辆/机器人可使用GPS/IMU和Odometry来估计车辆/机器人的先前姿态并且估计反映该先前姿态的不确定区域的数据。在此使用的姿态指的是定位/位置和定向。
根据本公开的一种示例性实施例,提供一种根据本公开的一种示例性实施例的用于表示地图要素的装置。该用于表示地图要素的装置可包括存储器和与该存储器耦接的处理器,在所述存储器中存储有可由计算机执行的指令,所述处理器被配置用于:生成地图要素的高斯混合模型;生成用于识别地图要素的签名,其中,该签名包括地图要素的属性;以及生成用于表示地图要素的签名高斯混合模型,其中,该签名高斯混合模型包括所述高斯混合模型、所述签名和地图要素存在概率。
在一个示例中,地图要素是数字地图中的几何图形或点簇或者是图像中的图像片段。特别地,几何图形、点簇或图像片段具有与几何图元单独的或者组合的形状近似的形状。
在一个示例中,生成地图要素的高斯混合模型包括:利用几何图元的高斯混合模型来近似地图要素的形状。
在一个示例中,几何图元包括直线段、弧线段、螺旋段、平面矩形、平面三角形、平面圆形/球面、平面椭圆形、球体曲面片、柱体曲面片、3D立方体、3D球体和3D柱体中的至少一个。
在一个示例中,地图要素的属性包括地图要素的类型、反射率或平坦度。
根据本公开的一种示例性实施例,提供一种根据本公开的一种示例性实施例的用于定位车辆/机器人的装置。该用于定位车辆/机器人的装置例如可以是与服务器通信的客户端设备。例如,用于定位车辆/机器人的装置可安装在车辆/机器人上。用于定位车辆/机器人的装置可包括存储器和与该存储器耦接的处理器,在所述存储器中存储有可由计算机执行的指令,所述处理器被配置用于:读取车辆/机器人当前所在的地图区段的签名高斯混合地图,其中,该签名高斯混合地图包括所述地图区段内的地图要素的签名高斯混合模型,并且这些签名高斯混合模型利用所述方法100来生成;利用所述方法100生成由车辆/机器人获得的实时点云或图像内的地图要素的签名高斯混合模型;以所述实时点云或图像内的地图要素的签名高斯混合模型的签名为基础,建立签名高斯混合地图与实时点云或图像内的地图要素的签名高斯混合模型之间的一个或多个对应关系;以及,以所建立的所述一个或多个对应关系为基础,将签名高斯混合地图与实时点云或图像内的地图要素的签名高斯混合模型进行匹配。
在一个示例中,处理器被进一步配置用于:读取用于识别车辆/机器人当前所在的地图区段的信息。
在一个示例中,处理器被进一步配置用于:读取与车辆/机器人的先前姿态有关的信息并且读取反映该先前姿态的不确定区域的数据。
在一个示例中,签名高斯混合地图与实时点云或图像内的地图要素的签名高斯混合模型的匹配包括:对签名高斯混合地图与实时点云或图像内的地图要素的签名高斯混合模型之间的欧几里德距离进行优化。
在一个示例中,签名高斯混合地图与实时点云或图像内的地图要素的签名高斯混合模型之间的欧几里德距离的优化包括:利用被限制在预定义的空间上和在不确定区域内的车辆/机器人的姿态来优化所述欧几里德距离。
图4示出根据本公开的一种示例性实施例的用于表示地图要素的装置400。装置400可包括:高斯混合模型生成单元402,其被配置用于生成地图要素的高斯混合模型;签名生成单元404,其被配置用于生成用于识别地图要素的签名,其中,该签名包括地图要素的属性;以及签名高斯混合模型生成单元406,其被配置用于生成用于表示地图要素的签名高斯混合模型,其中,该签名高斯混合模型包括所述高斯混合模型、所述签名和地图要素存在概率。
值得注意的是,装置400的高斯混合模型生成单元402、签名生成单元404和签名高斯混合模型生成单元406可被配置用于实现在方法100中的对应操作,但在此省略说明这些操作。另外,针对方法100的描述同样适用于装置400。
装置400例如可以是与客户端设备通信的服务器。
图5示出根据本公开的一种示例性实施例的用于定位车辆/机器人的装置500。用于定位车辆/机器人的装置可包括:签名高斯混合地图读取单元502,其被配置用于读取车辆/机器人当前所在的地图区段的签名高斯混合地图,其中,该签名高斯混合地图包括所述地图区段内的地图要素的签名高斯混合模型,并且这些签名高斯混合模型利用根据方法100的方法来生成;签名高斯混合模型生成单元504,其被配置用于利用根据方法100的方法来生成由车辆/机器人获得的实时点云或图像内的地图要素的签名高斯混合模型;对应关系建立单元506,其被配置用于以实时点云或图像内的地图要素的签名高斯混合模型的签名为基础建立签名高斯混合地图与实时点云或图像内的地图要素的签名高斯混合模型之间的一个或多个对应关系;以及匹配单元506,其被配置用于以所建立的所述一个或多个对应关系为基础将签名高斯混合地图与实时点云或图像内的地图要素的签名高斯混合模型进行匹配。
值得注意的是,装置500的签名高斯混合地图读取单元502、签名高斯混合模型生成单元504、对应关系建立单元506和匹配单元508可被配置用于实现在方法300中的对应操作,但在此省略说明这些操作。另外,针对方法300的描述同样适用于装置500。
装置500例如可以是与服务器通信的客户端设备。
图6是用于表示地图要素的装置602与用于定位车辆/机器人的装置604之间的连接示意图。如图6所示,用于表示地图要素的装置602与用于定位车辆/机器人的装置604可彼此连接,从而在它们之间能够实现信息交换。值得注意的是,用于表示地图要素的装置602可以是任何上述用于表示地图要素的装置并且用于表示地图要素的装置602可以是服务器。此外值得注意的是,用于定位车辆/机器人的装置604可以是任何上述用于定位车辆/机器人的装置并且用于定位车辆/机器人的装置604可以是客户端设备。
此外,尽管被表示为单独的设备,但也可想到的是:在一些实施例中,用于表示地图要素的装置602和用于定位车辆/机器人的装置604也可在一个单个设备中实现。
根据本公开的一个实施例,提出一种存储有指令的非瞬态存储介质,所述指令在被执行时使处理器实施由计算机实施的用于表示地图要素的方法,该非瞬态存储介质包括:使处理器生成地图要素的高斯混合模型的指令;使处理器生成用于识别地图要素的签名的指令,其中,该签名包括地图要素的属性;以及使处理器生成用于表示地图要素的签名高斯混合模型的指令,其中,该签名高斯混合模型包括所述高斯混合模型、所述签名和地图要素存在概率。
根据本公开的一个实施例,提出一种存储有指令的非瞬态存储介质,所述指令在被执行时使处理器实施由计算机实施的用于定位车辆/机器人的方法,该非瞬态存储介质包括:使处理器读取车辆/机器人当前所在的地图区段的签名高斯混合地图的指令,其中,该签名高斯混合地图包括所述地图区段内的地图要素的签名高斯混合模型,并且这些签名高斯混合模型利用所述方法100生成;使处理器利用所述方法100生成由车辆/机器人获得的实时点云或图像内的地图要素的签名高斯混合模型的指令;使处理器以所述实时点云或图像内的地图要素的签名高斯混合模型的签名为基础建立高斯混合地图与实时点云或图像内的地图要素的签名高斯混合模型之间的一种或多种的对应关系的指令;以及使处理器以所建立的所述一种或多种的对应关系为基础将签名高斯混合地图与实时点云或图像内的地图要素的签名高斯混合模型进行匹配的指令。
图7示出根据本公开的一种示例性实施例的计算设备的框图,该计算设备是可应用于本公开的各方面的硬件设备的一个示例。
参考图7,现在将描述一种计算设备700,该计算设备是可应用于本公开的各方面的硬件设备的一个示例。计算设备700可以是被配置用于实现处理和/或计算的任何机器,可以是但并不局限于工作站、服务器、桌上型计算机、膝上型计算机、平板计算机、个人数字助理、智能手机、车载计算机或者是它们的任何组合。前述的各种装置/服务器/客户端设备可全部地或者至少部分地由计算设备700或者类似设备或系统来实施。
计算设备700可包括可能经由一个或多个接口与总线702连接或通信的组件。例如,计算设备700可包括总线702、一个或多个处理器704、一个或多个输入设备706以及一个或多个输出设备708。所述一个或多个处理器704可以是任何类型的处理器并且可以包括但不限于一个或多个通用处理器和/或一个或多个专用处理器(例如专门的处理芯片)。输入设备706可以是任何类型的能够向计算设备输入信息的设备并且可以包括但不限于鼠标、键盘、触摸屏、麦克风和/或远程控制器。输出设备708可以是任何类型的能够呈现信息的设备并且可以包括但不限于显示器、扬声器、视频/音频输出终端、振动器和/或打印机。计算设备700也可包括非瞬态存储设备710或者与所述非瞬态存储设备连接,所述非瞬态存储设备可以是非瞬态的并且能够实现数据存储的任何存储设备,并且所述非瞬态存储设备可以包括但不限于磁盘驱动器、光存储设备、固态存储器、软盘、软磁盘、硬盘、磁带或任何其它磁介质、光盘或任何其它光介质、ROM(只读存储器)、RAM(随机存取存储器)、高速缓冲存储器和/或任何存储芯片或盒式磁带、和/或计算机可从其读取数据、指令和/或代码的任何其它介质。非瞬态存储设备710可从接口分离。非瞬态存储设备710可具有用于实施上述方法和步骤的数据/指令/代码。计算设备700也可包括通信设备712。通信设备712可以是任何类型的能够实现与内部装置通信和/或与网络通信的设备或系统并且可以包括但不限于调制解调器、网卡、红外通信设备、无线通信设备和/或芯片组,例如BluetoothTM设备、1302.11设备、WiFi设备、WiMax设备、蜂窝通信设备和/或类似设备。
当计算设备700被用作车载设备时,它也可与外部设备、例如GPS接收机、用于感测不同环境数据的传感器(例如加速度传感器、车轮速度传感器、陀螺仪等)连接。以这种方式,计算设备700例如可接收定位数据和表明车辆行驶状况的传感器数据。当计算设备700被用作车载设备时,它也可与用于控制车辆的行驶和操作的其它设备(例如发动机系统、雨刮器、防抱死制动系统等)连接。
此外,非瞬态存储设备710可具有地图信息和软件组件,从而处理器704可实现路线引导处理。此外,输出设备706可以包括用于显示地图、显示车辆的定位标记亦及显示表明车辆行驶状况的图像的显示器。输出设备706也可包括扬声器或耳机接口用于音频引导。
总线702可以包括但不局限于工业标准结构(ISA)总线、微通道结构(MCA)总线、增强型ISA(EISA)总线、视频电子标准协会(VESA)局部总线和外部设备互连(PCI)总线。特别地,对于车载设备,总线702也可包括控制器局域网(CAN)总线或者为汽车上的应用所设计的其它结构。
计算设备700还可包括工作存储器714,该工作存储器可以是任何类型的能够存储有利于处理器704的工作的指令和/或数据的工作存储器并且可以包括但不局限于随机存取存储器和/或只读存储设备。
软件组件可位于工作存储器714中,这些软件组件包括但不限于操作系统716、一个或多个应用程序718、驱动程序和/或其它数据和代码。用于实现上述方法和步骤的指令可包含在所述一个或多个应用程序718中,并且前述各种装置/服务器/客户端设备的模块/单元/组件可通过处理器704读取和执行所述一个或多个应用程序718的指令来实现。
也应该认识到可根据具体需求做出变化。例如,也可使用定制硬件,和/或特定组件可在硬件、软件、固件、中间件、微代码、硬件描述语言或其任何组合中实现。此外,可采用与其它计算设备、例如网络输入/输出设备等的连接。例如,可通过具有汇编语言或硬件编程语言(例如VERILOG、VHDL、C++)的编程硬件(例如,包括现场可编程门阵列(FPGA)和/或可编程逻辑阵列(PLA)的可编程逻辑电路)利用根据本公开的逻辑和算法来实现所公开的方法和设备的部分或全部。
尽管目前为止已经参考附图描述了本公开的各方面,但是上述方法、系统和设备仅是示例性的例子,并且本公开的范围不限于这些方面,而是仅由所附的权利要求及其等同物来限定。各种组件可被省略或者也可被等同组件替代。另外,也可在与本公开中所描述的顺序不同的顺序实现所述步骤。此外可以以各种方式组合各种组件。也重要的是,随着技术的发展,所描述的组件中的许多组件可以被在本公开之后出现的等同组件所替代。
Claims (20)
1.由计算机实施的用于表示地图要素的方法,所述方法包括:
生成地图要素的高斯混合模型;
生成用于识别地图要素的签名,其中,所述签名包括地图要素的属性;以及
生成用于表示地图要素的签名高斯混合模型,其中,所述签名高斯混合模型包括所述高斯混合模型、所述签名和地图要素存在概率。
2.根据权利要求1所述的方法,其中,所述地图要素是数字地图中的几何图形或点簇或者是图像中的图像片段。
3.根据权利要求1所述的方法,其中,生成地图要素的高斯混合模型包括:利用几何图元的高斯混合模型来近似地图要素的形状。
4.根据权利要求3所述的方法,其中,所述几何图元包括直线段、弧线段、螺旋段、平面矩形、平面三角形、平面圆形/球面、平面椭圆形、球体曲面片、柱体曲面片、3D立方体、3D球体和3D柱体中的至少一个。
5.根据权利要求1所述的方法,其中,所述地图要素的属性包括地图要素的类型、反射率或平面度。
6.由计算机实施的用于定位车辆/机器人的方法,所述方法包括:
读取车辆/机器人当前所在的地图区段的签名高斯混合地图,其中,所述签名高斯混合地图包括所述地图区段内的地图要素的签名高斯混合模型,并且这些签名高斯混合模型利用根据权利要求1至5中任一项所述的方法来生成;
利用根据权利要求1至5中任一项所述的方法来生成由车辆/机器人获得的实时点云或图像内的地图要素的签名高斯混合模型;
以所述实时点云或图像内的地图要素的签名高斯混合模型的签名为基础,建立签名高斯混合地图与实时点云或图像内的地图要素的签名高斯混合模型之间的一个或多个对应关系;以及
以所建立的所述一个或多个对应关系为基础,将签名高斯混合地图与实时点云或图像内的地图要素的签名高斯混合模型进行匹配。
7.根据权利要求6所述的方法,进一步包括:读取与车辆/机器人当前所在的地图区段有关的信息。
8.根据权利要求6或7所述的方法,进一步包括:读取与车辆/机器人的先前姿态有关的信息并且读取反映所述先前姿态的不确定区域的数据。
9.根据权利要求6所述的方法,其中,签名高斯混合地图与实时点云或图像内的地图要素的签名高斯混合模型的匹配包括:对签名高斯混合地图与实时点云或图像内的地图要素的签名高斯混合模型之间的欧几里德距离进行优化。
10.根据权利要求9所述的方法,其中,签名高斯混合地图与实时点云或图像内的地图要素的签名高斯混合模型之间的欧几里德距离的优化包括:利用被限制在预定义的空间上和在不确定区域内的车辆/机器人的姿态来优化所述欧几里德距离。
11.用于表示地图要素的装置,该装置包括存储器和与该存储器耦接的处理器,在所述存储器中存储有可由计算机执行的指令,所述处理器被配置用于:
生成地图要素的高斯混合模型;
生成用于识别地图要素的签名,其中,所述签名包括地图要素的属性;以及
生成用于表示地图要素的签名高斯混合模型,其中,所述签名高斯混合模型包括所述高斯混合模型、所述签名和地图要素存在概率。
12.根据权利要求11所述的装置,其中,生成地图要素的高斯混合模型包括:利用几何图元的高斯混合模型来近似地图要素的形状。
13.用于定位车辆/机器人的装置,该装置包括存储器和与该存储器耦接的处理器,在所述存储器中存储有可由计算机执行的指令,所述处理器被配置用于:
读取车辆/机器人当前所在的地图区段的签名高斯混合地图,其中,所述签名高斯混合地图包括所述地图区段内的地图要素的签名高斯混合模型,并且这些签名高斯混合模型利用根据权利要求1至5中任一项所述的方法来生成;
利用根据权利要求1至5中任一项所述的方法生成由车辆/机器人获得的实时点云或图像内的地图要素的签名高斯混合模型;
以所述实时点云或图像内的地图要素的签名高斯混合模型的签名为基础,建立签名高斯混合地图与实时点云或图像内的地图要素的签名高斯混合模型之间的一个或多个对应关系;以及
以所建立的所述对应关系为基础,将签名高斯混合地图与实时点云或图像内的地图要素的签名高斯混合模型进行匹配。
14.根据权利要求13所述的装置,其中,所述处理器被进一步配置用于读取与车辆/机器人的先前姿态有关的信息并且读取反映所述先前姿态的不确定区域的数据。
15.根据权利要求13所述的装置,其中,签名高斯混合地图与实时点云或图像内的地图要素的签名高斯混合模型的匹配包括:对签名高斯混合地图与实时点云或图像内的地图要素的签名高斯混合模型之间的欧几里德距离进行优化。
16.根据权利要求15所述的装置,其中,签名高斯混合地图与实时点云或图像内的地图要素的签名高斯混合模型之间的欧几里德距离的优化包括:利用被限制在预定义的空间上和在不确定区域内的车辆/机器人的姿态来优化所述欧几里德距离。
17.非瞬态存储介质,在该非瞬态存储介质中存储有指令,所述指令在被执行时使处理器实施由计算机实施的用于表示地图要素的方法,所述非瞬态存储介质包括:
使处理器生成地图要素的高斯混合模型的指令;
使处理器生成用于识别地图要素的签名的指令,其中,所述签名包括地图要素的属性;以及
使处理器生成用于表示地图要素的签名高斯混合模型的指令,其中,所述签名高斯混合模型包括所述高斯混合模型、所述签名和地图要素存在概率。
18.非瞬态存储介质,在该非瞬态存储介质中存储有指令,所述指令在被执行时使处理器实施由计算机实施的用于定位车辆/机器人的方法,所述非瞬态存储介质包括:
使处理器读取车辆/机器人当前所在的地图区段的签名高斯混合地图的指令,其中,所述签名高斯混合地图包括所述地图区段内的地图要素的签名高斯混合模型,并且这些签名高斯混合模型利用根据权利要求1至5中任一项所述的方法来生成;
使处理器利用根据权利要求1至5中任一项所述的方法生成由车辆/机器人获得的实时点云或图像内的地图要素的签名高斯混合模型的指令;
使处理器以所述实时点云或图像内的地图要素的签名高斯混合模型的签名为基础,建立签名高斯混合地图与实时点云或图像内的地图要素的签名高斯混合模型之间的一个或多个的对应关系的指令;以及
使处理器以所建立的所述一个或多个的对应关系为基础将签名高斯混合地图与实时点云或图像内的地图要素的签名高斯混合模型进行匹配的指令。
19.用于表示地图要素的装置,该装置包括:
高斯混合模型生成单元,其被配置用于生成地图要素的高斯混合模型;
签名生成单元,其被配置用于生成用于识别地图要素的签名,其中,所述签名包括地图要素的属性;以及
签名高斯混合模型生成单元,其被配置用于生成用于表示地图要素的签名高斯混合模型,其中,所述签名高斯混合模型包括所述高斯混合模型、所述签名和地图要素存在概率。
20.用于定位车辆/机器人的装置,该装置包括:
签名高斯混合地图读取单元,其被配置用于读取车辆/机器人当前所在的地图区段的签名高斯混合地图,其中,所述签名高斯混合地图包括所述地图区段内的地图要素的签名高斯混合模型,并且这些签名高斯混合模型利用根据权利要求1至5中任一项所述的方法来生成;
签名高斯混合模型生成单元,其被配置用于利用根据权利要求1至5中任一项所述的方法来生成由车辆/机器人获得的实时点云或图像内的地图要素的签名高斯混合模型;
对应关系建立单元,其被配置用于以所述实时点云或图像内的地图要素的签名高斯混合模型的签名为基础建立签名高斯混合地图与实时点云或图像内的地图要素的签名高斯混合模型之间的一个或多个的对应关系;以及
匹配单元,其被配置用于以所建立的所述一个或多个的对应关系为基础将签名高斯混合地图与实时点云或图像内的地图要素的签名高斯混合模型进行匹配。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/CN2015/081784 WO2016201670A1 (en) | 2015-06-18 | 2015-06-18 | Method and apparatus for representing map element and method and apparatus for locating vehicle/robot |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107709930A true CN107709930A (zh) | 2018-02-16 |
CN107709930B CN107709930B (zh) | 2021-08-31 |
Family
ID=57544687
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201580080875.XA Active CN107709930B (zh) | 2015-06-18 | 2015-06-18 | 用于表示地图要素的方法和装置以及用于定位车辆/机器人的方法和装置 |
Country Status (4)
Country | Link |
---|---|
US (1) | US10643103B2 (zh) |
EP (1) | EP3311110A4 (zh) |
CN (1) | CN107709930B (zh) |
WO (1) | WO2016201670A1 (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109146976A (zh) * | 2018-08-23 | 2019-01-04 | 百度在线网络技术(北京)有限公司 | 用于定位无人车的方法和装置 |
CN110349192A (zh) * | 2019-06-10 | 2019-10-18 | 西安交通大学 | 一种基于三维激光点云的在线目标跟踪系统的跟踪方法 |
CN110515055A (zh) * | 2019-10-24 | 2019-11-29 | 奥特酷智能科技(南京)有限公司 | 利用半径搜索优化激光雷达定位的方法 |
CN111595357A (zh) * | 2020-05-14 | 2020-08-28 | 广州文远知行科技有限公司 | 可视化界面的显示方法、装置、电子设备和存储介质 |
CN113537260A (zh) * | 2020-04-20 | 2021-10-22 | 宝马股份公司 | 定位方法、定位装置和计算机可读存储介质 |
US11188089B2 (en) | 2018-06-21 | 2021-11-30 | Ford Global Technologies, Llc | Localization for autonomous vehicles using gaussian mixture models |
Families Citing this family (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11461912B2 (en) * | 2016-01-05 | 2022-10-04 | California Institute Of Technology | Gaussian mixture models for temporal depth fusion |
US10482196B2 (en) * | 2016-02-26 | 2019-11-19 | Nvidia Corporation | Modeling point cloud data using hierarchies of Gaussian mixture models |
WO2017143851A1 (zh) * | 2016-02-26 | 2017-08-31 | 董桂满 | 一种便于油烟导流的燃气灶与灶台 |
US10066946B2 (en) * | 2016-08-26 | 2018-09-04 | Here Global B.V. | Automatic localization geometry detection |
WO2018119606A1 (en) | 2016-12-26 | 2018-07-05 | Bayerische Motoren Werke Aktiengesellschaft | Method and apparatus for representing a map element and method and apparatus for locating vehicle/robot |
WO2018119607A1 (en) * | 2016-12-26 | 2018-07-05 | Bayerische Motoren Werke Aktiengesellschaft | Method and apparatus for uncertainty modeling of point cloud |
WO2018214084A1 (en) * | 2017-05-25 | 2018-11-29 | Bayerische Motoren Werke Aktiengesellschaft | Method and apparatus for representing environmental elements, system, and vehicle/robot |
EP3631362A4 (en) * | 2017-05-31 | 2021-01-13 | Bayerische Motoren Werke Aktiengesellschaft | METHOD AND DEVICE FOR CONSTRUCTION OF AN ENVIRONMENTAL MODEL |
JP6973107B2 (ja) * | 2018-01-23 | 2021-11-24 | トヨタ自動車株式会社 | 自己位置推定装置 |
US11093759B2 (en) | 2018-03-06 | 2021-08-17 | Here Global B.V. | Automatic identification of roadside objects for localization |
EP3807836A4 (en) * | 2018-06-15 | 2022-01-26 | Bayerische Motoren Werke Aktiengesellschaft | INCREMENTAL POINT CLOUD SEGMENTATION |
CN110307838B (zh) * | 2019-08-26 | 2019-12-10 | 深圳市优必选科技股份有限公司 | 机器人重定位方法、装置、计算机可读存储介质及机器人 |
JP2023533140A (ja) * | 2020-05-26 | 2023-08-02 | センシブル・フォー・オサケユフティオ | 自動運転車の位置推定精度を向上させる方法 |
CN113963319A (zh) * | 2020-07-20 | 2022-01-21 | 宝马股份公司 | 定位方法和定位装置 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1569558A (zh) * | 2003-07-22 | 2005-01-26 | 中国科学院自动化研究所 | 基于图像表现特征的移动机器人视觉导航方法 |
US6999620B1 (en) * | 2001-12-10 | 2006-02-14 | Hewlett-Packard Development Company, L.P. | Segmenting video input using high-level feedback |
CN202220052U (zh) * | 2009-11-30 | 2012-05-16 | 西门子公司 | 确定三维对象的位置和方位的位置检测系统 |
CN103218598A (zh) * | 2013-03-26 | 2013-07-24 | 中国科学院电子学研究所 | 一种基于随机几何模型的遥感地物目标自动检测方法 |
US8537338B1 (en) * | 2011-08-24 | 2013-09-17 | Hrl Laboratories, Llc | Street curb and median detection using LIDAR data |
US20140099035A1 (en) * | 2012-10-05 | 2014-04-10 | Eagle View Technologies, Inc. | Systems and methods for relating images to each other by determining transforms without using image acquisition metadata |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7593547B2 (en) * | 2004-10-12 | 2009-09-22 | Siemens Corporate Research, Inc. | Video-based encroachment detection |
US7639841B2 (en) * | 2004-12-20 | 2009-12-29 | Siemens Corporation | System and method for on-road detection of a vehicle using knowledge fusion |
CN101509781B (zh) * | 2009-03-20 | 2011-09-14 | 同济大学 | 基于单目摄像头的步行机器人定位系统 |
CN101920498A (zh) * | 2009-06-16 | 2010-12-22 | 泰怡凯电器(苏州)有限公司 | 实现室内服务机器人同时定位和地图创建的装置及机器人 |
US8917934B2 (en) * | 2012-06-14 | 2014-12-23 | International Business Machines Corporation | Multi-cue object detection and analysis |
US9218524B2 (en) * | 2012-12-06 | 2015-12-22 | Siemens Product Lifecycle Management Software Inc. | Automatic spatial context based multi-object segmentation in 3D images |
US9989965B2 (en) * | 2015-08-20 | 2018-06-05 | Motionloft, Inc. | Object detection and analysis via unmanned aerial vehicle |
US10665115B2 (en) * | 2016-01-05 | 2020-05-26 | California Institute Of Technology | Controlling unmanned aerial vehicles to avoid obstacle collision |
-
2015
- 2015-06-18 CN CN201580080875.XA patent/CN107709930B/zh active Active
- 2015-06-18 EP EP15895243.2A patent/EP3311110A4/en active Pending
- 2015-06-18 WO PCT/CN2015/081784 patent/WO2016201670A1/en unknown
-
2017
- 2017-11-20 US US15/817,392 patent/US10643103B2/en active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6999620B1 (en) * | 2001-12-10 | 2006-02-14 | Hewlett-Packard Development Company, L.P. | Segmenting video input using high-level feedback |
CN1569558A (zh) * | 2003-07-22 | 2005-01-26 | 中国科学院自动化研究所 | 基于图像表现特征的移动机器人视觉导航方法 |
CN202220052U (zh) * | 2009-11-30 | 2012-05-16 | 西门子公司 | 确定三维对象的位置和方位的位置检测系统 |
US8537338B1 (en) * | 2011-08-24 | 2013-09-17 | Hrl Laboratories, Llc | Street curb and median detection using LIDAR data |
US20140099035A1 (en) * | 2012-10-05 | 2014-04-10 | Eagle View Technologies, Inc. | Systems and methods for relating images to each other by determining transforms without using image acquisition metadata |
EP2904545A2 (en) * | 2012-10-05 | 2015-08-12 | Eagle View Technologies, Inc. | Systems and methods for relating images to each other by determining transforms without using image acquisition metadata |
CN103218598A (zh) * | 2013-03-26 | 2013-07-24 | 中国科学院电子学研究所 | 一种基于随机几何模型的遥感地物目标自动检测方法 |
Non-Patent Citations (3)
Title |
---|
RYAN W. WOLCOTT等: "Fast LIDAR Localization using Multiresolution Gaussian Mixture Maps", 《2015 IEEE INTERNATIONAL CONFERENCE ON ROBOTICS AND AUTOMATION》 * |
SHISHIR SHAH等: "Multiple Feature Integration for Robust Object Localization", 《1998 IEEE COMPUTER SOCIETY CONFERENCE ON SANTA BARBARA》 * |
刘洞波等: "一种基于图像检索的机器人自定位方法", 《传感技术学报》 * |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11188089B2 (en) | 2018-06-21 | 2021-11-30 | Ford Global Technologies, Llc | Localization for autonomous vehicles using gaussian mixture models |
CN109146976A (zh) * | 2018-08-23 | 2019-01-04 | 百度在线网络技术(北京)有限公司 | 用于定位无人车的方法和装置 |
CN110349192A (zh) * | 2019-06-10 | 2019-10-18 | 西安交通大学 | 一种基于三维激光点云的在线目标跟踪系统的跟踪方法 |
CN110349192B (zh) * | 2019-06-10 | 2021-07-13 | 西安交通大学 | 一种基于三维激光点云的在线目标跟踪系统的跟踪方法 |
CN110515055A (zh) * | 2019-10-24 | 2019-11-29 | 奥特酷智能科技(南京)有限公司 | 利用半径搜索优化激光雷达定位的方法 |
CN113537260A (zh) * | 2020-04-20 | 2021-10-22 | 宝马股份公司 | 定位方法、定位装置和计算机可读存储介质 |
CN113537260B (zh) * | 2020-04-20 | 2024-06-28 | 宝马股份公司 | 定位方法、定位装置和计算机可读存储介质 |
CN111595357A (zh) * | 2020-05-14 | 2020-08-28 | 广州文远知行科技有限公司 | 可视化界面的显示方法、装置、电子设备和存储介质 |
CN111595357B (zh) * | 2020-05-14 | 2022-05-20 | 广州文远知行科技有限公司 | 可视化界面的显示方法、装置、电子设备和存储介质 |
Also Published As
Publication number | Publication date |
---|---|
US20180165544A1 (en) | 2018-06-14 |
EP3311110A4 (en) | 2019-07-10 |
WO2016201670A1 (en) | 2016-12-22 |
CN107709930B (zh) | 2021-08-31 |
US10643103B2 (en) | 2020-05-05 |
EP3311110A1 (en) | 2018-04-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107709930A (zh) | 用于表示地图要素的方法和装置以及用于定位车辆/机器人的方法和装置 | |
US10339669B2 (en) | Method, apparatus, and system for a vertex-based evaluation of polygon similarity | |
CN110226186B (zh) | 表示地图元素的方法和装置以及定位的方法和装置 | |
US20200258296A1 (en) | Satellite sar artifact suppression for enhanced three-dimensional feature extraction, change detection, and visualizations | |
CN112313703B (zh) | 点云的增量分割 | |
WO2018068653A1 (zh) | 点云数据处理方法、装置及存储介质 | |
US10535006B2 (en) | Method, apparatus, and system for providing a redundant feature detection engine | |
US10325373B2 (en) | Method, apparatus, and system for constructing a polygon from edges for object detection | |
CN105160309A (zh) | 基于图像形态学分割及区域生长的三车道检测方法 | |
EP3443482B1 (en) | Classifying entities in digital maps using discrete non-trace positioning data | |
US10776951B2 (en) | Method, apparatus, and system for an asymmetric evaluation of polygon similarity | |
US11710239B2 (en) | Method, apparatus, and system using a machine learning model to segment planar regions | |
EP4202833A1 (en) | Method, apparatus, and system for pole extraction from a single image | |
CN111275807A (zh) | 一种3d道路建模的方法和系统 | |
CN115100741A (zh) | 一种点云行人距离风险检测方法、系统、设备和介质 | |
CN110770540B (zh) | 用于构建环境模型的方法和装置 | |
WO2021250734A1 (ja) | 座標変換装置、座標変換方法、及び座標変換プログラム | |
Xiao et al. | Building footprint extraction based on radiometric and geometric constraints in airborne oblique images | |
CN115544190A (zh) | 语义地图更新方法、装置、计算机设备和存储介质 | |
CN115544189A (zh) | 语义地图更新方法、装置和计算机存储介质 | |
JP7204087B2 (ja) | 対象物認識装置 | |
EP3944137A1 (en) | Positioning method and positioning apparatus | |
US20240013554A1 (en) | Method, apparatus, and system for providing machine learning-based registration of imagery with different perspectives | |
WO2024197460A1 (en) | Point map registration using semantic information | |
Hu et al. | Building extraction from oblique photogrammetry point clouds based on PointNet++ with attention mechanism |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |