CN110226186B - 表示地图元素的方法和装置以及定位的方法和装置 - Google Patents

表示地图元素的方法和装置以及定位的方法和装置 Download PDF

Info

Publication number
CN110226186B
CN110226186B CN201680091934.8A CN201680091934A CN110226186B CN 110226186 B CN110226186 B CN 110226186B CN 201680091934 A CN201680091934 A CN 201680091934A CN 110226186 B CN110226186 B CN 110226186B
Authority
CN
China
Prior art keywords
map
gaussian mixture
mixture model
identification
identified
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201680091934.8A
Other languages
English (en)
Other versions
CN110226186A (zh
Inventor
马克西米利安·德姆林
江万里
李千山
李建朋
塞巴斯蒂安·格兰索
许涛
徐红山
吕抒涵
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bayerische Motoren Werke AG
Original Assignee
Bayerische Motoren Werke AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Bayerische Motoren Werke AG filed Critical Bayerische Motoren Werke AG
Publication of CN110226186A publication Critical patent/CN110226186A/zh
Application granted granted Critical
Publication of CN110226186B publication Critical patent/CN110226186B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • G01C21/30Map- or contour-matching
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4802Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4808Evaluating distance, position or velocity data
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • G06F18/24155Bayesian classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/30Arrangements for executing machine instructions, e.g. instruction decode
    • G06F9/30181Instruction operation extension or modification
    • G06F9/30192Instruction operation extension or modification according to data descriptor, e.g. dynamic data typing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/30Arrangements for executing machine instructions, e.g. instruction decode
    • G06F9/38Concurrent instruction execution, e.g. pipeline, look ahead
    • G06F9/3885Concurrent instruction execution, e.g. pipeline, look ahead using a plurality of independent parallel functional units
    • G06F9/3889Concurrent instruction execution, e.g. pipeline, look ahead using a plurality of independent parallel functional units controlled by multiple instructions, e.g. MIMD, decoupled access or execute
    • G06F9/3891Concurrent instruction execution, e.g. pipeline, look ahead using a plurality of independent parallel functional units controlled by multiple instructions, e.g. MIMD, decoupled access or execute organised in groups of units sharing resources, e.g. clusters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/251Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions

Abstract

一种用于表示地图元素的方法和装置以及基于此定位车辆/机器人的方法和装置。用于表示地图元素的方法包括:对车辆/机器人在移动时获得的数据的每帧进行处理,包括:为数据中包括的每个地图元素生成高斯混合模型(110);生成用于识别每个地图元素的标识,其中所述标识包括地图元素的属性(120);以及为数据中包括的每个地图元素生成标识高斯混合模型,其中每个地图元素的标识高斯混合模型包括地图元素的高斯混合模型,地图元素的标识和存在概率(130);对彼此相互关联的两帧数据进行处理,以获得处理后的地图元素(140)。该方法提供了用于表示优化的地图元素的新技术以及基于此的改进的车辆/机器人定位技术。

Description

表示地图元素的方法和装置以及定位的方法和装置
技术领域
本发明总体涉及车辆/机器人定位领域,尤其涉及一种用于表示地图元素的方法和装置以及基于此定位车辆/机器人的方法和装置。
技术背景
近年来,车辆/机器人定位技术得到了深入的研究,许多所提出的好处已经在不同的应用中得到证实。许多类别的地图已被开发并用于车辆/机器人定位,例如:点地图,由激光点组成;网格地图,其将环境分割成网格,其中每个网格单元记录其是否被占据以及被占据的可能性;几何原始地图,使用一种或多种类型的几何图元来表示环境实体;特征地图,主要由特征点和它们相应的从其他类型的数据(例如,点云,照相机图像等)中提取的描述符组成;正态分布变换(NDT)地图,其使用单加权高斯混合模型来表示环境,其中每个高斯分布构建环境的一个唯一的网格单元模型;正态分布变换占用(NDT-OM)地图,它将环境分成网格,在每个网格单元内,高斯分布由在单元的数据点之间进行计算,并且保持表示该单元格的被占用概率的高斯分配的权重。
这些用于车辆/机器人的现有方法和系统通过使用诸如航迹推演,GPS,激光扫描仪,照相机等传感器以定位自身,主要涉及到基于匹配由车辆/机器人获取的激光点与网格地图的定位,基于匹配激光点与点云地图的定位,和基于匹配激光点特征与点云地图特征的定位。
发明内容
本发明的一方面是提供一种新的用于表示地图元素的方法和装置,尤其是优化的地图元素。
本发明的另一个方面是提供一种改进的方法和装置用于定位车辆/机器人。
根据本发明的一个示意性实施例,提供了一种用于表示地图元素的计算机实施的方法,包括:对车辆/机器人在移动时获得的每帧数据进行处理,包括:为数据中包括的每个地图元素生成高斯混合模型;生成用于识别每个地图元素的标识,其中所述标识包括地图元素的属性;以及为数据中包括的每个地图元素生成标识高斯混合模型,其中每个地图元素的标识高斯混合模型包括地图元素的高斯混合模型,地图元素的标识和存在概率;对彼此相互关联的两帧数据进行处理,以获得处理后的地图元素。
根据本发明的一个示意性实施例,提供了一种用于表示地图元素的装置,包括:存储器,其中存储有计算机可执行指令;以及处理器,耦接到所述存储器,并且被配置为:对车辆/机器人在移动时获得的每帧数据进行处理,包括:为数据中包括的每个地图元素生成高斯混合模型;生成用于识别每个地图元素的标识,其中所述标识包括地图元素的属性;以及为数据中包括的每个地图元素生成标识高斯混合模型,其中每个地图元素的标识高斯混合模型包括地图元素的高斯混合模型,地图元素的标识和存在概率;对彼此相互关联的两帧数据进行处理,以获得处理后的地图元素。
根据本公开的一个示意性的实施例,提供了一种非暂时性存储介质,其上存储有指令,并且当所述指令被执行时使得处理器实现用于表示地图元素的计算机实施的方法,包括:使得所述处理器生成为车辆/机器人在移动时获得的数据的每帧所包括的每个地图元素生成高斯混合模型的指令;使得所述处理器生成用于识别每个地图元素的标识的指令,其中所述标识包括地图元素的属性;使得所述处理器生成代表数据中包括的每个地图元素的标识高斯混合模型的指令,其中每个地图元素的标识高斯混合模型包括地图元素的高斯混合模型,地图元素的标识和存在概率;使得所述处理器生成对彼此相互关联的两帧数据进行处理,以获得处理后的地图元素的指令。
根据本发明的一个示意性实施例,提供了一种用于定位车辆/机器人的计算机实施的方法,包括:读取车辆/机器人当前所在的地图部分的标识高斯混合地图,其中标识高斯混合地图包括地图部分内的地图元素的标识高斯混合模型,并且其中标识高斯混合模型通过使用用于表示地图元素的方法生成;通过使用用于表示地图元素的方法生成由车辆/机器人获取的图像或实时点云内的地图元素的标识高斯混合模型;基于实时点云或图像内地图元素的标识高斯混合模型的标识,建立实时点云或图像内地图元素的标识高斯混合地图和标识高斯混合模型之间的一个或多个对应关系;以及基于建立的一个或多个对应关系,对实时点云或图像内地图元素的标识高斯混合地图和标识高斯混合模型进行匹配。
根据本发明的一个示意性实施例,提供了一种用于表示地图元素的装置,包括:存储器,其中存储有计算机可执行指令;以及处理器,耦接到所述存储器,并且被配置为:读取车辆/机器人当前所在的地图部分的标识高斯混合地图,其中标识高斯混合地图包括地图部分内地图元素的标识高斯混合模型,并且其中标识高斯混合模型通过使用用于表示地图元素的方法生成;通过使用用于表示地图元素的方法生成由车辆/机器人获取的图像或实时点云内的地图元素的标识高斯混合模型;基于实时点云或图像内地图元素的标识高斯混合模型的标识,建立实时点云或图像内地图元素的标识高斯混合地图和标识高斯混合模型之间的一个或多个对应关系;以及基于建立的一个或多个对应关系,对实时点云或图像内地图元素的标识高斯混合地图和标识高斯混合模型进行匹配。
根据本公开的一个示意性的实施例,提供了一种非暂时性存储介质,其上存储有指令,并且当所述指令被执行时使得处理器实现用于定位车辆/机器人的计算机实施的方法,包括:使得所述处理器读取车辆/机器人当前所在的地图部分的标识高斯混合地图的指令,其中标识高斯混合地图包括地图部分内地图元素的标识高斯混合模型,并且其中标识高斯混合模型通过使用用于表示地图元素的方法生成;使得所述处理器生成通过使用用于表示地图元素的方法生成由车辆/机器人获取的图像或实时点云内的地图元素的标识高斯混合模型的指令;使得所述处理器基于实时点云或图像内地图元素的标识高斯混合模型的标识,建立实时点云或图像内地图元素的标识高斯混合地图和标识高斯混合模型之间的一个或多个对应关系的指令;以及使得所述处理器基于建立的一个或多个对应关系,对实时点云或图像内地图元素的标识高斯混合地图和标识高斯混合模型进行匹配的指令。
本公开的进一步的适用范围将从下文给出的详细描述中显而易见。但是,应当理解,同时表示优选的实施例的本公开的详细的描述和具体的实例仅通过说明给出,因为根据以下详细的描述,在本公开的精神和范围内的各种变化和变形对于本领域技术人员来说是显而易见的。
附图说明
本公开的上述和其他方面以及优点将通过以下结合附图的示意性实施例的详细描述变得显而易见,附图通过举例说明了本公开的原理。
图1示出了根据本公开的一个示意性实施例显示了用于表示地图元素的方法的高级流程图;
图2(a)-(g)显示了部分路面实况的示意图,对应于部分路面实况的部分数字交通地图,通过使用表示地图元素的方法在该部分数字交通地图中表示地图元素而获得的标识高斯混合地图,具有点簇的点云,通过使用表示地图元素的方法表示点簇而获得的点云内点簇的标识高斯混合模型,由车辆/机器人获得的具有若干片段的图像,通过使用表示地图元素的方法来表示图像中的片段而获得的示意图;
图3(a)-(c)显示了在车辆/机器人移动时获得的图的不同帧的示意图,这些帧在时间上是连续的;
图4显示了根据本公开的一个示意性实施例的用于定位车辆/机器人的方法的流程图;
图5显示了根据本公开的一个示意性实施例的用于表示地图元素的装置;
图6显示了根据本公开的一个示意性实施例的用于定位车辆/机器人的装置;
图7显示了用于表示地图元素的设备和用于定位车辆/机器人的设备之间的连接的示意图;以及
图8显示了计算设备的框图,该计算设备为根据本公开的示例性实施例,可以应用于本公开的各个方面的硬件设备的示例。
具体实施方式
在以下详细的描述中,许多具体的细节被阐述以提供所描述的示意性实施例的透彻理解。但是很显然,对于本领域技术人员来说,没有部分或全部这些具体细节,所描述的实施例也能够被实施。在其他示意性实施例中,为了避免不必要地混淆本公开的概念,没有详细描述众所周知的结构或处理步骤。
本公开的总体思想是提供一种用于表示地图元素,尤其是优化的地图元素的新方法和装置。本公开的另一方面是提供一种改进的车辆/机器人的定位方法和装置。
首先参考图1,根据本公开的一个示意性实施例显示了用于表示地图元素的计算机实施的方法100的高级流程图。
根据本公开的一个示意性实施例,配备有诸如激光发射器或任何其他已知设备的探测器的车辆/机器人正在移动,并且车辆/机器人上的探测器将探测车辆/机器人的移动轨迹上的环境。方法100开始于对车辆/机器人在移动时获得的每帧数据进行处理,更具体地,该过程包括为数据中包括的每个地图元素生成高斯混合模型(步骤110)。如这里所使用的,地图元素可以是数字地图中的几何图形或点簇或图像的图像片段。本公开中提到的数据可以是在车辆/机器人的移动时获取的数字地图,其可以包括数字交通地图或点云地图。替代地,地图元素可以是由车辆/机器人获取的图像(诸如相机图像)中的图像片段或实时点云中的点簇。数字地图可以包括地图元素的几何信息或可以用于确定地图元素的几何信息的其他信息(例如地图元素的类别信息)。地图元素可以对应于现实世界中的现实对象。
此外,几何形状,点簇或图像片段可以是能够通过几何图元单独或组合地进行近似的形状。例如,数字交通地图中的地图元素可以是地图中的几何形状,该形状可能对应于现实世界中的限速板。该几何形状的形状可以近似为作为板的主体的圆形图元和作为板柱的线段图元。在另一实施例中,点云图或实时点云中的地图元素可以是点簇,其可以对应于现实世界中道路旁的树。该点簇的形状可以近似为作为树的树干的矩形图元和作为树的树冠的三角形图元。在另一实施例中,图像中地图元素的形状可以是图像片段,其可以对应于现实世界中道路旁的树。该图像片段的形状可以近似为作为树的树干的矩形图元和作为树的树冠的三角形图元。
可以预期的是点云中的点簇可以通过使用任何已经存在的或进一步开发的点簇方法来生成,例如区域生长法,K均值聚类算法等。可以从点簇内数据点之间的例如数据点之间的距离的相对位置关系来确定点簇的几何信息。
在一个示例中,几何图元可以包括以下中的至少一个:线段,弧段,螺旋段,平面矩形,平面三角形,平面圆/球面,平面椭圆,部分球面,部分圆柱面,三维立方体,三维球体和三维圆柱体。可知,任何几何形状都可以单独或组合地用几何图元表示。
此外,如本文所使用的,高斯混合模型是一种密度模型,其包括多个高斯分布。例如,典型的一维高斯混合模型可以采用如下公式(1):
其中K是高斯混合模型中包含的高斯分布数,πk是第k个高斯分布的组成权重,p(x|k)是第k个高斯分布的概率密度函数,由其平均值μk和协方差bk定义。特别地,典型的一维高斯分布(即高斯分布的概率密度函数)可以采用如下的公式(2):
而典型的多维高斯分布可采用如下公式(3):
其中μk是平均值,pk是协方差。
因此,为数字地图中包括的每个地图元素生成高斯混合模型涉及如下过程:确定(a)高斯混合模型中包含的高斯分布的数量,(b)高斯混合模型中每个高斯分布的组成权重,(c)以及每个高斯分布的平均值μk和协方差tk的参数,给出了满足高斯混合模型的数据点。
这里,仅显示了高斯混合模型和一维高斯分布的示例形式。然而,二维和三维的高斯混合模型具有相似的形式,并且是本领域技术人员所公知的。
根据高斯分布的定义,可知二维空间中的高斯分布的几何形状类似于椭圆形,并且三维空间中的高斯分布的几何形状类似于椭圆体。
在示例中,可以通过使用几何图元的高斯混合模型来近似地图元素的形状,以生成地图元素的高斯混合模型。值得注意的是,可以通过使用地图元素的几何信息或地图元素的其他信息(例如,地图元素的类别信息)来确定地图元素的形状,并且这些信息可以从数字地图中获取。可以通过单独或组合地使用用于几何图元的高斯混合模型来生成用于地图元素的高斯混合模型。作为示例,形状近似于平面椭圆的地图元素可以基于该地图元素的几何参数,通过使用平面椭圆的高斯混合模型来生成。作为另一示例,形状近似于三角形和线段的地图元素可以基于该地图元素的几何参数,通过组合地使用三角形图元的高斯混合模型和线段图元的高斯混合模型来生成。
一个几何图元的高斯混合模型可以包含一个或多个高斯分布,每个高斯分布具有特定的平均值、协方差和组成权重。其中高斯混合模型中高斯分布的个数可以根据精度要求进行选择。几何图元的高斯混合模型可以用几何图元的几何参数表示。这里,以长度为“1”的线段图元为例。如果决定使用一个高斯分布来表示该线段图元,则高斯分布的平均值是线段的中心。也就是说,平均值可以表示为线段图元长度“1”的函数。同样地,高斯分布的协方差也可以用线段图元的几何参数表示(例如,本例中的长度“1”)。另外,由于高斯混合模型中只有一个高斯分布,所以该高斯分布的组成权重为1。
那么每个地图元素的高斯混合模型可以通过替换示例的方法生成,即通过用几何图元的几何参数代替地图元素的具体几何参数。在地图元素具有近似于几个几何图元的形状组合的情况下,生成该地图元素的高斯混合模型同样包括组合几何图元的高斯混合模型以生成该地图元素的高斯混合模型。在一个示例中,由各个几何图元的高斯混合模型表示的地图元素的子元素与地图元素之间的面积比可以用作各个几何图元的高斯混合模型的权重,从而形成用于地图元素的高斯混合模型。
几何图元的高斯混合模型可以事先计算好并进行存储以供后续使用,从而提高为生成地图元素生的斯混合模型的计算效率。
在一个示例中,计算几何图元的高斯混合模型可以包括:对几何图元进行采样,然后使用从采样得到的数据点来确定每个高斯分布的参数,例如具体的平均值,协方差和组成权重。例如,可以例如通过使用期望最大化(EM)算法来计算高斯分布的具体的平均值,协方差和组成权重。
或者,当计算属于平面或立方体图元的几何图元的高斯混合模型时,几何图元的边界可用于生成几何图元的四叉树或八叉树分区。然后将高斯分布放入位于几何图元内的每个空白单元中,从而形成几何图元的高斯混合模型。分区的数量,即高斯混合模型内的高斯分布的数量取决于精度的要求。很明显,放入每个空白单元的每个高斯分布的平均值是该空白单元的中心。此外,可以基于相应空白单元的几何参数来确定每个高斯分布的协方差。另外,高斯分布的组成权重可以由相应的空白单元之间的面积比确定。
可以预期的是具有若干精度等级的高斯混合模型可以针对几何图元进行计算并存储以供以后使用。以三角形图元为例,通过使用四叉树算法,三角形图元可以用具有一个高斯分布的高斯混合模型,具有四个高斯分布的高斯混合模型或具有十一个高斯分布的高斯混合模型来表示,这取决于精度的要求。
在另一个示例中,点簇或图像片段的高斯混合模型可以通过使用点簇或图像片段的边界来计算,以生成点簇或图像片段的四叉树分区,然后将高斯分布放入位于点簇或图像段内的每个空白单元中。作为替代,也可以通过使用点簇内的点计算相应的高斯混合模型来生成点簇的高斯混合模型,例如通过使用EM算法。
然后可以生成用于识别地图元素的标识(步骤120),标识包括地图元素的属性。例如,地图元素的属性可以包含地图元素的类型,反射率或平整度。在示例中,标识可以被构造为包含地图元素的属性的向量。也能够设想的是,还可以使用除上述属性之外的属性来构建标识。
随后,可以生成用于表示地图元素的标识的高斯混合模型(步骤130),其中,标识的高斯混合模型包括地图元素的高斯混合模型,地图元素的标识和存在概率。这里,存在概率是一个统计概念。也就是说,对于一项观察,地图元素的存在概率是1或0,对于多于一项的观察,存在概率是0到1范围内的一个概率。地图元素的存在概率可以是事先已知的或通过使用观察到的数据点进行估计。例如,可以从数字地图获取地图元素的存在概率,或者可以通过使用可用的多项观察来估计地图元素的存在概率。利用存在概率,能够表示动态地图元素。
可以预期的是用于生成高斯混合模型所需的数据(例如,用于计算高斯混合模型的每个高斯分布的特定均值,协方差和组成权重的数据,用于确定地图元素的形状的数据等),地图元素的标识和/或存在概率可以从数据源获得,例如可以从数字交通地图或点云地图供应商处获得,或者由车辆/机器人实时获得。数字交通地图可以是商业上可获得的地图,例如谷歌地图,HERE地图,街景地图等。此外,点云可以是由例如velodyne的LiDAR激光系统获取的稠密点云,或由例如一个或多个ibeo激光扫描仪等获取的稀疏点云。
使用标识高斯混合模型表示地图元素将降低存储要求并提高噪声容限。
此外,根据本公开的一个示意性实施例,在为数据中包括的每个地图元素生成对应的标识高斯混合模型之后,对彼此相互关联的两帧数据进行处理,以获得处理的地图元素(步骤140)。更具体地,在本公开中,彼此相互关联的两帧数据是车辆/机器人在移动时获得的在时间上连续的两帧数据。也就是说,在车辆/机器人的移动时,在时间上连续的两帧数据被认为是彼此相互关联的两帧数据,并且将对这两帧数据进行处理,从而得处理后的地图元素,这就是优化的地图元素。此外,在本公开中,彼此相互关联的两帧数据是在车辆/机器人的移动时获得的两帧数据,其包括相同的地图元素。例如,通过搜索在两帧数据中存在相同的地图元素,则可以认为这两帧数据是彼此相互关联的两帧数据,然后对这两帧数据进行处理,以获得处理后的地图元素,也就是优化的地图元素。
更具体地,根据本公开的一个示意性实施例,在对彼此相互关联的两帧数据的处理中,通过使用其标识对每个数字地图或图像中的地图元素进行分类,然后提取和处理相同分类中的地图元素,以获得处理后的地图元素。也就是说,通过搜索每帧数据的每个地图元素的标识,可以确定相应地图元素应被划分到哪个分类当中。如果可以确定地图元素属于相同的分类,则可以认为包含属于相同分类的地图元素的帧彼此相互关联,然后可以对相关帧中的相同的地图元素进行处理,从而获得处理后的地图元素。
更具体地说,根据本公开的一个示意性实施例,相关帧上的处理经过校正,合并到数据的不同帧中的地图元素中,从而获得更接近真实对象的地图元素。
此外,如上所述,每个地图元素的标识高斯混合模型的标识包括地图元素的属性,而地图元素的属性包括地图元素的类型、反射率或平整度。因此,通过搜索数据的某一帧中每个地图元素的标识,可以获得每个地图元素的属性;然后,将一个地图元素的属性与另一个地图元素的属性进行比较,并根据两个地图元素之间至少一个属性的相似性超过预先确定的阈值,确定两个地图元素属于同一分类。如果可以确定地图元素属于相同的分类,则可以认为包含属于相同分类的地图元素的帧彼此相互关联,然后可以对相关帧中的相同的地图元素进行处理,从而获得处理后的地图元素。
根据本公开的一个示意性实施例,本公开可以用于处理3D数据,例如实时点云或3D图像,或者处理2D数据,其可以被转换为3D数据。
可以组合地使用地图元素的标识高斯混合模型以形成标识高斯混合地图,其中地图元素的存在概率作为相应的标识高斯混合模型的存在权重。
图2(a)-(g)分别显示了:部分路面实况的示意图,对应于部分路面实况的部分数字交通地图,通过使用方法100在该部分数字交通地图中表示地图元素而获得的标识高斯混合地图,具有点簇的点云,通过使用方法100表示点簇而获得的点云内点簇的标识高斯混合模型,由车辆/机器人获得的具有若干片段(即地图元素)的图像,通过使用方法100来表示图像中的片段而获得的示意图。
图2(a)显示了具有多个对象的部分路面实况,例如带有树冠和树干的树,带有柱子的限速板,带有柱子的导向板,带有柱子和支架的路灯等。图2(b)显示了对应于部分路面实况的部分数字交通地图。图2(c)显示了通过使用方法100表示的部分数字交通地图中的地图元素的示意图。
如图2(c)所示,限速板由具有两个高斯分布的高斯混合模型表示,即一个用于板体,另一个用于柱子,树由具有五个高斯分布的高斯混合物模型表示,即四个用于树冠和一个用于树的树干,路灯由具有三个高斯分布的高斯混合模型表示,即一个用于灯体,其余两个用于柱子和支架,方向标志牌由具有三个高斯分布的高斯混合模型表示,即一个用于柱子,其余两个用于板身和板面。
图2(d)显示了具有若干点簇的点云。点云可由车辆/机器人获得。图2(e)示出了通过使用方法100表示点云中的点簇的示意图。如图2(e)所示,点云中的点簇分别由高斯混合模型表示。
图2(f)示出了具有若干片段(即,地图元素)的图像。图像可由车辆/机器人获得,例如,通过车辆/机器人的摄像机获得。图2(g)示出了通过使用方法100表示图像中的片段的示意图。如图2(g)所示,图像中的片段分别由高斯混合模型表示。
尽管未在图2(c),图2(e)和图2(g)中示出,但是还可以预期地图元素(包括点簇)的标识可以显示在图示上。
还要注意的是,其中的地图元素的图像和标识高斯混合模型是2D,而其中的地图元素的点云,点云地图,数字交通地图和标识高斯混合模型是3D。
根据本公开的一个示意性实施例,如以下的图3(a)-3(c)所示,在为数据中包括的每个地图元素生成相应的标识高斯混合模型之后,对彼此相互关联的两帧数据进行处理,以获得处理后的地图元素。更具体地说,图3(a)-3(c)示出了车辆/机器人在移动时获得的三帧在时间上连续的数据的示意图。其中,图3(a)是包括树冠和树干的所有部分的实时点云的示例;而图3(b)包括树的一部分,限制板的一部分的实时点云的示例;以及图3(c)是包括限速板和方向板的所有部分的实时点云的示例。
根据本公开的一个示意性实施例,首先,为每帧数据中的每个地图元素生成相应的标识高斯混合模型。进一步,以获得优化的地图元素,并且将对这两帧数据进行处理,从而获得处理后的和优化的地图元素。例如,通过搜索每帧数据的每个地图元素的相应的标识高斯混合模型的标识,找到包括相同或类似标识的地图元素,则将找到的地图元素划分到相同的分类。然后,对地图元素进行处理,例如合并和/或校正,以获得处理后的地图元素。更具体地,如上所述,图3(a)包括树的所有部分,并且树被分成几个地图元素,且每个地图元素生成了相应的标识高斯混合模型;以及图3(b)包括树的一部分,其也被分成几个地图元素,并且每个地图元素生成了相应地标识高斯混合模型。为了生成树的优化的地图元素,搜索两帧中的每个地图元素的标识,并且将树的地图元素划分到相同的分类中,然后处理树的地图元素,例如合并和/或者校正,以获得更接近真实值的优化的地图元素。
此外,如图3(b)和图3(c)所示,两者都包括限速板的地图元素,它们将将被划分到相同的分类,然后实时点云的两帧将被处理,例如合并和/或校正,以获得更接近真实值的优化的地图元素。
另外,尽管图3(a)-3(c)是车辆/机器人在移动时获得的在时间上连续的三帧数据。实际上,根据本公开,可以将包括相同的地图元素的两帧数据确定为彼此相互关联,并且进行如上处理,以获得经处理和优化的地图元素。
此外,通过对属于相同的分类的地图元素进行处理(例如合并和/或校正),不仅可以获得更接近真实值的优化的地图元素,还可以计算并获得两个相互关联的地图元素之间的相应位置关系,从而获得车辆/机器人的移动轨迹。另外,如果结合车辆/机器人上的定位装置(例如航迹推演或GPS),则可以更精确地确定车辆/机器人的定位和移动轨迹,可以更准确地确定帧之间的相应地姿态和位置。
现在将参考图4讨论用于定位车辆/机器人的计算机实施的方法,图4是用于定位车辆/机器人的过程400的流程图。
如410所示,读取车辆/机器人当前所在的地图部分的标识的高斯混合地图,其中,标识的高斯混合地图包括地图部分内的地图元素的标识的高斯混合模型,且其中地图元素的标识的高斯混合模型可以通过使用方法100生成。可以预期,可以从例如车辆/机器人本身或者与车辆/机器人通信的服务器设备中读取地图部分的标识高斯混合地图。
在一个示例中,可以读取识别车辆/机器人当前所在的地图部分的信息,以便读取该地图部分的标识高斯混合地图。例如,识别车辆/机器人当前所在的地图部分的信息可以从诸如车辆/机器人本身或者与车辆/机器人通信的服务器等装置读取,因而可以相应地读取该地图部分的标识高斯混合地图。可以预期,高斯混合地图可以预先由诸如与车辆/机器人通信的服务器生成,并且可以将车辆/机器人当前被确定所在的地图部分的相应高斯混合地图在获得地图部分的识别信息之后发送到车辆/机器人。还可以预期的是,在获得该地图部分的识别信息以及为该地图部分构建标识高斯混合地图所需的数据之后,可以由车辆/机器人生成该地图部分的标识高斯混合地图。例如,在确定车辆/机器人当前所在的地图部分并获得该地图部分相应的的数字交通地图的子部分之后,车辆/机器人可以相应地为该地图部分生成标识高斯混合地图。
作为具体示例,如果已确定车辆/机器人当前位于XX城市,XXX道路,XXXX号(例如,通过GPS,IMU,航迹推演等),则半径为1km且包围当前位置XX城市,XXX道路,XXXX号的圆形地图部分将被识别为车辆/机器人当前所在的地图部分。随后,该地图部分的标识高斯混合地图将被读取。应当注意,地图部分的形状以及地图部分的几何参数可以由用户指定或由车辆/机器人自动确定。
如420所示,由车辆/机器人获取的图像或实时点云内的地图元素(即,点簇或图像片段)的标识的高斯混合模型通过使用方法100生成。实时点云或图像可以由车辆/机器人通过使用例如velodyne的LiDAR激光系统,IBEO激光扫描仪,灰色/彩色,单/立体照相机等获得。还可以预期的是其他设备也可以用于获取实时点云或图像。
如430所示,可以基于实时点云或图像内的地图元素的标识的高斯混合模型的标识来建立实时点云或图像内的地图元素的标识的高斯混合地图和标识的高斯混合模型之间的一个或多个对应关系。特别地,基于标识建立一个或多个对应关系包括确定标识的相似性。
在一个示例中,可以将实时点云或图像中地图元素的标识的高斯混合模型的标识与标识的高斯混合地图中的地图元素的标识的高斯混合模型的标识进行比较,以确定其相似性。如上所述,标识可以被构造为矢量。因此,用于确定矢量相似性的度量(例如距离)可用于对标识进行匹配。
例如,对于实时点云或图像内的每个地图元素,可以将其标识与标识的高斯混合地图内的地图元素的标识的高斯混合模型的标识进行比较,以便找到可能的匹配标识。在确定匹配的标识之后,可以基于此建立实时点云或图像内的地图元素的标识的高斯混合地图和标识的高斯混合模型之间的对应关系。
基于标识的比较,可以将实时点云或图像内的地图元素视为与标识高斯混合地图中的多于一个的地图元素相对应。或者,可以认为实时点云或图像中的不止一个的地图元素与标识高斯混合地图中的一个地图元素相对应。实时点云或图像内的一个或多个地图元素也在标识高斯混合地图中不具有与之匹配的地图元素也是可能的。对于每种可能性,建立可能的对应关系,从而在实时点云或图像内的地图元素的标识高斯混合地图和标识高斯混合模型之间建立若干可能的对应关系。
作为示例,在一个对应关系中,实时点云或图像中的地图元素a,b,c,d和e可被视为分别对应于标识高斯混合地图中的地图元素A,B,C,D和E。而在另一个对应关系中,地图元素a和b可以被视为对应于地图元素A,而其他地图元素被认为是不匹配的。
如440所示,可以基于在步骤430建立的一个或多个对应关系来匹配实时点云或图像内的地图元素的标识高斯混合地图和标识高斯混合模型。如果仅有一个对应关系在步骤430建立,则可以直接匹配实时点云或图像内的地图元素的标识高斯混合地图和标识高斯混合模型。
如果在430处建立了多于一个对应关系,则对实时点云或图像内的地图元素的标识高斯混合地图与标识高斯混合模型进行匹配可以包括:基于在430处建立的一个或多个对应关系,确定标识高斯混合地图内地图元素的标识高斯混合模型与相应实时点云或图像内地图元素的标识高斯混合模型的相似性。
在一个示例中,欧几里德距离被用作确定标识高斯混合模型的相似性的度量。这里,欧几里德距离是指m维空间中两点之间的实际距离,其中m可以是等于或大于1的整数。
那么,将实时点云或图像内的地图元素的标识高斯混合地图与标识高斯混合模型进行匹配包括:优化实时点云或图像内用于地图元素的标识高斯混合地图的标识高斯混合模型之间的欧几里德距离。在一个示例中,优化可以涉及以下操作。
对于在430中建立的每个对应关系,计算标识高斯混合地图内的地图元素的每个标识高斯混合模型与实时点云或图像(如对应关系所示)内的对应地图元素的高斯混合模型之间的欧几里德距离,从而得到欧几里德距离的集合。
然后,欧几里德距离的集合的和可以被定义为实时点云或图像内的地图元素的标识高斯混合地图和标识高斯混合模型之间的欧几里德距离。或者,该欧几里德距离的集合的加权和可以定义为实时点云或图像内的地图元素的标识高斯混合地图和标识高斯混合模型之间的欧几里德距离,权重是标识高斯混合地图中的高斯混合模型的存在概率。这里,对应于每个对应关系计算出的该欧几里德距离的集合的和或加权和被定义为用于实时点云或图像内的地图元素的标识高斯混合地图和标识高斯混合模型之间的欧几里德距离。然而,还可以预期,对应于每个对应关系计算出的该欧几里德距离的集合的其他组合可以被定义为实时点云或图像内的地图元素的标识高斯混合地图和标识高斯混合模型之间的欧几里德距离。
导致实时点云或图像内的地图元素的标识高斯混合地图与标识高斯混合模型之间的欧几里德距离具有最小值的对应关系可被视为可接受的对应关系。基于对应关系,将实时点云或图像内的地图元素的标识高斯混合模型与高斯混合地图进行匹配,并且可以基于该对应关系获得车辆/机器人的定位结果。
还可以预期,除了欧几里德距离之外的其他度量,例如曼哈顿距离,可以用于对实时点云或图像内的地图元素的标识高斯混合地图与标识高斯混合模型进行匹配。
另外,如上,图像和图像中地图元素的标识高斯混合模型是2D的,而点云,点云地图,数字交通地图和他们的标识高斯混合模型是3D的。因此,当将具有2D标识高斯混合模型的地图元素与3D点簇,点簇地图或数字交通地图或其地图元素进行匹配时,可以添加空间约束来解决2D-3D匹配。
在一个示例中,方法400还可以包括读取关于车辆/机器人的优先姿态的信息和反映优先姿态的不确定区域的数据。则优化实时点云或图像内的地图元素的标识高斯混合地图和高斯混合模型之间的欧几里得距离可包括:优用被约束在预定义空间上并且在不确定区域内车辆/机器人的姿态,化欧几里德距离。预定义空间可以是例如SE(3)空间,即6维欧几里德空间。
在一个示例中,关于车辆/机器人的优先姿态的信息和反映优先姿态的不确定区域的数据可以由服务器确定并发送到车辆/机器人或由车辆/机器人自身确定。例如,车辆/机器人可以使用GPS/IMU和航迹推演来估计车辆/机器人的优先姿态和反映优先姿态的不确定区域的数据。如这里所使用的,姿态表示方位/位置和方向。
根据本公开的一个示意性实施例,提供了一种根据本公开的示意性实施例用于表示地图元素的装置。该用于表示地图元素的装置包括:存储器,其中存储有计算机可执行指令;处理器,耦接到存储器,并且被配置为:生成地图元素的高斯混合模型;生成用于识别每个地图元素的标识,其中标识包括地图元素的属性;生成用于表示地图元素的标识高斯混合模型,其中标识高斯混合模型包括地图元素的高斯混合模型,地图元素的标识和存在概率。
在一个示例中,地图元素是数字地图或图像中图像片段中的几何图形或点簇。特别地,几何图形,点簇或图像片段具有与单独或组合的近似几何图元的形状。
在一个示例中,生成地图元素的高斯混合模型包括:使用几何图元的高斯混合模型来近似每个地图元素的形状。
在一个示例中,几何图元可以包括以下中的至少一个:线段,弧段,螺旋段,平面矩形,平面三角形,平面圆/球面,平面椭圆,部分球面,部分圆柱面,三维立方体,三维球体和三维圆柱体。
在一个示例中,地图元素的属性包括地图元素的类型、反射率或平整度。
根据本公开的一个示意性实施例,提供了一种根据本公开的示意性实施例的用于定位车辆/机器人的装置。用于定位车辆/机器人的设备例如可以是与服务器通信的客户端设备。例如,用于定位车辆/机器人的装置可以安装在车辆/机器人上。用于定位车辆/机器人的设备可以包括:存储器,其中存储有计算机可执行指令;以及处理器,耦接到存储器,并且被配置为:读取车辆/机器人当前所在的地图部分的标识高斯混合地图,其中标识高斯混合地图包括地图部分内地图元素的标识高斯混合模型,并且其中标识高斯混合模型通过使用方法100生成;通过使用方法100生成由车辆/机器人获取的图像或实时点云内的地图元素的标识高斯混合模型;基于实时点云或图像内地图元素的标识高斯混合模型的标识,建立实时点云或图像内地图元素的标识高斯混合地图和标识高斯混合模型之间的一个或多个对应关系;以及基于建立的一个或多个对应关系,对实时点云或图像内地图元素的标识高斯混合地图和标识高斯混合模型进行匹配。
在一个示例中,处理器还被配置为:读取识别车辆/机器人当前所在的地图部分的信息。
在一个示例中,处理器还被配置为:读取关于车辆/机器人的优先姿态的信息和反映优先姿态的不确定区域的数据。
在一个示例中,对实时点云或图像内地图元素的标识高斯混合地图和标识高斯混合模型进行匹配包括:优化实时点云或图像内的地图元素的标识高斯混合地图和高斯混合模型之间的欧几里得距离。
在一个示例中,优化实时点云或图像内的地图元素的标识高斯混合地图和高斯混合模型之间的欧几里得距离包括:用限制在预先定义的空间和不确定区域内车辆/机器人的姿态优化欧几里得距离。
图5示出了根据本公开的示意性实施例的用于表示地图元素的装置500。装置500可以包括高斯混合模型生成单元502,被配置为生成地图元素的高斯混合模型;标识生成单元504,被配置为生成用于识别地图元素的标识,其中标识包括地图元素的属性;以及标识高斯混合模型生成单元506,被配置为生成用于表示地图元素的标识高斯混合模型,其中标识高斯混合模型包括高斯混合模型,地图元素的标识和存在概率。还包括处理单元505,被配置为对实时点云中的彼此相互关联的两帧进行处理,以获得处理后的地图元素。
注意,装置500的高斯混合模型生成单元502,标识生成单元504和标识高斯混合模型生成单元506,可以被配置为在方法100中执行相应的操作,这些操作在这里被省略。另外,针对方法100的描述同样适用于装置500。
例如,装置500可以作为与客户端设备通信的服务器。
图5示出了根据本公开的示意性实施例的用于定位车辆/机器人的装置600。用于定位车辆/机器人的装置可以包括:标识高斯混合地图读取单元602,被配置为读取车辆/机器人当前所在的地图部分的标识高斯混合地图,其中标识高斯混合地图包括地图部分内地图元素的标识高斯混合模型,并且其中标识高斯混合模型通过使用方法100生成;标识高斯混合模型生成单元604,被配置为通过使用方法100生成由车辆/机器人获取的图像或实时点云内的地图元素的标识高斯混合模型;对应关系建立单元606,被配置为基于实时点云或图像内地图元素的标识高斯混合模型的标识,建立实时点云或图像内地图元素的标识高斯混合地图和标识高斯混合模型之间的一个或多个对应关系;以及匹配单元608,被配制为基于建立的一个或多个对应关系,对实时点云或图像内地图元素的标识高斯混合地图和标识高斯混合模型进行匹配。
注意,装置600的标识高斯混合地图读取单元602,标识高斯混合模型生成单元604,对应关系建立单元606和匹配单元608,可以被配置为在方法400中执行相应的操作,这些操作在这里被省略。另外,针对方法400的描述同样适用于装置600。
例如,装置600可以作为与客户端设备通信的服务器。
图7显示了用于表示地图元素的装置702和用于定位车辆/机器人的装置704之间的连接的示意图。如图7所示,用于表示地图元素的装置702和用于定位车辆/机器人的装置704可以彼此连接,从而使它们之间可以交换信息。注意,用于表示地图元素的装置702可以是如上的用于表示地图元素的任何装置,并且用于表示地图元素的装置702可以是服务器。另外,应注意,用于定位车辆/机器人装置704可以是如上的用于定位车辆/机器人的任何装置,并且用于定位车辆/机器人704的装置可以是客户端设备。
此外,尽管所示为单独的设备,但是可以预期的是在一些实施例中,用于表示地图元素的装置702和用于定位车辆/机器人的装置704可以在单个设备内实现。
根据本公开的一个实施例,一种非暂时性存储介质,其上存储有指令,并且当指令被执行时使得处理器实现计算机实施的表示地图元素的方法,包括:使得处理器生成地图元素的高斯混合模型的指令;使得处理器生成用于识别地图元素的标识的指令,其中标识包括地图元素的属性;以及使得处理器生成地图元素的标识高斯混合模型的指令,其中标识高斯混合模型包括地图元素的高斯混合模型,标识和存在概率;
根据本公开的一个实施例,一种非暂时性存储介质,其上存储有指令,并且当指令被执行时使得处理器实现计算机实施的的用于定位车辆/机器人的方法,包括:使得处理器读取车辆/机器人当前所在的地图部分的标识高斯混合地图的指令,其中标识高斯混合地图包括地图部分内地图元素的标识高斯混合模型,并且其中标识高斯混合模型通过使用方法100生成;使得处理器通过使用方法100生成由车辆/机器人获取的图像或实时点云内的地图元素的标识高斯混合模型的指令;使得处理器基于实时点云或图像内地图元素的标识高斯混合模型的标识,建立实时点云或图像内地图元素的标识高斯混合地图和标识高斯混合模型之间的一个或多个对应关系的指令;以及使得处理器基于建立的一个或多个对应关系,对实时点云或图像内地图元素的标识高斯混合地图和标识高斯混合模型进行匹配的指令。
图8示出了计算设备的框图,该计算设备是可以应用于根据本公开的一个示意性实施例的本公开的各方面的硬件设备的示例。
参照图8,现在将描述计算设备800,其是可以应用于本公开的各方面的硬件设备的示例。计算设备800可以是被配置为执行处理和/或计算的任何机器,可以是但不限于工作站,服务器,台式计算机,笔记本电脑,平板电脑,个人数据助理,智能手机,车载电脑或其任意组合。上述各种装置/服务器/客户端设备可以全部或至少部分地由计算设备800或类似的设备或系统实现。
计算设备800可以包括可能经由一个或多个接口与总线802连接或与总线802通信的元件。例如,计算设备800可以包括总线802,以及一个或多个处理器804,一个或多个输入设备806和一个或多个输出设备808。一个或多个处理器804可以是任何类型的处理器,并且可以包括但不限于一个或多个通用处理器和/或一个或多个专用处理器(例如特殊处理芯片)。输入设备806可以是能够向计算设备输入信息的任何类型的设备,并且可以包括但不限于鼠标,键盘,触摸屏,麦克风和/或遥控器。输出设备808可以是能够呈现信息的任何类型的设备,可以包括但不限于显示器,扬声器,视频/音频输出终端,振动器和/或打印机。计算设备800可以包括或者与非暂时性存储设备810连接,非暂时性存储设备810是非暂时性的,且可以实现数据存储的任何存储设备,并且可以包括但不限于磁盘驱动器,光学存储设备,固态存储器,软盘,软磁盘,硬盘,磁带或任何其他磁介质,光盘或任何其他光学介质,ROM(只读存储器),RAM(随机存取存储器),高速缓冲存储器和/或任何其他存储器芯片或盒,和/或计算机可从其读取数据,指令和/或代码的任何其他介质。非暂时性存储设备810可以从接口拆卸。非暂时性存储设备810具有用于实现上述方法和步骤的数据/指令/代码。计算设备800也可以包括通信设备812。通信设备812可以是任何类型的能够与外部设备和/或与网络通信的设备或系统,并且可以包括但不限于调制解调器,网卡,红外通信设备,无线通信设备和/或芯片组,例如BluetoothTM设备,1302.11设备,WiFi设备,WiMax设备,蜂窝通信设备和/或其类似设备。
当计算设备800用作车载设备时,它还可以连接到外部设备,例如GPS接收器,用于感测不同环境数据的传感器,例如加速度传感器,车轮速度传感器,陀螺仪等。通过这种方式,计算设备800可以接收指诸如示车辆行驶状况的位置数据和传感器数据。当计算设备800用作车载设备时,它还可以连接到其他设备(例如发动机系统,雨刮器,防抱死制动系统等)以控制车辆的运行和操作。
此外,非暂时性存储设备810可以具有地图信息和软件元素,使得处理器804可以执行路线引导处理。另外,输出设备806可以包括用于显示地图的显示器,车辆的位置标记以及指示车辆的行驶状况的图像。输出设备806还可以包括扬声器或具有耳机的接口,用于音频引导。
总线802可以包括但不限于工业标准体系结构(ISA)总线,微通道架构(MCA)总线,增强型ISA(EISA)总线,视频电子标准协会(VESA)本地总线和外围组件互连(PCI)总线。特别地,对于车载设备,总线802还可以包括控制器区域网络(CAN)总线或设计的用于在汽车上应用的其他架构。
计算设备800还可以包括工作存储器814,其可以是任何类型的能够存储对处理器804的工作有用的指令和/或数据的工作存储器,并且可以包括但不限于随机存取存储器和/或只读存储器设备。
软件元件可以放置于工作存储器814中,包括但不限于操作系统816,一个或多个应用程序818,驱动程序和/或其他数据和代码。用于执行上述方法和步骤的指令可以包括在一个或多个应用程序818中,并且上述各种装置/服务器/客户端设备的装置/单元/元件可以通过由处理器804读取和执行一个或多个应用程序818的指令来实现。
还应该理解,可以根据具体要求进行变化。例如,也可以使用定制硬件,和/或可以用硬件,软件,固件,中间元件,微代码,硬件描述语言或其任何组合来实现特殊元件。此外,可以采用与诸如网络输入/输出设备之类的其他计算设备的连接。例如,所公开的方法和设备中的一些或全部都可以根据本发明的逻辑和算法,通过使用汇编语言或硬件编程语言(例如VERILOG,VHDL,C++)对硬件进行编程(例如,包括现场可编程门阵列(FPGA)和/或可编程逻辑阵列(PLA)的可编程逻辑电路)来实现。通过使用根据本公开的逻辑和算法的硬件编程语言。
尽管已参考附图对本公开的各个方面进行了描述,但上述方法、系统和设备仅为示意性的实例,并且本公开的范围不局限于这些方面,而是仅由所附的权利要求及其等效来限定。各种元素可以省略,也可以用等效元素代替。此外,步骤可以不同于本公开中所描述的顺序执行。而且,各种元素可以各种方式组合。同样重要的是,随着技术的发展,所描述的许多元素可以被在本公开之后出现的等效元素替代。

Claims (22)

1.一种计算机实施的用于表示地图元素的方法,其特征在于,包括:
对车辆/机器人在移动时获得的数据的每帧进行处理,包括:
为所述数据中包括的每个地图元素生成高斯混合模型;
生成用于识别每个地图元素的标识,其中所述标识包括所述地图元素的属性;以及
为所述数据中包括的每个地图元素生成标识高斯混合模型,其中每个地图元素的所述标识高斯混合模型包括,所述地图元素的所述高斯混合模型,所述地图元素的所述标识和存在概率;
对彼此相互关联的两帧数据进行处理,以获得处理后的地图元素;
其中,所述彼此相互关联的两帧数据是车辆/机器人在移动时获得的包括相同地图元素的两帧数据;
在处理所述彼此相互关联的两帧数据时,通过使用地图元素的所述标识对每个数字地图或图像中的地图元素进行分类,然后提取和处理相同分类中的地图元素,以获得所述处理后的地图元素,其中处理相同分类中的地图元素包括合并和/或校正。
2.如权利要求1所述的方法,其特征在于,所述彼此相互关联的两帧数据是车辆/机器人在移动时获得的在时间上连续的两帧数据。
3.如权利要求1所述的方法,其特征在于,在处理所述彼此相互关联的两帧数据时,通过使用车辆/机器人的移动轨迹来处理每个地图元素,以获得所述处理后的地图元素。
4.如权利要求1或2所述的方法,其特征在于,每个地图元素是数字地图或图像的图像片段中的几何图形或点簇。
5.如权利要求1或2所述的方法,其特征在于,为所述数据中包括的每个地图元素生成高斯混合模型,包括:
使用几何图元的高斯混合模型来近似每个地图元素的形状。
6.如权利要求5所述的方法,其特征在于,所述几何图元包括以下中的至少一种:
线段,弧段,螺旋段,平面矩形,平面三角形,平面圆/球面,平面椭圆,部分球面,部分圆柱面,三维立方体,三维球体和三维圆柱体。
7.如权利要求1或2所述的方法,其特征在于,所述地图元素的所述属性包括所述地图元素的类型、反射率或平整度。
8.一种用于表示地图元素的装置,其特征在于,包括:
存储器,其中存储有计算机可执行指令;以及
处理器,耦接到所述存储器,并且被配置为:
对车辆/机器人在移动时获得的数字地图或图像的每帧进行处理,包括:
为数据中包括的每个地图元素生成高斯混合模型;
生成用于识别每个地图元素的标识,其中所述标识包括地图元素的属性;以及
生成代表所述数据中包括的每个地图元素的标识高斯混合模型,其中每个地图元素的所述标识高斯混合模型包括,所述地图元素的高斯混合模型,所述标识和存在概率;
对彼此相互关联的两帧数据进行处理,以获得处理后的地图元素;
其中,所述彼此相互关联的两帧数据是车辆/机器人在移动时获得的包括相同地图元素的两帧数据;
在处理所述彼此相互关联的两帧数据时,通过使用地图元素的所述标识对每个数字地图或图像中的地图元素进行分类,然后提取和处理相同分类中的地图元素,以获得所述处理后的地图元素,其中处理相同分类中的地图元素包括合并和/或校正。
9.如权利要求8所述的装置,其特征在于,为数据中包括的每个地图元素生成高斯混合模型,包括:
使用几何图元的高斯混合模型来近似所述每个地图元素的形状。
10.一种非暂时性存储介质,其上存储有指令,并且当所述指令被执行时使得处理器实现计算机实施的表示地图元素的方法,其特征在于,包括:
使得所述处理器生成为车辆/机器人在移动时获得的数据的每帧所包括的每个地图元素生成高斯混合模型的指令;
使得所述处理器生成用于识别每个地图元素的标识的指令,其中所述标识包括所述地图元素的属性;以及
使得所述处理器生成代表所述数据中包括的每个地图元素的标识高斯混合模型的指令,其中所述标识高斯混合模型包括所述地图元素的高斯混合模型,所述标识和存在概率;
用于生成对彼此相互关联的两帧数据进行处理,以获得处理后的地图元素的指令;
其中,所述彼此相互关联的两帧数据是车辆/机器人在移动时获得的包括相同地图元素的两帧数据;
在处理所述彼此相互关联的两帧数据时,通过使用地图元素的所述标识对每个数字地图或图像中的地图元素进行分类,然后提取和处理相同分类中的地图元素,以获得所述处理后的地图元素,其中处理相同分类中的地图元素包括合并和/或校正。
11.一种用于表示地图元素的装置,其特征在于,包括:
高斯混合模型生成单元,被配置为车辆/机器人在移动时获得的数据的每帧所包括的每个地图元素生成高斯混合模型;
标识生成单元,被配置为生成用于识别每个地图元素的标识,其中所述标识包括所述地图元素的属性;以及
标识高斯混合模型生成单元,被配置为生成代表所述数据中包括的每个地图元素的标识高斯混合模型,其中所述标识高斯混合模型包括所述地图元素的高斯混合模型,标识和存在概率;
处理单元对彼此相互关联的两帧数据进行处理,以获得处理后的地图元素;
其中,所述彼此相互关联的两帧数据是车辆/机器人在移动时获得的包括相同地图元素的两帧数据;
在处理所述彼此相互关联的两帧数据时,通过使用地图元素的所述标识对每个数字地图或图像中的地图元素进行分类,然后提取和处理相同分类中的地图元素,以获得所述处理后的地图元素,其中处理相同分类中的地图元素包括合并和/或校正。
12.一种用于定位车辆/机器人的计算机实施的方法,其特征在于,包括:
读取所述车辆/机器人当前所在的地图部分的标识高斯混合地图,其中标识高斯混合地图包括所述地图部分内的地图元素的标识高斯混合模型,并且其中所述标识高斯混合模型通过使用如权利要求1-7中任一项所述的方法生成;
通过使用如权利要求1-7中任一项所述的方法生成由所述车辆/机器人获取的实时点云或图像中的地图元素的标识高斯混合模型;
基于所述实时点云或图像内的所述地图元素的所述标识高斯混合模型的标识,建立所述实时点云或图像内的所述地图元素的所述标识高斯混合地图和所述标识高斯混合模型之间的一个或多个对应关系;以及
基于建立的所述一个或多个对应关系,对所述实时点云或图像内的所述地图元素的所述标识高斯混合地图和所述标识高斯混合模型进行匹配。
13.如权利要求12所述的方法,其特征在于,还包括:
读取所述车辆/机器人当前所在的所述地图部分的信息。
14.如权利要求12或13所述的方法,其特征在于,还包括:
读取所述车辆/机器人的优先姿态的信息和反映所述优先姿态的不确定区域的数据。
15.如权利要求12所述的方法,其特征在于,所述对所述实时点云或图像内的所述地图元素的所述标识高斯混合地图和所述标识高斯混合模型进行匹配包括:
优化所述实时点云或图像内的地图元素的所述标识高斯混合地图和所述高斯混合模型之间的欧几里德距离。
16.如权利要求15所述的方法,其特征在于,所述优化所述实时点云或图像内的所述地图元素的所述标识高斯混合地图和所述高斯混合模型之间的所述欧几里德距离包括:
用限制在预先定义的空间和不确定区域内的所述车辆/机器人的姿态,优化所述欧几里德距离。
17.一种用于定位车辆/机器人的装置,其特征在于,包括:
存储器,其中存储有计算机可执行指令;
以及处理器,耦接到所述存储器,并且被配置为:
读取所述车辆/机器人当前所在的地图部分的标识高斯混合地图,其中标识高斯混合地图包括所述地图部分内的地图元素的标识高斯混合模型,并且其中所述标识高斯混合模型通过使用如权利要求1-7中任一项所述的方法生成;
通过使用权利要求1-7中任一项所述的方法生成由所述车辆/机器人获取的实时点云或图像中的所述地图元素的标识高斯混合模型;
基于所述实时点云或图像内的所述地图元素的所述标识高斯混合模型的标识,建立所述实时点云或图像内的所述地图元素的所述标识高斯混合地图和所述标识高斯混合模型之间的一个或多个对应关系;以及
基于建立的所述一个或多个对应关系,对所述实时点云或图像内的所述地图元素的所述标识高斯混合地图和所述标识高斯混合模型进行匹配。
18.如权利要求17所述的装置,其特征在于,所述处理器还被配置为:读取所述车辆/机器人的优先姿态的信息和反映所述优先姿态的不确定区域的数据。
19.如权利要求17所述的装置,其特征在于,所述对所述实时点云或图像内的所述地图元素的所述标识高斯混合地图和所述标识高斯混合模型进行匹配包括:
优化所述实时点云或图像内的地图元素的所述标识高斯混合地图和所述高斯混合模型之间的欧几里德距离。
20.如权利要求19所述的装置,其特征在于,所述优化所述实时点云或图像内的所述地图元素的所述标识高斯混合地图和所述高斯混合模型之间的所述欧几里德距离包括:
用限制在预先定义的空间和不确定区域内的所述车辆/机器人的姿态,优化所述欧几里德距离。
21.一种非暂时性存储介质,其上存储有指令,并且当所述指令被执行时使得处理器实现计算机实施的用于定位车辆/机器人的方法,其特征在于,包括:
使得所述处理器,读取所述车辆/机器人当前所在的地图部分的标识高斯混合地图的指令,其中所述标识高斯混合地图包括所述地图部分内的地图元素的标识高斯混合模型,并且其中所述标识高斯混合模型通过使用如权利要求1-7中任一项所述的方法生成;
使得所述处理器,通过使用如权利要求1-7中任一项所述的方法生成由所述车辆/机器人获取的实时点云或图像中的地图元素的标识高斯混合模型的指令;
使得所述处理器,基于所述实时点云或图像内的所述地图元素的所述标识高斯混合模型的标识,建立所述实时点云或图像内的所述地图元素的所述标识高斯混合地图和所述标识高斯混合模型之间的一个或多个对应关系的指令;以及
使得所述处理器,基于建立的所述一个或多个对应关系,对所述实时点云或图像内的所述地图元素的所述标识高斯混合地图和所述标识高斯混合模型进行匹配的指令。
22.一种用于定位车辆/机器人的装置,包括:
标识高斯混合地图读取单元,被配置为读取所述车辆/机器人当前所在的地图部分的标识高斯混合地图,其中所述标识高斯混合地图包括所述地图部分内的地图元素的标识高斯混合模型,并且其中所述标识高斯混合模型通过使用如权利要求1-7中任一项所述的方法生成;
标识高斯混合模型生成单元,被配置为通过使用权利要求1-7中任一项所述的方法生成由所述车辆/机器人获取的实时点云或图像中的所述地图元素的标识高斯混合模型;
对应关系建立单元,被配置为基于所述实时点云或图像内的所述地图元素的所述标识高斯混合模型的标识,建立所述实时点云或图像内的所述地图元素的所述标识高斯混合地图和所述标识高斯混合模型之间的一个或多个对应关系;以及
匹配单元,被配制为基于建立的所述一个或多个对应关系,对所述实时点云或图像内的所述地图元素的所述标识高斯混合地图和所述标识高斯混合模型进行匹配。
CN201680091934.8A 2016-12-26 2016-12-26 表示地图元素的方法和装置以及定位的方法和装置 Active CN110226186B (zh)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/CN2016/112193 WO2018119606A1 (en) 2016-12-26 2016-12-26 Method and apparatus for representing a map element and method and apparatus for locating vehicle/robot

Publications (2)

Publication Number Publication Date
CN110226186A CN110226186A (zh) 2019-09-10
CN110226186B true CN110226186B (zh) 2023-08-04

Family

ID=62707759

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201680091934.8A Active CN110226186B (zh) 2016-12-26 2016-12-26 表示地图元素的方法和装置以及定位的方法和装置

Country Status (4)

Country Link
US (1) US11567496B2 (zh)
EP (1) EP3574450A4 (zh)
CN (1) CN110226186B (zh)
WO (1) WO2018119606A1 (zh)

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3807836A4 (en) * 2018-06-15 2022-01-26 Bayerische Motoren Werke Aktiengesellschaft INCREMENTAL POINT CLOUD SEGMENTATION
US20200285639A1 (en) * 2019-03-05 2020-09-10 At&T Intellectual Property I, L.P. Apparatus and method to isolate vectors in an arbitrarily large n-space
CN110307838B (zh) * 2019-08-26 2019-12-10 深圳市优必选科技股份有限公司 机器人重定位方法、装置、计算机可读存储介质及机器人
CN112747756B (zh) * 2019-10-30 2023-04-07 北京地平线机器人技术研发有限公司 一种地图构建方法及装置
CN113537260A (zh) * 2020-04-20 2021-10-22 宝马股份公司 定位方法、定位装置和计算机可读存储介质
CN111476786B (zh) * 2020-04-22 2022-02-01 南京航空航天大学 一种基于实测数据的长桁自动化涂胶及质量检测方法
CN112052300A (zh) * 2020-08-05 2020-12-08 浙江大华技术股份有限公司 一种slam后端处理方法、装置和计算机可读存储介质
CN112229411B (zh) * 2020-10-15 2021-12-07 广州小鹏自动驾驶科技有限公司 一种数据处理的方法和装置
US20220147754A1 (en) * 2020-11-11 2022-05-12 Ubtech Robotics Corp Ltd Relocation method, mobile machine using the same, and computer readable storage medium
US11673581B2 (en) * 2020-12-11 2023-06-13 Waymo Llc Puddle occupancy grid for autonomous vehicles
CN112612034B (zh) * 2020-12-24 2023-10-13 长三角哈特机器人产业技术研究院 基于激光帧和概率地图扫描的位姿匹配方法
CN113281716B (zh) * 2021-03-16 2023-08-08 中国人民解放军战略支援部队信息工程大学 一种光子计数激光雷达数据去噪方法
US20220309688A1 (en) * 2021-03-26 2022-09-29 Medit Corp. Data processing method and data processing apparatus using the same
CN113281770A (zh) * 2021-05-28 2021-08-20 东软睿驰汽车技术(沈阳)有限公司 坐标系关系获取方法及装置
CN113625249A (zh) * 2021-07-30 2021-11-09 深圳市优必选科技股份有限公司 反光板定位方法、机器人及计算机可读存储介质
CN114216465B (zh) * 2021-12-08 2022-11-01 哈尔滨工程大学 一种海底地形导航并行匹配方法
CN116030213B (zh) * 2023-03-30 2023-06-06 千巡科技(深圳)有限公司 一种多机云边协同地图创建与动态数字孪生方法及系统

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6999620B1 (en) * 2001-12-10 2006-02-14 Hewlett-Packard Development Company, L.P. Segmenting video input using high-level feedback
CN103903019A (zh) * 2014-04-11 2014-07-02 北京工业大学 一种多车道车辆轨迹时空图的自动生成方法
CN105975934A (zh) * 2016-05-05 2016-09-28 中国人民解放军63908部队 一种用于增强现实辅助维修的动态手势识别方法及系统

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102006007667A1 (de) 2006-02-18 2007-08-23 Bayerische Motoren Werke Ag Laufwerk für einen wechselbaren Datenträger
FR2910662B1 (fr) * 2006-12-26 2012-11-02 Michelin Soc Tech Procede pour selectionner une configuration optimisee de pneumatiques pour un vehicule terrestre tel qu'une voiture ou une moto de competition
CN101369346B (zh) * 2007-08-13 2010-09-15 北京航空航天大学 一种视频运动目标自适应窗口的跟踪方法
JP2010112836A (ja) * 2008-11-06 2010-05-20 Yaskawa Electric Corp 自己位置同定装置および該自己位置同定装置を備えた移動ロボット
CN101464950B (zh) * 2009-01-16 2011-05-04 北京航空航天大学 基于在线学习和贝叶斯推理的视频人脸识别与检索方法
WO2011052826A1 (ko) * 2009-10-30 2011-05-05 주식회사 유진로봇 이동 로봇의 위치 인식을 위한 지도 생성 및 갱신 방법
CN101746269B (zh) 2010-01-08 2013-04-03 东南大学 基于软计算的疲劳驾驶融合检测方法
CN102142147A (zh) * 2010-01-29 2011-08-03 索尼公司 场地内容分析装置和方法及目标检测与跟踪装置和方法
US8655093B2 (en) * 2010-09-02 2014-02-18 Edge 3 Technologies, Inc. Method and apparatus for performing segmentation of an image
JP2012064131A (ja) * 2010-09-17 2012-03-29 Tokyo Institute Of Technology 地図生成装置、地図生成方法、移動体の移動方法、及びロボット装置
CA2887763C (en) * 2012-10-05 2023-10-10 Eagle View Technologies, Inc. Systems and methods for relating images to each other by determining transforms without using image acquisition metadata
CN103235933B (zh) * 2013-04-15 2016-08-03 东南大学 一种基于隐马尔科夫模型的车辆异常行为检测方法
CN103246884B (zh) * 2013-05-22 2016-08-10 清华大学 基于深度图像序列的实时人体动作识别方法及装置
CN103400409B (zh) * 2013-08-27 2016-08-10 华中师范大学 一种基于摄像头姿态快速估计的覆盖范围3d可视化方法
US10496729B2 (en) * 2014-02-25 2019-12-03 Siemens Healthcare Gmbh Method and system for image-based estimation of multi-physics parameters and their uncertainty for patient-specific simulation of organ function
DE102015007592A1 (de) * 2015-06-16 2016-12-22 Audi Ag Trajektoriebasierte Fahrwerksregelung
WO2016201670A1 (en) * 2015-06-18 2016-12-22 Bayerische Motoren Werke Aktiengesellschaft Method and apparatus for representing map element and method and apparatus for locating vehicle/robot
CN105096386B (zh) * 2015-07-21 2017-11-17 中国民航大学 大范围复杂城市环境几何地图自动生成方法
DE102015014651A1 (de) * 2015-11-12 2017-05-18 Audi Ag Verfahren zum Bereitstellen einer Spurinformation einer Fahrspur und System
CN106846538B (zh) * 2015-12-04 2019-12-03 杭州海康威视数字技术股份有限公司 过车记录处理方法和装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6999620B1 (en) * 2001-12-10 2006-02-14 Hewlett-Packard Development Company, L.P. Segmenting video input using high-level feedback
CN103903019A (zh) * 2014-04-11 2014-07-02 北京工业大学 一种多车道车辆轨迹时空图的自动生成方法
CN105975934A (zh) * 2016-05-05 2016-09-28 中国人民解放军63908部队 一种用于增强现实辅助维修的动态手势识别方法及系统

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
"Point set registration through minimization of the L2 distance between 3D-NDT models";Todor Stoyanov,等;《2012 IEEE International Conference on Robotics and Automation》;第5196-5201页 *

Also Published As

Publication number Publication date
US20200089236A1 (en) 2020-03-19
EP3574450A4 (en) 2020-12-23
EP3574450A1 (en) 2019-12-04
WO2018119606A1 (en) 2018-07-05
CN110226186A (zh) 2019-09-10
US11567496B2 (en) 2023-01-31

Similar Documents

Publication Publication Date Title
CN110226186B (zh) 表示地图元素的方法和装置以及定位的方法和装置
US10643103B2 (en) Method and apparatus for representing a map element and method and apparatus for locating a vehicle/robot
US10991156B2 (en) Multi-modal data fusion for enhanced 3D perception for platforms
CN108152831B (zh) 一种激光雷达障碍物识别方法及系统
EP3361278B1 (en) Autonomous vehicle localization based on walsh kernel projection technique
US10223829B2 (en) Method and apparatus for generating a cleaned object model for an object in a mapping database
JP2019527832A (ja) 正確な位置特定およびマッピングのためのシステムおよび方法
US11216951B2 (en) Method and apparatus for representing environmental elements, system, and vehicle/robot
JP6804991B2 (ja) 情報処理装置、情報処理方法、および情報処理プログラム
US11538168B2 (en) Incremental segmentation of point cloud
JP2015148601A (ja) マッピング、位置特定、及び姿勢補正のためのシステム及び方法
US11842440B2 (en) Landmark location reconstruction in autonomous machine applications
US20200166346A1 (en) Method and Apparatus for Constructing an Environment Model
WO2023009180A1 (en) Lidar-based object tracking
WO2018120932A1 (en) Method and apparatus for optimizing scan data and method and apparatus for correcting trajectory
CN114384486A (zh) 一种数据处理方法及装置
EP3944137A1 (en) Positioning method and positioning apparatus
Chu et al. Convergent application for trace elimination of dynamic objects from accumulated lidar point clouds
CN111060114A (zh) 用于生成高精度地图的特征图的方法和装置
CN112198523A (zh) 用于点云分割的方法和装置
CN112116698A (zh) 用于点云融合的方法和装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant