CN110388924A - 用于与自动导航有关的基于雷达的车辆定位的系统和方法 - Google Patents
用于与自动导航有关的基于雷达的车辆定位的系统和方法 Download PDFInfo
- Publication number
- CN110388924A CN110388924A CN201910309163.0A CN201910309163A CN110388924A CN 110388924 A CN110388924 A CN 110388924A CN 201910309163 A CN201910309163 A CN 201910309163A CN 110388924 A CN110388924 A CN 110388924A
- Authority
- CN
- China
- Prior art keywords
- vehicle
- cloud
- point cloud
- clouds
- current point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/20—Instruments for performing navigational calculations
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/28—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
- G01C21/30—Map- or contour-matching
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/10—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
- G01C21/12—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
- G01C21/16—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
- G01C21/165—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
- G01C21/1652—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments with ranging devices, e.g. LIDAR or RADAR
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/10—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
- G01C21/12—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
- G01C21/16—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
- G01C21/165—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
- G01C21/1656—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments with passive imaging devices, e.g. cameras
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/28—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/86—Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/4808—Evaluating distance, position or velocity data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/20—Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
- G06F16/29—Geographical information databases
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/05—Geographic models
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/10—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
- G01C21/12—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
- G01C21/16—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
- G01C21/165—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
- G01C21/1654—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments with electromagnetic compass
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/56—Particle system, point based geometry or rendering
Landscapes
- Engineering & Computer Science (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Software Systems (AREA)
- Theoretical Computer Science (AREA)
- Geometry (AREA)
- Computer Networks & Wireless Communication (AREA)
- Electromagnetism (AREA)
- Computer Graphics (AREA)
- Databases & Information Systems (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Navigation (AREA)
- Traffic Control Systems (AREA)
Abstract
本发明公开了一种用在车辆中的系统,所述系统包括:一个或多个传感器;可操作地联接到一个或多个传感器的一个或多个处理器;以及存储器,其包括指令,当所述指令由一个或多个处理器执行时,使得一个或多个处理器执行包括以下步骤的方法。所述方法包括使用一个或多个传感器捕获当前点云;确定车辆的估计位置和估计前进方向;基于车辆的估计位置和估计前进方向选择一个或多个点云;简化当前点云和一个或多个点云;将当前点云与一个或多个点云相关联;以及基于当前点云与一个或多个点云之间的相关性,确定更新的车辆的估计位置。
Description
技术领域
本发明通常涉及用于自动车辆导航的基于雷达的车辆定位。
背景技术
车辆(尤其是汽车)越来越多地包括用于确定车辆位置的各种系统和传感器。用于车辆的当前定位技术包括全球定位系统(GPS)。然而,GPS技术(包括全球导航卫星系统(GNSS))在某些条件下会导致一些不确定性。例如,由于信号遮挡(例如,由于高的建筑物、处于隧道或停车场中)、建筑的信号反射或大气条件,GPS定位可能不准确。这导致通过GPS的平均定位精度约为5米。虽然更高质量的GPS接收器(例如,差分GPS(dGPS))可以实现小于10厘米的精度,但是这些高质量的GPS接收器尚不能用于生产车辆。然而,车辆的精确定位对于实现安全的自动车辆导航是至关重要的。因此,可能需要一种增强用于自动车辆导航的定位技术的解决方案。
发明内容
本发明的示例涉及增强用于安全自动驾驶导航的定位技术。根据本发明优选实施例的系统使用诸如GPS的定位系统估计车辆的当前位置和前进方向,并使用车载传感器(例如,光探测和测距传感器(“LIDAR”))捕获有关车辆周围环境的数据。LIDAR输出数据称为点云数据或点云。点云可以包括三维点数据的大集合(例如,沿着x轴、y轴和z轴)。根据一个实施例,系统使用位置信息来检索车辆的估计位置附近的一个或多个先前捕获的点云。根据一个实施例,系统使用当前捕获的点云和一个或多个先前捕获的点云来增强车辆的估计位置和估计前进方向。例如,根据本发明的优选实施例,系统分析一个或多个先前捕获的点云,并选择最接近车辆的估计位置和估计前进方向的先前捕获的点云。根据一个实施例,系统简化了两个点云,使得所选择的点云平移和旋转,以使所选择的点云与当前捕获的点云匹配或相关。将先前捕获的点云与当前捕获的点云匹配使得系统改进车辆的估计位置和估计前进方向的精度和准度。以这种方式,车辆可以在其所在的地理区域内更安全地导航。
附图说明
图1示出了根据本发明的示例的车辆控制系统的系统框图。
图2示出了根据本发明的示例在停车场内导航的车辆。
图3A示出了根据本发明的示例的点云数据。
图3B示出了根据本发明的示例的相关联的点云数据。
图4示出了根据本发明的示例的用于捕获点云的过程。
图5示出了根据本发明的示例的使用点云数据来定位车辆的过程。
图6示出了根据本发明的示例的用于选择在车辆的估计位置附近捕获的点云的过程。
具体实施例
在对多个实施例的以下描述中,参考形成多个实施例的一部分的附图,并且其中,通过图示的方式示出了可以实践的具体实例。应当理解,在不脱离所公开的示例的范围的情况下,可以使用其他示例并且可以进行结构改变。此外,在本发明的上下文中,“自动驾驶”(或类似表述)可以指自动驾驶、部分自动驾驶和/或驾驶员辅助系统。
图1示出了根据本发明的示例的车辆控制系统100的系统框图。车辆控制系统100可以执行参考图2-6描述的方法中的每一个。车辆控制系统100可以集成到车辆中,例如,消费者汽车。可以集成车辆控制系统100的车辆的其他示例包括但不限于飞行器、船或工业汽车。根据一个实施例,车辆控制系统100包括用于估计车辆位置和前进方向的全球定位系统(GPS)接收器107和用于捕获关于车辆周围环境的数据(包括点云数据)的一个或多个LIDAR传感器106,如下面参考图2-6所描述的。在一些示例中,车辆控制系统100还可以包括一个或多个相机106和/或一个或多个其他传感器(例如,雷达、超声波、激光、加速度计、陀螺仪、压力、温度、速度、气流或烟雾),其用于检测关于车辆的各种特征和车辆的周围环境的各种特征。在一些示例中,来自多个传感器的传感器数据可以在一个或多个电子控制单元(ECU)(未示出)处融合(例如,组合)。被选择用于执行数据融合的特定的一个或多个ECU可以基于一个或多个ECU可用的资源量(例如,处理能力和/或存储器),并且可以在ECU和/或在ECU内的组件之间动态地移位(因为ECU可以包括一个以上处理器)以优化性能。根据另一个实施例,车辆控制系统100通过点云信息接口105(例如,蜂窝互联网接口或Wi-Fi互联网接口)接收点云信息。
根据本发明的实施例的车辆控制系统100可以包括车载计算机110,车载计算机110联接到GPS接收器107、一个或多个LIDAR传感器106、以及点云信息接口105,并且车载计算机110能够从GPS接收器107、一个或多个LIDAR传感器106、以及点云信息接口105接收输出的数据。车载计算机110可包括存储空间112、存储器116、通信接口118和处理器114。处理器114可以执行参考图2-6描述的任何方法。另外,通信接口118可以执行参考图2-6描述的任何通信。而且,存储空间112和/或存储器116可以存储用于执行参考图2-6描述的任何或所有方法的数据和指令。存储空间112和/或存储器116可以是任何非暂时性计算机可读存储介质,诸如固态驱动器或硬盘驱动器,以及其他可能的驱动器。根据一个实施例,车辆控制系统100包括控制器120,控制器120能够控制车辆操作的一个或多个方面,例如,执行自动或半自动驾驶操纵。
在一些示例中,车辆控制系统100电连接(例如,经由控制器120)到车辆中的一个或多个致动器系统130和车辆中的一个或多个指示器系统140。一个或多个致动器系统130可包括但不限于马达131或发动机132、电池系统133、传动装置134、悬架装置135、制动器136、转向系统137和门系统138。在车辆操作期间,车辆控制系统100经由控制器120控制这些致动器系统130中的一个或多个;例如,使用门致动器系统138打开或关闭车辆的一个或多个门,在自动驾驶操作期间,使用马达131或发动机132、电池系统133、传动装置134、悬架装置135、制动器136、和/或转向系统137等来控制车辆。根据一个实施例,致动器系统130包括将航位推测信息(例如,转向信息、速度信息等)(例如,通过控制器120)发送到车载计算机110的传感器,以估计车辆位置和前进方向。一个或多个指示器系统140可包括但不限于车辆中的一个或多个扬声器141(例如,作为车辆中的娱乐系统的一部分)、车辆中的一个或多个灯142、车辆中的一个或多个显示器143(例如,作为车辆中的控制器或娱乐系统的一部分)、以及车辆中的一个或多个触觉致动器144(例如,作为车辆中的方向盘或座椅的一部分)。车辆控制系统100可以经由控制器120控制这些指示器系统140中的一个或多个,以向驾驶员提供指示。
图2示出了根据本发明的示例的在停车场250内导航的车辆200(未按照比例绘制)。在该示例中,停车场包括多个停车位202、支柱204、灯柱206、灌木208、以及建筑210。图2还示出了车辆200可以在其中导航的几个示例性行驶路径(例如,220-226)。应当注意,虽然图2示出了停车场,但是本发明也可以用于交叉路口、道路、车库、具有路边停车道的道路、车道或具有用于驾驶/或停车的指定区域的任何地理位置。还应注意,行驶路径220-226仅是示例性的,并且停车场250内的附加行驶路径也是可能的。例如,额外的行驶路径可以包括进入和/或离开一个或多个停车位202和/或组合一个或多个行驶路径220-226(例如,将行驶路径220与行驶路径224或行驶路径220与行驶路径222组合)。
车辆200包括以下中的至少一个或者多个:全球导航卫星系统(GNSS)(例如,GPS、北斗、伽利略等)、惯性导航系统(INS)(例如,惯性制导系统、惯性仪器、惯性测量单元(IMU))和/或传感器(例如,加速度计、陀螺仪、磁力计),以用于确定车辆位置和前进方向(例如,如上面参考图1所描述的)。车辆的估计位置可以由误差范围212(例如,车辆可能位于的区域)和估计的前进方向218表示。误差范围312的区域越大,车辆位置估计的不确定性越大。这对于自动车辆导航可能是有问题的,特别是对于在停车场内导航是有问题的。例如,停车场250可以被高层建筑(包括建筑210)包围,这可能由于信号遮挡或信号反射,导致GPS位置确定的不准确,由此增加了误差范围212的区域。然而,可以使用如下所述的点云数据来校正不准确的位置估计。
车辆200还包括用于确定关于车辆周围环境的一个或多个特征的的一个或多个传感器(例如,如上参考图1所描述的)。这些传感器可以包括LIDAR传感器、相机、雷达传感器、超声波传感器、激光传感器、或可以用于检测关于车辆周围环境的一个或多个特征的任何其他传感器。这些传感器可被配置在车辆200上,以为车辆200提供车辆周围区域的360度(或其他角度)覆盖。根据本发明的优选实施例,车辆200可被配置成处理来自安装在车辆上(在车辆的引擎盖或车顶上)的一个或多个LIDAR传感器的数据,以捕获车辆周围的区域的点云数据(包括关于以下的点云数据:信号杆、电话线杆、电力线杆、交通标志、路牌、通信号灯、树木、车道分隔线、支柱、消防栓、或临近于车辆的任何其他固定物体或结构)。区域216可以表示一个或多个LIDAR传感器的信号范围(未按比例绘制)。车辆200还被配置成使用当前捕获的点云和至少一个先前捕获的点云,来改善车辆的估计位置(例如,如下面进一步详细描述的)。在一些示例中,该至少一个先前捕获的点云可以包括超出信号范围216的数据。
图2还示出了与先前捕获的点云(例如,从那些特定位置捕获的点云)相关联的位置220A-220D、222A-222D、224A-224C和226A-226C。在一些示例中,这些点云由车辆200在先前捕获,同时,沿路径220-226导航并存储在本地存储器和/或服务器中。在一些示例中,与这些位置相关联的点云由沿着路径220-226行驶的车辆(例如,车辆200或任何其他车辆)在先前捕获,并且存储在该车辆的本地存储器中和/或存储在服务器上。在其他示例中,这些点云由飞行器或卫星的顶部成像而在先前捕获并存储在服务器上。为了获得这些先前捕获的点云中的一个,车辆200被配置成基于车辆的估计位置212和前进方向214来识别和加载先前捕获的点云(例如,如下面进一步详细描述的)。在一些示例中,车辆200的车载计算机可以将包含由误差范围212表示的区域的一个或多个点云的请求(例如,通过车辆到车辆、因特网、蜂窝、无线电、或任何其他无线通信信道和/或技术)发送到外部源(例如,服务器、另一车辆)。在其他示例中,车辆200可被配置为将地图存储在其本地存储器中(例如,在数据库、散列表、二进制搜索树、数据文件、XML文件或二元决策图表中)。以这种方式,车辆的车载计算机可以对其本地存储器内包含的误差范围212的一个或多个点云执行点云查找操作。然后,计算机的车载计算机可以将当前捕获的点云匹配或关联到先前捕获的点云,以改善车辆的估计位置并安全地在停车场250周围导航,如下面进一步详细描述的。
图3A示出了根据本发明的示例的点云数据300。具体地,图3A示出了两个点云的数据。数据点302(图示为点)表示车辆在估计位置312A处的当前捕获的点云数据。数据点303(图示为x的)表示先前从位置320捕获的点云数据。在一些示例中,数据点303由当前捕获的数据点302的相同车辆在先前捕获。在其他示例中,数据点302和303由两种不同的来源(例如,两种不同的车辆)捕获。在该示例中,数据点304可以表示支柱,数据点306可以表示灯柱,数据点308可以表示灌木,数据点310可以表示建筑。因为数据点303是从已知位置(例如,位置320)捕获的,所以两个点云可以匹配或相关,并且相关数据可以用于更新估计位置312A(例如,如下面进一步详细描述的)。
图3B示出了根据本发明的示例的相关点云数据350。具体地,图3B示出了与图3A中的数据点302相关的数据点303。例如,数据点304被对准以显示支柱的形状,数据点306被对准以显示灯柱的形状,以及数据点308被对准以示出灌木。应当注意,数据点308并非全部匹配或相关,因为灌木由于它们可以随时间改变是动态的(例如,它们可以生长、它们可以被切割、叶片可以掉落)。因为数据点303是在已知位置(例如,来自图3A的位置320)被捕获的,所以该信息可用于改进图3A的估计位置312A(如图3B中的较小点312B所示)(例如,如下面进一步详细描述的)。在一些示例中,将先前捕获的点云与当前捕获的点云相关联可以包括将先前捕获的点云的坐标转换为车辆后轴(VRA)坐标(例如,源自车辆后轴中心的坐标)。应该注意的是,图3A和3B示出了简化的点云数据。例如,图3A和3B不包括其他车辆和行人(例如,动态物体)、地面或车辆本身的点云数据。在本发明的优选实施例中,在执行任何匹配或相关操作之前简化了点云。下面参考图5描述简化点云数据的示例性过程。
图4示出了根据本发明的示例的用于捕获点云的过程400。在步骤410,使用一个或多个LIDAR传感器捕获点云数据(例如,如上参考图1-3所描述的)。在一些示例中,利用安装在车辆上的一个或多个LIDAR传感器捕获点云数据(例如,如上参考图1-3所描述的)。在一些示例中,在步骤410捕获的点云将包括来自车辆的360度的数据。在其他示例中,点云将包括来自车辆的小于360度(例如,在车辆前进方向上的60度或180度覆盖)的数据。在步骤410,确定用于捕获点云数据的一个或多个LIDAR传感器的位置。在一个实施例中,利用dGPS确定一个或多个LIDAR传感器的位置。在其他实施例中,利用GNSS(例如,GPS、北斗、伽利略等)、INS(例如,惯性制导系统、惯性仪器、惯性测量单元(IMU))、和/或可用于确定一个或多个传感器的位置的任何其他传感器来确定一个或多个LIDAR传感器的位置。在一些实施例中,航位推测技术可用于确定一个或多个LIDAR传感器的位置。响应于确定一个或多个LIDAR传感器的位置,在步骤410捕获的点云和在步骤420确定的位置被本地存储(例如,在车辆的本地存储器中)和/或存储在远程服务器上。以这种方式,可以使用在步骤420确定的位置来检索在步骤410捕获的点云。
在步骤430,车辆沿着行驶路径导航。例如,驾驶员可以沿着行驶路径220手动地将车辆从位置220A驾驶到位置220B(或任何其他距离),如图2所示。在其他示例中,过程400可以使车辆从位置220A自动地导航到位置220B。在一些示例中,过程400将使车辆沿着行驶路径自动地导航预定距离(例如,10米)。在其他示例中,过程400将使车辆沿着行驶路径自动地导航一段随机距离。在一些示例中,过程400将使车辆沿着行驶路径自动地导航,直到车辆的一个或多个LIDAR传感器检测到先前未检测到的物体。在一些示例中,过程400使得车辆在步骤430自动导航的距离通过控制系统(例如,由车辆的用户或乘客)手动输入,控制系统诸如按钮、触摸屏、语音命令、计算机、智能手机、或允许进入输入的任何装置或系统。
在步骤440,过程400确定车辆是否已导航到行驶路径的末端。根据车辆未导航到行驶路径的末端的确定,重复步骤410到440。根据车辆已经导航到行驶路径末端的确定,在步骤450,过程400终止。在本发明的优选实施例中,对于每个可能的行驶路径重复过程400,包括每个可能行驶路径的两个方向,由过程400映射的地理区域的两个方向(例如,对于图2的每个行驶路径220-226)。以这种方式,从车辆可能导航到的区域中的大部分区域(如果不是全部区域)捕获点云。应当注意,在一些示例中,可以在步骤410之前执行步骤430。还应该注意,可以同时执行步骤410和420。
图5示出了根据本发明的示例的使用点云数据用于定位车辆的过程500。在步骤510,过程500利用安装在车辆上的一个或多个LIDAR传感器捕获当前点云(例如,如上参考图1-4所描述的)。如图2所示,可以限制一个或多个LIDAR传感器范围内的区域216。因此,在步骤510捕获的点云可能受到安装在车辆上的一个或多个LIDAR传感器的范围的限制(例如,如图2中的216所示)。
在步骤520,过程500估计车辆位置和前进方向,并选择先前在最接近车辆的估计位置处捕获的一个或多个点云。在一个实施例中,过程500利用GPS和/或航位推测技术估计车辆位置。在优选实施例中,过程500选择先前从具有距车辆估计位置的最低距离分数的位置捕获的点云。在一些示例中,距离分数可以简单地为从车辆的估计的当前位置到最初捕获的先前捕获的点云的位置的欧几里德距离(Euclidean distance)(例如,如上参考图3-4所描述的)。在一些示例中,可以基于车辆的估计的当前位置与捕获到先前捕获的点云的位置之间的欧几里德距离,以及基于车辆的估计前进方向与捕获到的先前捕获的点云的前进方向之间的前进方向差来计算距离分数(例如,用于捕获先前点云的一个或多个LIDAR传感器具有小于360度覆盖的情况)。例如,以下公式(下文中称为“等式1”)可用于确定先前在车辆的估计的当前位置附近捕获的每个点云的距离分数(qi),其中,i可以从1到M(在诸如停车场之类的地理区域内所存储的点云的总数),di表示从车辆的估计的当前位置到捕获到每个先前捕获的点云的位置的欧几里德距离,hi表示在车辆的估计的当前前进方向和捕获到每个先前捕获的点云的前进方向之间的绝对差,α表示加权参数:
qi=(α*di)+(1-α)*hi
在本发明的优选实施例中,等式1的加权参数α被设置为小于0.5(例如,0.2),使得对于前进方向差值,给予比欧几里德距离di更多权重。这有助于确保选择从类似角度(例如,前进方向)捕获的点云作为车辆的当前前进方向。
在一个实施例中,在步骤520,可以选择一个以上先前捕获的点云。例如,在步骤520,过程500可以选择具有低于预定阈值数量的距离分数的所有先前捕获的点云(例如,如下面参考图6所描述的)。在一些示例中,过程500可以将在步骤520中选择的先前捕获的点云的数量限制为最大(例如,到十个点云)。例如,过程500可以对在车辆的估计的当前位置附近捕获到的先前捕获的点云的距离分数进行排序,并在步骤520,选择具有最低距离分数的十个点云。在其他示例中,在步骤520,过程500可以使用双旋转阿基米德螺线来限制所选择的点云的数量。例如,阿基米德螺线可以在车辆的估计位置处开始,并且在预定搜索半径结束。然后,过程500可以沿着螺线选择在等距弧长位置处的先前捕获的点云。因为过程500可以限制在步骤520选择的先前捕获的点云的数量(例如,最多十个点云),过程500可以选择在步骤520沿着阿基米德螺线的前十个点云。在一些示例中,可以从车辆的车载计算机的本地存储器或从另一个外部源(例如,另一个车辆或服务器)重试先前捕获到的点云。
在步骤530,简化在步骤510捕获到的当前点云和在步骤520选择的一个或多个先前点云。在本发明的优选实施例中,过程500将采用接着描述的所有简化点云的方法。
例如,在步骤530,过程500可以去除地面和车辆自身的点数据。在一些示例中,过程500可以从地面去除小于阈值距离(例如,两米)的任何点。这可以帮助从动态对象(例如,行人、其他车辆)中去除数据点。在一些示例中,过程500还可以对点云进行向下采样(例如,去除重复数据点、去除杂散数据点)。这减少了数据点的数量,并且可以从点云中去除不想要的噪声,从而允许过程500更快地运行。在一些示例中,过程500可以从点云中去除异常值。例如,过程500可以计算在步骤510捕获的当前点云中的数据点与看起来是在步骤520中所选择的一个或多个点云中的对应数据点之间的距离。然后,过程500可以去除两个地图中的、其中所计算出的距离大于阈值(例如,3米)的数据点。
在步骤540,过程500将在步骤510捕获的当前点云与在步骤520所选择的先前捕获的一个或多个点云匹配或相关。在本发明的优选实施例中,过程500将应用交互式最近点(Interactive Closest Point,ICP)技术,将在步骤520选择的先前捕获的一个或多个点云平移并旋转到在步骤510捕获的当前点云(例如,如上参考图3A-3B所描述的)。在AleksandrV.Segal,Dirk Haehnel和Sebastian Thrun,机器人领域通用ICP:科学与系统第161卷(Jeff Trinkle等人,英语方言学会,第5版,2009年)中描述了ICP技术的实例,其全部内容通过引用并入本文以用于所有目的。在一些示例中,过程500从点云中的不同点开始执行多次ICP迭代,并确定每次迭代的匹配误差。这允许过程500拣选具有最低匹配误差的最佳初始化点。为了进一步改善在步骤520所选择的先前捕获的一个或多个点云与在步骤510捕获的当前点云的匹配,在步骤540应用的ICP技术可以仅关注在与车辆之间的距离在阈值距离内的每个点云的点。ICP技术可以在ICP技术的每次迭代之后减小该阈值距离,直到阈值距离逐渐可忽略(例如,小于35cm)。
在步骤550,过程500可以基于车辆的估计位置(包括前进方向)以及来自步骤540的输出来确定车辆的更新的位置和前进方向。在优选实施例中,将在VRA坐标内确定车辆的更新的位置和前进方向。例如,更新的位置可以包括以下等式中的车辆在X轴上的位置(“X”)、车辆在Y轴上的位置(X)、以及车辆前进方向(“H”),其中,“dx”表示来自步骤540的ICP输出的X坐标的平移,”dy”表示来自步骤540的ICP输出的Y坐标的平移,“yaw”表示来自ICP输出的、车辆关于Z轴的前进方向,“Estimated X”表示车辆沿X轴的估计位置,“Estimated Y”表示车辆沿Y轴的估计位置,以及“Estimated H”表示车辆的估计前进方向:
X=(Estimated X)+dx*cosd(Estimated H)+dy*sind(Estimated H)
Y=(Estimated Y)+dx*sind(Estimated H)-dy*cosd(Estimated H)
H=(Estimated H)+yaw
在一个实施例中,可以使用先前捕获的地图或“清洁地图”的甚至更简化版本来重复步骤530至步骤550。例如,清洁地图可以仅包括用于杆状结构的数据点(例如,去除具有与杆状结构无关的数据点的点云),由此使得制造过程500更简单和更快。在一些示例中,可以利用来自步骤540的相关点云和清洁地图重复步骤530至步骤550。在其他示例中,可以利用来自步骤510的当前捕获的点云和清洁地图来重复步骤530至步骤550。在任一种情况下,在步骤560,仅当清洁地图匹配的结果接近原始匹配时,过程500使用清洁地图匹配的结果,该清洁地图匹配的结果优于在步骤510捕获的当前点云与在步骤520选择的先前捕获的一个或多个点云的匹配或相关(例如,“原始匹配”)的结果。否则,使用原始匹配。
在步骤560,过程500从步骤540验证相关点云。如果相关点云被验证,则过程500更新车辆在用于自动导航的车辆的坐标系中的当前位置以及前进方向。在本发明的优选实施例中,过程500可以应用下面描述的均方根误差(RMSE)和基于历史的验证技术。此外,在本发明的优选实施例中,仅当两种技术都验证更新时,才在步骤560验证车辆的更新位置和前进方向。其他实施例将仅应用RMSE技术或仅采用下面描述的基于历史的技术。
在一些示例中,过程500可以使用ICP匹配的输出的RMSE,来验证来自步骤540的相关点云数据(例如,来自步骤540的相关数据云中的对应数据点之间的差异)。例如,如果匹配的RMSE低于阈值,则过程500可以验证相关点云。以这种方式,过程500可以避免基于不良匹配的迭代来更新车辆位置和前进方向(例如,因为点云中的对应匹配点相距太远,这导致更高的RMSE值)。
在一些示例中,过程500可以使用基于历史的验证,来验证来自步骤540的匹配点云数据。例如,过程500可以存储来自步骤550的位置和前进方向更新的历史记录,并将来自步骤550的当前更新的车辆位置和前进方向与该存储的历史记录进行比较。如果当前更新的车辆位置与最后存储的位置更新之间的差异在沿X轴和Y轴的阈值距离(例如,半米)内,并且当前更新的车辆前进方向与最后存储的前进方向更新之间的差异在阈值角度(例如,一度)内,则过程500将从步骤550验证更新的车辆位置和前进方向。以这种方式,过程500可以避免位置和前进方向更新中的误差跳转。应当注意,虽然在某些情况下,可能错误地不能验证位置或前进方向更新中有准确跳转,但是将存储无法验证的位置和前进方向更新,并将无法验证的位置和前进方向更新与下一个位置和前进方向更新进行比较。如果位置或前进方向的跳转被错误地验证,则将验证下一个更新,因为下一个位置和前进方向更新将在错误无法验证的位置和前进方向更新的阈值距离和/或阈值角度内。因此,根据本发明的实施例,将使用基于历史的验证方法,在后续迭代中验证位置或前进方向更新的准确跳转。
在步骤520中选择了一个以上的先前捕获的点云的实施例中,在步骤560,过程500可以从步骤550选择先前捕获的点云和对应的位置和前进方向更新。例如,在步骤560,过程500可以在从步骤550中选择具有最低RMSE值的先前捕获的点云和对应的位置和前进方向更新。然后,过程500可以如上所述验证所选择的位置和前进方向更新。
图6示出了根据本发明的示例的用于选择在车辆的估计位置附近捕获的点云的过程600。在一些示例中,过程600可以在步骤520用作过程500的子程序。例如,过程500可以在步骤520为每个先前捕获的点云调用过程600,每个先前捕获的点云包括用于包含车辆的估计位置的区域的数据。在一些示例中,在车辆的车载计算机上运行过程600(例如,如上参考图1所描述的)。在其他示例中,在另一车辆的车载计算机上运行过程600(例如,如上参考图1所描述)。在一些示例中,在远离车辆的远程服务器上运行过程600。
在步骤610,接收车辆的估计位置和前进方向。如上所述,可以使用GPS、航位推测和/或可以用于估计车辆位置的任何其他技术来估计车辆位置。车辆的估计位置可以由误差范围表示,即,车辆可能位于的区域(例如,如上参考图2所描述的)。
在步骤620,接收点云数据。例如,在步骤620接收包括关于包含车辆的估计位置的区域的数据的点云。在一些示例中,可以从本地存储器和/或从另一外部源(例如,车辆或服务器)接收点云数据(例如,如上参考图1-5所描述的)。
在步骤630,确定在步骤620接收的点云的距离分数。例如,可以使用以下公式(下文中称为“等式2”)计算在步骤620接收的点云的距离分数(q),其中,d表示从在步骤610接收的车辆估计位置到在步骤620接收到点云的位置的欧几里德距离,h表示在步骤610接收的车辆的估计前进方向与所捕获的、在步骤620接收到的点云的前进方向之间的绝对差值,α表示加权参数(例如,如上参考图5所描述的):
q=(α*d)+(1-α)*h
在本发明的优选实施例中,等式2的加权参数α被设置为小于0.5(例如,0.2),使得给予前进方向差h比欧几里德距离h更多权重。这有助于确保仅选择与车辆的估计前进方向相似的角度(例如,前进方向)所捕获的点云。在一个实施例中,距离分数可以是从在步骤610接收的车辆估计位置到捕获在步骤620接收到的点云的位置之间的欧几里德距离。
在步骤640,过程600确定计算得到的距离分数(例如,上面的等式2中的q)是否小于搜索半径。如果在步骤630计算得到的距离分数小于搜索半径,则在步骤660由过程600选择在步骤620接收的点云。如果在步骤630计算得到的距离分数不小于(例如,等于或大于)搜索半径,则在步骤660,过程600不选择在步骤620接收到的点云。在一些示例中,搜索半径是预定义的(例如,100码)。在一些示例中,对于过程600,搜索半径是输入参数。例如,过程500当在步骤520调用过程600时,可以将搜索半径作为输入参数提供给过程600。在一些示例中,过程500可以对于每个先前捕获的、包括用于在步骤520包含车辆的估计位置的区域的数据的点云,以不同的搜索半径再运行过程600。例如,如果过程600选择了太多的点云,则过程500可以对于每个先前捕获的、包括用于在步骤520包含车辆的估计位置的区域的数据的点云,以较小的搜索半径再运行过程600,从而过程600选择更少的点云。应当注意,过程500可以继续以不同的搜索半径再运行过程600,直到选择了期望数量的点云(例如,小于10个点云)。在另一示例中,如果过程600没有选择任何点云,则过程500可以对于每个先前捕获的、包括用于在步骤520包含车辆的估计位置的区域的数据的点云,以较大的搜索半径再运行过程600。在其他来源中,通过控制系统手动输入搜索半径(例如,由车辆的用户或乘客),控制系统诸如按钮、触摸屏、语音命令、计算机、智能电话、或允许键入输入的任何装置或系统。
因此,本发明的示例提供了各种方式来增强用于安全自动车辆导航的定位技术。
因此,根据以上所述,本发明的一些示例涉及一种用在车辆中的系统,该系统包括:一个或多个传感器;可操作地联接到一个或多个传感器的一个或多个处理器;以及包括指令的存储器,当指令由一个或多个处理器执行时,使得一个或多个处理器执行包括以下步骤的方法:利用一个或多个传感器捕获当前点云;确定车辆的估计位置和估计前进方向;基于车辆的估计位置和估计前进方向选择一个或多个点云;简化当前点云和一个或多个点云;将当前点云与一个或多个点云相关联;以及基于当前点云与一个或多个点云之间的相关性,确定更新的车辆的估计位置。除了上面公开的一个或多个示例之外或者作为另外一种选择,在一些示例中,一个或多个传感器包括:LIDAR传感器。除了上面公开的一个或多个示例之外或作为另外一种选择,在一些示例中,车辆的估计位置包括限定车辆可能位于的区域的误差范围。除了上面公开的一个或多个示例之外或作为另外一种选择,在一些示例中,基于车辆的估计位置和前进方向选择一个或多个点云包括检索包含关于由误差范围定义的区域的数据的一个或多个点云。除了上面公开的一个或多个示例之外或作为另外一种选择,在一些示例中,基于车辆的估计位置和前进方向选择一个或多个点云还包括:对于包含关于由误差范围定义的区域的数据的一个或多个点云中的每一个点云:确定相应点云的距离分数;确定距离分数是否小于搜索半径;根据距离分数小于搜索半径的确定,选择各个点云;并且根据距离分数不小于搜索半径的确定,放弃选择各个点云。除了上面公开的一个或多个示例之外或作为另外一种选择,在一些示例中,距离分数基于车辆的估计位置和前进方向。除了上面公开的一个或多个示例之外或作为另外一种选择,在一些示例中,基于车辆的估计位置和前进方向选择一个或多个点云还包括:对于包含关于由误差范围定义的区域的数据的一个或多个点云中的每一个点云,确定相应点云的距离分数;选择具有最低距离分数的相应点云。除了上面公开的一个或多个示例之外或作为另外一种选择,在一些示例中,基于车辆的估计位置和前进方向选择一个或多个点云还包括:对于包含关于由误差范围定义的区域的数据的一个或多个点云中的每一个点云,确定相应点云的距离分数;选择具有最低距离分数的一个或多个点云中的最多十个点云。除了上面公开的一个或多个示例之外或作为另外一种选择,在一些示例中,从存储器中检索包含关于由误差范围定义的区域的数据的一个或多个点云。除了上面公开的一个或多个示例之外或作为另外一种选择,在一些示例中,车辆先前捕获了一个或多个点云。除了上面公开的一个或多个示例之外或作为另外一种选择,在一些示例中,从远程服务器检索包含关于由误差范围定义的区域的数据的一个或多个点云。除了上面公开的一个或多个示例之外或作为另外一种选择,在一些示例中,车辆或另一车辆先前捕获一个或多个点云。除了上面公开的一个或多个示例之外或作为另外一种选择,在一些示例中,简化当前点云和一个或多个点云包括以下中的一个或多个:从当前点云和一个或多个点云去除由于地面和车辆引起的数据点;对当前点云和一个或多个点云进行下采样;从当前点云和一个或多个点云中去除异常数据点。除了上面公开的一个或多个示例之外或作为另外一种选择,在一些示例中,从当前点云和一个或多个点云去除异常数据点包括:计算从当前点云中的第一数据点到一个或多个点云中的对应数据点的距离;以及根据距离大于阈值的确定,从当前点云和一个或多个点云中去除第一数据点和对应数据点。除了上面公开的一个或多个示例之外或作为另外一种选择,在一些示例中,阈值是三米。除了上面公开的一个或多个示例之外或作为另外一种选择,在一些示例中,将当前点云与一个或多个点云相关联包括使用交互式最近点(ICP)技术来平移和旋转一个或多个点云和当前点云。除了上面公开的一个或多个示例之外或作为另外一种选择,在一些示例中,ICP技术以不同的起始点执行多次。除了上面公开的一个或多个示例之外或作为另外一种选择,在一些示例中,将当前点云与一个或多个点云相关联还包括:计算从当前点云中的第一数据点到一个或多个点云中的对应数据点的距离;以及根据距离等于或大于阈值的确定,放弃将当前点云中的第一数据点与一个或多个点云中的对应数据点相关联。
本发明的一些示例涉及包括指令的非暂时性计算机可读介质,该指令在由一个或多个处理器执行时,使得所述一个或多个处理器执行包括以下操作的方法:利用一个或多个传感器捕获当前点云;确定车辆的估计位置和估计前进方向;基于车辆的估计位置和估计前进方向选择一个或多个点云;简化当前点云和一个或多个点云;将当前点云关联到一个或多个点云;以及基于当前点云与一个或多个点云之间的相关性确定更新的车辆的估计位置。
本发明的一些示例涉及一种方法,包括:利用一个或多个传感器捕获当前点云;确定车辆的估计位置和估计前进方向;基于车辆的估计位置和估计前进方向选择一个或多个点云;简化当前点云和一个或多个点云;将当前点云关联到一个或多个点云;以及基于当前点云与一个或多个点云之间的相关性确定更新的车辆的估计位置。
尽管已经参考附图充分描述了示例,但是应当注意,对于本领域技术人员来说,各种改变和修改将是显而易见的。这些改变和修改应被理解为包括在由所附权利要求限定的本发明的示例的范围内。
Claims (20)
1.一种用在车辆中的系统,所述系统包括:
一个或多个传感器;
一个或多个处理器,其可操作地联接到所述一个或多个传感器;以及
存储器,其包括指令,当所述指令由所述一个或多个处理器执行时,使得所述一个或多个处理器执行包括以下步骤的方法:
使用所述一个或多个传感器捕获当前点云;
确定所述车辆的估计位置和估计前进方向;
基于所述车辆的估计位置和估计前进方向选择一个或多个点云;
简化所述当前点云和所述一个或多个点云;
将所述当前点云与所述一个或多个点云相关联;以及
基于所述当前点云与所述一个或多个点云之间的相关性,确定更新的车辆的估计位置。
2.根据权利要求1所述的系统,其中,所述一个或多个传感器包括LIDAR传感器。
3.根据权利要求1所述的系统,其中,所述车辆的估计位置包括限定所述车辆可能位于的区域的误差范围。
4.根据权利要求3所述的系统,其中,基于所述车辆的估计位置和估计前进方向选择所述一个或多个点云包括:检索包含关于由所述误差范围定义的区域的数据的所述一个或多个点云。
5.根据权利要求4所述的系统,其中,基于所述车辆的估计位置和估计前进方向选择所述一个或多个点云还包括:
对于包含关于由所述误差范围定义的区域的数据的所述一个或多个点云中的每一个点云:
确定各个点云的距离分数;
确定所述距离分数是否小于搜索半径;
根据距离分数小于搜索半径的确定,选择各个点云;以及
根据距离分数不小于搜索半径的确定,放弃选择各个点云。
6.根据权利要求5所述的系统,其中,所述距离分数是基于所述车辆的估计位置和估计前进方向。
7.根据权利要求4所述的系统,其中,基于所述车辆的估计位置和估计前进方向选择所述一个或多个点云还包括:
对于包含关于由所述误差范围定义的区域的数据的所述一个或多个点云中的每一个点云,确定各个点云的距离分数;
选择具有最低距离分数的各个点云。
8.根据权利要求4所述的系统,其中,基于所述车辆的估计位置和估计前进方向选择所述一个或多个点云还包括:
对于包含关于由所述误差范围定义的区域的数据的所述一个或多个点云中的每一个点云,确定各个点云的距离分数;
选择具有最低距离分数的一个或多个点云中的最多十个点云。
9.根据权利要求4所述的系统,其中,从所述存储器中检索包含关于由所述误差范围定义的区域的数据的所述一个或多个点云。
10.根据权利要求9所述的系统,其中,所述一个或多个点云由所述车辆在先前捕获。
11.根据权利要求4所述的系统,其中,从远程服务器检索包含关于由所述误差范围定义的区域的数据的所述一个或多个点云。
12.根据权利要求11所述的系统,其中,所述一个或多个点云由所述车辆或另一车辆在先前捕获。
13.根据权利要求1所述的系统,其中,简化所述当前点云和所述一个或多个点云包括以下项中的一个或多个:
从所述当前点云和所述一个或多个点云中去除由于地面和车辆引起的数据点;
对所述当前点云和所述一个或多个点云进行向下采样;以及
从所述当前点云和所述一个或多个点云中去除异常数据点。
14.根据权利要求13所述的系统,其中,从所述当前点云和所述一个或多个点云去除异常数据点包括:
计算从所述当前点云中的第一数据点到所述一个或多个点云中的对应数据点的距离;以及
根据距离大于阈值的确定,从所述当前点云和所述一个或多个点云中去除第一数据点和对应数据点。
15.根据权利要求14所述的系统,其中,所述阈值是三米。
16.根据权利要求1所述的系统,其中,将所述当前点云与所述一个或多个点云相关联包括:使用交互式最近点(ICP)技术来平移和旋转所述一个或多个点云和所述当前点云。
17.根据权利要求16所述的系统,其中,所述ICP技术以不同的起始点执行多次。
18.根据权利要求1所述的系统,其中,将所述当前点云与所述一个或多个点云相关联还包括:
计算从所述当前点云中的第一数据点到所述一个或多个点云中的对应数据点的距离;以及
根据所述距离等于或大于阈值的确定,放弃将所述当前点云中的第一数据点与所述一个或多个点云中的对应数据点相关联。
19.一种非暂时性计算机可读介质,其包括指令,当所述指令由一个或多个处理器执行时,使所述一个或多个处理器执行包括以下步骤的方法:
使用一个或多个传感器捕获当前点云;
确定车辆的估计位置和估计前进方向;
基于所述车辆的估计位置和估计前进方向选择一个或多个点云;
简化所述当前点云和所述一个或多个点云;
将所述当前点云与所述一个或多个点云相关联;以及
基于所述当前点云与所述一个或多个点云之间的相关性,确定更新的车辆的估计位置。
20.一种方法,包括:
使用一个或多个传感器捕获当前点云;
确定车辆的估计位置和估计前进方向;
基于所述车辆的估计位置和估计前进方向选择一个或多个点云;
简化所述当前点云和所述一个或多个点云;
将所述当前点云与所述一个或多个点云相关联;以及
基于所述当前点云与所述一个或多个点云之间的相关性,确定更新的车辆的估计位置。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US15/956,623 US11294060B2 (en) | 2018-04-18 | 2018-04-18 | System and method for lidar-based vehicular localization relating to autonomous navigation |
US15/956,623 | 2018-04-18 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110388924A true CN110388924A (zh) | 2019-10-29 |
CN110388924B CN110388924B (zh) | 2023-07-21 |
Family
ID=68235933
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910309163.0A Active CN110388924B (zh) | 2018-04-18 | 2019-04-17 | 用于与自动导航有关的基于雷达的车辆定位的系统和方法 |
Country Status (2)
Country | Link |
---|---|
US (1) | US11294060B2 (zh) |
CN (1) | CN110388924B (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110906924A (zh) * | 2019-12-17 | 2020-03-24 | 杭州光珀智能科技有限公司 | 一种定位初始化方法和装置、定位方法和装置及移动装置 |
CN111272165A (zh) * | 2020-02-27 | 2020-06-12 | 清华大学 | 一种基于特征点标定的智能车定位方法 |
CN113051304A (zh) * | 2021-04-02 | 2021-06-29 | 中国有色金属长沙勘察设计研究院有限公司 | 一种雷达监测数据与三维点云融合的计算方法 |
WO2021207999A1 (zh) * | 2020-04-16 | 2021-10-21 | 华为技术有限公司 | 车辆定位的方法和装置、定位图层生成的方法和装置 |
Families Citing this family (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020075862A1 (ja) * | 2018-10-12 | 2020-04-16 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | 三次元データ符号化方法、三次元データ復号方法、三次元データ符号化装置、及び三次元データ復号装置 |
CN109540142B (zh) * | 2018-11-27 | 2021-04-06 | 达闼科技(北京)有限公司 | 一种机器人定位导航的方法、装置、计算设备 |
JP7019731B2 (ja) * | 2019-01-30 | 2022-02-15 | バイドゥ ドットコム タイムス テクノロジー (ベイジン) カンパニー リミテッド | 自動運転車のためのリアルタイム地図生成システム |
JP7235104B2 (ja) * | 2019-05-08 | 2023-03-08 | 日本電信電話株式会社 | 点群解析装置、方法、及びプログラム |
EP3970121A4 (en) * | 2019-05-14 | 2023-01-18 | INTEL Corporation | AUTOMATIC POINT CLOUD VALIDATION FOR IMMERSIVE MEDIA |
US11460581B2 (en) * | 2019-06-10 | 2022-10-04 | Toyota Research Institute, Inc. | Systems and methods for reducing LiDAR points |
US11281917B2 (en) * | 2019-10-31 | 2022-03-22 | Aptiv Technologies Limited | Multi-domain neighborhood embedding and weighting of point cloud data |
TWI722738B (zh) * | 2019-12-25 | 2021-03-21 | 亞達科技股份有限公司 | 擴增實境裝置與定位方法 |
CN111413721B (zh) * | 2020-01-14 | 2022-07-19 | 华为技术有限公司 | 车辆定位的方法、装置、控制器、智能车和系统 |
US11860315B2 (en) * | 2020-01-20 | 2024-01-02 | Direct Cursus Technology L.L.C | Methods and systems for processing LIDAR sensor data |
RU2764708C1 (ru) | 2020-01-20 | 2022-01-19 | Общество с ограниченной ответственностью "Яндекс Беспилотные Технологии" | Способы и системы для обработки данных лидарных датчиков |
CN111652060B (zh) * | 2020-04-27 | 2024-04-19 | 宁波吉利汽车研究开发有限公司 | 一种基于激光雷达的限高预警方法、装置、电子设备及存储介质 |
JP2023525927A (ja) * | 2020-05-22 | 2023-06-19 | プロファウンド ポジショニング インコーポレイテッド | 車両位置推定システム及び方法 |
CN111722245B (zh) * | 2020-06-22 | 2023-03-10 | 阿波罗智能技术(北京)有限公司 | 定位方法、定位装置和电子设备 |
US11430182B1 (en) * | 2021-03-09 | 2022-08-30 | Pony Ai Inc. | Correcting or expanding an existing high-definition map |
CN116772887B (zh) * | 2023-08-25 | 2023-11-14 | 北京斯年智驾科技有限公司 | 一种车辆航向初始化方法、系统、装置和可读存储介质 |
Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6608913B1 (en) * | 2000-07-17 | 2003-08-19 | Inco Limited | Self-contained mapping and positioning system utilizing point cloud data |
US20140233010A1 (en) * | 2011-09-30 | 2014-08-21 | The Chancellor Masters And Scholars Of The University Of Oxford | Localising transportable apparatus |
US20160063717A1 (en) * | 2014-08-26 | 2016-03-03 | Kabushiki Kaisha Topcon | Point cloud position data processing device, point cloud position data processing system, point cloud position data processing method, and program therefor |
US20160070981A1 (en) * | 2014-09-08 | 2016-03-10 | Kabushiki Kaisha Topcon | Operating device, operating system, operating method, and program therefor |
CN106052697A (zh) * | 2016-05-24 | 2016-10-26 | 百度在线网络技术(北京)有限公司 | 无人车、无人车定位方法、装置和系统 |
CN106080397A (zh) * | 2016-08-25 | 2016-11-09 | 北京奇虎科技有限公司 | 自适应巡航系统及车载设备 |
CN106541945A (zh) * | 2016-11-15 | 2017-03-29 | 广州大学 | 一种基于icp算法的无人车自动泊车方法 |
US20170094262A1 (en) * | 2014-05-13 | 2017-03-30 | Pcp Vr Inc. | Method, system and apparatus for generation and playback of virtual reality multimedia |
CN106776996A (zh) * | 2016-12-02 | 2017-05-31 | 百度在线网络技术(北京)有限公司 | 用于测试高精度地图的准确性的方法和装置 |
CN106940186A (zh) * | 2017-02-16 | 2017-07-11 | 华中科技大学 | 一种机器人自主定位与导航方法及系统 |
CN107065855A (zh) * | 2016-01-29 | 2017-08-18 | 法拉第未来公司 | 用于驾驶员模式识别、辨识和预测的系统和方法 |
CN107444264A (zh) * | 2016-05-31 | 2017-12-08 | 法拉第未来公司 | 使用相机检测车辆附近的物体 |
Family Cites Families (40)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7167796B2 (en) | 2000-03-09 | 2007-01-23 | Donnelly Corporation | Vehicle navigation system for use with a telematics system |
US6701006B2 (en) * | 2002-06-26 | 2004-03-02 | Nextengine, Inc. | Apparatus and method for point cloud assembly |
JP3861781B2 (ja) | 2002-09-17 | 2006-12-20 | 日産自動車株式会社 | 前方車両追跡システムおよび前方車両追跡方法 |
JP3949073B2 (ja) | 2003-03-27 | 2007-07-25 | トヨタ自動車株式会社 | 駐車支援装置 |
US20070282504A1 (en) | 2004-03-05 | 2007-12-06 | Continental Teves Ag & Co. Ohg | Parking Assistance |
DE102005061909A1 (de) | 2005-12-23 | 2007-07-05 | Volkswagen Ag | Parklenkassistenzsystem und Verfahren zum Betreiben eines Parklenkassistenzsystems |
DE102006057230A1 (de) | 2006-12-05 | 2008-07-03 | Volkswagen Ag | Parklenkassistenzsystem mit verbesserter Ein- und Ausschaltlogik |
TWI347900B (en) | 2009-03-10 | 2011-09-01 | Univ Nat Chiao Tung | Parking assistance system and method |
WO2011141971A1 (ja) | 2010-05-14 | 2011-11-17 | 三菱電機株式会社 | 駐車支援装置、駐車支援システム、および駐車支援カメラユニット |
JP6030549B2 (ja) * | 2011-04-13 | 2016-11-24 | 株式会社トプコン | 三次元点群位置データ処理装置、三次元点群位置データ処理システム、三次元点群位置データ処理方法およびプログラム |
EP2530647A1 (en) | 2011-06-01 | 2012-12-05 | Harman Becker Automotive Systems GmbH | Method of calibrating a vehicle vision system and vehicle vision system |
US9471142B2 (en) * | 2011-06-15 | 2016-10-18 | The University Of Washington | Methods and systems for haptic rendering and creating virtual fixtures from point clouds |
TWI464085B (zh) | 2011-07-22 | 2014-12-11 | Automotive Res & Testing Ct | Parking space detection method |
US9043069B1 (en) * | 2012-11-07 | 2015-05-26 | Google Inc. | Methods and systems for scan matching approaches for vehicle heading estimation |
US8756085B1 (en) * | 2013-03-15 | 2014-06-17 | State Farm Mutual Automobile Insurance Company | Systems and methods for assessing property damage |
KR101770865B1 (ko) | 2013-08-20 | 2017-08-23 | 주식회사 만도 | 능동형 후륜 조향장치 제어방법 |
US9142022B2 (en) * | 2013-10-11 | 2015-09-22 | Intel Corporation | 3D object tracking |
EP3812962A1 (en) | 2013-12-04 | 2021-04-28 | Mobileye Vision Technologies Ltd. | Navigating a vehicle to pass another vehicle |
US9575321B2 (en) | 2014-06-09 | 2017-02-21 | Osterhout Group, Inc. | Content presentation in head worn computing |
US20160048019A1 (en) | 2014-08-12 | 2016-02-18 | Osterhout Group, Inc. | Content presentation in head worn computing |
US9248832B2 (en) | 2014-01-30 | 2016-02-02 | Mobileye Vision Technologies Ltd. | Systems and methods for detecting traffic signal details |
CN110171405B (zh) | 2014-05-22 | 2021-07-13 | 御眼视觉技术有限公司 | 基于检测对象制动车辆的系统和方法 |
US10024664B1 (en) * | 2014-09-30 | 2018-07-17 | The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration | Range and intensity image-based terrain and vehicle relative pose estimation system |
US9557741B1 (en) | 2015-08-24 | 2017-01-31 | Ford Global Technologies, Llc | System and method for autonomous valet parking using plenoptic cameras |
US9830706B2 (en) * | 2015-09-17 | 2017-11-28 | Skycatch, Inc. | Generating georeference information for aerial images |
US9699380B2 (en) * | 2015-11-03 | 2017-07-04 | Intel Corporation | Fusion of panoramic background images using color and depth data |
US10227017B2 (en) | 2015-11-30 | 2019-03-12 | Faraday & Future Inc. | Camera-based vehicle position determination with known target |
KR101815599B1 (ko) | 2016-04-15 | 2018-01-30 | 주식회사 만도 | Tpms를 이용한 주차 지원 장치 |
KR102489386B1 (ko) | 2016-04-15 | 2023-01-18 | 주식회사 에이치엘클레무브 | 주차 지원 장치 및 그의 주차 제어 방법 |
US10308243B2 (en) | 2016-07-26 | 2019-06-04 | Ford Global Technologies, Llc | Vehicle remote park assist with occupant detection |
US9896091B1 (en) | 2016-08-19 | 2018-02-20 | Ohio State Innovation Foundation | Optimized path planner for an autonomous valet parking system for a motor vehicle |
US10025317B2 (en) | 2016-09-30 | 2018-07-17 | Faraday&Future Inc. | Methods and systems for camera-based autonomous parking |
US10248874B2 (en) * | 2016-11-22 | 2019-04-02 | Ford Global Technologies, Llc | Brake light detection |
JP6826421B2 (ja) * | 2016-12-02 | 2021-02-03 | 東日本旅客鉄道株式会社 | 設備巡視システム及び設備巡視方法 |
GB2559196B (en) * | 2017-01-31 | 2021-11-17 | Sony Europe Bv | Determining a position of a vehicle on a track |
US10678260B2 (en) * | 2017-07-06 | 2020-06-09 | GM Global Technology Operations LLC | Calibration methods for autonomous vehicle operations |
US10176596B1 (en) * | 2017-07-06 | 2019-01-08 | GM Global Technology Operations LLC | Calibration verification methods for autonomous vehicle operations |
CN116385505A (zh) * | 2017-10-20 | 2023-07-04 | 阿里巴巴集团控股有限公司 | 数据处理方法、装置、系统和存储介质 |
US10528823B2 (en) * | 2017-11-27 | 2020-01-07 | TuSimple | System and method for large-scale lane marking detection using multimodal sensor data |
CN108228798B (zh) * | 2017-12-29 | 2021-09-17 | 百度在线网络技术(北京)有限公司 | 确定点云数据之间的匹配关系的方法和装置 |
-
2018
- 2018-04-18 US US15/956,623 patent/US11294060B2/en active Active
-
2019
- 2019-04-17 CN CN201910309163.0A patent/CN110388924B/zh active Active
Patent Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6608913B1 (en) * | 2000-07-17 | 2003-08-19 | Inco Limited | Self-contained mapping and positioning system utilizing point cloud data |
US20140233010A1 (en) * | 2011-09-30 | 2014-08-21 | The Chancellor Masters And Scholars Of The University Of Oxford | Localising transportable apparatus |
US20170094262A1 (en) * | 2014-05-13 | 2017-03-30 | Pcp Vr Inc. | Method, system and apparatus for generation and playback of virtual reality multimedia |
US20160063717A1 (en) * | 2014-08-26 | 2016-03-03 | Kabushiki Kaisha Topcon | Point cloud position data processing device, point cloud position data processing system, point cloud position data processing method, and program therefor |
US20160070981A1 (en) * | 2014-09-08 | 2016-03-10 | Kabushiki Kaisha Topcon | Operating device, operating system, operating method, and program therefor |
CN107065855A (zh) * | 2016-01-29 | 2017-08-18 | 法拉第未来公司 | 用于驾驶员模式识别、辨识和预测的系统和方法 |
CN106052697A (zh) * | 2016-05-24 | 2016-10-26 | 百度在线网络技术(北京)有限公司 | 无人车、无人车定位方法、装置和系统 |
CN107444264A (zh) * | 2016-05-31 | 2017-12-08 | 法拉第未来公司 | 使用相机检测车辆附近的物体 |
CN106080397A (zh) * | 2016-08-25 | 2016-11-09 | 北京奇虎科技有限公司 | 自适应巡航系统及车载设备 |
CN106541945A (zh) * | 2016-11-15 | 2017-03-29 | 广州大学 | 一种基于icp算法的无人车自动泊车方法 |
CN106776996A (zh) * | 2016-12-02 | 2017-05-31 | 百度在线网络技术(北京)有限公司 | 用于测试高精度地图的准确性的方法和装置 |
CN106940186A (zh) * | 2017-02-16 | 2017-07-11 | 华中科技大学 | 一种机器人自主定位与导航方法及系统 |
Non-Patent Citations (1)
Title |
---|
胡峰俊: "三维离散点云数据的预处理和配准技术研究", 《中国博士学位论文全文数据库 信息科技辑》, pages 138 - 63 * |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110906924A (zh) * | 2019-12-17 | 2020-03-24 | 杭州光珀智能科技有限公司 | 一种定位初始化方法和装置、定位方法和装置及移动装置 |
CN111272165A (zh) * | 2020-02-27 | 2020-06-12 | 清华大学 | 一种基于特征点标定的智能车定位方法 |
CN111272165B (zh) * | 2020-02-27 | 2020-10-30 | 清华大学 | 一种基于特征点标定的智能车定位方法 |
US11002859B1 (en) | 2020-02-27 | 2021-05-11 | Tsinghua University | Intelligent vehicle positioning method based on feature point calibration |
WO2021207999A1 (zh) * | 2020-04-16 | 2021-10-21 | 华为技术有限公司 | 车辆定位的方法和装置、定位图层生成的方法和装置 |
CN113051304A (zh) * | 2021-04-02 | 2021-06-29 | 中国有色金属长沙勘察设计研究院有限公司 | 一种雷达监测数据与三维点云融合的计算方法 |
CN113051304B (zh) * | 2021-04-02 | 2022-06-24 | 中国有色金属长沙勘察设计研究院有限公司 | 一种雷达监测数据与三维点云融合的计算方法 |
Also Published As
Publication number | Publication date |
---|---|
CN110388924B (zh) | 2023-07-21 |
US11294060B2 (en) | 2022-04-05 |
US20190323844A1 (en) | 2019-10-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110388924A (zh) | 用于与自动导航有关的基于雷达的车辆定位的系统和方法 | |
CN105676251B (zh) | 车辆乘客识别 | |
CN110388925A (zh) | 用于与自动导航有关的车辆定位的系统和方法 | |
CN105302152B (zh) | 机动车辆无人驾驶飞机部署系统 | |
EP3327464A1 (en) | Algorithm and infrastructure for robust and efficient vehicle localization | |
JP2021106042A (ja) | サーバ装置 | |
JP5510007B2 (ja) | 経路探索装置および経路案内システム | |
US20160139600A1 (en) | Autonomous vehicle refueling locator | |
GB2571163A (en) | Vehicle control system and control method | |
CN109425343A (zh) | 本车位置推断装置 | |
KR101803195B1 (ko) | 차량의 주행 환경에 따라 적응적으로 다중센서를 제어하는 장치 및 방법 | |
CN108466621A (zh) | 有效滚动半径 | |
JP6918110B2 (ja) | 飛行体制御装置、飛行体制御システムおよび飛行体制御方法 | |
CN111194397A (zh) | 用于运行导航系统的方法 | |
JP5001742B2 (ja) | ナビゲーション装置および地点登録方法 | |
JP4800252B2 (ja) | 車載装置及び交通情報提示方法 | |
JP2019053530A (ja) | 走行制御装置、走行制御システム、及び走行制御方法 | |
US11897446B2 (en) | Navigation systems and methods using turn detection | |
US11449334B2 (en) | Software rewriting device | |
US20210294578A1 (en) | Software rewriting device | |
EP3961153A1 (en) | Navigation system with high definition mapping mechanism and method of operation thereof | |
CN117716312A (zh) | 用于解决自主车辆的雷达系统的层次模糊性的方法、系统和计算机程序产品 | |
US20210357667A1 (en) | Methods and Systems for Measuring and Mapping Traffic Signals | |
JP2004240805A (ja) | 駐車場空きスペース案内システム | |
KR20160147348A (ko) | 내비게이션 단말, 이를 포함하는 차량, 및 그 제어방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |