CN107430183B - 用于装置的定位的方法和设备 - Google Patents
用于装置的定位的方法和设备 Download PDFInfo
- Publication number
- CN107430183B CN107430183B CN201580071215.5A CN201580071215A CN107430183B CN 107430183 B CN107430183 B CN 107430183B CN 201580071215 A CN201580071215 A CN 201580071215A CN 107430183 B CN107430183 B CN 107430183B
- Authority
- CN
- China
- Prior art keywords
- feature
- data
- database
- feature geometries
- geometries
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 78
- 230000015654 memory Effects 0.000 claims description 33
- 238000004422 calculation algorithm Methods 0.000 claims description 15
- 238000004590 computer program Methods 0.000 claims description 15
- 238000000605 extraction Methods 0.000 claims description 12
- 238000002604 ultrasonography Methods 0.000 claims description 2
- 230000008569 process Effects 0.000 description 31
- 238000013480 data collection Methods 0.000 description 26
- 238000012545 processing Methods 0.000 description 19
- 230000006870 function Effects 0.000 description 11
- 238000004891 communication Methods 0.000 description 9
- 230000009471 action Effects 0.000 description 8
- 238000004458 analytical method Methods 0.000 description 8
- 230000003287 optical effect Effects 0.000 description 7
- 238000010586 diagram Methods 0.000 description 5
- 238000003860 storage Methods 0.000 description 5
- 230000005540 biological transmission Effects 0.000 description 4
- 238000005520 cutting process Methods 0.000 description 4
- 238000011161 development Methods 0.000 description 4
- 230000018109 developmental process Effects 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 230000001413 cellular effect Effects 0.000 description 3
- 238000009826 distribution Methods 0.000 description 3
- 238000012417 linear regression Methods 0.000 description 3
- 230000004807 localization Effects 0.000 description 3
- 238000004519 manufacturing process Methods 0.000 description 3
- 238000013507 mapping Methods 0.000 description 3
- 230000007935 neutral effect Effects 0.000 description 3
- 238000001228 spectrum Methods 0.000 description 3
- 230000002776 aggregation Effects 0.000 description 2
- 238000004220 aggregation Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 230000033001 locomotion Effects 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 238000007726 management method Methods 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 230000006855 networking Effects 0.000 description 2
- 238000013515 script Methods 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 241000282412 Homo Species 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- 229910000831 Steel Inorganic materials 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 239000000443 aerosol Substances 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 150000001875 compounds Chemical class 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000001351 cycling effect Effects 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000010790 dilution Methods 0.000 description 1
- 239000012895 dilution Substances 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000002329 infrared spectrum Methods 0.000 description 1
- 238000012804 iterative process Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- -1 non-metallic objects Substances 0.000 description 1
- 238000002310 reflectometry Methods 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 230000008439 repair process Effects 0.000 description 1
- 230000001932 seasonal effect Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 238000000638 solvent extraction Methods 0.000 description 1
- 239000010959 steel Substances 0.000 description 1
- 239000004575 stone Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000008685 targeting Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 238000001429 visible spectrum Methods 0.000 description 1
- 238000007794 visualization technique Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/005—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 with correlation of navigation data from several sources, e.g. map or contour matching
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/02—Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
- G01S13/06—Systems determining position data of a target
- G01S13/08—Systems for measuring distance only
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S15/00—Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
- G01S15/02—Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems using reflection of acoustic waves
- G01S15/06—Systems determining the position data of a target
- G01S15/08—Systems for measuring distance only
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/06—Systems determining position data of a target
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/06—Systems determining position data of a target
- G01S17/08—Systems determining position data of a target for measuring distance only
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S5/00—Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
- G01S5/16—Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using electromagnetic waves other than radio waves
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/4808—Evaluating distance, position or velocity data
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0268—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
- G05D1/0274—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
- G06T7/62—Analysis of geometric attributes of area, perimeter, diameter or volume
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/02—Services making use of location information
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20021—Dividing image into blocks, subimages or windows
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- General Physics & Mathematics (AREA)
- Remote Sensing (AREA)
- Computer Networks & Wireless Communication (AREA)
- Electromagnetism (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Automation & Control Theory (AREA)
- Signal Processing (AREA)
- Geometry (AREA)
- Acoustics & Sound (AREA)
- Aviation & Aerospace Engineering (AREA)
- Instructional Devices (AREA)
- Navigation (AREA)
- Traffic Control Systems (AREA)
- Processing Or Creating Images (AREA)
Abstract
本发明提供用于开发指纹数据库以及用于利用所述数据库确定终端用户装置(例如,车辆、移动电话、智能手表等)的地理位置的系统、设备和方法。可通过接收路径网络中的位置的深度图且接着识别所述深度图内的物理结构来开发指纹数据库。所述深度图可在每一物理结构处划分为距道路水平一或多个高程处的一或多个水平面。可从所述水平面提取二维特征几何形状。所述所提取的特征几何形状的至少一部分可编码到所述指纹数据库中。
Description
技术领域
以下揭示内容涉及开发指纹数据库,以及在一些情况下在不存在全球定位系统(GPS)数据的情况下使用所述数据库确定终端用户装置(例如,车辆、移动电话、智能手表等)的地理位置。
背景技术
使用全球定位系统(GPS)、局域无线技术(例如,WiFi)和短波长无线电波(例如,蓝牙)的车辆定位可能不精确。在GPS的情况下,多路径致使由车辆接收的信号的定时变化。在WiFi和蓝牙的情况下,信号强度是用于定位的不可靠的手段,这主要是归因于三维(3D)空间中的发射台的位置的遮挡和精确度缺乏。在此些情况下,执行多边测量所依据的参考不足以精确使得产生车道水平(或在某些情况下,道路水平)定位。
发明内容
本发明提供用于开发指纹数据库以及利用所述数据库确定装置的地理位置的系统、设备和方法。在一个实施例中,所述方法包括接收路径网络中的位置的深度图。所述方法进一步包括使用处理器识别深度图内的物理结构。所述方法进一步包括在每一物理结构处将深度图划分为距道路水平一或多个高程处的一或多个水平面。所述方法进一步包括从所述水平面提取二维特征几何形状。所述方法进一步包括将所提取的特征几何形状的至少一部分编码到数据库中。
在又一实施例中,所述方法包括使用附接到装置的深度感测相机收集路径网络中的位置处的深度图。所述方法进一步包括使用处理器识别所述位置处的深度图内的物理结构。所述方法进一步包括在每一物理结构处将深度图划分为距道路水平一或多个高程处的一或多个水平面。所述方法进一步包括从水平面提取二维特征几何形状。所述方法进一步包括经由所提取的特征几何形状的至少一部分与路径网络的特征几何形状的数据库的比较确定装置的地理位置。
在另一实施例中,所述设备包括至少一个处理器和包含用于一或多个程序的计算机程序代码的至少一个存储器;所述至少一个存储器和所述计算机程序代码经配置以利用所述至少一个处理器致使所述设备至少执行以下操作:(1)接收路径网络中的位置的深度图;(2)识别所述位置处的深度图内的物理结构;(3)在每一物理结构处将深度图划分为距道路水平一或多个高程处的一或多个水平面;(4)从水平面提取二维特征几何形状;以及(5)将所提取的特征几何形状的至少一部分编码到数据库中。
在又一实施例中,所述设备包括至少一个处理器和包含用于一或多个程序的计算机程序代码的至少一个存储器;所述至少一个存储器和所述计算机程序代码经配置以利用所述至少一个处理器致使所述设备至少执行以下操作:(1)收集路径网络中的位置的深度图;(2)识别所述位置处的深度图内的物理结构;(3)在每一物理结构处将深度图划分为距道路水平一或多个高程处的一或多个水平面;(4)从水平面提取二维特征几何形状;以及(5)经由所提取的特征几何形状的至少一部分与路径网络的特征几何形状的数据库的比较确定装置的地理位置。
附图说明
本文中参看以下图式描述示范性实施例。
图1说明深度图图像的实例,其具有多个高程处的所提取水平切片和从所述所提取的切片识别的二维图像。
图2说明指纹数据库中的经编码指纹的实例。
图3说明图2的经编码指纹的线特征几何形状的实例。
图4说明图2的经编码指纹的弧特征几何形状的实例。
图5说明图2的经编码指纹的样条特征几何形状的实例。
图6说明车辆的实例,其中识别和提取车辆周围的特征几何形状以确定车辆的地理位置。
图7A和7B说明装置的额外实例,其中识别和提取装置周围的特征几何形状和控制点以确定装置的地理位置。
图8说明基于三个控制点的多边测量过程的另一实例。
图9说明用于开发指纹数据库的实例流程图。
图10说明用于确定路径网络中的装置的位置的实例流程图。
图11为示范性地理和/或导航数据系统的图。
图12说明图11的示范性系统中使用的装置的组件的实施例。
具体实施方式
可经由从表示路径(例如,道路)网络中的真实对象的二维(2D)特征几何形状导出坐标来确定终端用户装置的位置或定位。终端用户装置可指代由消费者操作或使用的装置。如本文所使用,终端用户装置的非限制性实例包含车辆(例如,汽车、卡车、公共汽车、火车、摩托车、小艇、船),以及便携式电子装置,例如移动电话、具有无线能力的膝上型计算机、视频录制装置、扫描装置、消息接发装置、个人数字助理和可穿戴式计算机(例如,智能手表)。特征几何形状可指代从装置周围的三维结构提取的例如线、弧和样条(例如,B样条)等二维形状。举例来说,2D特征几何形状可从例如建筑物立面、道路标志、polls、植物(例如,树)等三维结构或路径网络中存在的其它非暂时性结构提取。特定路段处的多个特征几何形状可组合在一起以提供从周围区域识别特定路段的一或多个独特指纹。
换句话说,可基于装置周围的各种特征的指纹的识别确定装置(例如,车辆)的位置。所述位置可实时确定,其中由装置识别的特征与特征几何形状/指纹的数据库进行比较。所确定的位置的精确度可基于路径网络中装置的位置和定位装置所借助的方法。
此定位过程可允许相对于例如GPS、WiFi或蓝牙等常规地理定位技术来说改进的装置的定位。此外,基于特征的视觉定位技术可允许在不存在任何可用常规地理定位技术(例如,GPS)的情况下装置的定位。此外,使用简单2D特征几何形状的基于特征的定位技术可减小与实时确定装置的位置相关联的总体计算成本。此排除需要昂贵的图形处理单元(GPU)来实时处理图像,且允许利用低成本视觉化技术的车辆利用本文中所描述的所提出的基于特征的定位技术。此外,越来越多的车辆正内置有复杂的检视技术且可利用所提出的地理参考过程。
如本文所论述,可经由由深度感测装置(例如,高精确度光检测与测距(LIDAR)装置)产生的深度图的集合开发二维特征几何形状的数据库。可从所收集的深度图提取特征几何形状,例如建筑物、交通灯、停止标志、植物(例如,树)和道路性质(例如宽度、车道数目)。所提取的特征可在单独数据库中表示或编码为特定位置的指纹。终端用户装置(例如,车辆)可基于装置自身对特征几何形状的识别和与特征几何形状的指纹数据库的比较确定其位置,其中所述位置基于特征或指纹的匹配来确定。
数据的收集
在某些实施例中,可经由路径网络的数据的收集和分析开发容纳路径网络的各种特征几何形状的数据库。路径网络可为包括大都市区或城市内的选择数目的路段的道路网络。在一些实施例中,可开发多个大都市区或城市中的多个路段的数据库。
如本文所使用,“道路”或“路段”可指代可能够监测或将来可变得能够监测的任何行进车道或路径(例如,高速公路、城市街道、公共汽车路线、火车路线、步行/骑车路径、水路)。
在某些实施例中,经由以下各者的收集来开发数据库:(1)关于道路网络内的选定路段的三维数据,和(2)与3D数据相关联的位置数据(例如,GPS数据)。3D数据可为使用3D光学测距系统或基于强度的扫描技术获取的深度图或点云数据。在某些实施例中,深度图或点云数据使用深度感测装置收集。深度感测装置可为任何深度感测立体相机(例如,LIDAR相机)、无线电检测和测距(RADAR)装置、超声装置或结构光相机。深度感测装置可包括经配置以从运动识别三维结构的移动式单相机。
LIDAR(也被称作LiDAR、Lidar或其它类似表示)还可被称作三维激光扫描或光学测距系统,其采用一或多个激光或相机来收集表示一区域(例如关于道路或人行道的区域)的数据点。
数据获取系统中的LIDAR相机可使用紫外、可见或近红外光来使对象成像,瞄准大范围的材料,例如非金属对象、石头、雨、化学化合物、气雾剂、云乃至单一分子。窄激光束可以高分辨率标测物理特征。
软件可基于测得的距离、可在例如汽车等移动平台上的光学测距系统的位置和激光的角度产生深度图或点云。其它光学测距系统包含立体相机、飞行时间红外相机和结构光装置。LIDAR相机收集和聚集点云中的数据点,其中每一数据点对应于本地坐标,例如(x,y,z),且为开或关。或者,LIDAR数据可为包含预定值范围(例如,0到255、0到65536)中的每一数据点的强度(指示反射性)的灰度点云,所述范围的一端处为黑且另一端处为白。点云可以ASCII或LIDAR交换格式(例如,美国摄影测量和远程感测协会(ASPRS).LAS文件格式)存储。所述一或多个激光可在近红外谱(例如约700nm到约5000nm或约800nm到约2500nm)或其它光谱中。
在某些实施例中,LIDAR相机可与数据收集装置(例如,车辆)附接或以其它方式集成。还可存在与LIDAR车辆系统集成的定位系统,例如GPS,以提供由LIDAR系统获取的数据的基础参考。车辆系统的移动性可促进跨越大地理区域使用所建立的位置用于参考来获取数据,以及将所获取的数据集成到表示地理区域的点云中。
在指纹数据库的开发过程中,LIDAR数据获取系统可与地理定位系统(GPS)组合以提供由LIDAR系统获取的数据的基础参考。经由LIDAR系统和GPS的组合,所收集的3D数据可与所具备的纬度、经度、海拔高度和高程测量值一起保存或编码到数据库中。
车辆系统的移动性可促进跨越大地理区域使用所建立的位置用于参考来获取数据,以及将所获取的数据集成到表示地理区域的点云中。在一些实施例中,深度图或点云数据可随着数据收集车辆沿着路径网络内的选定路段行进而连续收集。在其它实施例中,数据可沿着路段以预定义间隔(例如,每隔10到30米)收集。
在某些实施例中,来自一或多个数据收集车辆的数据可上载到地图开发者数据库用于将来分析。在一些实施例中,上载过程可在数据收集车辆已完成其对深度图或点云数据的收集之后进行。在其它实施例中,上载过程可包括随着收集数据而将数据经由已连接网络发射到地图开发者数据库。
特征提取
深度图或点云数据的收集以及到地图开发者数据库的上载之后,数据可经分析以获得深度图或点云数据内的各种特征几何形状。换句话说,计算机算法可运行以搜索深度图数据中的特定二维特征,且提取那些特征。二维特征几何形状可包含深度图的物理结构内的线、连接线或曲线的集合、弧和样条。在某些实施例中,物理结构包括点云数据的建筑物立面、道路标志、街灯和植物(例如,树)。
可通过识别深度图的物理结构,且将深度图划分或切割为物理结构的不同高程处的一或多个水平面而从深度图提取二维特征几何形状。每一水平切片/段内的深度图数据接着可经分析以获得特定几何形状。在划分或切割过程中,从所界定高程以及所界定高程上方及下方的范围内存在的数据提取深度图数据。举例来说,所述提取包含所界定高程的0.1米、0.2米、0.5米、1米或2米内数据的聚合。换句话说,水平切片或段具有小于0.1米、小于0.2米、小于0.5米、小于1米、小于2米、0.1-2米、0.1-1米、0.1-0.5米或0.1-0.2米的厚度。在一些实施例中,所界定高程上方及下方的范围内的深度图数据一起合并或求平均。
深度图数据的分析可为动态或迭代过程。在某些实施例中,一个以上水平面经分析以便寻找深度图内重要或有用的特征几何形状。举例来说,在某些实施例中,选择第一高程,且深度图切割为第一高程处的水平面。此切割过程和分析缓解了针对整个建筑物或所观察结构执行复杂三维特征辨识或分类的需要。
水平面经分析以获得重要特征几何形状,例如直线、连接线或曲线的集合、弧或样条。在一些实施例中,水平面经分析以获得重要特征几何形状,例如连接线的集合。举例来说,在连接线的集合中可包括二维形状,包含例如正方形和矩形等四边形;或其它多边形,例如三角形、五边形、六边形、七边形、八边形、九边形、十边形等。在其它实施例中,水平面可经分析以获得例如圆或椭圆形等重要连接曲线形状几何形状。此切割过程和分析缓解了针对整个建筑物或所观察结构执行复杂三维特征辨识或分类的需要。
在第一高程处的所提取水平面中未识别出有用特征的情况下,可选择第二高程,其中在第二高程处提取数据并进行分析。所述过程可在多个高程处重复直至识别至少一个重要或有用特征几何形状为止。在一些实施例中,所述过程在距道路水平较高高程处开始,且以高程增量(例如,每隔5米)朝向道路向下进行。可基于特定路段区域的所提供的地图绘制数据确定开始高程,其中沿着路段的建筑物的近似高度为已知的。地图绘制数据可从单独源提供到地图数据库,且不一定与数据收集车辆编译和向数据库报告LIDAR数据同时编译。
在某些实施例中,可在若干预定义高程处(例如,从道路水平开始每隔5米)执行提取和分析。路径网络中的每一路段距道路水平的最高高程可为固定值(例如道路水平上方50米或100米),或其可为基于每一路段位置的已知地图绘制数据的可变值(例如,针对一个路段分析的最高高程可为道路水平上方20米,因为路段位置处的最高建筑物或结构为20米高)。多个高程处的提取和分析之后,所提取几何特征的至少一部分可经选择以供存储在指纹数据库中。在一些实施例中,所提取的特征基于其形状、尺寸、高程和变动/不变性分类或分级。关于特征的分级或分类的确定在下文更详细地论述。
可使用各种算法进行针对每一水平切片或平面的几何形状的提取,其中切片中的深度图数据转换为一或多个二维几何形状。在某些实施例中,所述算法为线性回归算法、曲线回归算法、机器学习算法或其组合。举例来说,在深度图切片中观察到线性几何特征的情况下,使用线性回归算法从深度图切片提取线性特征,且将深度图数据转换为2D线或连接线的集合。在深度图切片中观察到弧或样条的情况下,使用曲线回归算法从深度图切片提取弧或样条特征,且将深度图数据转换为2D弧或样条。在一些实施例中,可在切片内观察到一个以上几何特征。在此些情况下,可执行线性回归和曲线回归算法两者以提取切片中的线性和曲线特征,且将数据转换为包含线、连接线或曲线的集合、弧、样条等的2D表示。
图1提供具有不同高程处的水平切片的深度图图像10的一个非限制性实例。在此图中,已经分析两个高程以获得特征几何形状,描绘为第一高程12和第二高程14。经由线性回归算法、曲线回归算法和/或机器学习算法,提取第一高程12的深度图数据中的特征且将其表示为包含连接线和弧的组合的第一2D表示16。在第二高程14中,提取过程已产生包括两条线的第二高程处的第二2D表示18。
编码指纹数据库中的特征几何形状
在某些实施例中,所提取的特征几何形状可在指纹数据库中进行地理参考和编码以供将来使用。也就是说,可存取具有经编码特征几何形状的指纹数据库以辅助与数据库通信而确定数据收集装置(例如,车辆)的位置(如下文更详细地论述)。
在某些实施例中,所提取的特征几何形状可利用特定信息进行地理参考,例如几何形状的特定特征或点的地理位置(例如,纬度、经度、高程、海拔高度)。这些二维特征几何形状可使用某一算法地理参考到地图或地理位置,所述算法使2D几何形状的各个点与以下各者中的一或多者的位置参考信息或值匹配:纬度、经度、距道路水平的高程和海拔高度。此过程在进行分析和提取的深度感测相机(例如,LIDAR相机)正与具有已知地理位置的数据收集车辆通信(例如,使用GPS或另一地理参考设备)时是可能的。利用已知车辆位置和车辆距经由深度感测系统提取的几何形状的已知距离,地理值可指派或参考到所提取的几何形状。
举例来说,当特征几何形状为线或连接线的集合时,沿着所述线或连接线的集合的点(包含所述线或连接线的集合的端点)可利用关于线点的纬度、经度、道路上方的高程和海拔高度的位置参考信息进行地理参考。对于弧几何形状,沿着所述弧的点可进行地理参考,其中提供关于弧点的半径、纬度、经度、道路上方的高程和海拔高度的信息。对于样条,沿着样条的点可经地理参考以提供关于样条点的结点、纬度、经度、道路上方的高程和海拔高度的信息。
所提取的特征几何形状的地理参考之后,经地理参考的2D几何形状可在指纹数据库中编码。在某些实施例中,指纹数据库可基于提取的位置存储特征几何形状。举例来说,所述特征可与车辆参考(例如,识别和提取特征几何形状时车辆的地理位置)链接。
图2-5描绘用于指纹数据库的编码系统的实例。如图2中所示,数据库中编码的每一指纹含有特征几何形状的列表(例如线特征、弧特征和样条特征)。在某些实施例中,指纹包括包含地图参考属性,其指定参考地图中的对应于其中导出指纹的车辆参考的链路。所述地图参考可包括链路识别符和链路上的纵向距离。
此外,每一指纹包含车辆参考,其提供定位过程(下文描述)期间数据收集装置或车辆的三维参考点。参考点锚定所述位置处提取的所有特征几何形状,且促进定位期间的特征比较过程以考虑数据收集装置(例如,车辆)和俘获/提取数据的车辆之间的焦点的差异。车辆参考描述从其提取特征几何形状的纬度、经度和海拔高度位置(例如,提取时后轮胎在地面上的接触点的位置)。可使用世界大地坐标系统(WGS)(例如WGS 84)描述纬度、经度和海拔高度测量值。
每一指纹还包含多个特征几何形状,例如线特征、弧特征和样条特征(图3到5中以扩展的细节描绘)。所述特征几何形状可以因素的重要性的次序进行分类或分级,其中列表顶部处的特征几何形状比列表底部处的特征具有地理位置的更重要或可识别的特征。下文详细描述用于将特征几何形状分级的方法,且所述方法也可在编码指纹数据库中的特征几何形状的过程中应用。在某些实施例中,特征几何形状的列表包括每一位置至少5、至少10或至少15个不同特征几何形状。
图3详细描绘经编码线特征。如图中所展示,线特征表示具有两个控制点(即,2D几何形状上的可识别的提取点)的2D线几何形状。在一个实施例中,线的所述两个控制点可为线的相对端。线的控制点共享相同高程和海拔高度,因为所述点已经在相同水平面上从深度图提取。由此,线特征几何形状的属性包含高程和海拔高度两者的通用值。高程可以车辆参考上方的米数来表达。还编码线特征几何形状的每一控制点的单独经度和纬度,且所述单独经度和纬度可以WGS 84坐标表达。
图4详细描绘经编码的弧特征。如图中所展示,弧特征表示具有两个控制点和一半径的2D弧几何形状。在一个实施例中,所述两个控制点可为弧的相对端。弧的控制点共享相同高程和海拔高度,因为所述点已经在相同水平面上从深度图提取。由此,弧特征几何形状的属性包含高程和海拔高度两者的通用值。还编码弧特征几何形状的每一控制点的单独经度和纬度,且所述单独经度和纬度可以WGS 84坐标表达。
图5详细描绘经编码的样条特征。如图中所展示,样条特征表示具有多个控制点和结点的2D样条几何形状(例如,B样条)。样条的控制点共享相同高程和海拔高度,因为所述点已经在相同水平面上从深度图提取。由此,样条特征几何形状的属性包含高程和海拔高度两者的通用值。还编码样条特征几何形状的每一控制点的单独经度和纬度,且所述单独经度和纬度可以WGS 84坐标表达。
使用指纹数据库确定终端用户装置位置
使用路径网络的已建立的经编码指纹数据库,装备有深度感测相机技术(例如,LIDAR相机)的终端用户装置(例如,车辆、移动电话、智能手表等)可能够确定其在路径网络内的位置。终端用户装置可基于装置自身对终端用户装置/车辆周围的特征几何形状的识别以及特定特征几何形状与所建立的指纹数据库(上文所论述)的比较来确定其位置,其中基于特征或指纹到数据库的匹配确定所述位置。在一些实施例中,可经由识别特征几何形状和GPS数据的组合确定装置的位置。在其它实施例中,在不存在任何GPS数据的情况下,仅仅经由特征几何形状的识别确定装置的位置。
装备有深度感测装置(例如,LIDAR相机)的终端用户装置(例如,车辆、移动电话、智能手表等)可以与上文针对数据收集装置构造指纹数据库以确定装置的位置所描述类似的方式提取特征几何形状。可选择若干所提取的特征几何形状以界定指纹,且所界定指纹可匹配到指纹数据库以确定所述位置。在一些实施例中,终端用户装置可在提取过程之前或结合提取过程计算各种参数以利用指纹数据库定向装置的所收集深度图。此可辅助不仅确定终端用户装置的地理位置,而且确定所述位置处装置的取向。
为了实时识别装置的位置,装置的指纹的确定可为简化的过程(相比于指纹数据库的构造),其中选择仅少数特征几何形状且将其与指纹数据库进行比较。举例来说,每一地理位置可具有存储于指纹数据库中的数千特征几何形状。换句话说,终端用户装置(例如,车辆)分析或考虑可用于定位的所有2D特征几何形状可能是效率低下的。
基于两个主要因素(下文更详细地描述)选择几何形状。第一因数为特征几何形状的分级,且第二因数为特征几何形状的几何精度衰减因子(GDOP)。在某些实施例中,装置在路径网络中的定位过程包括(1)识别装置周围的特征几何形状,(2)确定每一特征几何形状的性质(例如,形状、尺寸、高程、变动)和位置(GDOP),(3)根据其性质将特征几何形状分级,和(4)选择极高程度分布(高GDOP)且具有高分级值的特征几何形状的指纹。
因素1:特征几何形状的GDOP
GDOP表示车辆周围的结构或特征几何形状的地理分布。换句话说,一个选定特征几何形状的位置与每一额外特征几何形状之间的关系是一个因素。在某些实施例中,最佳或最高GDOP由装置周围的最均匀分布的结构或特征几何形状提供。在一些实施例中,基于如x-y平面中标绘的结构的分布(即,忽略z轴中每一结构的高程)确定最佳或最高GDOP。
举例来说,如果存在车辆周围的三个结构,那么可发生最佳GDOP,其中所述结构彼此分离或间隔120度。换句话说,第一结构可位于x-y平面中与车辆成0度(例如,如从道路的行进方向或行进方向测量),第二结构可定位成与车辆成120度,且第三结构可定位成与车辆成240度。
如果存在车辆周围的四个结构,那么将发生最佳GDOP,其中每一结构彼此间隔90度。如果存在五个结构,那么将发生最佳GDOP,其中每一结构彼此间隔72度,等等。
因素2:特征几何形状的分级
关于第二因素,特征几何形状(每一扇区内或总体深度图内)可基于以下性质中的一或多者来比较或分级:(1)特征的形状、(2)特征的尺寸、(3)特征的高程,和(4)特征的变动(或不变性)(即,随着时间的过去特征的形状改变多少,或所述特征是否在特定时间绝对存在)。在一些实施例中,可考虑额外因素,例如特征几何形状或指纹的颜色。颜色的识别可需要附接或以其它方式连接到数据收集或终端用户装置(例如,车辆)的额外设备,因为LIDAR相机并不识别颜色。
关于形状性质,与其它较复杂形状相比,例如线、弧和样条等具有极简形状的特征几何形状可更高地分级,因为线、弧和样条的简单允许更高效处理。换句话说,如图6中所描绘,表示20米和50米高程处建筑物上的直线的特征几何形状可比俘获树的树枝的特征几何形状简单。因此,由建筑物上的线表示的特征几何形状可比与树的树枝相关联的特征几何形状更高地分级。
关于尺寸性质,尺寸较大的特征几何形状可比尺寸较小的特征几何形状更高地分级。举例来说,图6中,20米和50米处左侧建筑物上的特征几何形状将比20米处右侧建筑物上的特征几何形状更高地分级。
关于高程性质,距道路水平较高高程处的特征几何形状可比距道路水平较低高程处的特征几何形状更高地分级。换句话说,建筑物的高度可辅助识别特定位置,且因此每一位置的较高高程特征几何形状可更高地分级。举例来说,图6中,50米高程处的特征几何形状可比20米高程处的特征几何形状更高地分级。在某些实施例中,路径网络内的位置可不含较高高程处的重要特征,其中随后选择较低高程处的特征。此可包含树或其它季节性特征。
关于变动性质,较少变动的特征几何形状被给定高分级。特征几何形状的变动可考虑特征的季节性。举例来说,在秋季或冬季,树叶可能消失而向LIDAR相机暴露裸露的树枝。树叶接着可在春季或夏季再次出现。因此,树的树枝、树叶等基于几何形状的季节性而变动,且因此可被指派比较恒定不变的特征几何形状(例如建筑物的直线或树的树干)少的权重。在一些实施例中,多个指纹可存储于指纹数据库中以准确地表示不同季节的变动特征。特征几何形状的变动还可考虑是否特征几何形状在特定时间存在且在其它时间不存在(即,非静止对象)。举例来说,安装到车辆的LIDAR相机可识别沿着邻近车道中的路段行进的另一车辆(例如大卡车)。此特征几何形状可归因于其非静止性质而被给定极低分级。
关于颜色性质,包含明亮的或非中性颜色(例如红、粉红、紫、橙、绿、蓝或黄)的特征几何形状可与中性颜色(例如灰、黑、棕、米色或白)相比被给定较高分级。举例来说,与城市或大都市区内存在的大部分钢构造相比,城市或大都市区的明亮的或非中性颜色可表示独特建筑物或结构的颜色。经由此独特建筑物颜色的识别,装置可能够容易得多地识别其在城市的路径网络内的位置。
在某些实施例中,基于上文所论述的性质的组合对特征几何形状分级。所述组合可包括加权方法,其中每一性质被给定依据位置和时间的权重。换句话说,每一性质的权重可在空间和时间上变化(即,权重可为动态的)。
在一个实施例中,使用特征的形状的分级值(“形状”)、特征的尺寸的分级值(“尺寸”)、特征的高程的分级值(“高程”)和特征的变动的分级值(“变动”)计算特定特征几何形状的总体分级值。可使用以下等式计算每一特征几何形状的总体分级值:
分级值=W1×形状+W2×尺寸+W3×高程+W4×变动
其中W1+W2+W3+W4=1。
在某些实施例中,W1、W2、W3和W4具有相等权重,指示每一性质的重要性相等。在其它实施例中,W2(与特征几何形状的尺寸相关联)和/或W3(与几何形状的高程相关联)被给定比W1(形状)和/或W4(变动)高的权重。在某些实施例中,W2被给定四个因素的最高权重。在其它实施例中,W3被给定四个因素的最高权重。在一个特定实施例中,权重的排序从最高到最低为:W3、W2、W1和W4。
在一个实例中,四个特征几何形状基于四个因素彼此进行比较。在此实例中,每一因素被给定相同权重(W1=W2=W3=W4=0.25)。所述因素以真或假的布林值界定,其中真=1且假=0。真值可表示高分级性质,例如具有长度大于10米的尺寸、距道路水平大于10米的高程、线、连接线或曲线的集合、弧或样条的形状或恒定不变的几何形状的几何形状。假值可表示低分级性质,例如具有长度小于10米的尺寸、距道路水平小于10米的高程、比线、连接线或曲线的集合、弧或样条复杂的形状或变动几何形状的几何形状。确定每一特征的分级值,且基于分级值确定总体分级。预见性实例的结果在下表中展示。
表:分级特征几何形状
名称 | 形状 | 尺寸 | 高程 | 变动 | 分级值 | 最终分级 |
特征1 | 真 | 真 | 真 | 真 | 1.0 | 1 |
特征2 | 假 | 真 | 假 | 假 | 0.25 | 4 |
特征3 | 假 | 真 | 真 | 假 | 0.50 | 3 |
特征4 | 真 | 真 | 假 | 真 | 0.75 | 2 |
在其它实施例中,可使用与布林值组合或者来自布林值的数值对特征几何形状分级。举例来说,用于对特征分类的值可包含每一特征的实际长度或尺寸,或每一特征距道路水平的高程,而每一特征的形状或每一结构的变动可使用布林真或假特性界定。
GDOP和特征分级的组合
在某些实施例中,包括多个特征几何形状的指纹可经由来自车辆周围的各种位置或区的特征几何形状的组合。在一些实施例中,所述过程包括选择极高程度分布(即,具有高GDOP)并且还具有高分级值的特征几何形状。在某些实施例中,所述过程可包括将深度图划分为多个区段或区(例如,至少3、4或5个区段或区),其中识别深度图的每一区段中的结构,且将那些结构内的特征几何形状对照彼此分级。在某些实施例中,每一区段或区包括深度图的相等体积。总体指纹包括选择深度图的每一区段内的最高分级的特征几何形状。在一些实施例中,在深度图的区段内未识别出结构的情况下,可识别相邻区段中的额外结构(即,一个以上结构)或单一结构内的额外特征几何形状。
在某些实施例中,所述过程选择最高数目的特征几何形状以考虑用于确定装置的位置。在一些实施例中,所述选择包括至少2、至少3、至少5、至少10,或至少15个特征几何形状。
确定路径网络中的定位
在终端用户装置或车辆选择包括多个特征几何形状的指纹之后,装置可经由已连接的网络将指纹数据发射到指纹数据库。指纹数据库接着可将所发射的特征几何形状与其存储的特征几何形状数据比较。
在比较过程中,基于所选择和发射的特征几何形状的独特性,数据库能够使所选择和发射的特征几何形状与存储于指纹数据库中的特征几何形状匹配。经由此匹配过程,指纹数据库将特征几何形状的位置数据发射回到所述装置。此位置数据可包含特征几何形状的经编码数据(上文所论述),例如特征几何形状的控制点数据。换句话说,针对控制点的经编码数据的发射包含控制点的纬度、经度和海拔高度的发射。
使用所发射的控制点数据,且知晓装置距每一控制点的测得的距离,可确定装置的地理位置。此外,在一些实施例中,可确定装置的地理定向(例如,行进方向)。也就是说,当匹配特征几何形状且知晓特征几何形状相对于深度感测装置的定位的定位时,可确定最佳对准特征几何形状的定向以指示装置和深度感测装置的定向(例如驾驶方向)。
在某些实施例中,经由多边测量过程使用所发射的控制点数据和距控制点的测得的距离(即,距控制点的半径)确定地理位置。
在某些实施例中,经由多边测量过程利用至少3个控制点(和与每一控制点相关联的相关联纬度、经度和海拔高度数据)确定装置的地理位置。在其它实施例中,使用至少4个控制点。在另外其它实施例中,5个或更多控制点用于计算汽车的地理位置。在替代实施例中,可使用仅2个控制点结合GPS数据以确定终端用户装置或车辆的地理位置。
可计算其地面实际或真实位置的1米内的装置的地理位置(即,装置的实际纬度/经度,且任选地海拔高度、坐标)。在一些实施例中,可计算地面实际或真实位置的0.5米、0.1米、50厘米、20厘米、10厘米、5厘米、3厘米、2厘米或1厘米内的地理位置。
图6提供多边测量过程的一个非限制性实例。在此实例中,车辆20(即,车辆的处理器)已识别和选择车辆周围的四个特征几何形状以表示所述位置的指纹。也就是说,车辆20已识别和选择第一建筑物24上的两个直线特征几何形状,所述特征几何形状在道路水平上方20米和50米高程处出现。车辆20还已识别和选择20米高程处第二建筑物26上出现的额外直线特征几何形状。此外,车辆20已识别和选择2米高程处交通灯杆28的特征几何形状。
在发射这些特征几何形状且使其与指纹数据库匹配之后,指纹数据库已传回这些几何形状中的每一者的控制点数据。举例来说,如图6中所展示,控制点识别为直线22a、22b、22c、22d、22f和22g的端点,以及表示交通灯杆的单一点22e。控制点22a-22g中的每一者包含纬度、经度和海拔高度信息。结合车辆20和每一控制点之间识别的距离,此控制点信息可用于经由多边测量计算确定车辆20的位置。
图7A和7B提供此过程的另一实例,其中经由特征几何形状的提取、几何形状与指纹数据库的匹配和多边测量过程确定车辆的位置。举例来说,图7A中,从车辆周围的三个建筑物32、34和36提取四个直线特征。经由与指纹数据库的匹配过程,将特征几何形状的控制点信息中继回到车辆以供处理。如图7B中所示,这四个直线特征含有7个控制点,其中d1-d7描绘车辆到每一控制点的所识别的距离。使用这些距离和控制点信息(例如,纬度、经度和海拔高度),确定车辆的地理位置。
图8提供基于三个控制点P1、P2、P3的多边测量过程的另一实例。所述三个控制点的地理坐标识别为(0,0)、(d,0)和(i,j)。车辆到控制点的距离由半径r1、r2、r3识别。基于这些已知距离和来自指纹数据库的控制点的地理位置,计算车辆的近似地理位置。举例来说,在此情况下,可使用以下等式计算车辆的位置的x、y及z坐标:
如图8中所描绘,近似位置在三个球面的交叉内。
在一些实施例中,例如在自主或HAD车辆的情况下,在处理和确定车辆的地理位置或定向之后,车辆可处理所报告的数据,且作出关于是否警告操作者或采取动作的决策。在某些实施例中,车辆中的导航装置或与导航装置通信的另一计算机系统可包含用于为车辆进行路线选择的指令,或基于所报告的位置或定向数据产生用于转向车辆、调档、增加和减小油门以及刹车的驾驶命令。
流程图实施例
图9说明用于开发路径网络的指纹数据库的实例流程图。可由图11和12中描述和展示的导航数据系统100或装置201执行流程图的过程。或者,另一装置可经配置以执行以下动作中的一或多者。可包含额外、较少或不同动作。
动作S101处,接收路径网络中的位置的深度图。可使用例如LIDAR相机等深度感测装置收集深度图。深度图可经保存或经由已连接网络发射到处理器用于进一步分析。
动作S103处,使用处理器识别深度图内的物理结构,所述处理器附接到收集深度图数据的数据收集装置(例如,车辆)或与外部地图数据库相关联的单独处理器。物理结构的实例包含建筑物立面、道路标志、polls、植物(例如,树)或路径网络中存在的其它非暂时性结构。
动作S105处,对于每一物理结构,深度图可划分成距道路水平一或多个高程处的一或多个水平面或切片。在划分或切割过程中,深度图数据在所界定的选定高程处识别,选定高程上方及下方的范围内存在的数据也一样。举例来说,水平面可包含所界定高程的0.1米、0.2米、0.5米、1米或2米内的数据的聚合。
动作S107处,从水平面提取二维特征几何形状。每一水平切片或平面的几何形状的提取可使用各种算法进行,其中切片中的深度图数据转换为一或多个二维几何形状。
动作S109处,将所提取的特征几何形状的至少一部分编码到指纹数据库中。在一些实施例中,仅高分级特征几何形状经编码或保存在数据库中。
图10说明用于确定车辆的地理位置的实例流程图。流程图的过程可由图11和12中描述和展示的导航数据系统100或装置201执行。或者,另一装置可经配置以执行以下动作中的一或多者。可包含额外、较少或不同动作。
动作S201处,在路径网络中的位置处使用附接到终端用户装置的深度感测相机收集深度图。动作S203处,使用终端用户装置的处理器识别深度图内的物理结构。动作S205处,对于每一物理结构,深度图可划分成距道路水平一或多个高程处的一或多个水平面或切片。动作S207处,从水平面提取二维特征几何形状。
动作S209处,确定路径网络中的终端用户装置的地理位置。经由所提取特征几何形状的至少一部分与路径网络的特征几何形状的数据库的比较确定所述位置。在一些实施例中,仅选择高分级特征几何形状以供与数据库比较。在一些实施例中,还确定地理位置处装置的定向。
导航和网络系统
图11描绘可用于收集深度图数据或确定路径网络中的装置的位置的地理和/或导航数据系统100的一个实施例。地理数据或导航系统100包含(但不限于)在地理区112中的路径网络108上行进的数据收集或终端用户装置104、装置116、处理装置128、工作站或计算机132,和/或数据库136。可提供额外、较少或不同组件。举例来说,可提供代理服务器、名称服务器、地图服务器、高速缓冲存储器服务器或高速缓冲存储器网络、路由器、开关或智能开关、额外计算机或工作站、用户接口、管理组件(例如管理工作站)、网关装置、主链、端口、网络连接和/或网络接口。虽然图11中的组件展示为彼此分离,但这些组件中的一或多者可组合。
数据收集或终端用户装置104为车辆,例如汽车、卡车、摩托车、自行车、赛格威或用于在路径网络108上移动的其它交通装置或机械装置。或者,数据收集或终端用户装置104可表示沿着路径网络108步行或移动的行人,例如人类或动物。路径网络108为道路网络和/或其它路径的集合。举例来说,路径网络108为由各种道路组成的道路网络。所述道路可用于在例如本地和相邻地区街道以及高速公路上驾驶车辆。并且,作为传统街道的替代或补充,路径网络108可包含自行车道或路径、步行路径或其它行进路径。或者,路径网络108可为不具有特定路径或行进约束的开放区域空间。路径网络108在地理区112中,例如城市、郊区、州、国家和/或其它地理区。
在某些实施例中,数据收集或终端用户装置104为自主车辆或高度自动化驾驶(HAD)车辆。如本文所描述,“自主车辆”可指代自驾驶或无人驾驶模式,其中不需要乘客在车上来操作车辆。自主车辆可被称为机器人车辆或自动化车辆。自主车辆可包含乘客,但不需要驾驶者。这些自主车辆可在无人类操作者的情况下自行停放或在各位置之间移动货物。自主车辆可包含多个模式且在所述模式之间转变。
如本文所描述,“高度自动化驾驶(HAD)车辆”可指代不完全替代人类操作者的车辆。实际上,在高度自动化驾驶模式中,车辆可执行一些驾驶功能,且人类操作者可执行一些驾驶功能。车辆还可在手动模式中驾驶,其中人类操作者对车辆的移动采取一定程度的控制。车辆还可包含完全无人驾驶模式。其它自动水平是可能的。
数据收集或终端用户装置104沿着路径网络108行进或在路径网络108附近移动以收集数据。支撑装置或外壳116与装置104附接或连接或由装置104携载。支撑外壳116可为或可包含用以收集表示道路或路径或其它区域附近或周围的区域的设备。举例来说,所收集的数据可为激光、LIDAR、图像和/或视频/相机数据(例如,在可见光谱或其它光谱中)。可收集其它数据,例如位置数据、GPS数据和/或其它地理数据。
在一个实施例中,支撑外壳116为附接到行人(数据收集或终端用户装置104)或由其携载的外壳或容器,且随着行人在路径、人行道或其它区域上和/或正在其上移动,支撑外壳116中的例如LIDAR系统和/或相机等设备收集数据。在另一实施例中,支撑外壳116为附接到车辆的外壳或容器,且随着车辆在道路或路径上和/或正在其上移动,支撑外壳116中的例如LIDAR装置和/或相机等设备收集或聚集对应于周围区域的数据。或者,支撑外壳116可为LIDAR装置或相机装置自身或其零件。支撑外壳116可定位在装置(例如,车辆)的后端处且可成角度以增强收集。在其它实施例中,支撑外壳116可定位在车辆、行人或装置上的任何地方和任何方向中。
所收集的数据存储在一或多个非暂时性计算机可读媒体120上,例如CD-ROM、DVD、快闪驱动器、硬盘驱动器,或适合于存储数据的其它有形媒体。不同类型的数据可存储在相同媒体120上。或者,单独非暂时性媒体120可用于存储单独或不同类型的数据。在一个实施例中,LIDAR或激光数据、照片(例如数字或电子照片)、视频图像和/或由装置104和/或支撑外壳116收集的其它图像数据存储于一或多个非暂时性媒体120中。或者,非暂时性媒体120可为携载或具有数据的信号。所收集的LIDAR或图像数据可表示路径、道路或其它区域附近或周围的区域或区。所收集的激光或LIDAR数据和/或图像可包含地理特征,例如天空特征、地形或周围特征、道路或路径(例如人行道)、道路或路径标记(例如行人穿越道或车道标记)、道路或路径标志、兴趣点(“POI”)(例如建筑物、公园、博物馆等),和/或其它特征或对象。
所收集的数据经由一或多个非暂时性媒体120发送到地图、地理和/或导航数据开发者124,例如HERE或Nokia公司。举例来说,非暂时性媒体120可邮寄到或携带到地图开发者124。或者,所收集的数据中的一些或全部可经由无线和/或有线网络发射到地图开发者124。举例来说,网络可包含因特网、内联网、局域网(“LAN”)、广域网(“WAN”)、虚拟专用网络(“VPN”)、服务器网络、蜂窝式网络、卫星网络、广播网络、无线或有线连接,和/或任何已知或将来网络或连接。术语“地图开发者”还可包含第三方承包商。
由地图开发者124维持的处理装置128接收所收集的数据。处理装置128为一或多个服务器、计算机(例如台式机或膝上型计算机处理单元)、处理器和/或其它电子处理系统或装置。处理装置128包含(但不限于)处理器140、存储器144和图像软件应用148。可提供额外、较少或不同组件。
处理装置128可包含工作站或计算机132或与其通信。举例来说,工作站132为用户接口、电子控制台和/或计算机,其具有可用于存取、控制处理装置128或其组件和/或与之通信的一或多个输入装置。
处理器140为通用处理器、专用集成电路(“ASIC”)、数字信号处理器、现场可编程门阵列(“FPGA”)、数字电路、模拟电路或其组合。在一个实施例中,处理器140为可操作以控制处理装置128的各种电子器件和逻辑和/或与之通信的一或多个处理器。存储器144为任何已知或将来存储装置。存储器144为非易失性和/或易失性存储器,例如随机存取存储器“RAM”(电子)、只读存储器“ROM”(电子),或可擦除可编程只读存储器(EPROM或快闪存储器)。可提供存储器网络。存储器144可为处理器140的一部分。存储器144可操作或经配置以存储激光、LIDAR和/或图像数据或其它数据。
处理器140或其它处理器经配置以或适于执行可存储于存储器144或其它存储器中的图像软件应用148。举例来说,图像软件应用148基于模型数据(例如对应于地理区域的三维模型数据)产生多层图像(例如二维可缩放向量图形(“SVG”)多层图像)。在一个实施例中,应用148识别和/或接收三维模型数据,例如所收集的三维LIDAR点云数据,且执行下文详细论述的过程或渲染序列以产生地理区域的多层图形图像。所产生的多层图形图像可用于导航或地理系统中以及多种用户接口、装置或系统中。并且,所产生的多层图形图像可提供到此类系统和/或装置的开发者用于配置目的。
在一个实施例中,一或多个所产生的多层图形图像经存储、链接、编索引和/或关联于数据库136中,数据库136与处理装置128通信。或者,一或多个所产生的多层图形图像存储于可或可不与数据库136或其数据相关联的一或多个单独或不同数据库中。在一个实施例中,地理数据库136包含用于导航相关和/或地理相关服务的数据。举例来说,地理数据库136含有表示道路网络(例如路径网络108)的路段/链路和节点数据记录。节点表示路段的端点和/或交叉点。路段和节点可与例如地理坐标、街道名称、地址范围、速度限制、交叉处的转弯限定和其它车辆导航属性等属性以及例如加油站、旅馆、餐馆、博物馆、体育场、办公室、汽车经销店、汽车修理厂、建筑物、商店等POI相关联。或者,作为车辆道路记录数据的补充或替代,地理数据库136含有表示行人路径的路段/链路和节点数据记录或其它数据。
地理数据库136可为以促进更新、维护和开发的格式存储的主地理数据库。举例来说,主地理数据库136或主地理数据库136中的数据呈Oracle空间格式,例如用于开发或生产目的。Oracle空间格式或开发/生产数据库可编译成递送格式,例如GDF格式。
呈生产和/或递送格式的数据可经编译或进一步编译从而形成地理数据库产品或数据库152,其可用于终端用户导航装置或系统或其它系统或装置中。举例来说,地图开发者124(例如导航装置或系统的开发者)的消费者可接收呈递送格式的所产生的多层图形图像以及其它地理数据,且接着为终端用户装置编译和/或配置此数据。在一个实施例中,地理数据经编译(例如编译为PSF格式)以组织和/或配置数据(例如,段/链路、节点、多层图形图像,和/或其它数据或属性)用于由导航装置执行导航相关功能和/或服务,例如路线计算、路线导引、地图显示、速度计算、距离和行进时间功能,以及其它功能。导航相关功能可对应于车辆导航、行人导航或其它类型的导航。
图12说明装置201的组件的实施例。举例来说,装置201可为数据收集或终端用户装置104的实施例(例如车辆),或可类似于支撑装置116。在一个实施例中,装置201为包含用以收集数据的设备的支撑件或外壳。举例来说,装置201可移除地或一体地与车辆附接或连接。装置201定位在车辆的顶部后端处。或者,装置201可以任何角度定位在车辆的任何部分上或中。在另一实施例中,装置201附接到行人或由行人携载。举例来说,装置201可为LIDAR装置或用于收集三维数据的其它装置。
装置201包含(但不限于)处理器205、存储器209、定位系统213、数据收集或终端用户装置217,以及相机或相机装置221。可提供额外、较少或不同组件。举例来说,可提供输入装置。输入装置可为一或多个按钮、小键盘、键盘、鼠标、触笔、跟踪球、摇臂开关、触控板、话音辨识电路,或用于控制或在装置201的组件的一或多者中输入数据的其它装置或组件。虽然图12中的组件展示为彼此分离,但这些组件中的一或多者可组合。并且,一些组件可提供在装置201外部。举例来说,如果装置201为附接到车辆的外壳,那么定位系统213、处理器205、存储器209、输入装置和/或其它组件可在车辆中或车辆的另一部分上,而数据收集或终端用户装置217和相机221在装置201中。数据收集或终端用户装置217和相机221还可分成不同围封体或支撑件。
处理器205类似于或不同于处理器140。处理器205经配置以操作收集设备,例如定位系统213、数据收集或终端用户装置217和相机系统221。举例来说,处理器205将命令发送到各种收集装置以收集数据,且使不同组件同步或管理不同组件。并且,处理器205经配置以将来自收集装置的数据存储到存储器209中。存储器209类似于或不同于存储器144。存储器209可操作或经配置以存储所收集的光、激光、LIDAR、图像和/或位置数据或其它数据。存储器209可为非暂时性计算机可读媒体120的一部分或可为单独存储器。
定位系统213为GPS系统、一或多个机械和/或电学传感器、一或多个陀螺仪、本地定位系统、一或多个方向传感器,或用于提供装置201、其组件或已附接装置(例如车辆)的位置数据的其它系统或装置,所述位置数据例如定位数据(例如,经度、纬度和/或海拔高度)和/或方向数据。
相机221为用于拍摄周围区域的图片或视频的一或多个相机。举例来说,相机系统221包含视频相机,其随着车辆沿着道路或路径行驶而记录表示所述道路或路径的以及所述道路或路径附近的地理特征的视频数据(例如可见光光谱中)。相机221还可俘获与视频数据分离的静止照片。相机221能够俘获地理特征的不同颜色和相关联文本。
数据收集或终端用户装置217包括光数据收集装置。举例来说,装置或系统217可包含光源和光接收器。在一个实施例中,数据收集或终端用户装置217包括LIDAR装置或传感器、激光装置,和/或通过发射和接收光而收集数据点(例如三维数据)的其它装置。
在上文所描述的实施例中,通信网络可包含有线网络、无线网络或其组合。无线网络可为蜂窝式电话网络、802.11、802.16、802.20或WiMax网络。此外,网络可为公用网络(例如因特网)、私用网络(例如内联网),或其组合,且可利用现可用或以后开发的多种联网协议,包含(但不限于)基于TCP/IP的联网协议。
虽然非暂时性计算机可读媒体描述为单一媒体,但术语“计算机可读媒体”包含单一媒体或多个媒体,例如集中式或分布式数据库和/或相关联的存储一或多个指令集的高速缓冲存储器和服务器。术语“计算机可读媒体”还将包含具有以下特点的任何媒体:能够存储、编码或携载用于由处理器执行的指令集,或致使计算机系统执行本文中所揭示的方法或操作中的任一者或多者。
在特定非限制性示范性实施例中,计算机可读媒体可包含固态存储器(例如存储卡),或容纳一或多个非易失性只读存储器的其它封装。此外,计算机可读媒体可为随机存取存储器或其它易失性可重写存储器。此外,计算机可读媒体可包含磁光或光学媒体,例如磁盘或磁带或其它存储装置,以俘获例如发射媒体上传送的信号等载波信号。到电子邮件或其它自含式信息档案或档案集的数字文件附接可视为分布媒体,其为有形存储媒体。因此,考虑本发明包含计算机可读媒体或分布式媒体和其它等效物及后继媒体中的任一者或多者,其中可存储数据或指令。
在替代实施例中,例如专用集成电路、可编程逻辑阵列和其它硬件装置等专门硬件实施方案可经构造以实施本文所描述的方法中的一或多者。可包含各种实施例的设备和系统的应用可大致包含多种电子和计算机系统。本文所描述的一或多个实施例可使用两个或两个以上特定互连硬件模块或装置实施功能,其利用可在模块之间和经由模块或作为专用集成电路的部分传送的相关控制和数据信号。因此,当前系统涵盖软件、固件和硬件实施方案。
根据本发明的各种实施例,本文所描述的方法可由计算机系统可执行的软件程序实施。此外,在示范性非限制性实施例中,实施方案可包含分布式处理、组件/对象分布式处理和并行处理。或者,可建构虚拟计算机系统处理来实施如在此所描述的一种或多种方法或功能性。
尽管本说明书描述可在特定实施例中参考特定标准和协议实施的组件和功能,但本发明不限于此类标准和协议。举例来说,用于因特网和其它包交换网络发射的标准(例如,TCP/IP、UDP/IP、HTML、HTTP、HTTPS)表示现有技术水平的实例。此类标准周期性地被具有基本上相同功能的更快或更有效的等效物取代。因此,具有与本文中所揭示的那些相同或类似功能的替换标准和协议视为其等效物。
计算机程序(也被称作程序、软件、软件应用、脚本或代码)可以任何形式的编程语言(包含编译或解译语言)写入,且其可以任何形式部署,包含作为独立程序或作为模块、组件、子例程或适合用于计算环境中的其它单元。计算机程序不一定与文件系统中的文件相对应。程序可存储在保持其它程序或数据(例如存储在标记语言文档中的一或多个脚本)的文件的一部分中、专用于所讨论程序的单个文件中,或多个经协调文件(例如存储一或多个模块、子程序或代码的部分的文件)中。计算机程序可经部署以在一个计算机上或在位于一个位点或跨越多个位点分布并由通信网络互连的多个计算机上执行。
本说明书中描述的过程和逻辑流可由一或多个可编程处理器执行,所述可编程处理器执行一或多个计算机程序以通过对输入数据操作且产生输出而执行功能。所述过程和逻辑流还可由例如FPGA(现场可编程门阵列)或ASIC(专用集成电路)等专用逻辑电路执行,且设备也可实施为所述专用逻辑电路。
如本申请案中所使用,术语“电路”指代以下全部:(a)仅硬件电路实施方案(例如,仅模拟和/或数字电路中的实施方案);以及(b)电路和软件(和/或固件)的组合,例如(在适当时):(i)处理器的组合,或(ii)处理器/软件(包含数字信号处理器)、软件和一起工作以致使例如移动电话或服务器等设备执行各种功能的存储器的部分,以及(c)电路,例如微处理器或微处理器的一部分,其需要软件或固件用于操作,即使所述软件或固件实际上并不存在。
“电路”的此定义适用于此术语在本申请案中(包含在任何权利要求中)的所有使用。作为另一实例,如本申请案中所使用,术语“电路”还将涵盖仅处理器(或多个处理器)或处理器的部分及其随附软件和/或固件的实施方案。术语“电路”还将涵盖(举例来说,且如果适用于特定权利要求要素)用于移动电话的基带集成电路或应用处理器集成电路,或服务器、蜂窝式网络装置或其它网络装置中的类似集成电路。
适于计算机程序的执行的处理器包含(借助于实例)一般和专用微处理器两者,以及任何种类的数字计算机的任一或多个处理器。一般来说,处理器从只读存储器或随机存取存储器或两者接收指令和数据。计算机的基本元件是用于执行指令的处理器,以及用于存储指令和数据的一或多个存储器装置。一般来说,计算机还包含用于存储数据的一或多个大容量存储装置,或以操作方式耦合以从所述大容量存储装置接收数据或向其传送数据或进行这两种操作,所述大容量存储装置例如磁盘、磁光盘或光盘。然而,计算机未必具有此类装置。此外,计算机可嵌入在另一装置中,例如移动电话、个人数字助理(PDA)、移动音频播放器、全球定位系统(GPS)接收器,仅举几例。适合于存储计算机程序指令和数据的计算机可读媒体包含所有形式的非易失性存储器、媒体和存储器装置,包含例如:半导体存储器装置,例如EPROM、EEPROM和快闪存储器装置;磁盘,例如内部硬盘或可装卸式磁盘;磁光盘;以及CD ROM和DVD-ROM盘。处理器和存储器可由专用逻辑电路补充或并入在专用逻辑电路中。
为提供与用户的交互,本说明书中描述的标的物的实施例可在具有用于向用户显示信息的显示器(例如CRT(阴极射线管)或LCD(液晶显示器)监视器)以及用户可借以将输入提供到计算机的键盘和指向装置(例如鼠标或跟踪球)的装置上实施。其它种类的装置同样可以用于提供与用户的交互;举例来说,向用户提供的反馈可以是任何形式的感觉反馈(例如视觉反馈、听觉反馈或触感反馈);并且来自用户的输入可以按任何形式接收,包含声学、语音或触感输入。
本说明书中描述的标的物的实施例可在计算系统中实施,所述计算系统包含:后端组件例如作为数据服务器;或包含中间件组件,例如应用服务器;或包含前端组件,例如具有图形用户接口或网络浏览器的客户端计算机,用户可经由所述图形用户接口或网络浏览器与本说明书中描述的标的物的实施方案交互;或此类后端、中间件或前端组件的一或多者的任何组合。系统的组件可由任何形式或媒体的数字数据通信(例如,通信网络)互连。通信网络的实例包含局域网(“LAN”)和广域网(“WAN”),例如因特网。
计算系统可包含客户端和服务器。客户端和服务器通常远离彼此且通常经由通信网络交互。客户端与服务器的关系是借助于在相应计算机上运行并且彼此具有客户端-服务器关系的计算机程序产生。
本文中所描述的实施例的图示既定提供各种实施例的结构的一般理解。所述图示并不希望充当利用本文中所描述的结构或方法的设备和系统的所有要素和特征的完整描述。所属领域的技术人员在审阅本发明后可了解许多其它实施例。可利用其它实施例,且所述其它实施例从本发明导出,使得可在不脱离本发明的范围的情况下作出结构和逻辑上的替代和改变。此外,所述图示仅为代表性的,且可能不是按比例绘制。所述图示内的特定比例可夸示,而其它比例可最小化。因此,本发明和图式应视为说明性而非限定性的。
虽然本说明书含有许多细节,但这些不应解释为对本发明的范围或可主张何种内容的限制,而是解释为对本发明的特定实施方案特定的特征的描述。本说明书在单独实施例的上下文中描述的某些特征也可以组合形式实施于单个实施例中。相反地,在单个实施例的上下文中描述的各种特征也可单独地在多个实施例中实施或以任何适合的子组合来实施。此外,尽管上文可能将特征描述为以某些组合起作用乃至最初如此主张,但在一些情况下,可将来自所主张的组合的一或多个特征从组合中删除,且所主张的组合可针对子组合或子组合的变化。
同样,虽然在图式中描绘且在本文中按特定次序描述操作,但此不应被理解为要求按所展示的特定次序或按循序次序执行此类操作,或执行所有所说明的操作,以实现所要结果。在某些情况下,多重任务处理和并行处理可为有利的。此外,上文所描述的实施例中的各种系统组件的分离不应被理解为在所有实施例中要求此类分离,且应理解,所描述的程序组件及系统一般可一起集成在单个软件产品中或封装到多个软件产品中。
本文中可通过术语“本发明”个别地和/或共同地参考本发明的一或多个实施例,这仅为方便起见且不希望自发地将本申请案的范围限于任何特定发明或发明概念。此外,尽管已经说明且在本文中描述特定实施例,但应了解,经设计以实现相同或类似目的的任何后续布置可取代所展示的特定实施例。本发明意图涵盖各种实施例的任何和所有调适或变化。对于所属领域的技术人员而言在审阅描述内容之后上述实施例的组合以及本文中未具体描述的其它实施例将是显而易见的。
提供本发明的摘要以遵守37C.F.R.§1.72(b),应理解,其将不用于解释或限制权利要求书的范围或意义。此外,在以上详细描述中,出于精简本发明的目的,可以将各种特征分组在一起或描述于单一实施例中。不应将本发明解释为反映以下意图:所主张的实施例需要比在每一权利要求中所明确叙述更多的特征。事实上,如所附权利要求书所反映,本发明的标的物可针对少于所揭示的实施例中的任一者的全部特征。因此,所附权利要求书被并入到详细描述中,其中每一项权利要求独自界定单独主张的标的物。
希望以上详细描述视为说明性而非限制性的,且应理解,包含所有等效物的所附权利要求书既定界定本发明的范围。权利要求书不应视为限于所描述的次序或元件,除非如此陈述。因此,所附权利要求书及其等效物的范围和精神内的所有实施例均主张为本发明。
Claims (14)
1.一种用于编码数据库的方法,所述方法包括:
接收路径网络中的位置的三维深度图;
将所述深度图划分为距道路水平一个或多个高程处的一个或多个水平面,每个水平面具有与相应的高程相关联的厚度范围,并且包括来自在所述相应的高程上方及下方的所述厚度范围内的所述深度图的数据;
从所述一个或多个水平面提取二维的特征几何形状;以及
将所提取的所述特征几何形状的至少一部分编码到数据库中。
2.一种用于使用终端用户装置的方法,所述终端用户装置包括处理器并且装备有深度感测相机,所述方法包括:
使用所述深度感测相机收集路径网络中的位置处的三维深度图;
将所述深度图划分为距道路水平一个或多个高程处的一个或多个水平面,每个水平面具有与相应的高程相关联的厚度范围,并且包括来自在所述相应的高程上方及下方的所述厚度范围内的所述深度图的数据;以及
从所述水平面提取二维的特征几何形状用来经由所提取的所述特征几何形状的至少一部分和所述路径网络的特征几何形状的数据库的比较确定所述终端用户装置的地理位置。
3.根据权利要求1或权利要求2所述的方法,其中所述水平面具有0.1-2米的厚度。
4.根据权利要求1或2所述的方法,包括:
在第一高程处分析第一水平面以识别二维特征几何形状;和
如果在所述第一水平面中未识别出有用的二维几何特征,则在第二高程处从第二水平面提取二维特征几何形状。
5.根据权利要求2所述的方法,其进一步包括:
经由所述所提取的特征几何形状和特征几何形状的所述数据库的比较确认所述终端用户装置的地理定向。
6.根据权利要求2所述的方法,其中所述终端用户装置为车辆,且其中所述深度感测相机选自由以下各者组成的群组:LIDAR相机、RADAR装置、超声装置、结构灯相机,和移动式单相机。
7.根据权利要求2所述的方法,其进一步包括∶
将所述所提取的特征几何形状分级以提供每一所提取的特征几何形状的分级值,其中所述分级是基于以下因素中的一或多者:(1)所述特征几何形状的形状,(2)所述特征几何形状的尺寸,(3)所述特征几何形状的高程,或(4)所述特征几何形状的变动;以及
将所述经分级的特征几何形状从最高到最低分级特征几何形状分类,
其中与所述数据库的所述比较中使用的所提取特征几何形状的所述部分包括所述最高分级特征几何形状。
8.根据权利要求1或2所述的方法,其中所述二维特征几何形状包括曲线、弧或样条。
9.根据权利要求8所述的方法,其中所述特征几何形状的提取使用了曲线回归算法。
10.根据权利要求2所述的方法,其中使用以下各者确定所述终端用户装置的所述地理位置:(1)所述数据库中所述特征几何形状的选定控制点的地理属性,和(2)所述终端用户装置距所述特征几何形状的每一选定控制点的所确定距离,其中所述地理属性包括每一选定控制点的纬度、经度和所述道路水平上方的高程。
11.根据权利要求2所述的方法,还包括:经由所提取的所述特征几何形状的至少一部分与所述路径网络的特征几何形状的数据库的比较确定所述终端用户装置的地理位置。
12.根据权利要求1或2所述的方法,包括:使用处理器识别所述深度图内的物理结构。
13.一种配置为执行前述任一权利要求所述的方法的设备,其包括:
至少一个处理器;以及
至少一个存储器,其包含用于一或多个程序的计算机程序代码;所述至少一个存储器和所述计算机程序代码经配置以利用所述至少一个处理器致使所述设备至少执行所述方法。
14.一种计算机可读媒体,其包括用于一个或多个程序的计算机程序代码;所述计算机程序代码经配置致使至少一个处理器至少执行前述权利要求1至12中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110100348.8A CN112924978B (zh) | 2014-12-26 | 2015-12-18 | 用于装置的定位的方法和设备 |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US14/583,375 US9519061B2 (en) | 2014-12-26 | 2014-12-26 | Geometric fingerprinting for localization of a device |
US14/583,375 | 2014-12-26 | ||
PCT/IB2015/002511 WO2016103028A1 (en) | 2014-12-26 | 2015-12-18 | Geometric fingerprinting for localization of a device |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110100348.8A Division CN112924978B (zh) | 2014-12-26 | 2015-12-18 | 用于装置的定位的方法和设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107430183A CN107430183A (zh) | 2017-12-01 |
CN107430183B true CN107430183B (zh) | 2021-02-09 |
Family
ID=55275115
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110100348.8A Active CN112924978B (zh) | 2014-12-26 | 2015-12-18 | 用于装置的定位的方法和设备 |
CN201580071215.5A Active CN107430183B (zh) | 2014-12-26 | 2015-12-18 | 用于装置的定位的方法和设备 |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110100348.8A Active CN112924978B (zh) | 2014-12-26 | 2015-12-18 | 用于装置的定位的方法和设备 |
Country Status (8)
Country | Link |
---|---|
US (2) | US9519061B2 (zh) |
EP (1) | EP3237925A1 (zh) |
JP (3) | JP2018504650A (zh) |
KR (1) | KR102002631B1 (zh) |
CN (2) | CN112924978B (zh) |
AU (2) | AU2015370579A1 (zh) |
BR (1) | BR112017013687B1 (zh) |
WO (1) | WO2016103028A1 (zh) |
Families Citing this family (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014201324A1 (en) | 2013-06-13 | 2014-12-18 | Gideon Stein | Vision augmented navigation |
US9519061B2 (en) * | 2014-12-26 | 2016-12-13 | Here Global B.V. | Geometric fingerprinting for localization of a device |
US9803985B2 (en) * | 2014-12-26 | 2017-10-31 | Here Global B.V. | Selecting feature geometries for localization of a device |
US9792521B2 (en) * | 2014-12-26 | 2017-10-17 | Here Global B.V. | Extracting feature geometries for localization of a device |
US10028102B2 (en) | 2014-12-26 | 2018-07-17 | Here Global B.V. | Localization of a device using multilateration |
SG11201808478RA (en) * | 2015-07-30 | 2018-10-30 | Univ Monash | Fibrotic treatment |
US10386480B1 (en) * | 2016-02-02 | 2019-08-20 | Waymo Llc | Radar based mapping and localization for autonomous vehicles |
US10650621B1 (en) | 2016-09-13 | 2020-05-12 | Iocurrents, Inc. | Interfacing with a vehicular controller area network |
CN116147613A (zh) * | 2016-11-29 | 2023-05-23 | 大陆汽车有限责任公司 | 利用交叉传感器特征点参考生成环境模型并定位的方法和系统 |
KR102406502B1 (ko) * | 2016-12-14 | 2022-06-10 | 현대자동차주식회사 | 차량의 협로 주행 안내 장치 및 방법 |
US10178499B2 (en) * | 2017-04-21 | 2019-01-08 | The United States Of America As Represented By The Administrator Of Nasa | Virtual stationary satellites over any area of the earth for a continuous or set amount of time |
JP7489314B2 (ja) * | 2018-02-22 | 2024-05-23 | 本田技研工業株式会社 | 車両制御システム、車両制御方法、およびプログラム |
US11252040B2 (en) * | 2018-07-31 | 2022-02-15 | Cisco Technology, Inc. | Advanced network tracing in the data plane |
US20220308228A1 (en) * | 2019-05-21 | 2022-09-29 | Starship Technologies Oü | System and method for robot localisation in reduced light conditions |
EP3819673A4 (en) * | 2019-09-12 | 2021-07-21 | Huawei Technologies Co., Ltd. | POSITIONING METHOD, DEVICE AND SYSTEM |
CA3155482A1 (en) | 2019-10-21 | 2021-04-29 | Robert HANCZOR | Transit location systems and methods using lidar |
CN111337078B (zh) * | 2020-03-11 | 2021-05-28 | 广东省科学院广州地理研究所 | 一种城市地理数据采集手持设备 |
JP6837626B1 (ja) * | 2020-08-03 | 2021-03-03 | 株式会社空間技術総合研究所 | 地物データの生成システム、地物データベース更新システム及び地物データの生成方法 |
CN114286282B (zh) * | 2021-11-18 | 2023-12-26 | 中国科学院空天信息创新研究院 | 基于手机WiFi RSS数据和降维算法的指纹定位方法 |
Family Cites Families (66)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0579848A (ja) * | 1991-09-19 | 1993-03-30 | Fujitsu Ltd | 車両位置計測装置及び車両運転者支援装置 |
DE4408329C2 (de) * | 1994-03-11 | 1996-04-18 | Siemens Ag | Verfahren zum Aufbau einer zellular strukturierten Umgebungskarte von einer selbstbeweglichen mobilen Einheit, welche sich mit Hilfe von auf Wellenreflexion basierenden Sensoren orientiert |
US6526352B1 (en) * | 2001-07-19 | 2003-02-25 | Intelligent Technologies International, Inc. | Method and arrangement for mapping a road |
US6912293B1 (en) | 1998-06-26 | 2005-06-28 | Carl P. Korobkin | Photogrammetry engine for model construction |
EP1093564B1 (en) | 1998-07-06 | 2006-11-08 | Honeywell International Inc. | Aircraft position validation using radar and digital terrain elevation database |
KR100418862B1 (ko) * | 2000-03-14 | 2004-02-14 | 주식회사 칼라짚미디어 | 물리적으로 표현된 코드이미지를 이용한 광고 서비스 방법및 그 장치 |
CA2400975C (en) | 2000-03-16 | 2008-11-04 | The Johns Hopkins University | Light detection and ranging (lidar) mapping system |
FI115668B (fi) * | 2003-03-25 | 2005-06-15 | Sandvik Tamrock Oy | Kaivosajoneuvon paikan ja suunnan alustaminen |
WO2005038402A1 (ja) * | 2003-10-21 | 2005-04-28 | Waro Iwane | ナビゲーション装置 |
JP4533659B2 (ja) | 2004-05-12 | 2010-09-01 | 株式会社日立製作所 | レーザー計測により地図画像を生成する装置及び方法 |
JP4708124B2 (ja) * | 2005-08-30 | 2011-06-22 | 富士重工業株式会社 | 画像処理装置 |
JP4650752B2 (ja) * | 2005-12-16 | 2011-03-16 | 株式会社Ihi | 自己位置同定方法と装置および三次元形状の計測方法と装置 |
EP2041515A4 (en) | 2006-07-13 | 2009-11-11 | Velodyne Acoustics Inc | HIGH DEFINITION LIDAR SYSTEM |
WO2008054203A1 (en) * | 2006-10-30 | 2008-05-08 | Tele Atlas B.V. | Method and apparatus for detecting objects from terrestrial based mobile mapping data |
WO2009025911A2 (en) | 2007-06-01 | 2009-02-26 | Second Wind, Inc. | Position correction in sodar and meteorological lidar systems |
RU2010136929A (ru) * | 2008-02-04 | 2012-03-20 | Теле Атлас Норт Америка Инк. (Us) | Способ для согласования карты с обнаруженными датчиком объектами |
EP2150057A3 (en) | 2008-07-29 | 2013-12-11 | Gerald Curry | Camera-based tracking and position determination for sporting events |
CN101398933B (zh) | 2008-10-17 | 2010-09-15 | 北京大学 | 一种从图像中恢复三维几何信息的方法 |
US8125622B2 (en) | 2009-07-28 | 2012-02-28 | Applied Concepts, Inc. | Lidar measurement device with target tracking and method for use of same |
CA2771286C (en) * | 2009-08-11 | 2016-08-30 | Certusview Technologies, Llc | Locating equipment communicatively coupled to or equipped with a mobile/portable device |
US20140379254A1 (en) * | 2009-08-25 | 2014-12-25 | Tomtom Global Content B.V. | Positioning system and method for use in a vehicle navigation system |
WO2011023244A1 (en) * | 2009-08-25 | 2011-03-03 | Tele Atlas B.V. | Method and system of processing data gathered using a range sensor |
TWI391874B (zh) * | 2009-11-24 | 2013-04-01 | Ind Tech Res Inst | 地圖建置方法與裝置以及利用該地圖的定位方法 |
KR101182891B1 (ko) * | 2009-12-09 | 2012-09-13 | 삼성메디슨 주식회사 | 2차원 초음파 영상과 3차원 초음파 영상의 합성영상을 제공하는 초음파 시스템 및 방법 |
WO2011163454A1 (en) * | 2010-06-25 | 2011-12-29 | Trimble Navigation Ltd. | Method and apparatus for image-based positioning |
US9219985B2 (en) | 2010-07-27 | 2015-12-22 | University Of Regina | Method and system for cooperative stochastic positioning in a mobile environment |
KR101844228B1 (ko) * | 2010-09-19 | 2018-04-02 | 엘지전자 주식회사 | 삼차원 방송 서비스를 위한 방송 신호를 프로세싱하는 방법 및 장치 |
EP2619742B1 (en) * | 2010-09-24 | 2018-02-28 | iRobot Corporation | Systems and methods for vslam optimization |
JP2012127896A (ja) * | 2010-12-17 | 2012-07-05 | Kumamoto Univ | 移動体位置測定装置 |
WO2012086029A1 (ja) * | 2010-12-22 | 2012-06-28 | 株式会社日立製作所 | 自律移動システム |
US20120162225A1 (en) * | 2010-12-23 | 2012-06-28 | Google Inc. | View dependent techniques to determine user interest in a feature in a 3d application |
PL2490092T3 (pl) * | 2011-02-16 | 2014-02-28 | Siemens Ag | Sposób niezależnej lokalizacji niemającego kierowcy, zmotoryzowanego pojazdu |
US8605992B2 (en) | 2011-04-08 | 2013-12-10 | Microsoft Corporation | Image completion using scene geometry |
WO2012160630A1 (ja) * | 2011-05-20 | 2012-11-29 | 株式会社日立製作所 | 軌跡補正方法、軌跡補正装置および移動体装置 |
US8879828B2 (en) * | 2011-06-29 | 2014-11-04 | Matterport, Inc. | Capturing and aligning multiple 3-dimensional scenes |
GB201116959D0 (en) * | 2011-09-30 | 2011-11-16 | Bae Systems Plc | Vehicle localisation with 2d laser scanner and 3d prior scans |
US9194949B2 (en) * | 2011-10-20 | 2015-11-24 | Robert Bosch Gmbh | Methods and systems for precise vehicle localization using radar maps |
US8630805B2 (en) * | 2011-10-20 | 2014-01-14 | Robert Bosch Gmbh | Methods and systems for creating maps with radar-optical imaging fusion |
US9297881B2 (en) * | 2011-11-14 | 2016-03-29 | Microsoft Technology Licensing, Llc | Device positioning via device-sensed data evaluation |
CN104067272A (zh) * | 2011-11-21 | 2014-09-24 | 诺基亚公司 | 用于图像处理的方法和装置 |
EP2783329A4 (en) * | 2011-11-22 | 2016-08-24 | Nokia Corp | METHOD FOR PROCESSING IMAGES AND CORRESPONDING APPARATUS |
US8855366B2 (en) * | 2011-11-29 | 2014-10-07 | Qualcomm Incorporated | Tracking three-dimensional objects |
US8903644B2 (en) * | 2011-11-29 | 2014-12-02 | Irobot Corporation | Digest for localization or fingerprinted overlay |
CN102520401B (zh) | 2011-12-21 | 2013-05-08 | 南京大学 | 一种基于LiDAR数据的建筑物区域提取方法 |
GB201202344D0 (en) * | 2012-02-10 | 2012-03-28 | Isis Innovation | Method of locating a sensor and related apparatus |
GB2501466A (en) * | 2012-04-02 | 2013-10-30 | Univ Oxford | Localising transportable apparatus |
CN102737235B (zh) * | 2012-06-28 | 2014-05-07 | 中国科学院自动化研究所 | 基于深度信息和彩色图像的头部姿势估计方法 |
US9056395B1 (en) * | 2012-09-05 | 2015-06-16 | Google Inc. | Construction zone sign detection using light detection and ranging |
JP6074205B2 (ja) * | 2012-09-26 | 2017-02-01 | 株式会社日立産機システム | 自律移動体 |
US9082008B2 (en) | 2012-12-03 | 2015-07-14 | Honeywell International Inc. | System and methods for feature selection and matching |
GB201301281D0 (en) * | 2013-01-24 | 2013-03-06 | Isis Innovation | A Method of detecting structural parts of a scene |
US9989650B2 (en) * | 2013-02-13 | 2018-06-05 | Here Global B.V. | Position in urban canyons |
US9202353B1 (en) * | 2013-03-14 | 2015-12-01 | Toyota Jidosha Kabushiki Kaisha | Vibration modality switching system for providing navigation guidance |
KR102040152B1 (ko) * | 2013-04-08 | 2019-12-05 | 삼성전자주식회사 | 3차원 영상 획득 장치 및 3차원 영상 획득 장치에서의 깊이 영상 생성 방법 |
US9191643B2 (en) * | 2013-04-15 | 2015-11-17 | Microsoft Technology Licensing, Llc | Mixing infrared and color component data point clouds |
GB2551291B (en) * | 2013-05-23 | 2018-02-14 | Linear Algebra Tech Limited | Corner detection |
US9037396B2 (en) * | 2013-05-23 | 2015-05-19 | Irobot Corporation | Simultaneous localization and mapping for a mobile robot |
US9062979B1 (en) * | 2013-07-08 | 2015-06-23 | Google Inc. | Pose estimation using long range features |
US9305241B2 (en) * | 2013-07-29 | 2016-04-05 | Google Inc. | Systems and methods for reducing a data set |
JP5728564B2 (ja) * | 2013-12-20 | 2015-06-03 | 株式会社日立製作所 | ロボットシステム及び地図更新方法 |
US9298992B2 (en) * | 2014-02-20 | 2016-03-29 | Toyota Motor Engineering & Manufacturing North America, Inc. | Geographic feature-based localization with feature weighting |
US9792521B2 (en) * | 2014-12-26 | 2017-10-17 | Here Global B.V. | Extracting feature geometries for localization of a device |
US9803985B2 (en) * | 2014-12-26 | 2017-10-31 | Here Global B.V. | Selecting feature geometries for localization of a device |
US9519061B2 (en) * | 2014-12-26 | 2016-12-13 | Here Global B.V. | Geometric fingerprinting for localization of a device |
US9589355B2 (en) * | 2015-03-16 | 2017-03-07 | Here Global B.V. | Guided geometry extraction for localization of a device |
CN106204572B (zh) * | 2016-07-06 | 2020-12-04 | 合肥工业大学 | 基于场景深度映射的道路目标深度估计方法 |
-
2014
- 2014-12-26 US US14/583,375 patent/US9519061B2/en active Active
-
2015
- 2015-12-18 EP EP15831066.4A patent/EP3237925A1/en active Pending
- 2015-12-18 KR KR1020177020769A patent/KR102002631B1/ko active IP Right Grant
- 2015-12-18 CN CN202110100348.8A patent/CN112924978B/zh active Active
- 2015-12-18 WO PCT/IB2015/002511 patent/WO2016103028A1/en active Application Filing
- 2015-12-18 AU AU2015370579A patent/AU2015370579A1/en not_active Abandoned
- 2015-12-18 JP JP2017552530A patent/JP2018504650A/ja active Pending
- 2015-12-18 CN CN201580071215.5A patent/CN107430183B/zh active Active
- 2015-12-18 BR BR112017013687-2A patent/BR112017013687B1/pt active IP Right Grant
-
2016
- 2016-11-08 US US15/346,360 patent/US10145956B2/en active Active
-
2019
- 2019-03-15 AU AU2019201834A patent/AU2019201834B2/en not_active Ceased
-
2020
- 2020-03-11 JP JP2020041754A patent/JP6813703B2/ja not_active Expired - Fee Related
- 2020-12-17 JP JP2020209216A patent/JP7111794B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
AU2019201834B2 (en) | 2020-10-01 |
JP7111794B2 (ja) | 2022-08-02 |
BR112017013687A2 (pt) | 2018-03-06 |
JP2021060602A (ja) | 2021-04-15 |
US20170055116A1 (en) | 2017-02-23 |
AU2019201834A1 (en) | 2019-04-04 |
KR102002631B1 (ko) | 2019-07-22 |
CN112924978A (zh) | 2021-06-08 |
CN107430183A (zh) | 2017-12-01 |
JP6813703B2 (ja) | 2021-01-13 |
US20160189385A1 (en) | 2016-06-30 |
AU2015370579A1 (en) | 2017-07-13 |
KR20170117040A (ko) | 2017-10-20 |
CN112924978B (zh) | 2022-11-01 |
JP2020101833A (ja) | 2020-07-02 |
US10145956B2 (en) | 2018-12-04 |
BR112017013687B1 (pt) | 2023-04-11 |
EP3237925A1 (en) | 2017-11-01 |
US9519061B2 (en) | 2016-12-13 |
JP2018504650A (ja) | 2018-02-15 |
WO2016103028A1 (en) | 2016-06-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107430191B (zh) | 使用一个或多个处理器的方法,设备及计算机可读介质 | |
CN107407568B (zh) | 使用多边测量对装置的定位 | |
CN107430183B (zh) | 用于装置的定位的方法和设备 | |
CN107407564B (zh) | 选择用于装置的定位的特征几何形状 | |
US9946939B2 (en) | Guided geometry extraction for localization of a device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |