CN113825979A - 用于基于图像分析的车辆导航的系统和方法 - Google Patents
用于基于图像分析的车辆导航的系统和方法 Download PDFInfo
- Publication number
- CN113825979A CN113825979A CN202080036539.6A CN202080036539A CN113825979A CN 113825979 A CN113825979 A CN 113825979A CN 202080036539 A CN202080036539 A CN 202080036539A CN 113825979 A CN113825979 A CN 113825979A
- Authority
- CN
- China
- Prior art keywords
- vehicle
- navigation system
- target vehicle
- road
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title abstract description 284
- 238000010191 image analysis Methods 0.000 title description 101
- 238000004458 analytical method Methods 0.000 claims abstract description 148
- 238000013528 artificial neural network Methods 0.000 claims description 59
- 239000003550 marker Substances 0.000 claims description 55
- 230000033001 locomotion Effects 0.000 claims description 42
- 230000009471 action Effects 0.000 claims description 35
- 230000004888 barrier function Effects 0.000 claims description 8
- 238000012545 processing Methods 0.000 abstract description 245
- 230000008569 process Effects 0.000 description 205
- 230000015654 memory Effects 0.000 description 58
- 230000004044 response Effects 0.000 description 46
- 230000006870 function Effects 0.000 description 30
- 230000001133 acceleration Effects 0.000 description 27
- 238000003860 storage Methods 0.000 description 27
- 238000010586 diagram Methods 0.000 description 26
- 230000000875 corresponding effect Effects 0.000 description 25
- 238000004891 communication Methods 0.000 description 23
- 238000012549 training Methods 0.000 description 23
- 230000008859 change Effects 0.000 description 21
- 230000003287 optical effect Effects 0.000 description 18
- 238000005259 measurement Methods 0.000 description 17
- 238000004422 calculation algorithm Methods 0.000 description 15
- 230000007613 environmental effect Effects 0.000 description 15
- 238000005096 rolling process Methods 0.000 description 13
- 238000012358 sourcing Methods 0.000 description 13
- 230000000007 visual effect Effects 0.000 description 13
- 238000001514 detection method Methods 0.000 description 12
- 238000013507 mapping Methods 0.000 description 11
- 238000006073 displacement reaction Methods 0.000 description 9
- 238000012935 Averaging Methods 0.000 description 8
- 239000007787 solid Substances 0.000 description 8
- 230000005540 biological transmission Effects 0.000 description 7
- 238000003384 imaging method Methods 0.000 description 7
- 230000036961 partial effect Effects 0.000 description 7
- 239000008186 active pharmaceutical agent Substances 0.000 description 6
- 238000005206 flow analysis Methods 0.000 description 6
- 238000012986 modification Methods 0.000 description 6
- 230000004048 modification Effects 0.000 description 6
- 239000000725 suspension Substances 0.000 description 6
- 238000013519 translation Methods 0.000 description 6
- 230000001413 cellular effect Effects 0.000 description 5
- 230000001953 sensory effect Effects 0.000 description 5
- 230000006978 adaptation Effects 0.000 description 4
- 230000002776 aggregation Effects 0.000 description 4
- 238000004220 aggregation Methods 0.000 description 4
- 238000013459 approach Methods 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 4
- 238000012512 characterization method Methods 0.000 description 4
- 238000013527 convolutional neural network Methods 0.000 description 4
- 238000012937 correction Methods 0.000 description 4
- 238000013500 data storage Methods 0.000 description 4
- 238000009826 distribution Methods 0.000 description 4
- 230000010354 integration Effects 0.000 description 4
- 238000003062 neural network model Methods 0.000 description 4
- 238000000926 separation method Methods 0.000 description 4
- 230000007704 transition Effects 0.000 description 4
- 244000025254 Cannabis sativa Species 0.000 description 3
- 230000005856 abnormality Effects 0.000 description 3
- 230000008901 benefit Effects 0.000 description 3
- 230000007423 decrease Effects 0.000 description 3
- 238000013461 design Methods 0.000 description 3
- 238000010801 machine learning Methods 0.000 description 3
- 230000003746 surface roughness Effects 0.000 description 3
- 238000009825 accumulation Methods 0.000 description 2
- 239000003086 colorant Substances 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 230000001186 cumulative effect Effects 0.000 description 2
- 230000009977 dual effect Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 238000007689 inspection Methods 0.000 description 2
- 238000012804 iterative process Methods 0.000 description 2
- 230000004807 localization Effects 0.000 description 2
- 230000000873 masking effect Effects 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 238000013178 mathematical model Methods 0.000 description 2
- 239000002184 metal Substances 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 230000000704 physical effect Effects 0.000 description 2
- 239000000047 product Substances 0.000 description 2
- 230000003252 repetitive effect Effects 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 2
- 206010003402 Arthropod sting Diseases 0.000 description 1
- VYZAMTAEIAYCRO-UHFFFAOYSA-N Chromium Chemical compound [Cr] VYZAMTAEIAYCRO-UHFFFAOYSA-N 0.000 description 1
- 244000261422 Lysimachia clethroides Species 0.000 description 1
- 208000030984 MIRAGE syndrome Diseases 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- 238000007792 addition Methods 0.000 description 1
- 230000002411 adverse Effects 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 230000003667 anti-reflective effect Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 239000011449 brick Substances 0.000 description 1
- 230000000052 comparative effect Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 238000005520 cutting process Methods 0.000 description 1
- 238000013499 data model Methods 0.000 description 1
- 238000003066 decision tree Methods 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 230000000881 depressing effect Effects 0.000 description 1
- 238000003708 edge detection Methods 0.000 description 1
- 230000005684 electric field Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000004424 eye movement Effects 0.000 description 1
- 238000007667 floating Methods 0.000 description 1
- 239000000446 fuel Substances 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 238000003703 image analysis method Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 238000012417 linear regression Methods 0.000 description 1
- 238000007477 logistic regression Methods 0.000 description 1
- 238000002595 magnetic resonance imaging Methods 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 230000000116 mitigating effect Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000000737 periodic effect Effects 0.000 description 1
- TVLSRXXIMLFWEO-UHFFFAOYSA-N prochloraz Chemical compound C1=CN=CN1C(=O)N(CCC)CCOC1=C(Cl)C=C(Cl)C=C1Cl TVLSRXXIMLFWEO-UHFFFAOYSA-N 0.000 description 1
- 238000007637 random forest analysis Methods 0.000 description 1
- 230000002829 reductive effect Effects 0.000 description 1
- 238000007670 refining Methods 0.000 description 1
- 239000011435 rock Substances 0.000 description 1
- 125000006850 spacer group Chemical group 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
- 238000010200 validation analysis Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
- G01C21/3605—Destination input or retrieval
- G01C21/3608—Destination input or retrieval using speech input, e.g. using speech recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/28—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
- G01C21/3626—Details of the output of route guidance instructions
- G01C21/3629—Guidance using speech or audio output, e.g. text-to-speech
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
- G01C21/3626—Details of the output of route guidance instructions
- G01C21/3658—Lane guidance
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
- G01C21/3679—Retrieval, searching and output of POI information, e.g. hotels, restaurants, shops, filling stations, parking facilities
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R11/00—Arrangements for holding or mounting articles, not otherwise provided for
- B60R11/04—Mounting of cameras operative during drive; Arrangement of controls thereof relative to the vehicle
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R11/00—Arrangements for holding or mounting articles, not otherwise provided for
- B60R2011/0001—Arrangements for holding or mounting articles, not otherwise provided for characterised by position
- B60R2011/0003—Arrangements for holding or mounting articles, not otherwise provided for characterised by position inside the vehicle
- B60R2011/0026—Windows, e.g. windscreen
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo or light sensitive means, e.g. infrared sensors
- B60W2420/403—Image sensing, e.g. optical camera
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/40—Dynamic objects, e.g. animals, windblown objects
- B60W2554/402—Type
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/40—Dynamic objects, e.g. animals, windblown objects
- B60W2554/402—Type
- B60W2554/4026—Cycles
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/40—Dynamic objects, e.g. animals, windblown objects
- B60W2554/404—Characteristics
- B60W2554/4043—Lateral speed
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/80—Spatial relation or speed relative to objects
- B60W2554/801—Lateral distance
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W60/00—Drive control systems specially adapted for autonomous road vehicles
- B60W60/001—Planning or execution of driving tasks
- B60W60/0027—Planning or execution of driving tasks using trajectory prediction for other traffic participants
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10012—Stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/08—Detecting or categorising vehicles
Abstract
提供了用于车辆导航的系统和方法。在一个实施方式中,至少一个处理设备可以从主车辆的相机接收表示主车辆的环境的至少一个捕获图像。该处理设备可以对至少一个捕获图像的一个或多个像素进行分析,以确定该一个或多个像素是否表示目标车辆的至少一部分。对于被确定为表示目标车辆的至少一部分的像素,该处理设备可以确定从该一个或多个像素到目标车辆的面的至少一个边的一个或多个估计的距离值;以及基于对一个或多个像素的分析,包括所确定的与该一个或多个像素相关联的一个或多个距离值,来生成相对于目标车辆的边界的至少一部分。
Description
相关申请的交叉引用
本申请要求于2019年5月24日提交的美国临时专利申请号62/852,761、于2020年1月3日提交的美国临时专利申请号62/957,009,以及于2020年2月13日提交的美国临时专利申请号62/976,059的优先权权益。所有上述申请通过引用整体并入本文。
技术领域
本公开总体上涉及自主车辆导航。
背景技术
随着技术的不断进步,能够在道路上导航的完全自主车辆的目标即将出现。自主车辆可能需要考虑各种各样的因素,并且基于那些因素做出适当的决定,以安全和准确地到达意图的目的地。例如,自主车辆可能需要处理和解释可视信息(例如,从相机捕获的信息)、来自雷达或激光雷达的信息,并且也可能使用从其他源(例如,从GPS装置、速度传感器、加速度计、悬架传感器等)获得的信息。同时,为了导航到目的地,自主车辆可能还需要识别其在特定道路(例如,多车道道路中的特定车道)内的定位,与其他车辆并排导航,避开障碍物和行人,观察交通信号和标志,并在适当的交叉路口或交汇处从一条道路行驶到另一条道路。当自主车辆行驶到其目的地时利用(harness)和解释由该车辆收集的大量信息造成了许多设计挑战。自主车辆可能需要分析、访问和/或存储的海量数据(例如,捕获的图像数据、地图数据、GPS数据、传感器数据等)造成了实际上可能限制甚至不利地影响自主导航的挑战。此外,如果自主车辆依靠传统的映射(mapping)技术来导航,那么存储和更新地图所需的海量数据将造成巨大的挑战。
发明内容
与本公开一致的实施例提供了用于自主车辆导航的系统和方法。所公开的实施例可以使用相机来提供自主车辆导航特征。例如,与所公开的实施例一致,所公开的系统可以包含一个、两个或更多个监控车辆的环境的相机。所公开的系统可以例如基于对由一个或多个相机捕获的图像的分析来提供导航响应。
在一个实施例中,用于主车辆的导航系统包括至少一个处理器。处理器可以被编程为从主车辆的相机接收表示主车辆的环境的至少一个捕获图像;并且对该至少一个捕获图像的一个或多个像素进行分析,以确定该一个或多个像素是否表示目标车辆的至少一部分。对于被确定为表示目标车辆的至少一部分的像素,处理器可以确定从该一个或多个像素到目标车辆的面的至少一个边的一个或多个估计的距离值。此外,处理器可以基于对一个或多个像素的分析,包括所确定的与该一个或多个像素相关联的一个或多个距离值,生成相对于目标车辆的边界的至少一部分。
在一个实施例中,用于主车辆的导航系统可以包括至少一个处理器。处理器可以被编程为从主车辆的相机接收表示主车辆的环境的至少一个捕获图像;并且对该至少一个捕获图像的一个或多个像素进行分析,以确定该一个或多个像素是否表示目标车辆,其中目标车辆的至少一部分未被表示在该至少一个捕获图像中。处理器还可以被配置为确定从主车辆到目标车辆的估计的距离,其中该估计的距离至少部分地基于该目标车辆的未被表示在该至少一个捕获图像中的部分。
在一个实施例中,用于主车辆的导航系统可以包括至少一个处理器。处理器可以被编程为从主车辆的相机接收表示主车辆的环境的至少一个捕获图像;并且对该至少一个捕获图像的两个或更多个像素进行分析,以确定该两个或更多个像素是否表示第一目标车辆的至少一部分和第二目标车辆的至少一部分。处理器可以被编程为确定第二目标车辆的该部分被包含在第一目标车辆的表面上的映像表示中。处理器还可以被编程为基于对该两个或更多个像素的分析以及第二目标车辆的该部分被包含在第一目标车辆的表面上的映像表示中的确定,来生成相对于第一目标车辆的边界的至少一部分以及不生成相对于第二目标车辆的边界。
在一个实施例中,用于主车辆的导航系统可以包括至少一个处理器。处理器可以被编程为从主车辆的相机接收表示主车辆的环境的至少一个捕获图像;并且对该至少一个捕获图像的两个或更多个像素进行分析,以确定该两个或更多个像素是否表示第一目标车辆的至少一部分和第二目标车辆的至少一部分。处理器可以被编程为确定第二目标车辆被第一目标车辆运载或牵引。处理器还可以被编程为基于对该两个或更多个像素的分析以及第二目标车辆被第一目标车辆运载或牵引的确定,来生成相对于第一目标车辆的边界的至少一部分以及不生成相对于第二目标车辆的边界。
在一个实施例中,用于主车辆的导航系统可以包括至少一个处理器。处理器可以被编程为从主车辆的相机接收表示主车辆的环境的第一捕获图像;并且对该第一捕获图像的一个或多个像素进行分析,以确定该一个或多个像素是否表示目标车辆的至少一部分。对于被确定为表示目标车辆的至少一部分的像素,处理器可以确定从该一个或多个像素到目标车辆的面的至少一个边的一个或多个估计的距离值。处理器可以被编程为基于对第一捕获图像的一个或多个像素的分析,包括所确定的与第一捕获图像的一个或多个像素相关联的一个或多个距离值,生成相对于目标车辆的第一边界的至少一部分。处理器还可以被编程为从主车辆的相机接收表示主车辆的环境的第二捕获图像;以及对该第二捕获图像的一个或多个像素进行分析,以确定该一个或多个像素是否表示目标车辆的至少一部分。对于被确定为表示目标车辆的至少一部分的像素,处理器可以确定从该一个或多个像素到目标车辆的面的至少一个边的一个或多个估计的距离值。处理器可以被编程为基于对第二捕获图像的一个或多个像素的分析,包括所确定的与第二捕获图像的一个或多个像素相关联的一个或多个距离值,并且基于该第一边界,生成相对于目标车辆的第二边界的至少一部分。
在一个实施例中,用于主车辆的导航系统可以包括至少一个处理器。处理器可以被编程为从主车辆的相机接收从主车辆的环境捕获的两个或更多个图像;并且对该两个或更多个图像进行分析,以识别第一对象的至少一部分的表示和第二对象的至少一部分的表示。处理器可以确定至少一个图像中的与第一对象相关联的第一区域、以及第一对象的类型;以及确定至少一个图像中的与第二对象相关联的第二区域、以及第二对象的类型,其中第一对象的类型不同于第二对象的类型。
在一个实施例中,用于主车辆的导航系统可以包括至少一个处理器。处理器可以被编程为从主车辆的相机接收从主车辆的环境捕获的至少一个图像;并且对该至少一个图像进行分析,以识别第一对象的至少一部分的表示和第二对象的至少一部分的表示。处理器可以被编程为基于该分析来确定第一对象的几何形状的至少一方面和第二对象的几何形状的至少一方面。此外,处理器可以被编程为基于第一对象的几何形状的至少一方面,生成与至少一个图像中的包括第一对象的表示的区域相关联的第一标签;以及基于第二对象的几何形状的至少一方面,生成与至少一个图像中的包括第二对象的表示的区域相关联的第二标签。
与其他公开的实施例一致,非暂时性计算机可读存储介质可以存储由至少一个处理装置执行的程序指令,并且可以进行本文中所描述的任何方法。
前述的总体描述和下面的详细描述仅仅是示例性和说明性的,并不是对权利要求的限制。
附图说明
并入本公开中并构成本公开的一部分的附图图示了各种所公开的实施例。在附图中:
图1是与所公开的实施例一致的示例性系统的图示性表示。
图2A是包含与所公开的实施例一致的系统的示例性车辆的图示性侧视图表示。
图2B是图2A中所示的与所公开的实施例一致的车辆和系统的图示性顶视图表示。
图2C是包含与所公开的实施例一致的系统的车辆的另一实施例的图示性顶视图表示。
图2D是包含与所公开的实施例一致的系统的车辆的又一实施例的图示性顶视图表示。
图2E是包含与所公开的实施例一致的系统的车辆的又一实施例的图示性顶视图表示。
图2F是与所公开的实施例一致的示例性车辆控制系统的图示性表示。
图3A是与所公开的实施例一致的包含后视镜和用于车辆成像系统的用户界面的车辆的内部的图示性表示。
图3B是与所公开的实施例一致的被配置为定位在后视镜后面并抵靠车辆风挡的相机安装的示例的图示。
图3C是图3B中所示的与所公开的实施例一致的相机安装从不同的视角的图示。
图3D是与所公开的实施例一致的被配置为定位在后视镜后面并抵靠车辆风挡的相机安装的示例的图示。
图4是与所公开的实施例一致的被配置为存储用于进行一个或多个操作的指令的存储器的示例性框图。
图5A是示出与所公开的实施例一致的用于基于单目图像分析来引起一个或多个导航响应的示例性过程的流程图。
图5B是示出与所公开的实施例一致的用于在一组图像中检测一个或多个车辆和/或行人的示例性过程的流程图。
图5C是示出与所公开的实施例一致的用于在一组图像中检测道路标志和/或车道几何结构信息的示例性过程的流程图。
图5D是示出与所公开的实施例一致的用于在一组图像中检测交通灯的示例性过程的流程图。
图5E是示出与所公开的实施例一致的用于基于车辆路径来引起一个或多个导航响应的示例性过程的流程图。
图5F是示出与所公开的实施例一致的用于确定前方车辆是否正在改变车道的示例性过程的流程图。
图6是示出与所公开的实施例一致的用于基于立体图像分析来引起一个或多个导航响应的示例性过程的流程图。
图7是示出与所公开的实施例一致的用于基于三组图像的分析来引起一个或多个导航响应的示例性过程的流程图。
图8示出了与所公开的实施例一致的用于提供自主车辆导航的稀疏地图。
图9A示出了与所公开的实施例一致的道路路段的部分的多项式表示。
图9B示出了与所公开的实施例一致的稀疏地图中包含的在三维空间中表示特定道路路段的车辆的目标轨迹的曲线。
图10示出了可以包含在与所公开的实施例一致的稀疏地图中的示例地标。
图11A示出了与所公开的实施例一致的轨迹的多项式表示。
图11B和图11C示出了与所公开的实施例一致的沿着多车道道路的目标轨迹。
图11D示出了与所公开的实施例一致的示例道路签名(signature)轮廓(profile)。
图12是与所公开的实施例一致的使用从多个车辆接收的众包(crowdsourcing)数据进行自主车辆导航的系统的示意图示。
图13示出了与所公开的实施例一致的由多个三维样条(spline)表示的示例自主车辆道路导航模型。
图14示出了与所公开的实施例一致的根据组合来自多个驾驶的定位信息而生成的地图骨架(skeleton)。
图15示出了与所公开的实施例一致的具有作为地标的示例标志的两个驾驶的纵向对齐的示例。
图16示出了与所公开的实施例一致的具有作为地标的示例标志的多个驾驶的纵向对齐的示例。
图17是与所公开的实施例一致的用于使用相机、车辆和服务器生成驾驶数据的系统的示意图示。
图18是与所公开的实施例一致的用于众包稀疏地图的系统的示意图示。
图19是示出与所公开的实施例一致的用于生成用于沿着道路路段的自主车辆导航的稀疏地图的示例性过程的流程图。
图20示出了与所公开的实施例一致的服务器的框图。
图21示出了与所公开的实施例一致的存储器的框图。
图22示出了与所公开的实施例一致的对与车辆相关联的车辆轨迹进行聚类的过程。
图23示出了与所公开的实施例一致的可以用于自主导航的车辆导航系统。
图24A、图24B、图24C和图24D示出了与所公开的实施例一致的可以检测到的示例性车道标志。
图24E示出了与所公开的实施例一致的示例性的映射车道标志。
图24F示出了与所公开的实施例一致的与检测车道标志相关联的示例性异常。
图25A示出了与所公开的实施例一致的用于基于映射车道标志进行导航的车辆周围环境的示例性图像。
图25B示出了与所公开的实施例一致的基于道路导航模型中的映射车道标志的车辆横向定位校正。
图26A是示出与所公开的实施例一致的用于映射车道标志以用于自主车辆导航的示例性过程的流程图。
图26B是示出与所公开的实施例一致的使用映射车道标志沿着道路路段自主导航主车辆的示例性过程的流程图。
图27示出了与所公开的实施例一致的对与目标车辆相关联的像素执行的示例分析。
图28是与所公开的实施例一致的包括车辆的部分表示的示例图像的图示。
图29是示出与所公开的实施例一致的运载工具上的车辆的示例图像的图示。
图30A和图30B示出了与所公开的实施例一致的包括车辆映像的示例图像。
图31A是示出与所公开的实施例一致的基于对图像中像素的分析来导航主车辆的示例过程的流程图。
图31B是示出与所公开的实施例一致的基于图像中车辆的部分表示来导航主车辆的示例过程的流程图。
图32A是示出与所公开的实施例一致的基于对包含车辆映像的图像中的像素的分析来导航主车辆的示例过程的流程图。
图32B是示出与所公开的实施例一致的基于对包含被运载车辆的图像中的像素的分析来导航主车辆的示例过程的流程图。
图33是示出与所公开的实施例一致的基于对一系列图像中的像素的分析来导航主车辆的示例过程的流程图。
图34A和图34B示出了与所公开的实施例一致的可以执行的示例图像分类。
图35是示出与所公开的实施例一致的基于对图像中像素的分析来导航主车辆的示例过程的流程图。
图36示出了与所公开的实施例一致的包括对象标签信息的示例数据库。
图37是示出与所公开的实施例一致的基于对象标签和几何形状来导航主车辆的示例过程的流程图。
具体实施方式
以下的详细描述参考附图。只要可能,在附图和以下的描述中使用相同的参考标号来指代相同或相似的部分。虽然本文描述了数个说明性实施例,但是修改、改编和其他实施方式是可能的。例如,可以对附图中示出的组件做出替换、添加或修改,并且可以通过对所公开的方法进行步骤的替换、重新排序、移除或添加,来对本文所描述的说明性方法进行修改。相应地,以下的详细描述并不限于所公开的实施例和示例。代替地,适当的范围由所附权利要求限定。
自主车辆概述
如贯穿本公开所使用的,术语“自主车辆”指代在没有驾驶员输入的情况下能够实现至少一个导航改变的车辆。“导航改变”指代车辆的转向、制动、或加速中的一个或多个改变。为了实现自主,车辆不需要是完全自动的(例如,在没有驾驶员或没有驾驶员输入的情况下完全可操作的)。相反,自主车辆包含能够在某些时间段期间在驾驶员的控制下操作并且在其他时间段期间无需驾驶员控制而操作那些车辆。自主车辆还可以包含仅控制车辆导航的一些方面的车辆,诸如转向(例如,在车辆车道限制之间维持车辆路线),但是可以将其他方面留给驾驶员(例如,制动)。在一些情况下,自主车辆可以处理车辆的制动、速度控制和/或转向中的一些或全部方面。
由于人类驾驶员通常依赖于可视线索和观察以便控制车辆,因此相应地建造了交通基础设施,其中车道标志、交通标志和交通灯所有都被设计为向驾驶员提供可视信息。鉴于交通基础设施的这些设计特性,自主车辆可以包含相机以及分析从车辆的环境捕获的可视信息的处理单元。可视信息可以包含,例如,可由驾驶员观察到的交通基础设施(例如,车道标志、交通标志、交通灯等)的组件以及其他障碍物(例如,其他车辆、行人、碎屑等)。此外,自主车辆还可以使用存储的信息,诸如在导航时提供车辆的环境的模型的信息。例如,车辆可以使用GPS数据、传感器数据(例如,来自加速度计、速度传感器、悬架传感器等)和/或其他地图数据,以在车辆正在行驶时提供与其环境相关的信息,并且该车辆(以及其他车辆)可以使用该信息在模型上对其自身定位。
在本公开的一些实施例中,自主车辆可以使用在导航时(从相机、GPS装置、加速度计、速度传感器、悬架传感器等)获得的信息。在其他实施例中,自主车辆可以在导航时使用从该车辆(或其他车辆)过去的导航中获得的信息。在其他实施例中,自主车辆可以使用在导航时获得的信息和从过去的导航中获得的信息的组合。以下章节提供了与所公开的实施例一致的系统的概述,随后是与该系统一致的前向成像系统和方法的概述。以下章节公开了用于构建、使用和更新用于自主车辆导航的稀疏地图的系统和方法。
系统概述
图1是与所公开的示例性实施例一致的表示系统100的框图。系统100可以取决于特定实施方式的要求而包含各种组件。在一些实施例中,系统100可以包含处理单元110,图像获取单元120,位置传感器130,一个或多个存储器单元140、150,地图数据库160,用户界面170和无线收发器172。处理单元110可以包含一个或多个处理装置。在一些实施例中,处理单元110可以包含应用处理器180、图像处理器190或任何其他合适的处理装置。类似地,图像获取单元120可以取决于特定应用的要求而包含任何数目的图像获取装置和组件。在一些实施例中,图像获取单元120可以包含一个或多个图像捕获装置(例如,相机),诸如图像捕获装置122、图像捕获装置124和图像捕获装置126。系统100还可以将处理装置110通信地连接到图像获取装置120的数据接口128。例如,数据接口128可以包含用于将由图像获取装置120获取的图像数据传输到处理单元110的任何有线和/或无线的一个或多个链路。
无线收发器172可以包含一个或多个装置,其被配置为通过使用射频、红外频率、磁场或电场通过空中接口将传输交换到一个或多个网络(例如,蜂窝、互联网等)。无线收发器172可以使用任何已知的标准来传输和/或接收数据(例如,Wi-Fi、蓝牙智能、802.15.4、ZigBee等)。这样的传输可以包含从主车辆到一个或多个位于远处的服务器的通信。这样的传输还可以包含主车辆与主车辆的环境中的一个或多个目标车辆之间(单向或双向)的通信(例如,以便于鉴于或连同在主车辆的环境中的目标车辆来协调主车辆的导航),或者甚至包含在传输车辆附近的向未指定的接收者的广播传输。
应用处理器180和图像处理器190两者都可以包含各种类型的基于硬件的处理装置。例如,应用处理器180和图像处理器190中的任一者或两者可以包含微处理器、预处理器(诸如图像预处理器)、图形处理器、中央处理单元(CPU)、支持电路、数字信号处理器、集成电路、存储器或者适用于运行应用和适用于图像处理和分析的任何其他类型的装置。在一些实施例中,应用处理器180和/或图像处理器190可以包含任何类型的单核或多核处理器、移动装置微控制器、中央处理单元等。可以使用各种处理装置,包含,例如,可以从诸如等制造商获得的处理器或者可以从诸如 等制造商获得的GPU,并且可以包含各种架构(例如,x86处理器、等)。
在一些实施例中,应用处理器180和/或图像处理器190可以包含可从获得的任何EyeQ系列处理器芯片。这些处理器设计各自包含具有本地存储体和指令集的多个处理单元。这样的处理器可以包含用于从多个图像传感器接收图像数据的视频输入,并且还可以包含视频输出能力。在一个示例中,使用在332Mhz下操作的90纳米-微米技术。架构由两个浮点式超线程32位RISC CPU(核)、五个视觉计算引擎(VCE)、三个矢量微代码处理器丹那利(Denali)64位移动DDR控制器、128位内部超音速互连(Sonics Interconnect)、双16位视频输入和18位视频输出控制器、16通道DMA和数个外围设备组成。MIPS34KCPU管理这五个VCE、三个VMPTM和DMA、第二MIPS34KCPU和多通道DMA以及其他外围设备。这五个VCE、三个和MIPS34K CPU可以进行多功能捆绑应用所需要的密集视觉计算。在另一个实例中,可以在所公开的实施例中使用作为第三代处理器并且比强六倍的在其他示例中,可以在所公开的实施例中使用和/或当然,任何更新后的或未来的EyeQ处理装置也可以与所公开的实施例一起使用。
任何本文所公开的处理装置可以被配置为进行某些功能。配置处理装置(诸如任何所描述的EyeQ处理器或其他控制器或微处理器)以进行某些功能可以包含计算机可执行指令的编程并使这些指令可用于处理装置以在处理装置的操作期间执行。在一些实施例中,配置处理装置可以包含直接利用架构指令对处理装置进行编程。例如,可以使用例如一个或多个硬件描述语言(HDL)来配置诸如现场可编程门阵列(FPGA)、专用集成电路(ASIC)等的处理装置。
在其他实施例中,配置处理装置可以包含将可执行指令存储在操作期间处理装置可访问的存储器上。例如,处理装置在操作期间可以访问该存储器以获得并执行所存储的指令。在任一种情况下,被配置为进行本文公开的感测、图像分析和/或导航功能的处理装置表示基于硬件的专用系统,其控制主车辆的多个基于硬件的组件。
虽然图1描绘了包含在处理单元110中的两个分离的处理装置,但是可以使用更多或更少的处理装置。例如,在一些实施例中,可以使用单个处理装置完成应用处理器180和图像处理器190的任务。在其他实施例中,可以由两个以上的处理装置来进行这些任务。此外,在一些实施例中,系统100可以在不包含其他组件(诸如图像获取单元120)的情况下包含处理单元110中的一个或多个。
处理单元110可以包括各种类型的装置。例如,处理单元110可以包含各种装置,诸如控制器、图像预处理器、中央处理单元(CPU)、图形处理单元(GPU)、支持电路、数字信号处理器、集成电路、存储器或用于图像处理和分析的任何其他类型的装置。图像预处理器可以包含用于捕获、数字化和处理来自图像传感器的影像的视频处理器。CPU可以包括任何数目的微控制器或微处理器。GPU还可以包括任何数目的微控制器或微处理器。支持电路可以是本领域公知的任何数目的电路,包含高速缓存、电源,时钟和输入输出电路。存储器可以存储软件,该软件在由处理器执行时控制系统的操作。存储器可以包含数据库和图像处理软件。存储器可以包括任何数目的随机存取存储器、只读存储器、闪速存储器、磁盘驱动器、光存储装置、磁带存储装置、可移动存储装置和其他类型的存储装置。在一个实例中,存储器可以与处理单元110分离。在另一实例中,存储器可以被集成到处理单元110中。
每个存储器140、150可以包含软件指令,该软件指令在由处理器(例如,应用处理器180和/或图像处理器190)执行时可以控制系统100的各个方面的操作。这些存储器单元可以包含各种数据库和图像处理软件,以及经训练的系统,诸如神经网络或例如深度神经网络。存储器单元可以包含随机存取存储器(RAM)、只读存储器(ROM)、闪速存储器、磁盘驱动器、光存储装置、磁带存储装置、可移动存储装置和/或任何其他类型的存储装置。在一些实施例中,存储器单元140、150可以是与应用处理器180和/或图像处理器190分离的。在其他实施例中,这些存储器单元可以被集成到应用处理器180和/或图像处理器190中。
位置传感器130可以包含适用于确定与系统100的至少一个组件相关联的定位的任何类型的装置。在一些实施例中,位置传感器130可以包含GPS接收器。这样的接收器可以通过处理由全球定位系统卫星广播的信号来确定用户位置和速度。可以使得来自位置传感器130的位置信息对于应用处理器180和/或图像处理器190可用。
在一些实施例中,系统100可以包含诸如用于测量车辆200的速度的速度传感器(例如,转速表、速度计)和/或用于测量车辆200的加速度的加速度计(单轴或多轴)的组件。
用户界面170可以包含适用于向系统100的一个或多个用户提供信息或从系统100的一个或多个用户接收输入的任何装置。在一些实施例中,用户界面170可以包含用户输入装置,包含例如触摸屏、麦克风、键盘、指针装置、跟踪转轮、相机、旋钮、按钮等。使用这样的输入装置,用户能够通过键入指令或信息,提供语音命令,使用按钮、指针或眼跟踪能力在屏幕上选择菜单选项,或通过任何其他适用于向系统100通信信息的技术来向系统100提供信息输入或命令。
用户界面170可以配备有一个或多个处理装置,其被配置为向用户提供和从用户接收信息,并处理该信息以由例如应用处理器180使用。在一些实施例中,这样的处理装置可以执行指令以用于辨识和跟踪眼睛运动、接收和解释语音命令、辨识和解释在触摸屏上做出的触摸和/或手势、响应键盘输入或菜单选择等。在一些实施例中,用户界面170可以包含显示器、扬声器、触觉装置和/或用于向用户提供输出信息的任何其他装置。
地图数据库160可以包含用于存储对系统100有用的地图数据的任何类型的数据库。在一些实施例中,地图数据库160可以包含与各种项目在参考坐标系统中的位置相关的数据,各种项目包含道路、水特征、地理特征、商业区、感兴趣的点、餐馆、加油站等。地图数据库160不仅可以存储这样的项目的定位,还可以存储与这样的项目相关的描述符,包含例如与任何所存储的特征相关联的名称。在一些实施例中,地图数据库160可以与系统100的其他组件物理上位于一起。替代地或附加地,地图数据库160或其一部分可以相对于系统100的其他组件(例如,处理单元110)位于远处。在这样的实施例中,来自地图数据库160的信息可以通过与网络的有线或无线数据连接(例如,通过蜂窝网络和/或互联网等)而下载。在一些情况下,地图数据库160可以存储稀疏数据模型,该稀疏数据模型包含某些道路特征(例如,车道标志)或主车辆的目标轨迹的多项式表示。下面参考图8至图19讨论生成这种地图的系统和方法。
图像捕获装置122、124和126可以各自包含适用于从环境捕获至少一个图像的任何类型的装置。此外,可以使用任何数目的图像捕获装置来获取用于输入到图像处理器的图像。一些实施例可以仅包含单个图像捕获装置,而其他实施例可以包含两个、三个、或者甚至四个或更多个图像捕获装置。以下将参考图2B至图2E进一步描述图像捕获装置122、124和126。
系统100或其各种组件可以合并到各种不同的平台中。在一些实施例中,系统100可以被包含在车辆200上,如图2A所示。例如,车辆200可以配备有如上关于图1所述的系统100的处理单元110和任何其他组件。虽然在一些实施例中,车辆200可以仅配备有单个图像捕获装置(例如,相机),但是在其他实施例中,诸如结合图2B-图2E讨论的那些,可以使用多个图像捕获装置。例如,如图2A所示,车辆200的图像捕获装置122和124中的任一个可以是ADAS(Advanced Driver Assistance System,高级驾驶员辅助系统)成像集的一部分。
作为图像获取单元120的一部分的被包含在车辆200上的图像捕获装置,可以被定位在任何合适的定位。在一些实施例中,如图2A-图2E以及图3A-图3C所示,图像捕获装置122可以位于后视镜的附近。此位置可以提供与车辆200的驾驶员相似的视线,这可以帮助确定对驾驶员而言什么是可见和不可见的。图像捕获装置122可以被定位在靠近后视镜的任何定位,而将图像捕获装置122放置在镜子的驾驶员侧可以进一步帮助获得表示驾驶员的视场和/或视线的图像。
对于图像获取单元120的图像捕获装置还可以使用其他定位。例如,图像捕获装置124可以位于车辆200的保险杠上或保险杠中。这样的定位可以尤其适用于具有宽视场的图像捕获装置。位于保险杠的图像捕获装置的视线可以与驾驶员的视线不同,并且因此,保险杠图像捕获装置和驾驶员可能不总是看到相同的对象。图像捕获装置(例如,图像捕获装置122、124和126)还可以位于其他定位。例如,图像捕获装置可以位于车辆200的侧视镜中的一者或两者之上或之中、车辆200的车顶上、车辆200的引擎盖上、车辆200的后备箱上、车辆200的侧面上,安装在车辆200的任何车窗上、定位在车辆200的任何车窗的后面、或定位在车辆200的任何车窗的前面,以及安装在车辆200的前部和/或后部上的灯具中或附近等。
除了图像捕获装置之外,车辆200还可以包含系统100的各种其他组件。例如,处理单元110可以被包含在车辆200上,与车辆的引擎控制单元(engine control lunit,ECU)集成或分离。车辆200还可以配备有诸如GPS接收器的位置传感器130,并且还可以包含地图数据库160以及存储器单元140和150。
如早先讨论的,无线收发器172可以通过一个或多个网络(例如,蜂窝网络、互联网等)和/或接收数据。例如,无线收发器172可以将由系统100收集的数据上传到一个或多个服务器,并且从一个或多个服务器下载数据。例如,经由无线收发器172,系统100可以接收对存储在地图数据库160、存储器140和/或存储器150中的数据的周期性或按需的更新。类似地,无线收发器172可以将来自系统100的任何数据(例如,由图像获取单元120捕获的图像、由位置传感器130或其他传感器、车辆控制系统接收的数据等)和/或由处理单元110处理的任何数据上传到一个或多个服务器。
系统100可以基于隐私等级设定将数据上传到服务器(例如,上传到云)。例如,系统100可以实现隐私等级设定,以规定或限制传送到服务器的、可以唯一地识别车辆和/或车辆的驾驶员/所有者的数据(包含元数据)的类型。这样的设定可以由用户经由例如无线收发器172来设置,可以由出厂默认设定、或由无线收发器172接收的数据来初始化。
在一些实施例中,系统100可以根据“高”隐私等级上传数据,并且在设置设定的情况下,系统100可以传输数据(例如,与路途相关的定位信息、捕获的图像等),而不带有任何关于特定车辆和/或驾驶员/所有者的细节。例如,当根据“高”隐私设定来上传数据时,系统100可以不包含车辆标识编号(vehicle identification number,VIN)或者车辆的驾驶员或所有者的名字,并且可以代替地传输数据,诸如,捕获的图像和/或与路途相关的受限的定位信息。
可以预期其他隐私等级。例如,系统100可以根据“中间”隐私等级向服务器传输数据,并且可以包含在“高”隐私等级下不包含的附加信息,诸如车辆的品牌和/或型号和/或车辆类型(例如,乘用车、运动型多用途车、卡车等)。在一些实施例中,系统100可以根据“低”隐私等级上传数据。在“低”隐私等级设定的情况下,系统100可以上传数据,并且包含足以唯一地识别具体车辆、所有者/驾驶员和/或车辆行驶过的部分或整个路途的信息。这样的“低”隐私等级数据可以包含以下中的一个或多个:例如VIN、驾驶员/所有者名字、出发之前车辆的始发点、车辆的意图目的地、车辆的品牌和/或型号、车辆类型等。
图2A是与所公开的实施例一致的示例性车辆成像系统的图示性侧视图表示。图2B是图2A中所示的实施例的图示性顶视图图示。如图2B所示,所公开的实施例可以包含车辆200,该车辆200在其车体中包含系统100,该系统100具有定位在车辆200的后视镜附近和/或靠近驾驶员的第一图像捕获装置122、定位在车辆200的保险杠区域(例如,保险杠区域210中的一个)之上或之中的第二图像捕获装置124、以及处理单元110。
如图2C所示,图像捕获装置122和124两者可以都定位在车辆200的后视镜附近和/或靠近驾驶员。此外,虽然图2B和图2C示出了两个图像捕获装置122和124,应理解的是,其他实施例可以包含两个以上的图像捕获装置。例如,在图2D和2E所示的实施例中,第一图像捕获装置122、第二图像捕获装置124和第三图像捕获装置126被包含在车辆200的系统100中。
如图2D所示,图像捕获装置122可以定位在车辆200的后视镜附近和/或靠近驾驶员,并且图像捕获装置124和126可以定位在车辆200的保险杠区域(例如,保险杠区域210中的一个)之上或之中。并且如图2E所示,图像捕获装置122、124和126可以定位在车辆200的后视镜附近和/或靠近驾驶员座。所公开的实施例不限于任何特定数目和配置的图像捕获装置,并且图像捕获装置可以定位在车辆200内或车辆200上的任何适当的定位中。
应理解的是,所公开的实施例不限于车辆,并且可以被应用在其他情景中。还应理解,所公开的实施例不限于特定类型的车辆200,并且可以适用于所有类型的车辆,包含汽车、卡车、拖车和其他类型的车辆。
第一图像捕获装置122可以包含任何合适类型的图像捕获装置。图像捕获装置122可以包含光轴。在一个实例中,图像捕获装置122可以包含具有全局快门的Aptina M9V024WVGA传感器。在其他实施例中,图像捕获装置122可以提供1280×960像素的分辨率,并且可以包含滚动快门(rolling shutter)。图像捕获装置122可以包含各种光学元件。在一些实施例中,可以包含一个或多个镜头,例如用于为图像捕获装置提供期望的焦距和视场。在一些实施例中,图像捕获装置122可以与6毫米镜头或12毫米镜头相关联。在一些实施例中,如图2D所示,图像捕获装置122可以被配置为捕获具有期望的视场(FOV)202的图像。例如,图像捕获装置122可以被配置为具有常规FOV,诸如在40度至56度的范围内,包含46度FOV、50度FOV、52度FOV,或更大的FOV。替代地,图像捕获装置122可以被配置为具有在23度至40度的范围内的窄FOV,诸如28度FOV或36度FOV。另外,图像捕获装置122可以被配置为具有在100度至180度的范围内的宽FOV。在一些实施例中,图像捕获装置122可以包含广角保险杠相机或者具有高达180度FOV的相机。在一些实施例中,图像捕获装置122可以是7。2M像素图像捕获装置,其纵横比为约2:1(例如,HxV=3800×1900像素),具有约100度的水平FOV。这样的图像捕获装置可以被用来代替三个图像捕获装置配置。由于显著的镜头失真,在图像捕获装置使用径向对称镜头的实施方式中,这样的图像捕获装置的垂直FOV可显著地小于50度。例如,这样的镜头可以不是径向对称的,这将允许在100度水平FOV情况下垂直FOV大于50度。
第一图像捕获装置122可以获取关于与车辆200相关联的场景的多个第一图像。可以获取多个第一图像中的每个作为一系列图像扫描线,其可以使用滚动快门来捕获。每个扫描线可以包含多个像素。
第一图像捕获装置122可以具有与第一系列图像扫描线中的每个的获取相关联的扫描速率。扫描速率可以指图像传感器可以获取与包含在特定扫描线中的每个像素相关联的图像数据的速率。
图像捕获装置122、124和126可以含有任何合适的类型和数目的图像传感器,例如,包含CCD传感器或CMOS传感器等。在一个实施例中,CMOS图像传感器可以与滚动快门一起采用,使得一次一个地读取一行中的每个像素,并且行的扫描在逐行的基础上进行,直到已捕获整个图像帧。在一些实施例中,可以相对于帧从顶部到底部顺序地捕获行。
在一些实施例中,本文公开的图像捕获装置中的一个或多个(例如,图像捕获装置122、124和126)可以构成高分辨率成像器,并且可以具有大于5M像素、7M像素、10M像素或更大像素的分辨率。
滚动快门的使用可能导致不同行中的像素在不同的时间被曝光和捕获,这可能引起捕获的图像帧中的歪斜和其他图像伪影。另一方面,当图像捕获装置122被配置为利用全局或同步快门操作时,所有像素可以以相同量的时间并且在共同曝光时段期间被曝光。结果,从采用全局快门的系统收集的帧中的图像数据表示在特定时间的整个FOV(诸如FOV202)的快照。相比之下,在滚动快门应用中,在不同的时间,帧中的每行被曝光并且数据被捕获。因此,在具有滚动快门的图像捕获装置中,移动对象可能出现失真。这种现象将在下面更详细地描述。
第二图像捕获装置124和第三图像捕获装置126可以是任何类型的图像捕获装置。类似于第一图像捕获装置122,图像捕获装置124和126中的每个可以包含光轴。在一个实施例中,图像捕获装置124和126中的每个可以包含具有全局快门的Aptina M9V024 WVGA传感器。替代地,图像捕获装置124和126中的每个可以包含滚动快门。类似于图像捕获装置122,图像捕获装置124和126可以被配置为包含各种镜头和光学元件。在一些实施例中,与图像捕获装置124和126相关联的镜头可以提供FOV(诸如FOV 204和206),其等于或窄于与图像捕获装置122相关联的FOV(诸如FOV 202)。例如,图像捕获装置124和126可以具有40度、30度、26度、23度、20度或更小的FOV。
图像捕获装置124和126可以获取关于与车辆200相关联的场景的多个第二图像和第三图像。可以获取多个第二和第三图像中的每个作为第二和第三系列图像扫描线,其可以使用滚动快门来捕获。每个扫描线或行可以具有多个像素。图像捕获装置124和126可以具有与包含在第二和第三系列中的每个图像扫描线的获取相关联的第二和第三扫描速率。
每个图像捕获装置122、124和126可以定位在相对于车辆200的任何合适的位置和朝向处。可以选择图像捕获装置122、124和126的相对位置以帮助将从图像捕获装置获取的信息融合在一起。例如,在一些实施例中,与图像捕获装置124相关联的FOV(诸如FOV 204)可能部分地或完全地和与图像捕获装置122相关联的FOV(例如FOV 202)以及与图像捕获装置126相关联的FOV(例如FOV 206)重叠。
图像捕获装置122、124和126可以位于车辆200上的任何合适的相对高度处。在一个实例中,在图像捕获装置122、124和126之间可以存在高度差,其可以提供足够的视差信息以使能立体分析。例如,如图2A所示,两个图像捕获装置122和124在不同的高度处。例如,在图像捕获装置122、124和126之间还可以存在横向位移差,以为处理单元110的立体分析给出附加的视差信息。横向位移的差异可以用dx表示,如图2C和图2D所示。在一些实施例中,图像捕获装置122、124和126之间可以存在前向或后向位移(例如,范围位移)。例如,图像捕获装置122可以位于图像捕获装置124和/或图像捕获装置126后面0.5到2米或更远处。这样的类型的位移可以使得图像捕获装置中的一个能够覆盖其他(一个或多个)图像捕获装置的潜在盲点。
图像捕获装置122可以具有任何合适的分辨率能力(例如,与图像传感器相关联的像素的数目),并且与图像捕获装置122相关联的(一个或多个)图像传感器的分辨率可以比与图像捕获装置124和126相关联的(一个或多个)图像传感器的分辨率更高、更低、或者与之相同。在一些实施例中,与图像捕获装置122和/或图像捕获装置124和126相关联的(一个或多个)图像传感器可以具有640×480、1024×768、1280×960的分辨率,或任何其他合适的分辨率。
帧速率(例如,图像捕获装置在继续捕获与下一图像帧相关联的像素数据之前获取一个图像帧的一组像素数据的速率)可以是可控的。与图像捕获装置122相关联的帧速率可以比与图像捕获装置124和126相关联的帧速率更高、更低或与之相同。与图像捕获装置122、124和126相关联的帧速率可以取决于可能影响帧速率的定时的各种因素。例如,图像捕获装置122、124和126中的一个或多个可以包含可选择的像素延迟时段,其在获取与图像捕获装置122、124和/或126中的图像传感器的一个或多个像素相关联的图像数据之前或之后施加。通常,可以根据用于该装置的时钟速率来获取对应于每个像素的图像数据(例如,每个时钟循环一个像素)。此外,在包含滚动快门的实施例中,图像捕获装置122、124和126中的一个或多个可以包含可选择的水平消隐时段,其在获取与图像捕获装置122、124和/或126中的图像传感器的一行像素相关联的图像数据之前或之后施加。此外,图像捕获装置122、124和/或126中的一个或多个可以包含可选择的垂直消隐时段,其在获取与图像捕获装置122、124和126的图像帧相关联的图像数据之前或之后施加。
这些定时控制可以使能与图像捕获装置122、124和126相关联的帧速率的同步,即便每个的线扫描速率不同。此外,如将在下面更详细地讨论的,这些可选择的定时控制以及其他因素(例如,图像传感器分辨率、最大线扫描速率等)可以使能从图像捕获装置122的FOV与图像捕获装置124和126的一个或多个FOV重叠的区域的图像捕获的同步,即便图像捕获装置122的视场不同于图像捕获装置124和126的FOV。
图像捕获装置122、124和126中的帧速率定时可以取决于相关联的图像传感器的分辨率。例如,假定对于两个装置,线扫描速率类似,如果一个装置包含具有640×480的分辨率的图像传感器,并且另一个装置包含具有1280×960的分辨率的图像传感器,则需要更多的时间来从具有更高分辨率的传感器获取一帧图像数据。
可以影响图像捕获装置122、124和126中的图像数据获取的定时的另一个因素是最大线扫描速率。例如,从被包含在图像捕获装置122、124和126中的图像传感器获取一行图像数据将需要某个最低时间量。假定没有添加像素延迟时段,则用于获取一行图像数据的此最低时间量将与用于特定装置的最大线扫描速率相关。提供较高的最大线扫描速率的装置比具有较低的最大线扫描速率的装置具有提供更高的帧速率的潜在性。在一些实施例中,图像捕获装置124和126中的一个或多个可以具有高于与图像捕获装置122相关联的最大线扫描速率的最大线扫描速率。在一些实施例中,图像捕获装置124和/或126的最大线扫描速率可以是图像捕获装置122的最大线扫描速率的1.25、1.5、1.75或2倍或更多倍。
在另一个实施例中,图像捕获装置122、124和126可以具有相同的最大线扫描速率,但图像捕获装置122可以以小于或等于其最大扫描扫描速率的扫描速率而操作。系统可以被配置为使得图像捕获装置124和126中的一个或多个以等于图像捕获装置122的线扫描速率的线扫描速率进行操作。在其他实例中,系统可以被配置为使得图像捕获装置124和/或图像捕获装置126的线扫描速率可以是图像捕获装置122的线扫描速率的1.25、1.5、1.75、或2倍或更多倍。
在一些实施例中,图像捕获装置122、124和126可以是不对称的。换言之,它们可包含具有不同视场(FOV)和焦距的相机。例如,图像捕获装置122、124和126的视场可以包含关于车辆200的环境的任何期望的区域。在一些实施例中,图像捕获装置122、124和126中的一个或多个可以被配置为从在车辆200前面、车辆200后面、车辆200的侧面、或它们的组合的环境获取图像数据。
此外,与每个图像捕获装置122、124和/或126相关联的焦距可以是可选择的(例如,通过包含适当的镜头等),使得每个装置在相对于车辆200的期望的距离范围处获取对象的图像。例如,在一些实施例中,图像捕获装置122、124和126可以获取离车辆几米之内的接近对象的图像。图像捕获装置122、124和126还可以被配置为获取离车辆更远的范围处(例如,25米、50米、100米、150米或更远)的对象的图像。此外,图像捕获装置122、124和126的焦距可以被选择以使得一个图像捕获装置(例如,图像捕获装置122)可以获取相对靠近车辆(例如,在10米内或20米内的)对象的图像,而其他图像捕获装置(例如,图像捕获装置124和126)可以获取离车辆200较远的(例如,大于20米、50米、100米、150米等的)对象的图像。
根据一些实施例,一个或多个图像捕获装置122、124和126的FOV可以具有广角。例如,具有140度的FOV可能是有利的,尤其是对于可以被用于捕获车辆200附近的区域的图像的图像捕获装置122、124和126。例如,图像捕获装置122可以被用于捕获车辆200的右侧或左侧的区域的图像,并且在这样的实施例中,可能期望图像捕获装置122具有宽FOV(例如,至少140度)。
与图像捕获装置122、124和126中的每个相关联的视场可以取决于相应的焦距。例如,随着焦距增加,对应的视场减小。
图像捕获装置122、124和126可以被配置为具有任何合适的视场。在一个特定示例中,图像捕获装置122可以具有46度的水平FOV,图像捕获装置124可以具有23度的水平FOV,并且图像捕获装置126可以具有在23度和46度之间的水平FOV。在一个特定示例中,图像捕获装置122可以具有52度的水平FOV,图像捕获装置124可以具有26度的水平FOV,并且图像捕获装置126可以具有在26度和52度之间的水平FOV。在一些实施例中,图像捕获装置122的FOV与图像捕获装置124和/或图像捕获装置126的FOV的比率可以从1.5到2.0变化。在其他实施例中,该比率可以在1.25与2.25之间变化。
系统100可以被配置为使得图像捕获装置122的视场至少部分地或完全地与图像捕获装置124和/或图像捕获装置126的视场重叠。在一些实施例中,系统100可以被配置为使得图像捕获装置124和126的视场例如落入(例如,窄于)图像捕获装置122的视场并且与图像捕获装置122的视场共享共同的中心。在其他实施例中,图像捕获装置122、124和126可以捕获相邻的FOV,或者可以在它们FOV中具有部分重叠。在一些实施例中,图像捕获装置122、124和126的视场可以对齐,以使得较窄FOV图像捕获装置124和/或126的中心可以位于较宽FOV装置122的视场的下半部分中。
图2F是与所公开的实施例一致的示例性车辆控制系统的图示性表示。如图2F所指示的,车辆200可以包含油门调节系统220、制动系统230和转向系统240。系统100可以经过一个或多个数据链路(例如,用于传输数据的任何有线和/或无线链路)向油门调节系统220、制动系统230和转向系统240中的一个或多个提供输入(例如,控制信号)。例如,基于对由图像捕获装置122、124和/或126获取的图像的分析,系统100可以向油门调节系统220、制动系统230和转向系统240中的一个或多个提供控制信号以导航车辆200(例如,通过引起加速、转向、变道(lane shift)等)。此外,系统100可以从油门调节系统220、制动系统230和转向系统240中的一个或多个接收输入,该输入指示车辆200的运行条件(例如,速度、车辆200是否正在制动和/或转向等)。以下结合图4至图7提供进一步的细节。
如图3A所示,车辆200还可以包含用于与车辆200的驾驶员或乘客进行交互的用户界面170。例如,车辆应用中的用户界面170可以包含触摸屏320、旋钮330、按钮340和麦克风350。车辆200的驾驶员或乘客还可以使用手柄(例如,位于车辆200的转向杆上或附近,包含例如转向信号手柄)、按钮(例如,位于车辆200的方向盘上)等与系统100交互。在一些实施例中,麦克风350可以定位为与后视镜310相邻。类似地,在一些实施例中,图像捕获装置122可以位于靠近后视镜310。在一些实施例中,用户界面170还可以包含一个或多个扬声器360(例如,车辆音频系统的扬声器)。例如,系统100可以经由扬声器360提供各种通知(例如,警报)。
图3B至图3D是与所公开的实施例一致的被配置为定位在后视镜(例如,后视镜310)后面并抵靠车辆风挡的示例性相机安装370的图示。如图3B所示,相机安装370可以包含图像捕获装置122、124和126。图像捕获装置124和126可以定位在遮光板380的后面,遮光板380可以与车辆风挡齐平(flush)并且包含薄膜和/或防反射材料的合成物。例如,遮光板380可以被定位为使得遮挡相对于具有匹配斜面的车辆风挡对齐。在一些实施例中,图像捕获装置122、124和126中的每个可以定位在遮光板380的后面,例如在图3D中所描绘的。所公开的实施例不限于图像捕获装置122、124和126、相机安装370和遮光板380的任何特定配置。图3C是图3B所示的相机安装370从前面视角的图示。
如受益于本公开的本领域技术人员将理解的,可以对前述所公开的实施例做出许多变化和/或修改。例如,并非所有组件对于系统100的操作是必要的。此外,在提供所公开的实施例的功能时,任何组件可以位于系统100的任何适当的部分中并且组件可以被重新布置成各种配置。因此,前述配置是示例性的,并且不管上述讨论的配置如何,系统100都可以提供广阔范围的功能以分析车辆200的周围并响应于该分析而导航车辆200。
如在下面更详细讨论的并且根据各种所公开的实施例,系统100可以提供各种关于自主驾驶和/或驾驶员辅助技术的特征。例如,系统100可以分析图像数据、位置数据(例如,GPS定位信息)、地图数据、速度数据和/或来自包含在车辆200中的传感器的数据。系统100可以从例如图像获取单元120、位置传感器130以及其他传感器收集数据用于分析。此外,系统100可以分析所收集的数据以确定车辆200是否应当采取某个动作,并且然后在没有人工干预的情况下自动采取所确定的动作。例如,当车辆200在没有人工干预的情况下导航时,系统100可以自动地控制车辆200的制动、加速、和/或转向(例如,通过向油门调节系统220、制动系统230和转向系统240中的一个或多个传送控制信号)。此外,系统100可以分析所收集的数据,并且基于对所收集的数据的分析向车辆乘员发出警告和/或警报。下面提供关于系统100提供的各种实施例的附加的细节。
前向多成像系统
如上所讨论的,系统100可以提供使用多相机系统的驾驶辅助功能。多相机系统可以使用面向车辆前方的一个或多个相机。在其他实施例中,多相机系统可以包含面向车辆的侧方或面向车辆的后方的一个或多个相机。在一个实施例中,例如系统100可以使用双相机成像系统,其中,第一相机和第二相机(例如,图像捕获装置122和124)可以被定位在车辆(例如,车辆200)的前面和/或侧面处。第一相机可以具有大于、小于、或部分重叠于第二相机的视场的视场。此外,第一相机可以连接到第一图像处理器以进行对由第一相机提供的图像的单目图像分析,并且第二相机可以连接到第二图像处理器以进行对由第二相机提供的图像的单目图像分析。第一和第二图像处理器的输出(例如,处理后的信息)可以被组合。在一些实施例中,第二图像处理器可以从第一相机和第二相机两者接收图像以执行立体分析。在另一个实施例中,系统100可以使用三相机成像系统,其中每个相机具有不同的视场。因此,这样的系统可以基于从位于车辆前方和侧方的不同距离处的对象导出的信息来做出决定。对单目图像分析的参考可以参考基于从单个视点(例如,从单个相机)捕获的图像进行图像分析的实例。立体图像分析可以参考基于使用图像捕获参数的一个或多个变化而捕获的两个或更多个图像而进行图像分析的实例。例如,适合于进行立体图像分析的捕获的图像可以包含从两个或更多个不同位置、从不同视野、使用不同焦距以及与视差信息一起等捕获的图像。
例如,在一个实施例中,系统100可以使用图像捕获装置122、124和126来实现三相机配置。在这样的配置中,图像捕获装置122可以提供窄视场(例如,34度或从大约20度至45度的范围选择的其他值等),图像捕获装置124可以提供宽视场(例如,150度或从大约100度至大约180度的范围选择的其他值),并且图像捕获装置126可以提供中间的视场(例如,46度或从大约35度至大约60度的范围选择的其他值)。在一些实施例中,图像捕获装置126可以作为主相机或基本相机。图像捕获装置122、124和126可以被定位在后视镜310的后面并且基本上并排定位(例如,相距6厘米)。此外,在一些实施例中,如以上所讨论的,图像捕获装置122、124和126中的一个或多个可以被安装在与车辆200的风挡齐平的遮光板380的后面。这样的遮挡可以用于最小化来自汽车内部的任何反射对图像捕获装置122、124和126的影响。
在另一个实施例中,如以上结合图3B和图3C所讨论的,宽视场相机(例如,上述示例中的图像捕获装置124)可以被安装得低于窄视场相机和主视场相机(例如,上述示例中的图像捕获装置122和126)。这样的配置可以提供来自宽视场相机的自由视线。为减少反射,相机可以被安装得靠近车辆200的风挡,并且在相机上可以包含偏振器以衰减(damp)反射光。
三相机系统可以提供某些性能特性。例如,一些实施例可以包含由一个相机基于来自另一个相机的检测结果来验证对象的检测的能力。在上面讨论的三相机配置中,处理单元110可以包含例如三个处理装置(例如,三个如以上所讨论的EyeQ系列处理器芯片),其中每个处理装置专用于处理由图像捕获装置122、124和126中的一个或多个捕获的图像。
在三相机系统中,第一处理装置可以从主相机和窄视场相机两者接收图像,并且进行对窄FOV相机的视觉处理,例如以检测其他车辆、行人、车道标志、交通标志、交通灯以及其他道路对象。此外,第一处理装置可以计算来自主相机和窄相机的图像之间的像素的视差,并且创建车辆200的环境的3D重建。然后第一处理装置可以组合3D重建与3D地图数据、或组合3D重建与基于来自另一个相机的信息计算出的3D信息。
第二处理装置可以从主相机接收图像并进行视觉处理以检测其他车辆、行人、车道标志、交通标志、交通灯和其他道路对象。此外,第二处理装置可以计算相机位移,并且基于该位移计算连续图像之间的像素的视差,并创建场景的3D重建(例如,运动恢复结构(structure from motion))。第二处理装置可以将基于3D重建的运动恢复结构传送到第一处理装置以与立体3D图像进行组合。
第三处理装置可以从宽FOV相机接收图像,并处理该图像以检测车辆、行人、车道标志、交通标志、交通灯和其他道路对象。第三处理装置可以进一步执行附加的处理指令来分析图像,以识别图像中移动的对象,诸如正改变车道的车辆、行人等。
在一些实施例中,使得基于图像的信息的流被独立地捕获和处理可以提供用于在系统中提供冗余的机会。这样的冗余可以包含例如使用第一图像捕获装置和从该装置处理的图像来验证和/或补充通过从至少第二图像捕获装置捕获和处理图像信息而获得的信息。
在一些实施例中,系统100可以使用两个图像捕获装置(例如,图像捕获装置122和124)来为车辆200提供导航辅助,并使用第三图像捕获装置(例如,图像捕获装置126)来提供冗余和验证从其他两个图像捕获装置接收的数据的分析。例如,在这样的配置中,图像捕获装置122和124可以提供用于由系统100进行立体分析的图像以用于导航车辆200,而图像捕获装置126可以提供用于由系统100进行单目分析的图像,以提供冗余和基于从图像捕获装置122和/或图像捕获装置124捕获的图像而获得的信息的验证。换言之,可以认为图像捕获装置126(和对应的处理装置)提供冗余子系统,以用于提供对从图像捕获装置122和124导出的分析的检查(例如,以提供自动紧急制动(AEB)系统)。此外,在一些实施例中,可基于从一个或多个传感器接收的信息(例如,雷达、激光雷达、声学传感器、从车辆外部的一个或多个收发器接收的信息等)来补充冗余和接收到的数据的验证。
本领域的技术人员将认识到,上述相机配置、相机放置、相机数目、相机定位等仅为示例。在不脱离所公开的实施例的范围下,这些组件和关于整个系统描述的其他组件可以在各种不同的配置中被组装和使用。关于使用多相机系统以提供驾驶员辅助和/或自主车辆功能的进一步的细节如下。
图4是存储器140和/或存储器150的示例性功能性框图,该存储器140和/或存储器150可以被存储/被编程指令以用于进行与本公开实施例一致的一个或多个操作。尽管以下指代存储器140,但是本领域技术人员将认识到指令可以存储在存储器140和/或150中。
如图4所示,存储器140可以存储单目图像分析模块402、立体图像分析模块404、速度和加速度模块406以及导航响应模块408。所公开的实施例不限于存储器140的任何特定配置。此外,应用处理器180和/或图像处理器190可以执行包含在存储器140中的任何模块402、404、406和408所存储的指令。本领域技术人员将理解,在以下讨论中对处理单元110的参考可以分离地或共同地指代应用处理器180和图像处理器190。相应地,可以由一个或多个处理装置来进行任何以下过程的步骤。
在一个实施例中,单目图像分析模块402可以存储指令(诸如计算机视觉软件),当由处理单元110执行该指令时,对由图像捕获装置122、124和126中的一个获取的一组图像进行单目图像分析。在一些实施例中,处理单元110可以将来自一组图像的信息与附加的感觉信息(例如,来自雷达、激光雷达等的信息)组合以进行单目图像分析。如以下结合图5A至图5D所描述的,单目图像分析模块402可以包含用于在一组图像内检测该组特征的指令,所述特征诸如车道标志、车辆、行人、道路标志、高速公路出口匝道、交通灯、危险对象以及与车辆的环境相关联的任何其他特征。基于该分析,系统100(例如,经由处理单元110)可以引起车辆200中的一个或多个导航响应,诸如转向、变道、加速度的改变等,如以下结合导航响应模块408所讨论的。
在一个实施例中,立体图像分析模块404可以存储指令(诸如,计算机视觉软件),当由处理单元110执行该指令时,对由从任何图像捕获装置122、124和126中选择的图像捕获装置的组合而获取的第一组和第二组图像进行立体图像分析。在一些实施例中,处理单元110可以将来自第一组和第二组图像的信息与附加的感觉信息(例如,来自雷达的信息)组合以进行立体图像分析。例如,立体图像分析模块404可以包含指令,该指令用于基于由图像捕获装置124获取的第一组图像和由图像捕获装置126获取的第二组图像而进行立体图像分析。如下面结合图6所描述的,立体图像分析模块404可以包含指令,该指令用于检测第一组和第二组图像内的一组特征,诸如车道标志、车辆、行人、道路标志、高速公路出口匝道、交通灯、危险对象等。基于该分析,处理单元110可以引起车辆200中的一个或多个导航响应,诸如转向、变道、加速度的改变等,如以下结合导航响应模块408所讨论的。此外,在一些实施例中,立体图像分析模块404可以实现与经训练的系统(诸如神经网络或深度神经网络)或未经训练的系统相关联的技术,诸如系统可以被配置为使用计算机视觉算法来检测和/或标记在从中捕获和处理感觉信息的环境中的对象。在一个实施例中,立体图像分析模块404和/或其他图像处理模块可以被配置为使用经训练和未经训练系统的组合。
在一个实施例中,速度和加速度模块406可以存储软件,该软件被配置为分析从车辆200中的一个或多个计算和机电装置接收的数据,该一个或多个计算和机电装置被配置为引起车辆200的速度和/或加速度的改变。例如,处理单元110可以执行与速度和加速度模块406相关联的指令,以基于从执行单目图像分析模块402和/或立体图像分析模块404导出的数据来计算车辆200的目标速度。这样的数据可以包含,例如目标位置,速度和/或加速度,车辆200相对于附近车辆、行人或道路对象的位置和/或速度,车辆200相对于道路的车道标志的位置信息等。另外,处理单元110可以基于感觉输入(例如,来自雷达的信息)和来自车辆200的其他系统(诸如油门调节系统220、制动系统230和/或转向系统240)的输入来计算车辆200的目标速度。基于计算出的目标速度,处理单元110可以向车辆200的油门调节系统220、制动系统230和/或转向系统的240传输电信号,以通过例如物理地压下制动器或松开车辆200的加速器来触发速度和/或加速度的改变。
在一个实施例中,导航响应模块408可以存储软件,该软件可由处理单元110执行以基于从执行单目图像分析模块402和/或立体图像分析模块404导出的数据来确定期望的导航响应。这样的数据可以包含与附近的车辆、行人和道路对象相关联的位置和速度信息,车辆200的目标位置信息等。此外,在一些实施例中,导航响应可以(部分地或完全地)基于地图数据、车辆200的预定位置、和/或车辆200与从单目图像分析模块402和/或立体图像分析模块404的执行检测到的一个或多个对象之间的相对速度或相对加速度。导航响应模块408还可以基于感觉输入(例如,来自雷达的信息)和来自车辆200的其他系统(诸如车辆200的油门调节系统220、制动系统230和转向系统240)的输入确定期望的导航响应。基于期望的导航响应,处理单元110可以向车辆200的油门调节系统220、制动系统230和转向系统240传输电信号,以通过例如转动车辆200的方向盘来实现预定角度的旋转,从而触发期望的导航响应。在一些实施例中,处理单元110可以使用导航响应模块408的输出(例如,期望的导航响应)作为执行速度和加速度模块406的输入,以用于计算车辆200的速度的改变。
此外,本文公开的任何模块(例如,模块402、404和406)可以实现与经训练的系统(诸如神经网络或深度神经网络)或未经训练的系统相关联的技术。
图5A是示出与所公开的实施例一致的用于基于单目图像分析来引起一个或多个导航响应的示例性过程500A的流程图。在步骤510处,处理单元110可以经由在处理单元110和图像获取单元120之间的数据接口128接收多个图像。例如,包含在图像获取单元120中的相机(诸如具有视场202的图像捕获装置122)可以捕获车辆200的前方(例如,或者车辆的侧方或后方)区域的多个图像并通过数据连接(例如,数字、有线、USB、无线、蓝牙等)将它们传输到处理单元110。在步骤520处,处理单元110可以执行单目图像分析模块402来分析该多个图像,如以下结合图5B至图5D所进一步详细描述的。通过进行该分析,处理单元110可以检测在该组图像内的一组特征,诸如车道标志、车辆、行人、道路标志、高速公路出口匝道、交通灯等。
在步骤520处,处理单元110还可以执行单目图像分析模块402来检测各种道路危险,诸如例如卡车轮胎的部件、倒下的道路标志、松散货物、小动物等。道路危险可能在结构、形状、大小和颜色上变化,这可能使这样的危险的检测更加困难。在一些实施例中,处理单元110可以执行单目图像分析模块402来对多个图像进行多帧分析以检测道路危险。例如,处理单元110可以估计连续图像帧之间的相机运动,并计算帧之间的像素中的视差来构建道路的3D地图。然后,处理单元110可以使用该3D地图来检测道路表面、以及存在于道路表面上的危险。
在步骤530处,处理单元110可以执行导航响应模块408以基于在步骤520处执行的分析和如以上结合图4所描述的技术来引起一个或多个导航响应。导航响应可以包含例如转向、变道、制动、加速度的改变等。在一些实施例中,处理单元110可以使用从执行速度和加速度模块406导出的数据来引起该一个或多个导航响应。此外,多个导航响应可以同时地、按照顺序地、或以其任何组合而发生。例如,处理单元110可以通过例如按照顺序地向车辆200的转向系统240和油门调节系统220传输控制信号,使得车辆200转变一个车道然后加速。替代地,处理单元110可以通过例如同时向车辆200的制动系统230和转向系统240传输控制信号,使得车辆200在变道的同时制动。
图5B是示出与所公开的实施例一致的用于在一组图像中检测一个或多个车辆和/或行人的示例性过程500B的流程图。处理单元110可以执行单目图像分析模块402来实现过程500B。在步骤540处,处理单元110可以确定表示可能的车辆和/或行人的一组候选对象。例如,处理单元110可以扫描一个或多个图像,将该图像与一个或多个预定图案比较,并且在每个图像内识别可能含有感兴趣的对象(例如,车辆、行人或其部分)的可能的定位。预定图案可以以实现高“伪命中”率和低“漏掉”率的这样的方式来设计。例如,处理单元110可以将低的相似性阈值用在预定图案以将候选对象识别为可能的车辆或行人。这样做可以允许处理单元110减少漏掉(例如,未识别出)表示车辆或行人的候选对象的可能性。
在步骤542处,处理单元110可以基于分类标准过滤该组候选对象以排除某些候选(例如,不相关或较不相关的对象)。可以从与存储在数据库(例如,存储在存储器140中的数据库)中的对象类型类别相关联的各种属性导出这样的标准。属性可以包含对象形状、尺寸、纹理、位置(例如,相对于车辆200)等。因此,处理单元110可以使用一组或多组标准来从该组候选对象中拒绝伪候选。
在步骤544处,处理单元110可以分析多帧图像,以确定在该组候选对象中的对象是否表示车辆和/或行人。例如,处理单元110可以跨连续帧来跟踪检测到的候选对象并累积与检测到的对象相关联的逐帧数据(例如,大小、相对于车辆200的位置等)。此外,处理单元110可以估计检测到的对象的参数并将该对象的逐帧位置数据与预测的位置比较。
在步骤546处,处理单元110可以为检测到的对象构建一组测量。这样的测量可以包含例如与检测到的对象相关联的位置、速度和加速度值(相对于车辆200)。在一些实施例中,处理单元110可以基于使用一系列基于时间的观察的诸如卡尔曼滤波器或线性二次估计(LQE)的估计技术和/或基于对于不同对象类别(例如,汽车、卡车、行人、自行车、道路标志等)可用的建模数据,来构建该测量。卡尔曼滤波器可以基于对象的比例的测量,其中该比例测量与要碰撞的时间(例如,车辆200到达对象的时间量)成比例。因此,通过进行步骤540至546,处理单元110可以识别在该组捕获图像内出现的车辆和行人,并导出与该车辆和行人相关联的信息(例如,位置、速度、大小)。基于该识别和所导出的信息,处理单元110可以引起车辆200中的一个或多个导航响应,如以上结合图5A所描述的。
在步骤548处,处理单元110可以进行对一个或多个图像的光流分析,以减少检测到“伪命中”和漏掉表示车辆或行人的候选对象的可能性。光流分析可以指代,例如在一个或多个图像中分析相对于车辆200的、与其他车辆和行人相关联的并且区别于道路表面运动的运动图案。处理单元110可以通过跨越在不同时间捕获到的多个图像帧观察对象的不同位置,来计算候选对象的运动。处理单元110可以使用该位置和时间值作为用于计算候选对象的运动的数学模型的输入。因此,光流分析可以提供检测车辆200附近的车辆和行人的另一种方法。处理单元110可以结合步骤540至546进行光流分析,以提供用于检测车辆和行人的冗余,并提高系统100的可靠性。
图5C是示出与所公开的实施例一致的用于在一组图像中检测道路标志和/或车道几何结构信息的示例性过程500C的流程图。处理单元110可以执行单目图像分析模块402来实现过程500C。在步骤550处,处理单元110可以通过扫描一个或多个图像来检测一组对象。为了检测车道标志、车道几何结构信息以及其他相关的道路标志的路段,处理单元110可以过滤该组对象以排除被确定为不相关的对象(例如,小坑洼、小石块等)。在步骤552处,处理单元110可以将在步骤550中检测到的属于相同的道路标志或车道标志的路段分组在一起。基于该分组,处理单元110可以产生表示检测到的路段的模型,诸如数学模型。
在步骤554处,处理单元110可以构建与检测到的路段相关联的一组测量。在一些实施例中,处理单元110可以创建检测到的路段从图像平面到现实世界平面上的投影。可以使用具有与诸如检测到的道路的位置、斜率、曲率和曲率导数的物理属性对应的系数的三次多项式来表征该投影。在生成投影时,处理单元110可以考虑道路表面的改变,以及与车辆200相关的俯仰(pitch)和滚转速率(roll rate)。此外,处理单元110可以通过分析道路表面上存在的位置和运动线索来对道路标高进行建模。此外,处理单元110可以通过跟踪一个或多个图像中的一组特征点来估计与车辆200相关联的俯仰和滚转速率。
在步骤556处,处理单元110可以通过例如跨连续图像帧跟踪检测到的路段并累积与检测到的路段相关联的逐帧数据来进行多帧分析。由于处理单元110进行多帧分析,在步骤554构建的该组测量可以变得更可靠并且与越来越高的置信度水平相关联。因此,通过进行步骤550、552、554和556,处理单元110可以识别在该组捕获图像中出现的道路标志并导出车道几何结构信息。基于该识别和所导出的信息,处理单元110可以引起车辆200中的一个或多个导航响应,如以上结合图5A所描述的。
在步骤558处,处理单元110可以考虑附加的信息源,以进一步产生车辆200的在其周围的环境中的安全模型。处理单元110可以使用安全模型来限定系统100可以以安全方式执行车辆200的自主控制的上下文。为产生该安全模型,在一些实施例中,处理单元110可以考虑其他车辆的位置和运动、检测到的路缘和护栏、和/或从地图数据(诸如来自地图数据库160的数据)提取的一般道路形状描述。通过考虑附加的信息源,处理单元110可以提供用于检测道路标志和车道几何结构的冗余,并增加系统100的可靠性。
图5D是示出与所公开的实施例一致的用于在一组图像中检测交通灯的示例性过程500D的流程图。处理单元110可以执行单目图像分析模块402来实现过程500D。在步骤560处,处理单元110可以扫描该组图像,并识别出现在图像中的可能含有交通灯的定位处的对象。例如,处理单元110可以过滤所识别的对象以构建一组候选对象,而排除不可能对应于交通灯的那些对象。可以基于与交通灯相关联的各种属性来完成过滤,诸如形状、尺寸、纹理、位置(例如,相对于车辆200)等。这样的属性可以基于交通灯和交通控制信号的多个示例,并存储在数据库中。在一些实施例中,处理单元110可以对反映可能的交通灯的该组候选对象进行多帧分析。例如,处理单元110可以跨连续图像帧跟踪候选对象,估计候选对象的现实世界位置,并过滤掉那些移动的对象(其不可能是交通灯)。在一些实施例中,处理单元110可以对候选对象进行颜色分析,并识别出现在可能的交通灯内的检测到的颜色的相对位置。
在步骤562处,处理单元110可以分析交叉口的几何结构。分析可以基于以下各项的任意组合:(i)在车辆200的任一侧检测到的车道数,(ii)在道路上检测到的标志(例如箭头标志),以及(iii)从地图数据(例如来自地图数据库160的数据)中提取的交叉口的描述。处理单元110可以使用从执行单目分析模块402导出的信息来进行分析。此外,处理单元110可以确定在步骤560检测到的交通灯和在车辆200附近出现的车道之间的对应性。
在步骤564处,随着车辆200接近交叉口,处理单元110可以更新与所分析的交叉口几何结构和检测到的交通灯相关联的置信度水平。例如,被估计为出现在交叉口处的交通灯的数目与实际出现在交叉口处的交通灯的数目比较可以影响置信度水平。因此,基于该置信度水平,处理单元110可以将控制委托给车辆200的驾驶员以便改善安全条件。通过进行步骤560、562和564,处理单元110可以识别出现在该组捕获图像内的交通灯,并分析交叉口几何结构信息。基于该识别和分析,处理单元110可以引起车辆200中的一个或多个导航响应,如以上结合图5A所描述的。
图5E是示出与所公开的实施例一致的用于基于车辆路径来引起车辆200中的一个或多个导航响应的示例性过程500E的流程图。在步骤570处,处理单元110可以构建与车辆200相关联的初始车辆路径。车辆路径可以使用以坐标(x,z)表达的一组点来表示,并且该组点中两个点之间的距离di可以落入1至5米的范围中。在一个实施例中,处理单元110可以使用诸如左道路多项式和右道路多项式的两个多项式来构建初始车辆路径。处理单元110可以计算该两个多项式之间的几何中点,并且将被包含在得到的车辆路径中的每个点偏移预定的偏移(例如,智能车道偏移),如果有的话(零偏移可以对应于在车道的中间行驶)。该偏移可以在垂直于在车辆路径中的任何两点之间的路段的方向上。在另一个实施例中,处理单元110可以使用一个多项式和估计的车道宽度,来将车辆路径的每个点偏移估计的车道宽度的一半加上预定偏移(例如,智能车道偏移)。
在步骤572处,处理单元110可以更新在步骤570构建的车辆路径。处理单元110可以使用更高的分辨率来重建在步骤570构建的车辆路径,以使得表示车辆路径的该组点中两个点之间的dk小于如上所述的距离di。例如,该距离dk可以落入0.1至0.3米的范围中。处理单元110可以使用抛物线样条算法(parabolic spline algorithm)重建车辆路径,这可以产生对应于车辆路径的总长度的累积距离矢量S(即,基于表示车辆路径的该组点)。
在步骤574处,处理单元110可以基于在步骤572处构建的更新后的车辆路径来确定前视点(look-ahead point)(以坐标表达为(xl,zl))。处理单元110可以从累积距离矢量S提取前视点,并且该前视点可以与前视距离和前视时间相关联。前视距离可以具有范围为从10米至20米的下限,可以被计算为车辆200的速度和前视时间的乘积。例如,随着车辆200的速度下降,前视距离也可以减小(例如,直到它到达下限)。前视时间的范围可以从0.5到1.5秒,可以与关联于引起车辆200中的导航响应的诸如航向误差(heading error)跟踪控制环路的一个或多个控制环路的增益成反比。例如,该航向误差跟踪控制环路的增益可以取决于偏航率(yaw rate)环路、转向致动器环路、汽车横向动力学等的带宽。因此,航向误差跟踪控制环路的增益越高,前视时间越短。
在步骤576处,处理单元110可以基于在步骤574确定的前视点来确定航向误差和偏航率命令。处理单元110可以通过计算前视点的反正切,例如arctan(xl/zl)来确定航向误差。处理单元110可以将横摆角速率命令确定为航向误差和高水平控制增益的乘积。如果前视距离不在下限处,则高水平控制增益可以等于:(2/前视时间)。否则,高水平控制增益可以等于:(2×车辆200的速度/前视距离)。
图5F是示出与所公开的实施例一致的用于确定前方车辆是否正在改变车道的示例性过程500F的流程图。在步骤580处,处理单元110可以确定与前方车辆(例如,在车辆200前方行驶的车辆)相关联的导航信息。例如,处理单元110可以使用以上结合图5A和图5B所描述的技术来确定前方车辆的位置、速度(例如,方向和速度)和/或加速度。处理单元110还可以使用以上结合图5E所描述的技术来确定一个或多个道路多项式、前视点(与车辆200相关联)和/或追踪轨迹(例如,描述由前方车辆所采取的路径的一组点)。
在步骤582处,处理单元110可以分析在步骤580确定的导航信息。在一个实施例中,处理单元110可以计算追踪轨迹和道路多项式之间的距离(例如,沿着该轨迹)。如果沿着该轨迹的这个距离的变化超过预定的阈值(例如,在直路上0.1至0.2米,在适度弯曲道路上0.3至0.4米,以及在急转弯道路上0.5至0.6米),则处理单元110可以确定前方车辆很可能正在改变车道。在检测到多个车辆在车辆200前方行驶的情形中,处理单元110可以比较与每个车辆相关联的追踪轨迹。基于该比较,处理单元110可以确定追踪轨迹与其他车辆的追踪轨迹不匹配的车辆很可能正在改变车道。处理单元110可以附加地将(与前方车辆相关联的)追踪轨迹的曲率与前方车辆正在其中行驶的道路路段的期望曲率相比较。该期望曲率可以从地图数据(例如,来自地图数据库160的数据)、从道路多项式、从其他车辆的追踪轨迹、从关于道路现有知识等提取。如果追踪轨迹的曲率和道路路段的期望曲率的差异超过预定的阈值,则处理单元110可以确定前方车辆很可能正在改变车道。
在另一个实施例中,处理单元110可以在具体时间段(例如,0.5至1.5秒)将前方车辆的瞬时位置与前视点(与车辆200相关联)相比较。如果前方车辆的瞬时位置与前视点之间的距离在该具体时间段期间变化,并且变化的累积总和超过预定阈值(例如,在直路上0.3至0.4米,在适度弯曲道路上0.7至0.8米,以及在急转弯道路上1.3至1.7米),则处理单元110可以确定前方车辆很可能正在改变车道。在另一个实施例中,处理单元110可以通过将沿着追踪轨迹行驶的横向距离与该追踪路径的期望曲率相比较,来分析该追踪轨迹的几何结构。可以根据计算确定预期的曲率半径:(δz 2+δx 2)/2/(δx),其中δx表示横向行驶的距离和δz表示的纵向行驶的距离。如果行驶的横向距离和期望曲率之间的差异超过预定阈值(例如,500至700米),则处理单元110可以确定前方车辆很可能正在改变车道。在另一个实施例中,处理单元110可以分析前方车辆的位置。如果前方车辆的位置遮挡了道路多项式(例如,前车覆盖在道路多项式的上方),则处理单元110可以确定前方车辆很可能正在改变车道。在前方车辆的位置是使得在前方车辆的前方检测到另一车辆并且这两个车辆的追踪轨迹不平行的情况下,处理单元110可以确定(较近的)前方车辆很可能正在改变车道。
在步骤584,处理单元110可以基于在步骤582进行的分析来确定前方车辆200是否正在改变车道。例如,处理单元110可以基于在步骤582进行的各个分析的加权平均来做出该确定。在这样的方案下,例如,由处理单元110基于特定类型的分析做出的前方车辆很可能正在改变车道的决定可以被分配值“1”(以及“0”用来表示前方车辆不太可能正在改变车道的确定)。在步骤582处进行的不同分析可以被分配不同的权重,并且所公开的实施例不限于分析和权重的任何特定组合。
图6是示出与所公开的实施例一致的用于基于立体图像分析来引起一个或多个导航响应的示例性过程600的流程图。在步骤610处,处理单元110可以经由数据接口128接收第一和第二多个图像。例如,被包含在图像获取单元120的相机(诸如具有视场202和204的图像捕获装置122和124)可以捕获在车辆200前方的区域的第一和第二多个图像,并经过数字连接(例如,USB、无线、蓝牙等)将它们传输到处理单元110。在一些实施例中,处理单元110可以经由两个或更多个数据接口接收该第一和第二多个图像。所公开的实施例不限于任何特定的数据接口配置或协议。
在步骤620处,处理单元110可以执行立体图像分析模块404来进行对第一和第二多个图像的立体图像分析,以创建在车辆前方的道路的3D地图并检测图像内的特征,诸如车道标志、车辆、行人、道路标志、高速公路出口匝道、交通灯、道路危险等。可以以与上面结合图5A至5D描述的步骤类似的方式进行立体图像分析。例如,处理单元110可以执行立体图像分析模块404以在第一和第二多个图像内检测候选对象(例如,车辆、行人、道路标志、交通灯、道路危险等),基于各种标准过滤掉候选对象的子集,并进行多帧分析、构建测量,以及为剩余的候选对象确定置信度水平。在进行上述步骤时,处理单元110可以考虑来自第一和第二多个图像两者的信息,而不是仅考虑来自一组图像的信息。例如,处理单元110可以分析出现在第一和第二多个图像两者中的候选对象的像素级数据(或来自捕获图像的两个流中的其他数据子集)的差异。作为另一个示例,处理单元110可以通过观察对象在多个图像中的一个出现而未在另一个图像中出现,或相对于出现在两个图像流中的对象可能存在的其他差异,来估计候选对象(例如,相对于车辆200)的位置和/或速度。例如,可以基于与出现在图像流的一个或两者中的对象相关联的轨迹、位置、移动特性等特征,来确定相对于车辆200的位置、速度和/或加速度。
在步骤630处,处理单元110可以执行导航响应模块408,以基于在步骤620进行的分析和如以上结合图4所描述的技术而引起车辆200中的一个或多个导航响应。导航响应可以包含例如转向、变道、加速度的改变、速度的改变、制动等。在一些实施例中,处理单元110可以使用从执行速度和加速度模块406导出的数据来引起该一个或多个导航响应。此外,多个导航响应可以同时地、按照顺序地、或以其任何组合而发生。
图7是示出与所公开的实施例一致的用于基于三组图像的分析来引起一个或多个导航响应的示例性过程700的流程图。在步骤710处,处理单元110可以经由数据接口128接收第一、第二和第三多个图像。例如,被包含在图像获取单元120的相机(诸如具有视场202、204和206的图像捕获装置122、124和126)可以捕获在车辆200前方和/或侧方的区域的第一、第二和第三多个图像,并且经过数字连接(例如,USB、无线、蓝牙等)将它们传输到处理单元110。在一些实施例中,处理单元110可以经由三个或更多个数据接口接收第一、第二和第三多个图像。例如,图像捕获装置122、124、126中的每个可以具有用于向处理单元110通信数据的相关联的数据接口。所公开的实施例不限于任何特定的数据接口配置或协议。
在步骤720处,处理单元110可以分析该第一、第二和第三多个图像以检测图像内的特征,诸如车道标志、车辆、行人、道路标志、高速公路出口匝道、交通灯、道路危险等。该分析可以以类似于以上结合图5A-图5D和图6所描述的步骤的方式来进行。例如,处理单元110可以对第一、第二和第三多个图像中的每个进行单目图像分析(例如,经由单目图像分析模块402的执行以及基于以上结合图5A至图5D所描述的步骤)。替代地,处理单元110可对第一和第二多个图像、第二和第三多个图像、和/或第一和第三多个图像进行立体图像分析(例如,经由立体图像分析模块404的执行以及基于以上结合图6所描述的步骤)。可以组合对应于第一、第二和/或第三多个图像的分析的处理后的信息。在一些实施例中,处理单元110可以进行单目和立体图像分析的组合。例如,处理单元110可以对第一多个图像进行单目图像分析(例如,经由单目图像分析模块402的执行)并且对第二和第三多个图像进行立体图像分析(例如,经由立体图像分析模块404的执行)。图像捕获装置122、124和126——包含它们各自的定位和视场202、204和206——的配置可以影响对第一、第二和第三多个图像进行的分析的类型。所公开的实施例不限于图像捕获装置122、124和126的特定配置或对第一、第二和第三多个图像进行的分析的类型。
在一些实施例中,处理单元110可以基于在步骤710和720所获取和分析的图像对系统100进行测试。这样的测试可以提供对于图像获取装置122、124和126的某些配置的系统100的整体性能的指示符。例如,处理单元110可以确定“伪命中”(例如,系统100不正确地确定车辆或行人的存在的情况)和“漏掉”的比例。
在步骤730处,处理单元110可以基于从第一、第二和第三多个图像中的两个导出的信息来引起车辆200中的一个或多个导航响应。对第一、第二和第三多个图像中的两个的选择可以取决于各种因素,诸如例如在多个图像的每个中检测到的对象的数目、类型和大小。处理单元110还可以基于图像质量和分辨率、在图像中反映的有效视场、捕获的帧的数目、一个或多个感兴趣的对象实际出现在帧中的程度(例如,对象出现的帧的百分比、每个这样的帧中出现的对象的比例)等来进行选择。
在一些实施例中,处理单元110可以通过确定从一个图像源导出的信息与从其他图像源导出的信息的相一致的程度,选择从第一、第二和第三多个图像中的两个导出的信息。例如,处理单元110可以将从图像捕获装置122、124和126中的每个导出的处理后的信息组合(无论通过单目分析、立体分析、还是两者的任何组合),并确定在从图像捕获装置122、124和126的每个捕获到的图像之间相一致的视觉指示符(例如,车道标志、检测到的车辆及其定位和/或路径、检测到的交通灯等)。处理单元110还可以排除在捕获到的图像之间不一致的信息(例如,正改变车道的车辆、指示车辆太靠近车辆200的车道模型等)。因此,处理单元110可以基于确定相一致和不一致的信息,来选择从第一、第二和第三多个图像中的两个导出的信息。
导航响应可以包含例如转向、变道、制动、加速度的改变等。处理单元110可以基于在步骤720所进行的分析和如以上结合图4所描述的技术来引起一个或多个导航响应。处理单元110还可以使用从执行速度和加速度模块406导出的数据来引起一个或多个导航响应。在一些实施例中,处理单元110可以基于在车辆200与在第一、第二和第三多个图像的任一者内检测到的对象之间的相对位置、相对速度和/或相对加速度来引起一个或多个导航响应。多个导航响应可以同时地、按顺序地或以其任何组合而发生。
用于自主车辆导航的稀疏道路模型
在一些实施例中,所公开的系统和方法可以使用用于自主车辆导航的稀疏地图。特别地,稀疏地图可以用于沿着道路路段的自主车辆导航。例如,稀疏地图可以在不存储和/或更新大量数据的情况下为导航自主车辆提供足够的信息。如下文更详细讨论的,自主车辆可以基于一个或多个存储的轨迹使用稀疏地图来导航一条或多条道路。
用于自主车辆导航的稀疏地图
在一些实施例中,所公开的系统和方法可以生成用于自主车辆导航的稀疏地图。例如,稀疏地图可以在不需要过多的数据存储或数据传输速率的情况下为导航提供足够的信息。如下文更详细讨论的,车辆(其可以是自主车辆)可以使用稀疏地图来导航一条或多条道路。例如,在一些实施例中,稀疏地图可以包含与道路和沿着道路的潜在地标相关的数据,这些数据对于车辆导航来说可能是足够的,但是也表现出小的数据足迹(footprint)。例如,下面详细描述的稀疏数据地图与包含详细地图信息(诸如沿着道路收集的图像数据)的数字地图相比,可能需要显著更少的存储空间和数据传输带宽。
例如,稀疏数据地图可以存储沿着道路的优选车辆路径的三维多项式表示,而不是存储道路路段的详细表示。这些路径可能需要非常少的数据存储空间。此外,在所描述的稀疏数据地图中,地标可以被识别并被包含在稀疏地图道路模型中以帮助导航。这些地标可以以适合于使能车辆导航的任何间距被定位,但是在一些情况下,这些地标不需要以高密度和短间距被识别并被包含在模型中。相反,在一些情况下,基于间距开至少50米、至少100米、至少500米、至少1千米或至少2千米的地标的导航是可能的。如将在其他章节中更详细讨论的,稀疏地图可以基于由配备有各种传感器和装置(诸如图像捕获装置、全球定位系统传感器、运动传感器等)的车辆在该车辆沿着道路行驶时收集或测量的数据来生成。在一些情况下,稀疏地图可以基于在一个或多个车辆沿着特定道路多次驾驶期间收集的数据来生成。使用一个或多个车辆的多次驾驶生成稀疏地图可以被称为“众包”稀疏地图。
与所公开的实施例一致,自主车辆系统可以使用用于导航的稀疏地图。例如,所公开的系统和方法可以分配稀疏地图用于为自主车辆生成道路导航模型,并且可以使用稀疏地图和/或生成的道路导航模型沿着道路路段导航自主车辆。与本公开一致的稀疏地图可以包含一个或多个三维轮廓,这些三维轮廓可以表示自主车辆在它们沿着相关联的道路路段移动时可以穿过(traverse)的预定轨迹。
与本公开一致的稀疏地图还可以包含表示一个或多个道路特征的数据。这样的道路特征可以包含辨识的地标、道路签名轮廓以及在车辆导航中有用的任何其他道路相关特征。与本公开一致的稀疏地图可以基于包含在稀疏地图中的相对少量的数据来使能车辆的自主导航。例如,稀疏地图的所公开的实施例可以需要相对小的存储空间(并且当稀疏地图的部分被传输到车辆时需要相对小的带宽),但是仍然可以充分地提供自主车辆导航,而不是包含道路的详细表示,诸如路缘、道路曲率、与道路路段相关联的图像、或详细描述与道路路段相关联的其他物理特征的数据。在一些实施例中,可以通过存储需要少量数据但仍然使能够自主导航的道路相关元素的表示来实现所公开的稀疏地图的小数据足迹,这将在下面进一步详细讨论。
例如,所公开的稀疏地图可以存储车辆可以沿着道路遵循的一个或多个轨迹的多项式表示,而不是存储道路的各个方面的详细表示。因此,使用所公开的稀疏地图,可以沿着特定道路路段导航车辆,而不是存储(或必须传输)关于道路的物理性质的细节以使能沿着道路的导航,在某些情况下,不必解释道路的物理方面,而是通过将其行驶的路径与沿着特定道路路段的轨迹(例如,多项式样条)对齐。以这种方式,可以主要基于存储的轨迹(例如,多项式样条)来导航车辆,与涉及道路图像、道路参数、道路布局等的存储的方法相比,该存储的轨迹可以需要少得多的存储空间。
除了存储的沿着道路路段的轨迹的多项式表示之外,所公开的稀疏地图还可以包含可以表示道路特征的小数据对象。在一些实施例中,小数据对象可以包含数字签名,该数字签名从沿着道路路段行驶的车辆上的传感器(例如,相机或其他传感器,诸如悬架传感器)获得的数字图像(或数字信号)中导出。相对于由传感器获取的信号,数字签名可以具有减小的大小。在一些实施例中,数字签名可以被创建为与分类器功能兼容,该分类器功能被配置为例如在后续驾驶期间从由传感器获取的信号中检测和识别道路特征。在一些实施例中,可以创建数字签名,使得数字签名具有尽可能小的足迹,同时保留基于道路特征的图像(或者如果所存储的签名不是基于图像和/或包含其他数据,则是由传感器生成的数字信号)将道路特征与所存储的签名相关联或匹配的能力,该道路特征的图像由后续沿相同道路路段行驶的车辆上的相机捕获。
在一些实施例中,数据对象的大小可以进一步与道路特征的唯一性相关联。例如,对于可由车辆上的相机检测的道路特征,并且其中车辆上的相机系统耦合到分类器,该分类器能够将对应于该道路特征的图像数据区分为与特定类型的道路特征(例如,道路标志)相关联,并且其中这种道路标志在该区域中是本地唯一的(例如,附近没有相同的道路标志或相同类型的道路标志),存储指示道路特征的类型及其定位的数据可以是足够的。
如下面将进一步详细讨论的,道路特征(例如,沿着道路路段的地标)可以被存储为小数据对象,该小数据对象可以以相对较少的字节来表示道路特征,同时提供足够的信息用于辨识和使用这样的特征进行导航。在一个示例中,道路标志可以被识别为车辆的导航可以基于的辨识的地标。道路标志的表示可以被存储在稀疏地图中,以包含例如指示地标的类型(例如,停车标志)的几个字节的数据和指示地标的定位(例如,坐标)的几个字节的数据。基于地标的这种轻数据(data-light)表示的导航(例如,使用足以基于地标定位、辨识和导航的表示)可以提供与稀疏地图相关联的期望等级的导航功能,而不会显著增加与稀疏地图相关联的数据开销。地标(和其他道路特征)的这种精简表示可以利用包含在这种车辆上的被配置为检测、识别和/或分类特定道路特征的传感器和处理器。
例如,当给定区域中的标志或者甚至特定类型的标志是本地唯一的(例如,当没有其他标志或者没有相同类型的其他标志时),稀疏地图可以使用指示地标的类型(标志或者特定类型的标志)的数据,并且在导航(例如,自主导航)期间当自主车辆上的相机捕获包含标志(或特定类型的标志)的区域的图像时,处理器可以处理图像,检测标志(如果确实存在于图像中),将图像分类为标志(或特定类型的标志),并将图像的定位与存储在稀疏地图中的标志的定位相关联。
生成稀疏地图
在一些实施例中,稀疏地图可以包含沿着道路路段延伸的道路表面特征的至少一个线表示以及与该道路路段相关联的多个地标。在某些方面,稀疏地图可以经由“众包”来生成,例如,通过对当一个或多个车辆穿过道路路段时获取的多个图像进行图像分析。
图8示出了一个或多个车辆(例如车辆200(其可以是自主车辆))可以访问以用于提供自主车辆导航的稀疏地图800。稀疏地图800可以被存储在存储器中,诸如存储器140或150中。这种存储器装置可以包含任何类型的非暂时性存储装置或计算机可读介质。例如,在一些实施例中,存储器140或150可以包含硬盘驱动器、光盘、闪速存储器、基于磁的存储器装置、基于光的存储器装置等。在一些实施例中,稀疏地图800可以存储在数据库(例如,地图数据库160)中,该数据库可以存储在存储器140或150或其他类型的存储装置中。
在一些实施例中,稀疏地图800可以存储在车辆200上提供的存储装置或非暂时性计算机可读介质上(例如,包含在车辆200上的导航系统中的存储装置)。车辆200上提供的处理器(例如,处理单元110)可以访问存储在车辆200上提供的存储装置或计算机可读介质中的稀疏地图800,以便在车辆穿过道路路段时生成用于引导自主车辆200的导航指令。
然而,稀疏地图800不需要相对于车辆被本地存储。在一些实施例中,稀疏地图800可以存储在存储装置或计算机可读介质上,在与车辆200或与车辆200相关联的装置通信的远程服务器上提供该存储装置或计算机可读介质。车辆200上提供的处理器(例如,处理单元110)可以从远程服务器接收稀疏地图800中包含的数据,并且可以执行用于引导车辆200的自主驾驶的数据。在这样的实施例中,远程服务器可以存储稀疏地图800的全部或仅其一部分。相应地,在车辆200上和/或在一个或多个附加车辆上提供的存储装置或计算机可读介质可以存储稀疏地图800的(多个)剩余部分。
此外,在这样的实施例中,稀疏地图800可以被穿过不同道路路段的多个车辆(例如,数十、数百、数千或数百万车辆等)访问。还应当注意,稀疏地图800可以包含多个子地图。例如,在一些实施例中,稀疏地图800可以包含可用于导航车辆的数百、数千、数百万或更多的子地图。这种子地图可以被称为局部地图,并且沿着道路行驶的车辆可以访问与车辆正在行驶的定位相关的任意数量的局部地图。稀疏地图800的局部地图部分可以与全球导航卫星系统(GNSS)密钥一起存储作为到稀疏地图800的数据库的索引。因此,虽然在本系统中用于导航主车辆的转向角的计算可以在不依赖于主车辆的GNSS位置、道路特征或地标的情况下执行,但是这种GNSS信息可以用于检索相关的局部地图。
一般来说,稀疏地图800可以基于从一个或多个车辆在它们沿着道路行驶时收集的数据来生成。例如,使用一个或多个车辆上的传感器(例如,相机、速度计、GPS、加速度计等),可以记录一个或多个车辆沿着道路行驶的轨迹,并且可以基于由一个或多个车辆行驶的收集到的轨迹来确定沿着道路进行后续行程的车辆的优选轨迹的多项式表示。类似地,由一个或多个车辆收集的数据可以帮助识别沿着特定道路的潜在地标。从穿过车辆收集的数据也可以用于识别道路轮廓信息,诸如道路宽度轮廓、道路粗糙度轮廓、交通线间距轮廓、道路情况等。使用收集的信息,稀疏地图800可以被生成和分配(例如,用于本地存储或经由飞行中的数据传输),以用于导航一个或多个自主车辆。然而,在一些实施例中,地图生成可能不会在地图的初始生成时结束。如下面将更详细讨论的,当车辆继续穿过稀疏地图800中包含的道路时,稀疏地图800可以基于从车辆收集的数据被连续地或周期性地更新。
稀疏地图800中记录的数据可以包含基于全球定位系统(GPS)数据的位置信息。例如,定位信息可以包含在稀疏地图800中,以用于各种地图元素,包含例如地标定位、道路轮廓定位等。稀疏地图800中包含的地图元素的定位可以使用从穿过道路的车辆收集的GPS数据来获得。例如,经过所识别的地标的车辆可以使用与车辆相关联的GPS位置信息和所识别的地标相对于车辆的定位的确定(例如,基于从车辆上的一个或多个相机收集的数据的图像分析)来确定所识别的地标的定位。当附加的车辆经过所识别的地标的定位时,可以重复对所识别的地标(或稀疏地图800中包含的任何其他特征)的这种定位确定。一些或所有附加定位确定可用于相对于所识别的地标细化存储在稀疏地图800中的定位信息。例如,在一些实施例中,相对于存储在稀疏地图800中的特定特征的多个位置测量可以一起被平均。然而,任何其他数学运算也可用于基于地图元素的多个确定定位来细化地图元素的所存储的定位。
所公开的实施例的稀疏地图可以使用相对少量的存储数据来使能车辆的自主导航。在一些实施例中,稀疏地图800可以具有小于每千米道路2MB、小于每千米道路1MB、小于每千米道路500kB或小于每千米道路100kB的数据密度(例如,包含表示目标轨迹、地标和任何其他存储的道路特征的数据)。在一些实施例中,稀疏地图800的数据密度可以小于每千米道路10kB,或者甚至小于每千米道路2kB(例如,每千米1.6kB),或者不超过每千米道路10kB,或者不超过每千米道路20kB。在一些实施例中,也可以使用总共具有4GB或更少数据的稀疏地图来自主导航美国的大部分道路(如果不是全部的话)。这些数据密度值可以表示整个稀疏地图800、稀疏地图800内的局部地图和/或稀疏地图800内的特定道路路段上的平均。
如上所述,稀疏地图800可以包含多个目标轨迹的表示810,以用于沿着道路路段引导自主驾驶或导航。这种目标轨迹可以被存储为三维样条。例如,存储在稀疏地图800中的目标轨迹可以基于车辆沿着特定道路路段的先前穿过(traversal)的两个或更多个重建轨迹来确定。道路路段可以与单个目标轨迹或多个目标轨迹相关联。例如,在双车道道路上,可以存储第一目标轨迹以表示在第一方向上沿着道路行驶的意图路径,并且可以存储第二目标轨迹以表示在另一方向上(例如,与第一方向相反)沿着道路行驶的意图路径。可以存储关于特定道路路段的附加目标轨迹。例如,在多车道道路上,可以存储一个或多个目标轨迹,其表示与多车道道路相关联的一个或多个车道中的车辆的行驶的意图路径。在一些实施例中,多车道道路的每个车道可以与其自己的目标轨迹相关联。在其他实施例中,存储的目标轨迹可以比多车道道路上存在的车道少。在这种情况下,在多车道道路上导航的车辆可以使用任何存储的目标轨迹来通过考虑从存储目标轨迹的车道的车道偏移来引导其导航(例如,如果车辆在三车道公路的最左侧车道上行驶,并且目标轨迹仅针对公路的中间车道存储,当生成导航指令时,通过考虑中间车道和最左侧车道之间的车道偏移,车辆可以使用中间车道的目标轨迹导航)。
在一些实施例中,目标轨迹可以表示车辆行驶时应当走的理想路径。目标轨迹可以位于例如行驶的车道的近似中心。在其他情况下,目标轨迹可以位于相对于道路路段的其他地方。例如,目标轨迹可以与道路的中心、道路的边缘或车道的边缘等近似重合。在这种情况下,基于目标轨迹的导航可以包含相对于目标轨迹的定位维持的确定的偏移量。此外,在一些实施例中,相对于目标轨迹的定位维持的确定的偏移量可以基于车辆的类型而不同(例如,沿着目标轨迹的至少一部分,包含两个轴的客车可以与包含两个以上的轴的卡车具有不同的偏移)。
稀疏地图800还可以包含与多个预定地标820相关的数据,多个预定地标820与特定道路路段、局部地图等相关联。如下文更详细讨论的,这些地标可以用于自主车辆的导航。例如,在一些实施例中,地标可用于确定车辆相对于所存储的目标轨迹的当前位置。利用该位置信息,自主车辆能够调整航向方向,以匹配在确定定位处的目标轨迹的方向。
多个地标820可以以任何合适的间距被识别并存储在稀疏地图800中。在一些实施例中,地标可以以相对高的密度被存储(例如,每隔几米或更多)。然而,在一些实施例中,可以采用显著更大的地标间距值。例如,在稀疏地图800中,所识别的(或所辨识的)地标可以间距开10米、20米、50米、100米、1千米或2千米。在一些情况下,所识别的地标可以位于相距甚至超过2千米的距离处。
在地标之间,并因此在相对于目标轨迹的车辆位置的确定之间,车辆可以基于航位推算来导航,在该航位推算中,车辆使用传感器来确定其自我(ego)运动并估计其相对于目标轨迹的位置。由于在通过航位推算的导航期间误差可以累积,随着时间的推移,相对于目标轨迹的位置确定可能变得越来越不准确。车辆可以使用出现在稀疏地图800中的地标(以及它们的已知定位)来消除位置确定中由航位推算引起的误差。以这种方式,稀疏地图800中包含的所识别的地标可以用作导航锚,从该导航锚可以确定车辆相对于目标轨迹的准确位置。因为在位置定位中一定量的误差可以是可接受的,所以识别的地标不需要总是对自主车辆可用。相反,合适的导航甚至可以基于如上所述的10米、20米、50米、100米、500米、1千米、2千米或更多的地标间距。在一些实施例中,每1千米的道路的1个识别地标的密度足以将纵向位置确定准确度维持在1米内。因此,不需要将沿着道路路段出现的每个潜在地标存储在稀疏地图800中。
此外,在一些实施例中,车道标志可以用于在地标间距期间的车辆的定位。通过在地标间距期间使用车道标志,通过航位推算的导航期间的累积可以被最小化。
除了目标轨迹和识别的地标之外,稀疏地图800可以包含与各种其他道路特征相关的信息。例如,图9A示出了可以存储在稀疏地图800中的沿着特定道路路段的曲线的表示。在一些实施例中,道路的单个车道可以由道路左侧边和右侧边的三维多项式描述来建模。图9A中示出了表示单个车道的左侧边和右侧边的这样的多项式。不管道路可以有多少车道,道路可以以类似于图9A所示的方式使用多项式来表示。例如,多车道道路的左侧边和右侧边可以由类似于图9A所示的多项式来表示,并且包含在多车道道路上的中间车道标志(例如,表示车道边界的虚线标志、表示在不同方向上行驶的车道之间的边界的黄色实线等)也可以使用诸如图9A所示的多项式来表示。
如图9A所示,可以使用多项式(例如,一阶、二阶、三阶或任何合适阶的多项式)来表示车道900。为了说明,车道900被示出为二维车道,并且多项式被显示为二维多项式。如图9A所示,车道900包含左侧边910和右侧边920。在一些实施例中,可以使用一个以上的多项式来表示道路或车道边界的每一边的定位。例如,左侧边910和右侧边920中的每一个可以由任意合适长度的多个多项式来表示。在一些情况下,多项式可以具有大约100m的长度,尽管也可以使用大于或小于100m的其他长度。此外,多项式可以彼此重叠,以便当主车辆沿着道路行驶时,基于后续遇到的多项式来促进导航中的无缝转换。例如,左侧边910和右侧边920中的每一个可以由多个三阶多项式表示,这些三阶多项式被分成大约100米长的段(第一预定范围的示例),并且彼此重叠大约50米。表示左侧边910和右侧边920的多项式可以具有或不具有相同的顺序。例如,在一些实施例中,一些多项式可以是二阶多项式,一些可以是三阶多项式,以及一些可以是四阶多项式。
在图9A所示的示例中,车道900的左侧边910由两组三阶多项式表示。第一组包含多项式段911、912和913。第二组包含多项式段914、915和916。这两个组虽然基本上彼此平行,但是遵循它们各自的道路边的定位。多项式段911、912、913、914、915和916具有大约100米的长度,并且与系列中与相邻段重叠大约50米。然而,如前所述,也可以使用不同长度和不同重叠量的多项式。例如,多项式可以具有500m、1km或更长的长度,并且重叠量可以从0到50m、50m到100m或大于100m变化。另外,虽然图9A被示为表示在2D空间中(例如,在纸的表面上)延伸的多项式,但是应当理解,这些多项式可以表示在三维中延伸的曲线(例如,包含高度分量),以表示除了X-Y曲率之外的道路路段中的标高改变。在图9A所示的示例中,车道900的右侧边920进一步由具有多项式段921、922和923的第一组和具有多项式段924、925和926的第二组表示。
回到稀疏地图800的目标轨迹,图9B示出了表示沿着特定道路路段行驶的车辆的目标轨迹的三维多项式。目标轨迹不仅表示主车辆应当沿着特定道路路段行驶的X-Y路径,还表示主车辆沿着该道路路段行驶时将经历的标高改变。因此,稀疏地图800中的每个目标轨迹可以由一个或多个三维多项式表示,如图9B中所示的三维多项式950。稀疏地图800可以包含多个轨迹(例如,数百万或数十亿或更多,以表示沿着沿着世界各地的道路的各个道路路段的车辆的轨迹)。在一些实施例中,每个目标轨迹可以对应于连接三维多项式段的样条。
关于存储在稀疏地图800中的多项式曲线的数据足迹,在一些实施例中,每个三次多项式可以由四个参数表示,每个参数需要四个字节的数据。可以使用需要每100m约192字节数据的三次多项式来获得合适的表示。对于行驶约100km/hr的主车辆,这可以转化为每小时约200kB的数据使用/传输要求。
稀疏地图800可以使用几何结构描述符和元数据的组合来描述车道网络。几何结构可以用如上所述的多项式或样条来描述。元数据可以描述车道的数量、特殊特性(诸如合用车道)以及可能的其他稀疏标签。这种指示符的总足迹可能可以忽略不计。
相应地,根据本公开的实施例的稀疏地图可以包含沿着道路路段延伸的道路表面特征的至少一个线表示,每个线表示表示沿着道路路段基本上对应于道路表面特征的路径。在一些实施例中,如上所述,道路表面特征的至少一个线表示可以包含样条、多项式表示或曲线。此外,在一些实施例中,道路表面特征可以包含路缘或车道标志中的至少一个。此外,如下面关于“众包”所讨论的,可以通过对当一个或多个车辆穿过道路路段时获取的多个图像的图像分析来识别道路表面特征。
如前所述,稀疏地图800可以包含与道路路段相关联的多个预定地标。稀疏地图800中的每个地标可以使用比存储的实际图像所需的更少的数据来表示和辨识,而不是存储地标的实际图像并依赖于例如基于捕获的图像和存储的图像的图像辨识分析。表示地标的数据仍然可以包含用于描述或识别沿着道路的地标的足够信息。存储描述地标的特性的数据,而不是地标的实际图像,可以减小稀疏地图800的大小。
图10示出了可以在稀疏地图800中表示的地标的类型的示例。地标可以包含沿着道路路段的任何可见且可识别的对象。可以选择地标,使得它们是固定的,并且相对于它们的定位和/或内容不会经常改变。稀疏地图800中包含的地标在车辆穿过特定道路路段时确定车辆200相对于目标轨迹的定位是有用的。地标的示例可以包含交通标志、方向标志、一般标志(例如,矩形标志)、路边固定装置(例如,灯柱、反射器等)以及任何其他合适的类别。在一些实施例中,道路上的车道标志也可以作为地标被包含在稀疏地图800中。
图10中示出的地标的示例包含交通标志,方向标志,路边固定装置和一般标志。交通标志可以包含,例如限速标志(例如,限速标志1000)、让行标志(例如,让行标志1005)、路线号标志(例如,路线号标志1010)、交通灯标志(例如,交通灯标志1015)、停车标志(例如,停车标志1020)。方向标志可以包含标志,该标志包含一个或多个箭头,该箭头指示到不同地方的一个或多个方向。例如,方向标志可以包含具有用于将车辆引导到不同道路或地方的箭头的高速公路标志1025、具有将车辆引导离开道路的箭头的出口标志1030等等。相应地,多个地标中的至少一个可以包含道路标志。
一般标志可以与交通无关。例如,一般标志可能包含用于广告的广告牌,或两个国、州、县、市或城镇之间边界附近的欢迎板。图10示出了一般标志1040(“乔的餐厅”)。尽管一般标志1040可以具有矩形形状,如图10所示,但是一般标志1040可以具有其他形状,诸如正方形,圆形,三角形等。
地标还可能包含路边固定装置。路边固定装置可以不是标志,也可以与交通或方向无关。例如,路边固定装置可以包含灯柱(例如,灯柱1035)、电力线柱、交通灯柱等。
地标还可以包含专门设计用于自主车辆导航系统的信标。例如,这种信标可以包含以预定间隔放置的独立结构,以帮助导航主车辆。这种信标还可以包含添加到现有道路标志的可视/图形信息(例如,图标、徽章、条形码等),该可视/图形信息可以被沿着道路路段行驶的车辆识别或辨识。这种信标还可以包含电子组件。在这样的实施例中,电子信标(例如,RFID标签等)可用于向主车辆传输非可视信息。这种信息可以包含例如主车辆在确定其沿目标轨迹的位置时可以使用的地标标识和/或地标定位信息。
在一些实施例中,稀疏地图800中包含的地标可以由预定大小的数据对象来表示。表示地标的数据可以包含用于识别特定地标的任何合适的参数。例如,在一些实施例中,存储在稀疏地图800中的地标可以包含参数,诸如地标的物理大小(例如,以支持基于已知大小/比例的到地标的距离的估计)、到先前地标的距离、横向偏移、高度、类型代码(例如,地标类型——什么类型的方向标志、交通标志等)、GPS坐标(例如,支持全球定位)和任何其他合适的参数。每个参数可以与数据大小相关联。例如,可以使用8字节的数据来存储地标大小。可以使用12字节的数据来指定到先前地标的距离、横向偏移和高度。与诸如方向标志或交通标志的地标相关联的类型代码可以需要大约2字节的数据。对于一般标志,可以使用50字节的数据存储装置来存储使能识别一般标志的图像签名。地标GPS位置可以与16字节的数据存储装置相关联。每个参数的这些数据大小只是示例,也可以使用其他数据大小。
以这种方式在稀疏地图800中表示地标可以提供用于在数据库中有效地表示地标的精简方案。在一些实施例中,标志可以被称为语义标志和非语义标志。语义标志可以包含具有标准化含义的任何类别的标志(例如,限速标志、警告标志、方向标志等)。非语义标志可以包含与标准化含义不相关联的任何标志(例如,一般广告标志、标识商业机构的标志等)。例如,每个语义标志可以用38字节的数据来表示(例如,8字节用于大小;12字节用于到先前地标的距离、横向偏移和高度;2字节用于类型代码;以及16字节用于GPS坐标)。稀疏地图800可以使用标签系统来表示地标类型。在一些情况下,每个交通标志或方向标志可以与其自己的标签相关联,该标签可以作为地标标识的一部分存储在数据库中。例如,数据库可以包含大约1000个不同的标签来表示各种交通标志,以及大约10000个不同的标签来表示方向标志。当然,可以使用任何合适数量的标签,并且可以根据需要创建附加标签。在一些实施例中,一般用途标志可以使用小于约100字节(例如,约86字节,包含8字节用于大小;12字节用于到先前地标的距离、横向偏移和高度;50字节用于图像签名;以及16字节用于GPS坐标)。
因此,对于不需要图像签名的语义道路标志,即使以大约每50米1个的相对高的地标密度,对稀疏地图800的数据密度影响也可以是大约每千米760字节(例如,每千米20个地标×每地标38字节=760字节)。即使对于包含图像签名组件的一般用途标志,数据密度影响也约为每千米1.72千字节(例如,每千米20个地标×每地标86字节=1,720字节)。对于语义道路标志,这相当于对于行驶100km/hr的车辆的每小时约76kB的数据使用。对于一般用途标志,这相当于对于行驶100km/hr的车辆的每小时约170kB的数据使用。
在一些实施例中,诸如矩形标志的一般矩形对象可以在稀疏地图800中由不超过100字节的数据来表示。稀疏地图800中的一般矩形对象(例如,一般标志1040)的表示可以包含与一般矩形对象相关联的压缩(condensed)图像签名(例如,压缩图像签名1045)。这种压缩图像签名可以用于例如帮助一般标志的识别,例如作为辨识的地标。这种压缩图像签名(例如,从表示对象的实际图像数据导出的图像信息)可以避免存储对象的实际图像的需要,或者避免对实际图像执行比较图像分析以辨识地标的需要。
参考图10,稀疏地图800可以包含或存储与一般标志1040相关联的压缩图像签名1045,而不是一般标志1040的实际图像。例如,在图像捕获装置(例如,图像捕获装置122、124或126)捕获一般标志1040的图像之后,处理器(例如,可以处理图像的图像处理器190或任何其他处理器,其在主车辆上或相对于主车辆位于远处)可以执行图像分析以提取/创建包含与一般标志1040相关联的唯一签名或图案的压缩图像签名1045。在一个实施例中,压缩图像签名1045可以包含形状、颜色图案、亮度图案或可以从一般标志1040的图像中提取的用于描述一般标志1040的任何其他特征。
例如,在图10中,压缩图像签名1045中所示的圆形、三角形和星形可以表示不同颜色的区域。由圆形、三角形和星形表示的图案可以存储在稀疏地图800中,例如,在被指定为包含图像签名的50个字节内。值得注意的是,圆形、三角形和星形不一定意图指示这些形状作为图像签名的一部分被存储。相反,这些形状意图在概念上表示具有可辨别的颜色差异的可辨识区域、文本区域、图形形状或者可以与一般标志相关联的特性的其他变化。这种压缩图像签名可用于以一般标志的形式识别地标。例如,压缩图像签名可用于基于存储的压缩图像签名与例如使用自主车辆上的相机捕获的图像数据的比较来执行相同或不同的分析。
相应地,可以通过对当一个或多个车辆穿过道路路段时获取的多个图像进行图像分析来识别多个地标。如下面关于“众包”所解释的,在一些实施例中,识别多个地标的图像分析可以包含当地标确实出现的图像与地标没有出现的图像的比率超过阈值时接受潜在地标。此外,在一些实施例中,识别多个地标的图像分析可以包含当地标没有出现的图像与地标确实出现的图像的比率超过阈值时拒绝潜在地标。
回到主车辆可以用来导航特定道路路段的目标轨迹,图11A示出了在建造或维持稀疏地图800的过程中捕获的多项式表示轨迹。稀疏地图800中包含的目标轨迹的多项式表示可以基于车辆沿着相同道路路段的先前穿过的两个或更多个重建轨迹来确定。在一些实施例中,稀疏地图800中包含的目标轨迹的多项式表示可以是沿着相同道路路段的车辆的先前穿过的两个或更多个重建轨迹的聚集。在一些实施例中,稀疏地图800中包含的目标轨迹的多项式表示可以是车辆沿着相同道路路段的先前穿过的两个或更多个重建轨迹的平均。其他数学运算也可以用于基于从沿着道路路段穿过的车辆收集的重建轨迹来构建沿着道路路径的目标轨迹。
如图11A所示,道路路段1100可以由多个车辆200在不同时间处行驶。每个车辆200可以收集与车辆沿着道路路段所走的路径相关的数据。由特定车辆行驶的路径可以基于相机数据、加速度计信息、速度传感器信息和/或GPS信息以及其他潜在来源来确定。这种数据可用于重建沿着道路路段行驶的车辆的轨迹,并且基于这些重建轨迹,可为特定道路路段确定目标轨迹(或多个目标轨迹)。这种目标轨迹可以表示主车辆沿着道路路段行驶时的(例如,由自主导航系统所引导的)该车辆的优选路径。
在图11A所示的示例中,第一重建轨迹1101可以基于从在第一时间段(例如,第一天)穿过道路路段1100的第一车辆接收的数据来确定,第二重建轨迹1102可以从在第二时间段(例如,第二天)穿过道路路段1100的第二车辆获得,第三重建轨迹1103可以从在第三时间段(例如,第三天)穿过道路路段1100的第三车辆获得。每个轨迹1101、1102和1103可以由多项式表示,诸如三维多项式。应当注意,在一些实施例中,任何重建轨迹可以在穿过道路路段1100的车辆上组装。
附加地或替代地,可以基于从穿过道路路段1100的车辆接收的信息在服务器侧确定这样的重建轨迹。例如,在一些实施例中,车辆200可以向一个或多个服务器传输与它们沿着道路路段1100的运动相关的数据(例如,转向角、航向、时间、位置、速度、感测的道路几何结构和/或感测的地标等)。服务器可以基于接收到的数据重建车辆200的轨迹。服务器还可以基于第一轨迹1101、第二轨迹1102和第三轨迹1103生成用于引导将在稍后的时间沿着相同道路路段1100行驶的自主车辆的导航的目标轨迹。虽然目标轨迹可以与道路路段的单个先前穿过相关联,但是在一些实施例中,稀疏地图800中包含的每个目标轨迹可以基于穿过相同道路路段的车辆的两个或更多个重建轨迹来确定。在图11A中,目标轨迹由1110表示。在一些实施例中,目标轨迹1110可以基于第一轨迹1101、第二轨迹1102和第三轨迹1103的平均来生成。在一些实施例中,稀疏地图800中包含的目标轨迹1110可以是两个或更多个重建轨迹的聚集(例如,加权组合)。
图11B和图11C进一步示出了与地理区域1111内存在的道路路段相关联的目标轨迹的概念。如图11B所示,地理区域1111内的第一道路路段1120可以包含多车道道路,该多车道道路包含指定用于车辆在第一方向上行驶的两条车道1122和指定用于车辆在与第一方向相反的第二方向上行驶的两条附加车道1124。车道1122和车道1124可以由双黄线1123分开。地理区域1111还可以包含与道路路段1120相交的分支道路路段1130。道路路段1130可以包含双车道道路,每个车道被指定用于不同的行驶方向。地理区域1111还可以包含其他道路特征,诸如停车线1132、停车标志1134、限速标志1136和危险标志1138。
如图11C所示,稀疏地图800可以包含局部地图1140,该局部地图1140包含用于帮助地理区域1111内的车辆的自主导航的道路模型。例如,局部地图1140可以包含与地理区域1111内的道路路段1120和/或1130相关联的一个或多个车道的目标轨迹。例如,局部地图1140可以包含自主车辆在穿过车道1122时可以访问或依赖的目标轨迹1141和/或1142。类似地,局部地图1140可以包含自主车辆在穿过车道1124时可以访问或依赖的目标轨迹1143和/或1144。此外,局部地图1140可以包含自主车辆在穿过道路路段1130时可以访问或依赖的目标轨迹1145和/或1146。目标轨迹1147表示当从车道1120(具体而言,相对于与车道1120的最右侧车道相关联的目标轨迹1141)转换到道路路段1130(具体而言,相对于与道路路段1130的第一边相关联的目标轨迹1145)时,自主车辆应当遵循的优选路径。类似地,目标轨迹1148表示当从道路路段1130(具体地,相对于目标轨迹1146)转换到道路路段1124的一部分(具体地,如图所示,相对于与车道1124的左车道相关联的目标轨迹1143)时,自主车辆应当遵循的优选路径。
稀疏地图800还可以包含与地理区域1111相关联的其他道路相关特征的表示。例如,稀疏地图800还可以包含在地理区域1111中识别的一个或多个地标的表示。这些地标可以包含与停车线1132相关联的第一地标1150、与停车标志1134相关联的第二地标1152、与限速标志1154相关联的第三地标以及与危险标志1138相关联的第四地标1156。这种地标可以用于例如帮助自主车辆确定其相对于任何所示目标轨迹的当前定位,使得车辆可以调整其航向以匹配在确定的定位处的目标轨迹的方向。
在一些实施例中,稀疏地图800还可以包含道路签名轮廓。这种道路签名轮廓可以与至少一个与道路相关联的参数的任何可辨别/可测量的变化相关联。例如,在一些情况下,这种轮廓可以与道路表面信息的变化相关联,诸如特定道路路段的表面粗糙度的变化、特定道路路段上道路宽度的变化、沿着特定道路路段绘制的虚线之间的距离的变化、沿着特定道路路段的道路曲率的变化等。图11D示出了道路签名轮廓1160的示例。虽然轮廓1160可以表示上述参数中的任意参数或其他参数,但是在一个示例中,轮廓1160可以表示道路表面粗糙度的测量,例如,如通过监控一个或多个传感器来获得,该一个或多个传感器提供指示车辆在特定道路路段上行驶时悬架位移量的输出。
替代地或同时地,轮廓1160可以表示道路宽度的变化,如基于经由在特定道路路段上行驶的车辆上的相机获得的图像数据来确定的。例如,这种轮廓在确定自主车辆相对于特定目标轨迹的特定定位时是有用的。也就是说,当它穿过道路路段时,自主车辆可以测量与道路路段相关联的一个或多个参数相关联的轮廓。如果测量的轮廓可以与相对于沿着道路路段的位置映射参数变化的预定轮廓相关/匹配,则可以使用测量的和预定的轮廓(例如,通过覆盖测量的和预定的轮廓的对应部分),以便确定沿着道路路段的当前位置,并且因此确定相对于道路路段的目标轨迹的当前位置。
在一些实施例中,稀疏地图800可以包含基于与自主车辆的用户相关联的不同特性、环境条件和/或与驾驶相关的其他参数的不同轨迹。例如,在一些实施例中,可以基于不同的用户偏好和/或轮廓来生成不同的轨迹。包含这种不同轨迹的稀疏地图800可以被提供给不同用户的不同自主车辆。例如,一些用户可能偏好避开收费公路,而其他用户可能偏好走最短或最快的路线,而不管路线上是否有收费公路。所公开的系统可以基于这种不同的用户偏好或轮廓生成具有不同轨迹的不同稀疏地图。作为另一个示例,一些用户可能偏好在快速移动的车道上行驶,而其他用户可能偏好始终维持在中心车道上的位置。
基于不同的环境条件,诸如白天和黑夜、下雪、下雨、有雾等,可以生成不同的轨迹并将其包含在稀疏地图800中。在不同环境条件下行驶的自主车辆可以被提供有基于这种不同环境条件生成的稀疏地图800。在一些实施例中,在自主车辆上提供的相机可以检测环境条件,并且可以将这种信息提供回生成并提供稀疏地图的服务器。例如,服务器可以生成或更新已经生成的稀疏地图800,以包含在检测到的环境条件下可能更适合或更安全用于自主驾驶的轨迹。当自主车辆沿着道路行驶时,可以动态地执行基于环境条件的稀疏地图800的更新。
与驾驶相关的其他不同参数也可以用作生成不同的稀疏地图并将不同的稀疏地图提供给不同的自主车辆的基础。例如,当自主车辆以高速行驶时,转弯可能会更困难(tighter)。与特定车道而不是道路相关联的轨迹可以被包含在稀疏地图800中,使得当车辆遵循特定轨迹时,自主车辆可以维持在特定车道内。当由自主车辆上的相机捕获的图像指示车辆已经漂移到车道之外(例如,越过车道标志)时,可以在车辆内触发动作,以根据特定轨迹将车辆带回指定车道。
众包稀疏地图
在一些实施例中,所公开的系统和方法可以生成用于自主车辆导航的稀疏地图。例如,所公开的系统和方法可以使用众包数据来生成稀疏,一个或多个自主车辆可以使用该稀疏来沿着道路的系统进行导航。如本文所使用的,“众包”意味着从在不同时间处在道路路段上行驶的各种车辆(例如,自主车辆)接收数据,并且这些数据被用于生成和/或更新道路模型。模型又可以被传输到稍后沿着道路路段行驶的车辆或其他车辆,以用于辅助自主车辆导航。道路模型可以包含多个目标轨迹,这些目标轨迹表示自主车辆在穿过道路路段时应当遵循的优选轨迹。目标轨迹可以与从穿过道路路段的车辆收集的重建的实际轨迹相同,其可以从车辆传输到服务器。在一些实施例中,目标轨迹可以不同于一个或多个车辆先前在穿过道路路段时所采用的实际轨迹。目标轨迹可以基于实际轨迹生成(例如,通过平均或任何其他合适的操作)。
车辆可以上传到服务器的车辆轨迹数据可以与车辆的实际重建轨迹对应,或者可以对应于推荐轨迹,该推荐轨迹可以基于车辆的实际重建轨迹或与之相关,但是可以不同于实际重建轨迹。例如,车辆可以修改它们的实际重建轨迹,并且向服务器提交(例如,推荐)修改的实际轨迹。道路模型可以使用推荐的、修改的轨迹作为其他车辆自主导航的目标轨迹。
除了轨迹信息之外,在建造稀疏数据地图800中潜在使用的其他信息可以包含与潜在地标候选相关的信息。例如,通过信息的众包,所公开的系统和方法可以识别环境中的潜在地标并细化地标位置。自主车辆的导航系统可以使用这些地标来确定和/或调整车辆沿着目标轨迹的位置。
车辆沿着道路行驶时可以生成的重建轨迹可以通过任何合适的方法获得。在一些实施例中,重建轨迹可以通过使用例如自我运动估计(例如,相机(以及由此的车身)的三维平移和三维旋转)将车辆的运动的路段拼接(stitch)在一起来产生。旋转和平移估计可以基于对由一个或多个图像捕获装置捕获的图像以及来自其他传感器或装置(诸如惯性传感器和速度传感器)的信息的分析来确定。例如,惯性传感器可以包含加速度计或其他合适的传感器,其被配置为测量车身平移和/或旋转的改变。车辆可以包含测量车辆的速度的速度传感器。
在一些实施例中,可以基于所捕获图像的光流分析来估计相机(以及由此的车身)的自我运动。图像序列的光流分析从图像序列中识别像素的移动,并且基于所识别的运动,确定车辆的运动。自我运动可以随着时间和沿着道路路段被积分,以重建与车辆已经遵循的道路路段相关联的轨迹。
沿着道路路段在不同时间处由多个驾驶中的多个车辆收集的数据(例如,重建轨迹)可用于构建包含在稀疏数据地图800中的道路模型(例如,包含目标轨迹等)。还可以对沿着道路路段在不同时间处由多个驾驶中的多个车辆收集的数据进行平均,以提高模型的准确度。在一些实施例中,可以从在不同时间处穿过公共道路路段的多个车辆接收关于道路几何结构和/或地标的数据。从不同车辆接收的这种数据可以被组合以生成道路模型和/或更新道路模型。
沿着道路路段的重建轨迹(以及目标轨迹)的几何结构可以由三维空间中的曲线表示,该曲线可以是连接三维多项式的样条。重建轨迹曲线可以通过分析由安装在车辆上的相机捕获的视频流或多个图像来确定。在一些实施例中,在车辆当前位置前方几米的每个帧或图像中识别定位。该定位是车辆预期在预定时间段内行驶的位置。该操作可以逐帧重复,同时,车辆可以计算相机的自我运动(旋转和平移)。在每一帧或每一个图像中,车辆在附接到相机的参考帧中生成期望路径的短程模型。短程模型可以被拼接在一起,以在某个坐标系中获得道路的三维模型,该坐标系可以是任意的或预定的坐标系。然后,道路的三维模型可以由样条拟合,该样条可以包含或连接一个或多个合适阶数的多项式。
为了在每个帧处总结短程道路模型,可以使用一个或多个检测模块。例如,可以使用自底向上(bottom-up)的车道检测模块。当在道路上映射车道标志时,自底向上的车道检测模块可以是有用的。该模块可以在图像中寻找边缘,并将它们组装在一起以形成车道标志。第二模块可以与自底向上车道检测模块一起使用。第二模块是端到端深度神经网络,其可以被训练以从输入图像预测正确的短程路径。在这两个模块中,道路模型可以在图像坐标系中被检测,并且被变换成可以虚拟地附接到相机的三维空间。
尽管重建轨迹建模方法可能由于长时间段的自我运动的积分而引入误差的累积,这可能包含噪声分量,但是这种误差可能是无关紧要的,因为生成的模型可以为局部比例上的导航提供足够的准确度。此外,还可以通过使用卫星图像或大地测量等外部信息源来消除积分误差。例如,所公开的系统和方法可以使用GNSS接收器来消除累积误差。然而,GNSS定位信号可能并不总是可用的和准确的。所公开的系统和方法可以使能很弱地依赖于GNSS定位的可用性和准确度的转向应用。在这种系统中,GNSS信号的使用可能受到限制。例如,在一些实施例中,所公开的系统可以将GNSS信号仅用于数据库索引目的。
在一些实施例中,与自主车辆导航转向应用相关的范围比例(例如,局部比例)可以大约为50米、100米、200米、300米等。可以使用这样的距离,因为几何道路模型主要用于两个目的:计划前方轨迹和在道路模型上定位车辆。在一些实施例中,当控制算法根据位于前方1.3秒(或任何其他时间,例如1.5秒、1.7秒、2秒等)的目标点使车辆转向时,计划任务可以使用在前方40米(或任何其他合适的前方距离,例如20米、30米、50米)的典型范围内的模型。定位任务使用在汽车后60米(或任何其他合适的距离,诸如50米、100米、150米等)的典型范围内的道路模型。根据另一章节中更详细描述的称为“尾部对齐”的方法。所公开的系统和方法可以生成在特定范围(诸如100米)上具有足够准确度的几何模型,使得计划的轨迹不会偏离车道中心超过例如30厘米。
如上所述,可以根据检测短程部分并将它们拼接在一起来构建三维道路模型。可以通过使用相机捕获的视频和/或图像、来自反映车辆的运动的惯性传感器的数据以及主车辆速度信号来计算六度自我运动模型来使能拼接。累积误差在某个局部范围比例(诸如大约100米)上可能足够小。所有这些都可以在特定道路路段上的单个驾驶中完成。
在一些实施例中,可以使用多个驾驶来对得到的模型进行平均,并进一步提高其准确度。相同汽车可以多次行驶相同路线,或者多辆汽车可以将它们收集到的模型数据传送到中央服务器。在任何情况下,可以执行匹配过程来识别重叠的模型并使能平均,以便生成目标轨迹。一旦满足收敛标准,构建的模型(例如,包含目标轨迹)可用于转向。后续驾驶可用于进一步的模型改进和适应基础设施改变。
如果多辆汽车连接到一个中央服务器,则它们之间共享驾驶经验(诸如感测的数据)变得可行。每个车辆客户端可以存储一般道路模型的部分副本,该副本可以与其当前位置相关。车辆和服务器之间的双向更新过程可以由车辆和服务器执行。上面讨论的小足迹概念使得所公开的系统和方法能够使用非常小的带宽来执行双向更新。
还可以确定与潜在地标相关的信息,并将其转发给中央服务器。例如,所公开的系统和方法可以基于包含地标的一个或多个图像来确定潜在地标的一个或多个物理属性。物理属性可以包含地标的物理大小(例如,高度、宽度)、从车辆到地标的距离、地标到先前地标之间的距离、地标的横向位置(例如,地标相对于行驶的车道的位置)、地标的GPS坐标、地标的类型、地标上的文本标识等。例如,车辆可以分析由相机捕获的一个或多个图像,以检测潜在地标,诸如限速标志。
车辆可以基于对一个或多个图像的分析来确定从车辆到地标的距离。在一些实施例中,可以使用合适的图像分析方法,例如缩放方法和/或光流方法,基于对地标的图像的分析来确定距离。在一些实施例中,所公开的系统和方法可以被配置为确定潜在地标的类型或分类。在车辆确定某潜在地标对应于存储在稀疏地图中的预定类型或分类的情况下,车辆将地标的类型或分类的指示连同其定位传达给服务器就足够了。服务器可以存储这样的指示。在稍后的时间,其他车辆可以捕获地标的图像,处理该图像(例如,使用分类器),并将处理该图像的结果与存储在服务器中的关于地标类型的指示进行比较。可以有各种类型的地标,并且不同类型的地标可以与上传到服务器并存储在服务器中的不同类型的数据相关联,车辆上的不同处理可以检测地标并将关于地标的信息传达到服务器,并且车辆上的系统可以从服务器接收地标数据并使用地标数据以用于在自主导航中识别地标。
在一些实施例中,在道路路段上行驶的多个自主车辆可以与服务器通信。车辆(或客户端)可以在任意坐标系中生成描述其驾驶的曲线(例如,通过自我运动积分)。车辆可以检测地标并在相同帧中定位它们。车辆可以将曲线和地标上传到服务器。服务器可以通过多个驾驶从车辆收集数据,并生成统一的道路模型。或者例如,如下面参考图19所讨论的,服务器可以使用上传的曲线和地标生成具有统一道路模型的稀疏地图。
服务器还可以将模型分配给客户端(例如,车辆)。例如,服务器可以将稀疏地图分配给一个或多个车辆。当从车辆接收到新数据时,服务器可以连续或周期性地更新模型。例如,服务器可以处理新数据以评估该数据是否包含应当触发服务器上新数据的更新或创建的信息。服务器可以将更新后的模型或更新分配给车辆,以用于提供自主车辆导航。
服务器可以使用一个或多个标准来确定从车辆接收的新数据是否应当触发对模型的更新或者触发新数据的创建。例如,当新数据指示在特定定位的先前辨识的地标不再存在,或者被另一个地标替换时,服务器可以确定新数据应当触发对模型的更新。作为另一个示例,当新数据指示道路路段已经关闭,并且当这已经被从其他车辆接收的数据证实时,服务器可以确定新数据应当触发对模型的更新。
服务器可以将更新后的模型(或模型的更新部分)分配给在与模型更新相关联的道路路段上行驶的一个或多个车辆。服务器还可以将更新后的模型分配给将要在道路路段上行驶的车辆,或者其计划行程包含与模型更新相关联的道路路段的车辆。例如,当自主车辆在到达与更新相关联的道路路段之前沿着另一道路路段行驶时,服务器可以在车辆到达道路路段之前将更新或更新后的模型分配给自主车辆。
在一些实施例中,远程服务器可以从多个客户端(例如,沿着公共道路路段行驶的车辆)收集轨迹和地标。服务器可以使用地标匹配曲线,并且基于从多个车辆收集的轨迹创建平均道路模型。服务器还可以计算道路的图和道路路段的每个节点或连接处的最可能路径。例如,远程服务器可以对齐轨迹以从收集的轨迹生成众包稀疏地图。
服务器可以对从沿着公共道路路段行驶的多个车辆接收的地标属性进行平均,诸如由多个车辆测量的一个地标到另一个地标(例如,沿着道路路段的前一个地标)之间的距离,以确定弧长参数并支持每个客户端车辆沿着路径的定位和速度校准。服务器可以对由沿着公共道路路段行驶并辨识相同地标的多个车辆测量的地标的物理尺寸进行平均。平均物理尺寸可用于支持距离估计,诸如从车辆到地标的距离。服务器可以对由沿着公共道路路段行驶并辨识相同地标的多个车辆测量的地标的横向位置(例如,从车辆正在行驶的车道到地标的位置)进行平均。平均横向部分可用于支持车道分配。服务器可以对由沿着相同道路路段行驶并辨识相同地标的多个车辆测量的地标的GPS坐标进行平均。地标的平均GPS坐标可用于支持道路模型中地标的全球定位(localization)或定位(positioning)。
在一些实施例中,基于从车辆接收的数据,服务器可以识别模型改变,诸如构建、绕行、新标志、标志的移除等。当从车辆接收到新数据时,服务器可以连续地或周期性地或瞬时地更新模型。服务器可以将对模型的更新或更新后的模型分配给车辆,以用于提供自主导航。例如,如下面进一步讨论的,服务器可以使用众包数据来过滤掉由车辆检测到的“幽灵(ghost)”地标。
在一些实施例中,服务器可以分析自主驾驶期间的驾驶员干预。服务器可以分析在干预发生的时间和定位从车辆接收的数据,和/或在干预发生的时间之前接收的数据。服务器可以识别引起干预或与干预密切相关的数据的某些部分,例如,指示临时车道封闭设置的数据、指示道路中行人的数据。服务器可以基于识别的数据更新模型。例如,服务器可以修改存储在模型中的一个或多个轨迹。
图12是使用众包生成稀疏地图(以及使用众包稀疏地图分配和导航)的系统的示意图。图12示出了包含一个或多个车道的道路路段1200。多个车辆1205、1210、1215、1220和1225可以在相同时间或在不同时间在道路路段1200上行驶(尽管在图12中显示为在相同时间出现在道路路段1200上)。车辆1205、1210、1215、1220和1225中的至少一个可以是自主车辆。为了简化本示例,假定所有车辆1205、1210、1215、1220和1225都为自主车辆。
每个车辆可以类似于在其他实施例中公开的车辆(例如,车辆200),并且可以包含被包含在其他实施例中公开的车辆中或者与其他实施例中公开的车辆相关联的组件或装置。每个车辆可以配备有图像捕获装置或相机(例如,图像捕获装置122或相机122)。每个车辆可以经由一个或多个网络(例如,通过蜂窝网络和/或互联网等)通过如虚线所示的无线通信路径1235与远程服务器1230通信。每个车辆可以向服务器1230传输数据,并从服务器1230接收数据。例如,服务器1230可以从在不同时间在道路路段1200上行驶的多个车辆收集数据,并且可以处理所收集的数据以生成自主车辆道路导航模型,或者对模型的更新。服务器1230可以将自主车辆道路导航模型或对模型的更新传输到向服务器1230传输数据的车辆。服务器1230可以将自主车辆道路导航模型或对模型的更新传输给稍后在道路路段1200上行驶的其他车辆。
当车辆1205、1210、1215、1220和1225在道路路段1200上行驶时,由车辆1205、1210、1215、1220和1225收集(例如,检测、感测或测量)的导航信息可以被传输到服务器1230。在一些实施例中,导航信息可以与公共道路路段1200相关联。导航信息可以包含当每个车辆在道路路段1200上行驶时与每个车辆1205、1210、1215、1220和1225相关联的轨迹。在一些实施例中,可以基于由车辆1205上提供的各种传感器和装置感测的数据来重建轨迹。例如,可以基于加速度计数据、速度数据、地标数据、道路几何结构或轮廓数据、车辆位置数据和自我运动数据中的至少一个来重建轨迹。在一些实施例中,可以基于来自惯性传感器(诸如加速度计)的数据和由速度传感器感测的车辆1205的速度来重建轨迹。此外,在一些实施例中,可以基于感测的相机的自我运动来确定轨迹(例如,通过车辆1205、1210、1215、1220和1225中的每一个上的处理器),该感测的相机的自我运动可以指示三维平移和/或三维旋转(或旋转运动)。相机(以及由此的车身)的自我运动可以通过对相机捕获的一个或多个图像的分析来确定。
在一些实施例中,车辆1205的轨迹可以由在车辆1205上提供的处理器确定,并被传输到服务器1230。在其他实施例中,服务器1230可以接收由在车辆1205中提供的各种传感器和装置感测的数据,并且基于从车辆1205接收的数据确定轨迹。
在一些实施例中,从车辆1205、1210、1215、1220和1225传输到服务器1230的导航信息可以包含关于道路表面、道路几何结构或道路轮廓的数据。道路路段1200的几何结构可以包含车道结构和/或地标。车道结构可以包含道路路段1200的车道总数、车道类型(例如,单车道、双车道、行车车道、超车道等)、车道上的标志,车道宽度等。在一些实施例中,导航信息可以包含车道分配,例如,车辆正在多个车道中的哪个车道中行驶。例如,车道分配可以与数字值“3”相关联,该数字值“3”指示车辆正在从左侧或右侧的第三车道上行驶。作为另一个示例,车道分配可以与文本值“中心车道”相关联,该文本值指示车辆正在中心车道上行驶。
服务器1230可以将导航信息存储在非暂时性计算机可读介质上,诸如硬盘驱动器、光盘、磁带、存储器等。服务器1230可以基于从多个车辆1205、1210、1215、1220和1225接收的导航信息,为公共道路路段1200生成(例如,通过包含在服务器1230中的处理器)自主车辆道路导航模型的至少一部分,并且可以将该模型存储为稀疏地图的一部分。服务器1230可以基于从在不同时间在道路路段的车道上行驶的多个车辆(例如,1205、1210、1215、1220和1225)接收的众包数据(例如,导航信息)来确定与每个车道相关联的轨迹。服务器1230可以基于众包导航数据确定的多个轨迹来生成自主车辆道路导航模型或模型的一部分(例如,更新部分)。服务器1230可以将模型或模型的更新部分传输到在道路路段1200上行驶的自主车辆1205、1210、1215、1220和1225中的一个或多个,或者在稍后的时间在道路路段上行驶的任何其他自主车辆,以用于更新在车辆的导航系统中提供的现有自主车辆道路导航模型。自主车辆道路导航模型可以被自主车辆用于沿着公共道路路段1200的自主导航。
如上所述,自主车辆道路导航模型可以包含在稀疏地图(例如,图8中描绘的稀疏地图800)中。稀疏地图800可以包含与沿着道路的道路几何结构和/或地标相关的数据的稀疏记录,这可以为引导自主车辆的自主导航提供足够的信息,但是不需要过多的数据存储。在一些实施例中,自主车辆道路导航模型可以与稀疏地图800分开存储,并且当该模型被执行用于导航时,可以使用来自稀疏地图800的地图数据。在一些实施例中,自主车辆道路导航模型可以使用稀疏地图800中包含的地图数据来确定沿着道路路段1200的目标轨迹,以用于引导自主车辆1205、1210、1215、1220和1225或稍后沿着道路路段1200行驶的其他车辆的自主导航。例如,当自主车辆道路导航模型由包含在车辆1205的导航系统中的处理器执行时,该模型可以使处理器将基于从车辆1205接收的导航信息确定的轨迹与包含在稀疏地图800中的预定轨迹进行比较,以验证和/或校正车辆1205的当前行驶路线。
在自主车辆道路导航模型中,道路特征或目标轨迹的几何结构可以由三维空间中的曲线编码。在一个实施例中,曲线可以是三维样条,包含一个或多个连接三维多项式。如本领域技术人员所理解的,样条可以是由一系列多项式逐段定义的用于拟合数据的数值函数。用于拟合道路的三维几何结构数据的样条可以包含线性样条(一阶)、二次样条(二阶)、三次样条(三阶)、或任何其他样条(其他阶)、或它们的组合。样条可以包含连接(例如,拟合)道路的三维几何结构数据的数据点的不同阶的一个或多个三维多项式。在一些实施例中,自主车辆道路导航模型可以包含对应于沿着公共道路路段(例如,道路路段1200)或道路路段1200的车道的目标轨迹的三维样条。
如上所述,稀疏地图中包含的自主车辆道路导航模型可以包含其他信息,诸如沿着道路路段1200的至少一个地标的标识。地标可以在安装在车辆1205、1210、1215、1220和1225中的每一个上的相机(例如,相机122)的视场内可见。在一些实施例中,相机122可以捕获地标的图像。车辆1205上提供的处理器(例如,处理器180、190或处理单元110)可以处理地标的图像以提取地标的识别信息。地标识别信息,而不是地标的实际图像,可以存储在稀疏地图800中。地标识别信息可以需要比实际图像少得多的存储空间。其他传感器或系统(例如,GPS系统)也可以提供地标的某些识别信息(例如,地标的位置)。地标可以包含交通标志、箭头标志、车道标志、虚线车道标志、交通灯、停车线、方向标志(例如,具有指示方向的箭头的高速公路出口标志、具有指向不同方向或地方的箭头的高速公路标志)、地标信标或灯柱中的至少一个。地标信标是指沿着道路路段安装的装置(例如,RFID装置),其向安装在车辆上的接收器传输或反射信号,使得当车辆经过该装置时,由车辆接收的信标和(例如,从装置的GPS定位确定的)装置的定位可以被用作要被包含在自主车辆道路导航模型和/或稀疏地图800中的地标。
至少一个地标的标识可以包含至少一个地标的位置。地标的位置可以基于使用与多个车辆1205、1210、1215、1220和1225相关联的传感器系统(例如,全球定位系统、基于惯性的定位系统、地标信标等)执行的位置测量来确定。在一些实施例中,地标的位置可以通过对不同车辆1205、1210、1215、1220和1225上的传感器系统通过多次驾驶检测、收集或接收的位置测量进行平均来确定。例如,车辆1205、1210、1215、1220和1225可以向服务器1230传输位置测量,服务器1230可以对位置测量进行平均,并将平均的位置测量用作地标的位置。地标的位置可以通过从后续驾驶中的车辆接收的测量来不断地细化。
地标的标识可以包含地标的大小。车辆(例如1205)上提供的处理器可以基于图像的分析来估计地标的物理大小。服务器1230可以通过不同的驾驶从不同的车辆接收相同地标的物理大小的多个估计。服务器1230可以对不同的估计进行平均,以得出地标的物理大小,并将地标大小存储在道路模型中。物理大小估计可用于进一步确定或估计从车辆到地标的距离。到地标的距离可以基于车辆的当前速度并且基于图像中出现的地标相对于相机的扩展的焦点的位置的扩展比例来估计。例如,到地标的距离可以通过Z=V*dt*R/D来估计,其中V是车辆的速度,R是图像中从时间t1处的地标到扩展的焦点的距离,并且D是图像中从t1到t2的地标的距离改变。dt表示(t2-t1)。例如,到地标的距离可以通过Z=V*dt*R/D来估计,其中V是车辆的速度,R是图像中地标和扩展焦点之间的距离,dt是时间间隔,D是地标沿着核线的图像位移。与上述等式等效的其他等式,诸如Z=V*ω/Δω,可以用于估计到地标的距离。这里,V是车辆速度,ω是图像长度(类似对象宽度),Δω是该图像长度在单位时间内的改变。
当地标的物理大小已知时,到地标的距离也可以基于以下等式来确定:Z=f*W/ω,其中f为焦距,W为地标的大小(如高度或宽度),ω为地标离开图像时的像素数。根据上述等式,可以使用ΔZ=f*W*Δω/ω2+f*ΔW/ω来计算距离Z的改变,其中ΔW通过平均而衰减到零,并且其中Δω是表示图像中边界框准确度的像素数。可以通过平均服务器侧的多个观测来计算估计地标的物理大小的值。距离估计的最终误差可以非常小。使用上述等式时,可能出现两个误差源,即ΔW和Δω。它们对距离误差的贡献由ΔZ=f*W*Δω/ω2+f*ΔW/ω给出。然而,ΔW通过平均衰减到零;因此ΔZ由Δω(例如,图像中边界框的不准确度)确定。
对于未知尺寸的地标,可以通过在连续帧之间跟踪地标上的特征点来估计到地标的距离。例如,可以在两个或更多个图像帧之间跟踪出现在限速标志上的某些特征。基于这些跟踪的特征,可以生成每特征点的距离分布。距离估计可以从距离分布中提取。例如,距离分布中最频繁出现的距离可以用作距离估计。作为另一个示例,距离分布的平均可以用作距离估计。
图13示出了由多个三维样条1301、1302和1303表示的示例自主车辆道路导航模型。图13中所示的曲线1301、1302和1303仅用于说明目的。每个样条可以包含连接多个数据点1310的一个或多个三维多项式。每个多项式可以是一阶多项式、二阶多项式、三阶多项式或具有不同阶数的任何合适多项式的组合。每个数据点1310可以与从车辆1205、1210、1215、1220和1225接收的导航信息相关联。在一些实施例中,每个数据点1310可以与与地标(例如,地标的大小、定位和识别信息)和/或道路签名轮廓(例如,道路几何结构、道路粗糙度轮廓、道路曲率轮廓、道路宽度轮廓)相关的数据相关联。在一些实施例中,一些数据点1310可以与地标相关的数据相关联,而其他数据点可以与道路签名轮廓相关的数据相关联。
图14示出了从五个分离的驾驶接收的原始定位数据1410(例如,GPS数据)。如果一个驾驶同时被分离的车辆在相同的时间、被相同车辆在分离的时间、或被分离的车辆在分离的时间穿过,则该驾驶可以与另一驾驶分开。为了考虑定位数据1410中的误差以及相同车道内车辆的不同定位(例如,一个车辆可能比另一车辆更靠近车道的左侧),服务器1230可以使用一个或多个统计技术来生成地图骨架1420,以确定原始定位数据1410中的变化是否表示实际的偏离或统计误差。骨架1420内的每个路径可以链接回形成该路径的原始数据1410。例如,骨架1420内的A和B之间的路径链接到来自驾驶2、3、4和5而不是来自驾驶1的原始数据1410。骨架1420可以不足够详细以用于导航车辆(例如,因为与上述样条不同,骨架1420组合了相同道路上多个车道的驾驶),但是可以提供有用的拓扑信息并且可以用于定义交叉路口。
图15示出了通过其可以为地图骨架的路段内的稀疏地图(例如,骨架1420内的路段A至路段B)生成附加细节的示例。如图15所示,数据(例如自我运动数据、道路标志数据等)可以示出为沿驾驶的位置S(或S1或S2)的函数。服务器1230可以通过识别驾驶1510的地标1501、1503和1505与驾驶1520的地标1507和1509之间的唯一匹配来识别稀疏地图的地标。这种匹配算法可以得到地标1511、1513和1515的识别。然而,本领域技术人员将认识到,可以使用其他匹配算法。例如,概率优化可以用来代替唯一匹配或者与唯一匹配相结合。服务器1230可以纵向对齐驾驶以对齐匹配的地标。例如,服务器1230可以选择一个驾驶(例如,驾驶1520)作为参考驾驶,然后移位和/或弹性拉伸(多个)其他驾驶(例如,驾驶1510)以用于对齐。
图16示出了在稀疏地图中使用的对齐地标数据的示例。在图16的示例中,地标1610包括道路标志。图16的示例进一步描绘了来自多个驾驶1601、1603、1605、1607、1609、1611和1613的数据。在图16的示例中,来自驾驶1613的数据包含“幽灵”地标,并且服务器1230可以这样识别它,因为驾驶1601、1603、1605、1607、1609和1611都不包含驾驶1613中识别的地标附近的地标的标识。相应地,当地标确实出现的图像与地标没有出现的图像的比率超过阈值时,服务器1230可以接受潜在地标,和/或当地标没有出现的图像与地标确实出现的图像的比率超过阈值时,服务器1230可以拒绝潜在地标。
图17描绘了用于生成驾驶数据的系统1700,其可用于众包稀疏地图。如图17所示,系统1700可以包含相机1701和定位(locating)装置1703(例如,GPS定位器)。相机1701和定位装置1703可以安装在车辆上(例如,车辆1205、1210、1215、1220和1225之一)。相机1701可以产生多个多种类型的数据,例如,自我运动数据、交通标志数据、道路数据等。相机数据和定位数据可以被分段成驾驶路段1705。例如,驾驶路段1705可以各自具有来自少于1千米的驾驶的相机数据和定位数据。
在一些实施例中,系统1700可以移除驾驶路段1705中的冗余。例如,如果地标出现在来自相机1701的多个图像中,则系统1700可以去除冗余数据,使得驾驶路段1705仅包含地标的定位的一个副本和与地标相关的任何元数据。作为进一步的示例,如果车道标志出现在来自相机1701的多个图像中,系统1700可以去除冗余数据,使得驾驶路段1705仅包含车道标志的定位的一个副本和与车道标志相关的任何元数据。
系统1700还包含服务器(例如,服务器1230)。服务器1230可以从车辆接收驾驶路段1705,并将驾驶路段1705重组为单个驾驶1707。当在车辆和服务器之间传输数据时,这种布置可以减少带宽需求,同时还允许服务器存储与整个驾驶相关的数据。
图18描绘了进一步被配置用于众包稀疏地图的图17的系统1700。如图17所示,系统1700包含车辆1810,其使用例如相机(其产生例如自我运动数据、交通标志数据、道路数据等)和定位装置(例如GPS定位器)来捕获驾驶数据。如图17所示,车辆1810将收集的数据分段成驾驶路段(在图18中描绘为“DS1 1”、“DS2 1”、“DSN 1”)。然后,服务器1230接收驾驶路段,并从接收到的路段重建驾驶(在图18中被描述为“驾驶1”)。
如图18中进一步描绘的,系统1700还从附加车辆接收数据。例如,车辆1820还使用例如相机(其产生例如自我运动数据、交通标志数据、道路数据等)和定位装置(例如GPS定位器)来捕获驾驶数据。类似于车辆1810,车辆1820将收集的数据分段成驾驶路段(在图18中描绘为“DS1 2”、“DS22”、“DSN 2”)。然后,服务器1230接收驾驶路段,并从接收到的路段重建驾驶(在图18中被描述为“驾驶2”)。可以使用任何数量的附加车辆。例如,图18还包括“汽车N”,该“汽车N”捕获驾驶数据,将其分段成驾驶路段(在图18中描绘为“DS1 N”、“DS2N”、“DSN N”),以及将其传送到服务器1230以用于重建成驾驶(在图18中描绘为“驾驶N”)。
如图18所示,服务器1230可以使用从多个车辆(例如,“汽车1”(也标记为车辆1810)、“汽车2”(也标记为车辆1820)和“汽车N”)收集的重建驾驶(例如,“驾驶1”、“驾驶2”和“驾驶N”)来构建稀疏地图(描绘为“地图”)。
图19是示出用于生成用于沿着道路路段的自主车辆导航的稀疏地图的示例过程1900的流程图。过程1900可以由服务器1230中包含的一个或多个处理装置来执行。
过程1900可以包含接收当一个或多个车辆穿过道路路段时获取的多个图像(步骤1905)。服务器1230可以从包含在车辆1205、1210、1215、1220和1225中的一个或多个内的相机接收图像。例如,当车辆1205沿着道路路段1200行驶时,相机122可以捕获车辆1205周围的环境的一个或多个图像。在一些实施例中,服务器1230还可以接收已经被车辆1205上的处理器移除冗余的被剥离(stripped down)的图像数据,如上文参考图17所讨论的。
过程1900可以进一步包含基于多个图像识别沿着道路路段延伸的道路表面特征的至少一个线表示(步骤1910)。每个线表示可以表示沿着基本上对应于道路表面特征的道路路段的路径。例如,服务器1230可以分析从相机122接收的环境图像以识别路缘或车道标志,并确定沿着与路缘或车道标志相关联的道路路段1200的行驶轨迹。在一些实施例中,轨迹(或线表示)可以包含样条、多项式表示或曲线。服务器1230可以基于在步骤1905处接收的相机自我运动(例如,三维平移和/或三维旋转运动)来确定车辆1205的行驶的轨迹。
过程1900还可以包含基于多个图像识别与道路路段相关联的多个地标(步骤1910)。例如,服务器1230可以分析从相机122接收的环境图像,以识别一个或多个地标,诸如沿着道路路段1200的道路标志。服务器1230可以使用对当一个或多个车辆穿过道路路段时获取的多个图像的分析来识别地标。为了使能众包,分析可以包含关于接受和拒绝与道路路段相关联的可能地标的规则。例如,分析可以包含当地标确实出现的图像与地标没有出现的图像的比率超过阈值时接受潜在地标,和/或当地标没有出现的图像与地标确实出现的图像的比率超过阈值时拒绝潜在地标。
过程1900可以包含由服务器1230执行的其他操作或步骤。例如,导航信息可以包含车辆沿着道路路段行驶的目标轨迹,并且过程1900可以包含由服务器1230聚类与在道路路段上行驶的多个车辆相关的车辆轨迹,并且基于聚类的车辆轨迹确定目标轨迹,如下面进一步详细讨论的。聚类车辆轨迹可以包含由服务器1230基于车辆的绝对航向或车辆的车道分配中的至少一个,将与在道路路段上行驶的车辆相关的多个轨迹聚类成多个聚类。生成目标轨迹可以包含由服务器1230平均聚类的轨迹。作为进一步的示例,过程1900可以包含对齐在步骤1905中接收的数据。如上所述,由服务器1230执行的其他过程或步骤也可以包含在过程1900中。
所公开的系统和方法可以包含其他特征。例如,所公开的系统可以使用局部坐标,而不是全局坐标。对于自主驾驶,一些系统可能以世界坐标呈现数据。例如,可以使用地球表面上的经度和纬度坐标。为了使用地图进行转向,主车辆可以确定其相对于地图的位置和朝向。在车上使用GPS装置似乎是很自然的,以便在地图上定位车辆,并以便找到本体参考帧和世界参考帧(例如,北、东和下)之间的旋转变换。一旦本体参考帧与地图参考帧对齐,则期望的路线可以在本体参考帧中表达,并且可以计算或生成转向命令。
所公开的系统和方法可以实现具有低足迹模型的自主车辆导航(例如,转向控制),这些模型可以由自主车辆自己收集,而无需昂贵的勘测仪器的帮助。为了支持自主导航(例如,转向应用),道路模型可以包含稀疏地图,该稀疏地图具有道路的几何结构、其车道结构和地标,该地标可以用于确定车辆沿着包含在模型中的轨迹的定位或位置。如上所述,稀疏地图的生成可以由远程服务器来执行,该远程服务器与在道路上行驶的车辆通信并从车辆接收数据。数据可以包含感测的数据、基于感测数据重建的轨迹、和/或可以表示修改的重建轨迹的推荐轨迹。如下所述,服务器可以将模型传输回车辆或稍后在道路上行驶的其他车辆,以帮助自主导航。
图20示出了服务器的框图。服务器1230可以包含通信单元2005,该通信单元2005可以包含硬件组件(例如,通信控制电路、开关和天线)和软件组件(例如,通信协议、计算机代码)。例如,通信单元2005可以包含至少一个网络接口。服务器1230可以通过通信单元2005与车辆1205、1210、1215、1220和1225通信。例如,服务器1230可以通过通信单元2005接收从车辆1205、1210、1215、1220和1225传输的导航信息。服务器1230可以通过通信单元2005将自主车辆道路导航模型分配给一个或多个自主车辆。
服务器1230可以包含至少一个非暂时性存储介质2010,诸如硬盘驱动器、光盘、磁带等。存储装置1410可以被配置为存储数据,诸如从车辆1205、1210、1215、1220和1225接收的导航信息和/或服务器1230基于导航信息生成的自主车辆道路导航模型。存储装置2010可以被配置为存储任何其他信息,诸如稀疏地图(例如,上面参考图8讨论的稀疏地图800)。
除了或代替存储装置2010,服务器1230可以包含存储器2015。存储器2015可以类似于或不同于存储器140或150。存储器2015可以是非暂时性存储器,诸如闪速存储器、随机存取存储器等。存储器2015可以被配置为存储数据,诸如可由处理器(例如,处理器2020)执行的计算机代码或指令、地图数据(例如,稀疏地图800的数据)、自主车辆道路导航模型和/或从车辆1205、1210、1215、1220和1225接收的导航信息。
服务器1230可以包含至少一个处理装置2020,该至少一个处理装置2020被配置为执行存储在存储器2015中的计算机代码或指令,以执行各种功能。例如,处理装置2020可以分析从车辆1205、1210、1215、1220和1225接收的导航信息,并且基于该分析生成自主车辆道路导航模型。处理装置2020可以控制通信单元1405以将自主车辆道路导航模型分配给一个或多个自主车辆(例如,车辆1205、1210、1215、1220和1225中的一个或多个或者稍后在道路路段1200上行驶的任何车辆)。处理装置2020可以类似于或不同于处理器180、190或处理单元110。
图21示出了存储器2015的框图,存储器2015可以存储用于执行一个或多个操作的计算机代码或指令,以用于生成用于自主车辆导航的道路导航模型。如图21所示,存储器2015可以存储用于执行用于处理车辆导航信息的操作的一个或多个模块。例如,存储器2015可以包含模型生成模块2105和模型分配模块2110。处理器2020可以执行存储在包含在存储器2015中的任何模块2105和2110中的指令。
模型生成模块2105可以存储指令,当由处理器2020执行时,该指令可以基于从车辆1205、1210、1215、1220和1225接收的导航信息,为公共道路路段(例如,道路路段1200)生成自主车辆道路导航模型的至少一部分。例如,在生成自主车辆道路导航模型时,处理器2020可以将沿着公共道路路段1200的车辆轨迹聚类成不同的聚类。处理器2020可以基于对于每个不同聚类的聚类的车辆轨迹来确定沿着公共道路路段1200的目标轨迹。这样的操作可以包含在每个聚类中找到聚类的车辆轨迹的均值(mean)或平均(average)轨迹(例如,通过平均表示聚类的车辆轨迹的数据)。在一些实施例中,目标轨迹可以与公共道路路段1200的单个车道相关联。
道路模型和/或稀疏地图可以存储与道路路段相关联的轨迹。这些轨迹可以被称为目标轨迹,其被提供给自主车辆用于自主导航。目标轨迹可以从多个车辆接收,或者可以基于从多个车辆接收的实际轨迹或推荐轨迹(具有一些修改的实际轨迹)生成。道路模型或稀疏地图中包含的目标轨迹可以用从其他车辆接收的新轨迹连续更新(例如,平均)。
在道路路段上行驶的车辆可以通过各种传感器收集数据。该数据可以包含地标、道路签名轮廓、车辆运动(例如,加速度计数据、速度数据)、车辆位置(例如,GPS数据),并且可以重建实际轨迹本身,或者将数据传输到服务器,该服务器将重建车辆的实际轨迹。在一些实施例中,车辆可以向服务器1230传输与轨迹(例如,任意参考帧中的曲线)、地标数据和沿着行驶路径的车道分配相关的数据。以多种驾驶方式沿相同道路路段行驶的各种车辆可以具有不同的轨迹。服务器1230可以从通过聚类过程从车辆接收的轨迹中识别与每个车道相关联的路线或轨迹。
图22示出了聚类与车辆1205、1210、1215、1220和1225相关联的车辆轨迹以用于确定公共道路路段(例如,道路路段1200)的目标轨迹的过程。从聚类过程确定的目标轨迹或多个目标轨迹可以包含在自主车辆道路导航模型或稀疏地图800中。在一些实施例中,沿着道路路段1200行驶的车辆1205、1210、1215、1220和1225可以向服务器1230传输多个轨迹2200。在一些实施例中,服务器1230可以基于从车辆1205、1210、1215、1220和1225接收的地标、道路几何结构和车辆运动信息来生成轨迹。为了生成自主车辆道路导航模型,服务器1230可以将车辆轨迹1600聚类成多个聚类2205、2210、2215、2220、2225和2230,如图22所示。
可以使用各种标准来执行聚类。在一些实施例中,聚类中的所有驾驶在沿着道路路段1200的绝对航向方面可以是相似的。绝对航向可以从车辆1205、1210、1215、1220和1225接收的GPS信号中获得。在一些实施例中,可以使用航位推算来获得绝对航向。如本领域技术人员所理解的,航位推算可用于通过使用先前确定的位置、估计速度等来确定车辆1205、1210、1215、1220和1225的当前位置并因此确定其航向。按绝对航向聚类的轨迹可以有助于沿着道路识别路线。
在一些实施例中,关于沿着道路路段1200上的驾驶的车道分配(例如,在交叉口之前和之后的相同车道中),聚类中的所有驾驶可以是相似的。通过车道分配聚类的轨迹可以有助于沿着道路识别车道。在一些实施例中,两个标准(例如,绝对航向和车道分配)都可以用于聚类。
在每个聚类2205、2210、2215、2220、2225和2230中,轨迹可以被平均以获得与特定聚类相关联的目标轨迹。例如,可以对来自与相同车道聚类相关联的多个驾驶的轨迹进行平均。平均轨迹可以是与特定车道相关联目标轨迹。为了平均一组轨迹,服务器1230可以选择任意轨迹C0的参考帧。对于所有其他轨迹(C1,…,Cn),服务器1230可以找到将Ci映射到C0的刚性变换,其中i=1,2,…,n,其中n是正整数,对应于包含在聚类中的轨迹的总数。服务器1230可以计算C0参考帧中的均值曲线或轨迹。
在一些实施例中,地标可以定义不同驾驶之间的弧长匹配,这可以用于轨迹与车道的对齐。在一些实施例中,交叉口之前和之后的车道标志可用于轨迹与车道的对齐。
为了从轨迹组装车道,服务器1230可以选择任意车道的参考帧。服务器1230可以将部分重叠的车道映射到选择的参考帧。服务器1230可以继续映射,直到所有车道都在相同的参考帧中。彼此相邻的车道可以对齐,就好像它们是相同的车道,稍后它们可以被横向移位。
沿着道路路段辨识的地标可以首先在车道级,然后在交叉口级被映射到公共参考帧。例如,相同的地标可以被多个驾驶中的多个车辆辨识多次。不同驾驶中接收到的关于相同地标的数据可能略有不同。这样的数据可以被平均并映射到相同的参考帧,诸如C0参考帧。附加地或替代地,可以计算在多个驾驶中接收的相同地标的数据的方差。
在一些实施例中,道路路段120的每个车道可以与目标轨迹和某些地标相关联。目标轨迹或多个这样的目标轨迹可以被包含在自主车辆道路导航模型中,其可以稍后被沿着相同道路路段1200行驶的其他自主车辆使用。当车辆沿着道路路段1200行驶时,由车辆1205、1210、1215、1220和1225识别的地标可以与目标轨迹相关联地被记录。目标轨迹和地标的数据可以利用在后续驾驶中从其他车辆接收的新数据被连续地或周期性地更新。
对于自主车辆的定位,所公开的系统和方法可以使用扩展卡尔曼滤波器。车辆的定位可以基于三维位置数据和/或三维朝向数据、通过自我运动的积分对车辆的当前定位前方的未来定位的预测来确定。可以通过地标的图像观察来校正或调整车辆的定位。例如,当车辆检测到由相机捕获的图像内的地标时,该地标可以与存储在道路模型或稀疏地图800内的已知地标进行比较。已知地标可以具有存储在道路模型和/或稀疏地图800中的沿着目标轨迹的已知定位(例如,GPS数据)。基于地标的当前速度和图像,可以估计从车辆到地标的距离。车辆沿着目标轨迹的定位可以基于到地标的距离和地标的已知定位(存储在道路模型或稀疏地图800中)来调整。存储在道路模型和/或稀疏地图800中的地标的位置/定位数据(例如,来自多个驾驶的均值)可以被假定为准确的。
在一些实施例中,所公开的系统可以形成闭环子系统,其中车辆六个自由度定位(例如,三维位置数据加上三维朝向数据)的估计可以用于自主车辆的导航(例如,对自主车辆的车轮进行转向)以到达期望的点(例如,存储的前方1.3秒)。反过来,从转向和实际导航测量的数据可用于估计六个自由度定位。
在一些实施例中,沿着道路的杆(pole),诸如灯柱和电力或电缆线杆可以用作定位车辆的地标。诸如交通标志、交通灯、道路上的箭头、停车线以及沿着道路路段的对象的静态特征(feature)或签名(signature)的其他地标也可以用作定位车辆的地标。当杆用于定位时,可以使用杆的x观察(即从车辆的视角),而不是y观察(即到杆的距离),因为杆的底部可能被遮挡,有时它们不在道路平面上。
图23示出了用于车辆的导航系统,其可以用于使用众包稀疏地图的自主导航。为了说明,车辆被称为车辆1205。图23中所示的车辆可以是本文公开的任何其他车辆,包含例如车辆1210、1215、1220和1225,以及其他实施例中所示的车辆200。如图12所示,车辆1205可以与服务器1230通信。车辆1205可以包含图像捕获装置122(例如,相机122)。车辆1205可以包含导航系统2300,该导航系统2300被配置用于为车辆1205在道路(例如,道路路段1200)上行驶提供导航引导。车辆1205还可以包含其他传感器,例如速度传感器2320和加速度计2325。速度传感器2320可以被配置为检测车辆1205的速度。加速度计2325可以被配置为检测车辆1205的加速或减速。图23中所示的车辆1205可以是自主车辆,并且导航系统2300可以用于为自主驾驶提供导航引导。替代地,车辆1205也可以是非自主的、人类控制的车辆,并且导航系统2300仍然可以用于提供导航引导。
导航系统2300可以包含被配置为通过通信路径1235与服务器1230通信的通信单元2305。导航系统2300还可以包含被配置为接收和处理GPS信号的GPS单元2310。导航系统2300还可以包含至少一个处理器2315,该至少一个处理器2315被配置为处理数据,诸如GPS信号、来自稀疏地图800的地图数据(其可以存储在车辆1205上提供的存储装置上和/或从服务器1230接收)、由道路轮廓传感器2330感测的道路几何结构、由相机122捕获的图像和/或从服务器1230接收的自主车辆道路导航模型。道路轮廓传感器2330可以包含用于测量不同类型的道路轮廓(诸如道路表面粗糙度、道路宽度、道路高度、道路曲率等)的不同类型的装置。例如,道路轮廓传感器2330可以包含测量车辆的悬架2305的运动以推导道路粗糙度轮廓的装置。在一些实施例中,道路轮廓传感器2330可以包含雷达传感器,以测量从车辆1205到道路边(例如,道路边上的障碍物)的距离,从而测量道路的宽度。在一些实施例中,道路轮廓传感器2330可以包含被配置用于测量道路的上下标高的装置。在一些实施例中,道路轮廓传感器2330可以包含被配置为测量道路曲率的装置。例如,相机(例如,相机122或另一个相机)可以用于捕获示出道路曲率的道路图像。车辆1205可以使用这样的图像来检测道路曲率。
至少一个处理器2315可以被编程为从相机122接收与车辆1205相关联的至少一个环境图像。至少一个处理器2315可以分析至少一个环境图像以确定与车辆1205相关的导航信息。导航信息可以包含与车辆1205沿着道路路段1200行驶相关的轨迹。至少一个处理器2315可以基于相机122(以及由此的车辆)的运动来确定轨迹,例如三维平移和三维旋转运动。在一些实施例中,至少一个处理器2315可以基于对由相机122获取的多个图像的分析来确定相机122的平移和旋转运动。在一些实施例中,导航信息可以包含车道分配信息(例如,车辆1205沿着道路路段1200行驶在哪个车道中)。从车辆1205传输到服务器1230的导航信息可以被服务器1230用来生成和/或更新自主车辆道路导航模型,该模型可以从服务器1230传输回车辆1205,以用于为车辆1205提供自主导航引导。
至少一个处理器2315还可以被编程为将导航信息从车辆1205传输到服务器1230。在一些实施例中,导航信息可以与道路信息一起被传输到服务器1230。道路定位信息可以包含由GPS单元2310接收的GPS信号、地标信息、道路几何结构、车道信息等中的至少一个。至少一个处理器2315可以从服务器1230接收自主车辆道路导航模型或模型的一部分。从服务器1230接收的自主车辆道路导航模型可以包含基于从车辆1205传输到服务器1230的导航信息的至少一个更新。从服务器1230传输到车辆1205的模型部分可以包含模型的更新部分。至少一个处理器2315可以基于接收到的自主车辆道路导航模型或模型的更新部分来引起车辆1205的至少一个导航操纵(例如,转向,诸如转弯、制动、加速、经过另一车辆等)。
至少一个处理器2315可以被配置为与车辆1205中包含的各种传感器和组件通信,包含通信单元1705、GPS单元2315、相机122、速度传感器2320、加速度计2325和道路轮廓传感器2330。至少一个处理器2315可以从各种传感器和组件收集信息或数据,并通过通信单元2305将信息或数据传输到服务器1230。替代地或附加地,车辆1205的各种传感器或组件也可以与服务器1230通信,并将由传感器或组件收集的数据或信息传输到服务器1230。
在一些实施例中,车辆1205、1210、1215、1220和1225可以彼此通信,并且可以彼此共享导航信息,使得车辆1205、1210、1215、1220和1225中的至少一个可以例如基于由其他车辆共享的信息,使用众包生成自主车辆道路导航模型。在一些实施例中,车辆1205、1210、1215、1220和1225可以彼此共享导航信息,并且每个车辆可以更新其自己的车辆中提供的自主车辆道路导航模型。在一些实施例中,车辆1205、1210、1215、1220和1225中的至少一个(例如,车辆1205)可以用作中枢车辆(hub vehicle)。中枢车辆(例如,车辆1205)的至少一个处理器2315可以执行由服务器1230执行的一些或所有功能。例如,中枢车辆的至少一个处理器2315可以与其他车辆通信,并从其他车辆接收导航信息。中枢车辆的至少一个处理器2315可以基于从其他车辆接收的共享信息生成自主车辆道路导航模型或对模型的更新。中枢车辆的至少一个处理器2315可以将自主车辆道路导航模型或对模型的更新传输到其他车辆,以提供自主导航引导。
映射车道标志以及基于映射车道标志的导航
如前所述,自主车辆道路导航模型和/或稀疏地图800可以包括与道路路段相关联的多个映射车道标志。如下文更详细讨论的,当自主车辆导航时,可以使用这些映射车道标志。例如,在一些实施例中,映射车道标志可用于确定相对于计划轨迹的横向位置和/或朝向。利用该位置信息,自主车辆能够调整航向方向以匹配在确定位置处的目标轨迹的方向。
车辆200可以被配置为检测给定道路路段中的车道标志。道路路段可以包括道路上的用于引导道路上的车辆交通的任何标志。例如,车道标志可以是区别行驶车道的边缘的实线或虚线。车道标志还可以包括双线,诸如双实线、双虚线或者实线和虚线的组合,以指示例如在相邻车道中是否允许超车(passing)。车道标志还可以包括指示例如出口匝道的减速车道的高速公路入口和出口标志,或者指示车道为仅转弯或车道即将结束的虚线。标志还可以指示工作区、临时变道、通过交叉路口的行驶路径、中央分隔带、专用车道(例如,自行车道、HOV车道等)、或其他各种标志(例如,人行横道、减速丘(speed hump)、铁路道口(railway crossign)、停车线等)。
车辆200可以使用相机,诸如包括在图像获取单元120中的图像捕获装置122和124,来捕获周围车道标志的图像。车辆200可以基于在一个或多个捕获的图像中识别的特征来分析图像,以检测与车道标志相关联的点定位。这些点定位可以被上传到服务器以表示稀疏地图800中的车道标志。取决于相机的位置和视场,可以从单个图像中同时检测车辆两侧的车道标志。在其他实施例中,不同的相机可以用于在车辆的多个侧面上捕获图像。可以将车道标志存储为稀疏地图800中的样条或一系列点,而不是上传这些标志的实际图像,从而减小稀疏地图800的大小和/或必须由车辆远程上传的数据。
图24A-图24D示出了可由车辆200检测以表示特定车道标志的示例性点定位。类似于如上所述的地标,车辆200可以使用各种图像辨识算法或软件来识别捕获的图像内的点定位。例如,车辆200可以辨识与特定车道标志相关联的一系列边缘点、拐角点或各种其他点定位。图24A示出了车辆200可以检测到的实线车道标志2410。车道标志2410可以表示道路的外侧边缘,由白色实线表示。如图24A所示,车辆200可以被配置为检测沿着车道标志的多个边缘定位点2411。定位点2411可以被收集来以足以在稀疏地图中创建映射车道标志的任何间隔处表示车道标志。例如,车道标志可以由检测到的边缘的每米一个点、检测到的边缘的每五米一个点或者以其他合适的间距来表示。在一些实施例中,间距可以由其他因素确定,而不是以设定的间隔确定,诸如例如基于在该处车辆200对检测到的点的定位具有最高置信度排序的点来确定。虽然图24A示出了车道标志2410的内部边缘上的边缘定位点,这些点可以在线的外部边缘上或者沿着两个边缘被收集。此外,虽然在图24A中示出了单个线,但是对于双实线可以检测到相似的边缘点。例如,可以沿着一条或两条实线的边缘来检测点2411。
取决于车道标志的类型或形状,车辆200也可以不同地表示车道标志。图24B示出了可由车辆200检测的示例性虚线车道标志2420。车辆可以检测表示车道虚线的拐角的一系列拐角点2421,以定义虚线的完全边界,而不是像图24A中那样识别边缘点。虽然图24B示出了被定位的给定虚线标志的每个拐角,但是车辆200可以检测或上传图中所示的点的子集。例如,车辆200可以检测给定虚线标志的前边缘(leading edge)或前角(leadingcorner),或者可以检测最靠近车道内部的两个拐角点。此外,不是每个虚线标志都可以被捕获,例如,车辆200可以捕获和/或记录表示虚线标志的(例如,每隔一个、每三个、每五个等)样本的点,或者表示预定间距(例如,每米、每五米、每十米等)的虚线标志的点。也可以检测类似的车道标志(诸如显示车道是用于出口匝道的标志、特定车道即将结束的标志、或者可以具有可检测的拐角点的其他各种车道标志)的拐角点。也可以检测由双虚线或者实线和虚线的组合组成的车道标志的拐角点。
在一些实施例中,被上传到服务器以生成映射车道标志的点可以表示除了检测到的边缘点或拐角点之外的其他点。图24C示出了可以表示给定车道标志的中心线的一系列点。例如,实线车道2410可以由沿着车道标志的中心线2440的中心线点2441表示。在一些实施例中,车辆200可以被配置为使用各种图像辨识技术(诸如卷积神经网络(convolutionalneural network,CNN)、尺度不变特征变换(scale-invariant feature transform,SIFT)、定向梯度直方图(histogram of oriented gradient,HOG)特征或其他技术)来检测这些中心点。替代地,车辆200可以检测其他点,诸如图24A所示的边缘点2411,并且可以例如通过检测沿着每个边缘的点并确定边缘点之间的中点来计算中心线点2441。类似地,虚线车道标志2420可以由沿着车道标志的中心线2450的中心线点2451表示。中心线点可以位于虚线的边缘,如24C图所示,或者沿着中心线的各种其他定位。例如,每个虚线可以由虚线的几何中心的单个点来表示。这些点也可以沿着中心线以预定间隔(例如,每米、每5米、每10米等)间距开。中心线点2451可以由车辆200直接检测,或者可以基于其他检测到的参考点(诸如拐角点2421)来计算,如图24B所示。使用与如上所述的技术类似的技术,中心线也可用于表示其他车道标志类型,诸如双线。
在一些实施例中,车辆200可以识别表示其他特征的点,诸如两个相交车道标志之间的顶点。图24D示出了表示两个车道标志2460和2465之间的交叉路口的示例性点。车辆200可以计算表示两个车道标志之间的交叉路口的顶点2466。例如,车道标志2460或2465中的一个可以表示路段中的列车交叉区域或其他交叉区域。虽然车道标志2460和2465被示为彼此垂直交叉,但是可以检测各种其他配置。例如,车道标志2460和2465可以以其他角度交叉,或者一个或两个车道标志可以终止于顶点2466。类似的技术也可以应用于虚线或其他车道标志类型之间的交叉路口。除了顶点2466之外,还可以检测各种其他点2467,从而提供关于车道标志2460和2465的朝向的进一步信息。
车辆200可以将现实世界坐标与车道标志的每个检测点相关联。例如,可以生成定位标识符(包括每个点的坐标)以上传到服务器以用于映射车道标志。定位标识符还可以包括关于点的其他识别信息,包括点是否表示拐角点、边缘点、中心点等。因此,车辆200可以被配置为基于对图像的分析来确定每个点的现实世界位置。例如,车辆200可以检测图像中的其他特征(诸如如上所述的各种地标)以定位车道标志的现实世界位置。这可以包括确定车道标志在图像中相对于检测到的地标的定位,或者基于检测到的地标来确定车辆的位置,然后确定从车辆(或车辆的目标轨迹)到车道标志的距离。当地标不可用时,车道标志点的定位可以相对于基于航位推算(dead reckoning)确定的车辆位置来确定。被包括在定位标识符中的现实世界坐标可以被表示为绝对坐标(例如,纬度/经度坐标),或者可以相对于其他特征,诸如基于沿着目标轨迹的纵向位置和距目标轨迹的横向距离。定位标识符然后可以被上传到服务器以用于在导航模型(诸如稀疏地图800)中生成映射车道标志。在一些实施例中,服务器可以构造表示道路路段的车道标志的样条。替代地,车辆200可以生成样条并将其上传到服务器以记录在导航模型中。
图24E示出了包括映射车道标志的相对应的道路路段的示例性导航模型或稀疏地图。稀疏地图可以包括车辆沿着道路路段所遵循的目标轨迹2475。如上所述,目标轨迹2475可以表示车辆在相对应的道路路段行驶时所采取的理想路径,或者可以位于道路上的其他地方(例如,道路的中心线等)。目标轨迹2475可以用如上所述的各种方法来计算,例如,基于车辆穿过相同道路路段的两个或更多个重建轨迹的聚集(例如,加权组合)来计算。
在一些实施例中,可以针对所有车辆类型和针对所有道路、车辆和/或环境情况同等地生成目标轨迹。然而,在其他实施例中,在生成目标轨迹时也可以考虑各种其他因素或变量。可以针对不同类型的车辆(例如,私家车、轻型卡车和全挂车)生成不同的目标轨迹。例如,与较大的半挂式卡车相比,可以针对小的私家车生成转弯半径相对较小的目标轨迹。在一些实施例中,也可以考虑道路、车辆和环境情况。例如,可以针对不同的道路情况(例如,潮湿、下雪、结冰、干燥等)、车辆情况(例如,轮胎情况或估计轮胎情况、制动情况或估计制动情况、剩余燃料量等)、或者环境因素(例如,一天中的时间、能见度、天气等)生成不同的目标轨迹。目标轨迹还可以取决于特定道路路段的一个或多个方面或特征(例如,限速、转弯频率和大小、坡度等)。在一些实施例中,各种用户设定也可用于确定目标轨迹,诸如设定的驾驶模式(例如,期望的驾驶积极性、经济模式等)。
稀疏地图还可以包括表示沿着道路路段的车道标志的映射车道标志2470和2480。映射车道标志可以由多个定位标识符2471和2481表示。如上所述,定位标识符可以包括与检测到的车道标志相关联的点在现实世界坐标中的定位。类似于模型中的目标轨迹,车道标志也可以包括高程数据,并且可以被表示为三维空间中的曲线。例如,曲线可以是连接合适阶数的三维多项式的样条。曲线可以基于定位标识符来计算。映射车道标志还可以包括关于车道标志的其他信息或元数据,诸如车道标志的类型(例如,行驶方向相同的两个车道之间的车道标志、行驶方向相反的两条车道之间的车道标志、路缘等)的标识符和/或车道标志的其他特性(例如,实线、虚线、单线、双线、黄色、白色等)。在一些实施例中,例如,可以使用众包技术在模型内连续地更新映射车道标志。相同车辆可以在行驶相同道路路段的多个时机期间上传定位标识符,或者可以从在不同时间行驶该道路路段的多个车辆(诸如1205、1210、1215、1220和1225)中选择数据。稀疏地图800然后可以基于从车辆接收并存储在系统中的后续定位标识符来更新或细化。随着映射车道标志被更新和细化,更新后的道路导航模型和/或稀疏地图可以被分配给多个自主车辆。
在稀疏地图中生成映射车道标志还可以包括基于图像中或实际车道标志本身中的异常来检测和/或减轻误差。图24F示出了与检测车道标志2490相关联的示例性异常2495。异常2495可能出现在由车辆200从例如阻碍相机对车道标志的视野的对象、镜头上的碎屑等捕获的图像中。在一些情况下,异常可能是由于车道标志本身造成的,车道标志可能被损坏或磨损,或者被道路上的灰尘、碎屑、水、雪或其他材料部分地覆盖。异常2495可能导致车辆200所检测到的误差点2491。稀疏地图800可以提供正确的映射车道标志并排除误差。在一些实施例中,车辆200可以例如通过检测图像中的异常2495,或者通过基于异常前后的检测到的车道标志点识别误差,来检测误差点2491。基于检测到异常,车辆可以省略点2491,或者可以将其调整为与其他检测到的点一致。在其他实施例中,例如,通过基于在相同行程期间上传的其他点或者基于来自沿着相同道路路段的先前行程的数据的聚集确定该点在预期阈值之外,可以在该点已经上传之后校正该误差。
导航模型和/或稀疏地图中的映射车道标志也可用于穿过相对应的道路的自主车辆的导航。例如,沿着目标轨迹导航的车辆可以周期性地使用稀疏地图中的映射车道标志来将其自身与目标轨迹对齐。如上所述,在地标之间,车辆可以基于航位推算来导航,其中车辆使用传感器来确定其自我运动并估计其相对于目标轨迹的位置。误差可能随着时间的推移而累积,并且车辆相对于目标轨迹的位置确定可能变得越来越不准确。相应地,车辆可以使用出现在稀疏地图800中的车道标志(以及它们的已知定位)来减少位置确定中由航位推算引起的误差。以这种方式,被包括在稀疏地图800中的所识别的车道标志可以用作导航锚,可以从该导航锚确定车辆相对于目标轨迹的准确位置。
图25A示出了可用于基于映射车道标志的导航的车辆周围环境的示例性图像2500。图像2500可以例如由车辆200通过包括在图像获取单元120中的图像捕获装置122和124来捕获。图像2500可以包括至少一个车道标志2510的图像,如图25A所示。图像2500还可以包括一个或多个地标2521,诸如道路标志,以用于如上所述的导航。图25A中所示的没有出现在捕获图像2500中但是被车辆200检测和/或确定的一些元素(诸如元素2511、2530和2520)也被示出用于参考。
使用上面参考图24A-图24D和图24F描述的各种技术,车辆可以分析图像2500以识别车道标志2510。可以检测对应于图像中车道标志的特征的各种点2511。例如,点2511可以对应于车道标志的边缘、车道标志的拐角、车道标志的中点、两个相交车道标志之间的顶点或各种其他特征或定位。点2511可以被检测为对应于存储在从服务器接收的导航模型中的点的定位。例如,如果接收到包含表示映射车道标志的中心线的点的稀疏地图,则还可以基于车道标志2510的中心线来检测点2511。
车辆还可以确定由元素2520表示的并且沿着目标轨迹定位的纵向位置。例如,通过检测图像2500内的地标2521并将测量的定位与存储在道路模型或稀疏地图800中的已知地标定位进行比较,可以从图像2500中确定纵向位置2520。然后可以基于到地标的距离和地标的已知定位来确定车辆沿着目标轨迹的定位。纵向位置2520还可以从除了用于确定车道标志的位置的图像之外的图像中确定。例如,纵向位置2520可以通过在来自图像获取单元120内的其他相机的、与图像2500同时或接近同时拍摄的图像中检测地标来确定。在一些情况下,车辆可能不在用于确定纵向位置2520的任何地标或其他参考点附近。在这种情况下,车辆可以基于航位推算来导航,并且因此可以使用传感器来确定其自我运动并估计相对于目标轨迹的纵向位置2520。车辆还可以确定表示在所捕获的(多个)图像中观察到的车辆和车道标志2510之间的实际距离的距离2530。在确定距离2530时,可以考虑相机角度、车辆的速度、车辆的宽度或各种其他因素。
图25B示出了基于道路导航模型中映射车道标志的车辆的横向定位校正。如上所述,车辆200可以使用由车辆200捕获的一个或多个图像来确定车辆200和车道标志2510之间的距离2530。车辆200还可以访问道路导航模型(诸如稀疏地图800),道路导航模型可以包括映射车道标志2550和目标轨迹2555。映射车道标志2550可以使用如上所述的技术来建模,例如使用由多个车辆捕获的众包定位标识符。目标轨迹2555也可以使用先前描述的各种技术来生成。车辆200还可以确定或估计沿着目标轨迹2555的纵向位置2520,如以上参考图25A所述。车辆200然后可以基于与纵向位置2520相对应的、目标轨迹2555和映射车道标志2550之间的横向距离来确定预期距离2540。车辆200的横向定位可以通过将使用所捕获的(多个)图像测量的实际距离2530与来自模型的预期距离2540进行比较来校正或调整。
图26A是示出与所公开的实施例一致的用于映射车道标志以用于自主车辆导航的示例性过程2600A的流程图。在步骤2610,过程2600A可以包括接收与检测到的车道标志相关联的两个或更多个定位标识符。例如,步骤2610可以由服务器1230或与该服务器相关联的一个或多个处理器来执行。定位标识符可以包括与检测到的车道标志相关联的点在现实坐标中的定位,如以上参考图24E所述。在一些实施例中,定位标识符还可以包含其他数据,诸如关于道路路段或车道标志的附加信息。在步骤2610期间还可以接收附加数据,诸如加速度计数据、速度数据、地标数据、道路几何结构或轮廓数据、车辆定位数据、自我运动数据或如上所述的各种其他形式的数据。定位标识符可以由车辆(诸如车辆1205、1210、1215、1220和1225)基于由车辆捕获的图像而生成。例如,可以基于从与主车辆相关联的相机获取表示主车辆的环境的至少一个图像、分析该至少一个图像以检测主车辆的环境中的车道标志、以及分析该至少一个图像以确定检测到的车道标志相对于与主车辆相关联的定位的位置来确定标识符。如上所述,车道标志可以包括各种不同的标志类型,并且定位标识符可以对应于相对于车道标志的各种点。例如,在检测到的车道标志是标记车道边界的虚线的一部分的情况下,这些点可以对应于车道标志的检测到的拐角。在检测到的车道标志是标记车道边界的实线的一部分的情况下,这些点可以对应于具有如上所述的各种间距的、车道标志的检测到的边缘。在一些实施例中,这些点可以对应于检测到的车道标志的中心线,如图24C所示,或者可以对应于两个相交车道标志之间的顶点和与相交车道标志相关联的两个其他点中的至少一个,如图24D所示。
在步骤2612,过程2600A可以包括将检测到的车道标志与相对应的道路路段相关联。例如,服务器1230可以分析在步骤2610期间接收的现实世界坐标或其他信息,并且将坐标或其他信息与存储在自主车辆道路导航模型中的定位信息进行比较。服务器1230可以确定模型中与在该处检测到车道标志的现实世界道路路段相对应的道路路段。
在步骤2614,过程2600A可以包括基于与检测到的车道标志相关联的两个或更多个定位标识符,相对于相对应的道路路段来更新自主车辆道路导航模型。例如,自主道路导航模型可以是稀疏地图800,并且服务器1230可以更新稀疏地图以在模型中包括或调整映射车道标志。服务器1230可以基于以上参考图24E描述的各种方法或过程来更新模型。在一些实施例中,更新自主车辆道路导航模型可以包括存储检测到的车道标志在现实世界坐标中的一个或多个位置指示符。自主车辆道路导航模型还可以包括车辆沿着相对应的道路路段所遵循的至少一个目标轨迹,如图24E所示。
在步骤2616,过程2600A可以包括将更新后的自主车辆道路导航模型分配给多个自主车辆。例如,服务器1230可以将更新后的自主车辆道路导航模型分配给车辆1205、1210、1215、1220和1225,该车辆1205、1210、1215、1220和1225可以将该模型用于导航。自主车辆道路导航模型可以经由一个或多个网络(例如,通过蜂窝网络和/或互联网等)、通过无线通信路径1235被分配,如图12所示。
在一些实施例中,可以使用从多个车辆接收的数据(诸如通过众包技术)来映射车道标志,如以上参考图24E所述。例如,过程2600A可以包括从第一主车辆接收包括与检测到的车道标志相关联的定位标识符的第一通信,以及从第二主车辆接收包括与检测到的车道标志相关联的附加定位标识符的第二通信。例如,第二通信可以从行驶在相同道路路段上的后续车辆接收,或者从在沿着相同道路路段的后续行程中的相同车辆接收。过程2600A还可以包括基于在第一通信中接收的定位标识符并且基于在第二通信中接收的附加定位标识符来细化与检测到的车道标志相关联的至少一个位置的确定。这可以包括使用多个定位标识符的平均和/或过滤掉可能不反映车道标志的现实世界位置的“幽灵”标识符。
图26B是示出用于使用映射车道标志沿着道路路段自主导航主车辆的示例性过程2600B的流程图。过程2600B可以例如由自主车辆200的处理单元110来执行。在步骤2620,过程2600B可以包括从基于服务器的系统接收自主车辆道路导航模型。在一些实施例中,自主车辆道路导航模型可以包括主车辆沿着道路路段的目标轨迹和与道路路段相关联的一个或多个车道标志相关联的定位标识符。例如,车辆200可以接收稀疏地图800或使用过程2600A产生的另一道路导航模型。在一些实施例中,目标轨迹可以被表示为三维样条,例如,如图9B所示。如上面参考图24A-图24F所述,定位标识符可以包括与车道标志相关联的点在现实世界坐标中的定位(例如,虚线车道标志的拐角点、实线车道标志的边缘点、两个相交车道标志之间的顶点以及与相交车道标志相关联的其他点、与车道标志相关联的中心线等)。
在步骤2621,过程2600B可以包括接收表示车辆的环境的至少一个图像。该图像可以从车辆的图像捕获装置(诸如通过包括在图像获取单元120中的图像捕获装置122和124)接收。该图像可以包括一个或多个车道标志的图像,类似于如上所述的图像2500。
在步骤2622,过程2600B可以包括确定主车辆沿着目标轨迹的纵向位置。如上参考图25A所述,这可以基于捕获的图像中的其他信息(例如,地标等)或者通过车辆在检测到的地标之间的航位推算。
在步骤2623,过程2600B可以包括基于所确定的主车辆沿着目标轨迹的纵向位置并且基于与至少一个车道标志相关联的两个或更多个定位标识符来确定到车道标志的预期横向距离。例如,车辆200可以使用稀疏地图800来确定到车道标志的预期横向距离。如图25B所示,可以在步骤2622中确定沿着目标轨迹2555的纵向位置2520。使用稀疏地图800,车辆200可以确定到与纵向位置2520相对应的映射车道标志2550的预期距离2540。
在步骤2624,过程2600B可以包括分析至少一个图像以识别至少一个车道标志。例如,车辆200可以使用各种图像辨识技术或算法来识别图像内的车道标志,如上所述。例如,车道标志2510可以通过对图像2500的图像分析来检测,如图25A所示。
在步骤2625,过程2600B可以包括基于对至少一个图像的分析来确定到至少一个车道标志的实际横向距离。例如,车辆可以确定表示车辆和车道标志2510之间的实际距离的距离2530,如图25A所示。在确定距离2530时,可以考虑相机角度、车辆的速度、车辆的宽度、相机相对于车辆的位置或各种其他因素。
在步骤2626,过程2600B可以包括基于到至少一个车道标志的预期横向距离和所确定的到至少一个车道标志的实际横向距离之间的差异来确定主车辆的自主转向动作。例如,如上参考图25B所述,车辆200可以将实际距离2530与预期距离2540进行比较。实际距离和预期距离之间的差异可以指示车辆的实际位置和车辆要遵循的目标轨迹之间的误差(及其幅度)。相应地,车辆可以基于该差异来确定自主转向动作或其他自主动作。例如,如果实际距离2530小于预期距离2540,如图25B所示,则车辆可以确定自主转向动作以引导车辆离开车道标志2510。因此,可以校正车辆相对于目标轨迹的位置。过程2600B可以用于例如改善车辆在地标之间的导航。
基于图像分析的导航
如上所描述,自主或部分自主车辆导航系统可以依赖传感器输入,来收集在车辆的环境中的关于当前状况、基础设施、对象等的信息。基于所收集的信息,导航系统可以确定要采取的一个或多个导航动作(基于例如对所收集的信息应用一个或多个驾驶策略),并且可以通过车辆上可用的致动系统来实现一个或多个导航动作。
在一些情况下,用于收集关于车辆的环境的信息的传感器可以包括一个或多个相机,例如如上所描述的图像捕获设备122、124和126。由相关相机捕获的每个帧可以由车辆导航系统的一个或多个组件进行分析,以便提供车辆导航系统的期望功能。例如,捕获的图像可以被提供给负责检测环境中的某些对象或特征并在检测到的对象或特征存在的情况下进行导航的单独的模块。例如,导航系统可以包括单独的模块,以用于检测行人、其他车辆、车行道中的对象、道路边界、道路标记、交通灯、交通标志、停放的车辆、附近车辆的横向移动、停放车辆的打开的门、附近车辆的车轮/道路边界、与附近车辆的检测到的车轮相关联的旋转、道路表面状况(例如,潮湿、积雪、冰、砾石等)中的一个或多个,还有更多。
每个模块或功能可以涉及对所提供的图像(例如,每个捕获的帧)的分析,以检测该模块或功能的逻辑所基于的某些特征的存在。此外,可以采用各种图像分析技术来精简(streamline)用于处理和分析捕获的图像的计算资源。例如,在负责检测打开的门的模块的情况下,与该模块相关联的图像分析技术可以包括图像像素的扫描,以确定是否有任何像素与停放的汽车相关联。如果没有识别出表示停放的汽车的像素,则该模块的工作可以相对于特定的图像帧结束。然而,如果识别到停放的汽车,则该模块可以集中于识别与停放的汽车相关联的哪些像素表示门边(例如,最靠后的门边)。可以分析这些像素以确定是否有证据表明门是打开的或完全关闭的。可以跨多个图像帧比较相关联的门边的这些像素和特性,以进一步确认检测到的门是否处于打开状态。在每种情况下,特定的功能或模块可以需要只集中于捕获的图像帧的部分,以提供期望的功能性。
然而,尽管可以采用各种图像分析技术来精简该分析以有效利用可用的计算资源,但是跨多个功能/模块对图像帧的并行处理可以涉及相当大的计算资源的使用。实际上,如果每个模块/功能负责其自己的图像分析以识别其所依赖的特征,则添加到导航系统的每个附加模块/功能都可以添加图像分析组件(例如,可以与逐像素检查和分类相关联的组件)。假设每个捕获的帧包括数百万像素,每秒捕获多个帧,并且这些帧被提供给数十或数百个不同的模块/功能以进行分析,那么用于跨许多功能/模块并且以适合于驾驶的速率(例如,至少与帧被捕获的速率一样快)执行分析的计算资源可能是相当大的。在许多情况下,考虑到硬件约束等,图像分析阶段的计算要求可以限制导航系统能够提供的功能或特征的数量。
所描述的实施例包括图像分析架构,以解决车辆导航系统中的这些挑战。例如,所描述的实施例可以包括统一的(unified)图像分析框架,其可以从单独的导航系统模块/功能中移除图像分析负担。这种统一的图像分析框架例如可以包括单个图像分析层,该图像分析层接收捕获的图像帧作为输入,分析并表征与捕获的图像帧相关联的像素,并提供经表征的图像帧作为输出。然后可以将经表征的图像帧提供给导航系统的多个不同功能/模块,用于基于经表征的图像帧来生成和实现适当的导航动作。
在一些实施例中,可以分析图像的每个像素,以确定该像素是否与主车辆的环境中的某些类型的对象或特征相关联。例如,可以分析图像或图像的部分内的每个像素,以确定它们是否与主车辆的环境中的另一车辆相关联。可以为每个像素确定附加信息,例如该像素是否对应于车辆的边、车辆的面等。这种信息可以允许对边界框(bounding box)进行更准确地识别和更适当地定方位,可以出于导航目的,在检测到的车辆周围绘制这些边界框。
图27示出了与所公开的实施例一致的对与目标车辆相关联的像素执行的示例分析。图27可以表示由诸如图像获取单元120的图像捕获设备捕获图像或图像的部分。该图像可以包括主车辆(例如如上所描述的车辆200)的环境内的车辆2710的表示。图像可以由多个单独的像素组成,例如像素2722和2724。导航系统(例如,处理单元110)可以对每个像素进行分析以确定其是否与目标车辆相关联。如本文所使用的,目标车辆可以指在主车辆的环境内的具有相对于主车辆导航的潜在性的车辆。这可以排除例如在拖车或运载工具上运输的车辆、车辆的映像或者可以在图像中检测到的车辆的其他表示,如下面更详细讨论的。可以对捕获图像的每个像素执行分析,或者可以对相对于捕获图像的识别的候选区域内的每个像素执行分析。
导航系统还可以被配置为分析每个像素以确定其他相关信息。例如,可以对被确定为与目标车辆相关联的每个像素进行分析,以确定该像素与车辆的哪个部分相关联。这可以包括确定像素是否与车辆的边相关联。例如,如图27所示,车辆2710可以与图像中表示的边2712相关联。当对像素2724进行分析时,导航系统可以确定像素2724是边界像素,并因此包括边2712。在一些实施例中,还可以对像素进行分析以确定它们是否与车辆的面相关联。术语“边界(boundary)”、“边(edge)”和“面(face)”与由导航系统定义的虚拟形状有关,并且该虚拟形状至少部分地与感兴趣的对象(并且在该示例中为车辆2710)接壤或将其围绕。该形状可以采用任何形式,并且可以是固定的或特定于对象类型(type)或对象类(class)的。通常地,举例来说,该形状可以包括紧密贴合感兴趣的对象的轮廓周围的矩形。在其他示例中,对于至少一些对象类,3D框和框的每个面可以紧密界定(bound)主车辆的环境中的3D对象的对应面的面。在该特定示例中,3D框界定车辆2710。
因此,例如,导航系统可以对像素2722进行分析以确定它落在车辆2710的面2730上。导航系统还可以确定距像素2722的一个或多个估计的距离值。在一些实施例中,可以估计从像素2722到面2730的边的一个或多个距离。在3D框的情况下,可以确定从给定像素到界定该像素的3D框的面的边的距离。例如,导航系统可以估计到面2730的侧边的距离2732和到面2730的底边的距离2734。该估计可以基于车辆的哪个部分2722被确定为表示面2730,以及从车辆的这个部分到面2730的边的典型尺寸。例如,像素2722可以对应于由系统识别的保险杠的特定部分。其他像素(例如表示牌照、尾灯、轮胎、排气管等的像素)可以与不同的估计的距离相关联。尽管没有在图27中示出,但是可以估计各种其他距离,包括:到面2730的顶边的距离、到前边或后边的距离(取决于车辆2710的方位(orientation))、到车辆2710的边2712的距离等。这些距离可以用任何合适的单位来测量,以便由导航系统进行分析。在一些实施例中,这些距离可以相对于图像以像素为单位来测量。在其他实施例中,这些距离可以表示相对于目标车辆测量的真实世界距离(例如,以厘米、米、英寸、英尺等为单位)。
处理单元110可以使用任何合适的方法来提供以上描述的基于像素的分析。在一些实施例中,导航系统可以包括经训练的神经网络,该神经网络根据神经网络的训练协议来表征图像内的单独的像素。用于训练神经网络的训练数据集可以包括多个包括车辆的表示的捕获图像。可以根据神经网络应该识别的预定特性集来检查和表征图像的每个像素。例如,每个像素可以被分类以指示其是否为目标车辆的表示的一部分、其是否包括目标车辆的边、其是否表示目标车辆的面、从像素到面的边的测量距离(可以以像素或现实世界距离来测量)或其他相关信息。指定的图像可以用作神经网络的训练数据集。
产生的经训练的模型可以用于对与像素或像素集群相关联的信息,以识别其是否表示目标车辆、其是否在车辆的面上或边上、到面的边的距离或其他信息。尽管本公开通篇将该系统描述为神经网络,但是可以使用各种其他机器学习算法,包括逻辑回归、线性回归、回归、随机森林、K-最近邻(KNN)模型、K-均值模型、决策树、cox比例风险回归模型、朴素贝叶斯模型、支持向量机(SVM)模型、梯度提升算法、深度学习模型或任何合适形式的机器学习模型或算法。
基于每个像素到目标车辆2710的边界或面的映射,导航系统可以更准确地确定车辆2710的边界,这可以允许主车辆准确地确定一个或多个适当的导航动作。例如,系统可以能够确定由边2712表示的车辆的完整边界。在一些实施例中,导航系统可以确定车辆的边界框2720,其可以表示图像内车辆的边界。基于对每个像素的分析而确定的边界框2720可以比常规的对象检测方法更准确地定义车辆2710的边界。
此外,系统可以确定带有方位的边界,其更准确地表示目标车辆的方位。例如,基于对车辆2710的面2730内的像素(例如,像素2722)的组合分析,可以估计面2730的边。通过识别图像中表示的车辆2710的离散的面,系统可以更准确地确定边界框2720的方位,使得它对应于车辆2710的方位。边界框的方位的改善准确度可以改善系统确定适当导航动作响应的能力。例如,对于从面向侧面的相机检测到的车辆,边界框的不适当方位可能不适当地指示该车辆正朝着主车辆行驶(例如,切入场景)。所公开的技术在以下情况下可能特别有益:目标车辆占据大部分(如果不是全部)捕获图像(例如,不存在用以表明边界框的方位的车辆的至少一个边)、目标车辆的映像被包含在图像中、车辆被拖车或运载工具运载等。
图28是与所公开的实施例一致的包括车辆2810的部分表示的示例图像2800的图示。如图所示,图像2800中可能排除了车辆2810的至少一个边(或边的一部分)。在一些实施例中,这可以是由于车辆2810的一部分在相机的视场之外。在其他实施例中,车辆2810的一部分可以被例如建筑物、植被、另一车辆等遮挡而不可见。虽然图像2800中的配置是作为示例提供的,但是在一些实施例中,车辆2810可以占据图像2800的更大部分,使得一些边或所有边被排除了。
使用传统的对象检测技术,针对车辆2810检测的边界可能不准确,因为可能需要该图像中未包括的边来确定该车辆的形状和/或方位。对于车辆占据大部分或全部图像情况下的图像来说尤其如此。使用本文所公开的技术,可以对图像2800中与车辆2810相关联的每个像素进行分析,以确定边界框2820,而不管图像中是否表示了完整的车辆2810。例如,经训练的神经网络模型可以用于确定像素2824包括车辆2810的边。经训练的模型还可以确定像素2822在车辆2810的面上,类似于像素2722。系统还可以确定从像素2822到车辆的面的边的一个或多个距离,类似于以上描述的距离2732和2734。在一些实施例中,该估计的距离信息可以用于定义图像中未包括的车辆边界。例如,可以对像素2822进行分析以确定从像素2822到车辆2810的某个边的估计的距离,其中车辆2810的该边超出了图像帧的边。因此,基于对确实出现在图像中的、与车辆2810相关联的像素的组合分析,可以确定车辆2810的准确边界。该信息可用于确定主车辆的导航动作。例如,可以基于位于图像帧内的车辆部分,来确定车辆(例如,卡车、公共汽车、拖车等)的看不见的后边。因此,导航系统可以估计目标车辆需要什么间隙,来确定主车辆是否需要制动或减速、移动到相邻车道、加速等。
在一些实施例中,所公开的技术可以用于确定表示并非目标车辆的车辆的边界框,因此其不应与出于导航确定目的的边界框相关联。在一些实施例中,这可以包括由其他车辆牵引或运载的车辆。图29是与所公开的实施例一致的示出运载工具上的车辆的示例图像2900的图示。图像2900可以由主车辆的相机捕获,例如如上所描述的车辆200的图像捕获设备120。在图29所示的示例中,图像2900可以是由位于车辆200侧面的相机拍摄的侧视图像。图像2900可以包括运载工具车辆2910,其可以运载一个或多个车辆2920和2930。虽然运载工具车辆2910被示出为汽车运输拖车,但是可以识别各种其他车辆运载工具。例如,运载工具车辆2910可以包括平板拖车、牵引车、单车厢拖车、倾斜车厢运载工具、鹅颈拖车、落甲板拖车、楔形拖车、汽车装运列车车厢、或用于运输另一车辆的任何其他车辆。
使用以上所描述的技术,可以对图像中的每个像素进行分析以识别车辆的边界。例如,如上所描述,可以对与运载工具车辆2910相关联的像素以确定运载工具车辆2910的边界。该系统还可以对与车辆2920和2930相关联的像素进行分析。基于对像素的分析,系统可以确定车辆2920和2930不是目标车辆,并因此不应该与边界框相关联。可以通过各种方式执行这种分析。例如,可以使用包括被运载车辆的图像的训练数据集,来训练如上所描述的经训练的神经网络。与图像中的被运载车辆相关联的像素可以被指定为被运载车辆或非目标车辆。因此,经训练的神经网络模型可以基于图像2900中的像素,来确定车辆2920和2930正在运载工具车辆2910上被运输。例如,可以训练神经网络,使得车辆2920或2930内的像素与车辆2910的边相关联,而不是与车辆2920或2930的边相关联。因此,可以不为被运载的车辆确定边界。还可以使用其他技术将车辆2920和2930识别为被运载的车辆,例如,基于车辆相对于车辆2910的位置、车辆的方位、车辆相对于图像中其他元素的位置等。
在一些实施例中,系统可以类似地确定图像内的车辆映像(reflection)不应该被视为目标车辆,并因此可以不确定映像的边界。图30A和图30B示出了与所公开的实施例一致的包括车辆映像的示例图像3000A和3000B。在一些实施例中,映像可以基于道路的表面。例如,如图30A所示,图像3000A可以包括在反射性或至少部分反射性的表面上(例如潮湿的道路)驾驶的车辆3010。因此,图像3000A还可以包括车辆3010的映像3030。这种映像在自动车辆系统中可能是有问题的,因为在一些情况下,映像3030可能被系统解释为目标车辆。因此,映像3030可以与其自身的边界框相关联,并且可以在车辆导航决策中考虑该映像3030。例如,主车辆200可以确定映像3030比车辆3010近得多,这可以导致车辆200做出不必要的导航动作(例如,施加制动、执行车道改变等)。
使用所公开的方法,可以对与映像3030相关联的像素进行分析,以确定映像3030不是目标车辆,并且因此不应该确定该映像车辆的边界。这可以类似于以上描述的关于运载工具上的车辆的方法来执行。例如,可以使用包含车辆映像的图像来训练神经网络模型,使得与映像相关联的单独的像素可以被识别为指示映像或者不指示目标车辆。因此,经训练的模型可以能够区分与目标车辆(例如车辆3010)和映像3030相关联的像素。在一些实施例中可以基于映像的方位、其相对于车辆3010的位置、其相对于图像3000A的其他元素的位置等,将映像3030识别为映像。该系统可以确定与车辆3010相关联的边界框3020,但是可以不确定与映像3030相关联的边界框或其他边界。虽然映像3030在上面被描述为出现在潮湿的道路表面上,但是映像也可以出现在其他表面上,例如金属或其他反射性表面、由于加热的道路表面而引起的海市蜃楼映像等。
除了在道路上的映像之外,还可以基于其他表面的映像来检测车辆的映像。例如,如图30B所示,车辆的映像可以出现在另一车辆的表面上的图像内。图像3000B可以表示由车辆200的相机(例如侧视相机)捕获的图像。图像3000B可以包括另一车辆3050的表示,在该示例中,该车辆3050可以在车辆200旁边行驶。车辆3050的表面可以是至少部分反射性的,使得第二车辆的映像3060可以出现在图像3000B中。映像3060可以是出现在车辆3050表面的主车辆200的映像,或者可以是另一目标车辆的映像。类似于映像3030,系统可以对与映像3060相关联的像素进行分析,以确定映像3060不代表目标车辆,并且因此不应该为映像3060确定边界。例如,可以训练神经网络,使得映像3060内的像素与车辆3050的边相关联,而不是与映像车辆的表示的边相关联。因此,可以不为映像3060确定边界。一旦映像3060被识别为映像,出于确定导航动作的目的,可以将它忽略。例如,如果映像的运动似乎朝着主车辆移动,则主车辆可以不制动或执行其他导航动作,然而如果该运动是由目标车辆执行的,则主车辆可能会执行这些导航动作。虽然映像3060在图30B中被表示为出现在罐式车的侧面,但是它还可以出现在其他表面中,例如另一车辆的闪亮涂漆表面(例如,门、侧板、保险杠等)、镀铬表面、另一辆车的玻璃表面(例如,窗户等)、建筑物(例如,建筑物窗户、金属表面等),或者可以反射出目标车辆的图像的任何其他反射性表面。
图31A是示出与所公开的实施例一致的基于对图像中像素的分析来导航主车辆的示例过程3100的流程图。如上所描述,过程3100可以由至少一个处理设备执行,例如处理单元110。应当理解,遍及本公开的术语“处理器”被用作“至少一个处理器”的简写。换句话说,处理器可以包括执行逻辑操作的一个或多个结构,无论这些结构是并置的、连接的还是分布的。在一些实施例中,非暂时性计算机可读介质可以包含指令,当由处理器执行时,这些指令使得处理器执行过程3100。此外,过程3100不一定限于图31A所示的步骤,并且遍及本公开的描述的各种实施例的任何步骤或过程也可以包括在过程3100中,包括以上关于图27-图30B所描述的那些步骤或过程。
在步骤3110中,过程3100可以包括从主车辆的相机接收表示主车辆的环境的至少一个捕获图像。例如,图像获取单元120可以捕获表示主车辆200的环境的一个或多个图像。所捕获图像可以对应于诸如以上关于图27-图30B所描述的那些图像。
在步骤3120中,过程3100可以包括对至少一个捕获图像的一个或多个像素进行分析,以确定该一个或多个像素是否表示目标车辆的至少一部分。例如,可以如上所描述地,对像素2722和2724进行分析,以确定这些像素表示车辆2710的一部分。在一些实施例中,可以对捕获图像的每个像素执行分析。在其他实施例中,可以对像素子集执行分析。例如,可以对相对于捕获图像而识别的目标车辆候选区域的每个像素执行分析。如下文详细描述的,可以例如使用过程3500来确定这种区域。可以使用各种技术执行分析,包括如上所描述的经训练的系统。因此,可以包括一个或多个神经网络的经训练的系统可以执行对一个或多个像素的至少一部分分析。
在步骤3130中,过程3100可以包括对于被确定为表示目标车辆的至少一部分的像素,确定从该一个或多个像素到目标车辆的面的至少一个边的一个或多个估计的距离值。例如,如上所描述,处理单元110可以确定像素2722表示车辆2710的面2730。因此,可以确定到面2730边的一个或多个距离,例如距离2732和2734。例如,距离值可以包括从特定像素到目标车辆的前边、后边、侧边、顶边或底边中的至少一者的距离。距离值可以基于图像以像素来测量,或者可以以相对于目标车辆的真实世界的距离来测量。在一些实施例中,过程3100还可以包括确定该一个或多个像素是否包括边界像素,该边界像素包括目标车辆的至少一个边的至少一部分的表示。例如,如上所描述,像素2724可以被识别为包括边2712的表示的像素。
在步骤3140中,过程3100可以包括基于对一个或多个像素的分析,来生成相对于目标车辆的边界的至少一部分,所述分析包括所确定的与一个或多个像素相关联的一个或多个距离值。例如,步骤3140可以包括确定由边3712表示的边界的一部分,如图27所示。这可以基于对图像内的与目标车辆2710相关联的所有像素的组合分析来确定。例如,可以根据基于车辆的面上所包括的像素而生成的所估计的距离值以及被识别为包括边3712的像素的组合,对边3712进行估计。在一些实施例中,边界的该部分可以包括边界框(例如边界框2720)的至少一部分。
过程3100可以在特定场景中执行,以改善目标车辆的所确定的边界的准确性。例如,在一些实施例中,目标车辆的至少一个边(或一个或多个边)的至少一部分可能未被表示在捕获图像中,如图28所示。使用过程3100,可以基于确实出现在图像中的、与目标车辆(例如,车辆2810)相关联的像素,来确定该目标车辆的边界。在一些实施例中,过程3100还可以包括基于对捕获图像的分析来确定目标车辆是否由另一车辆或拖车运载,如以上关于图29所描述。因此,处理单元110可以不确定被运载车辆的边界。类似地,过程3100可以包括基于对捕获图像的分析,来确定目标车辆是否包括在至少一个图像中的映像表示中,如以上关于图30A和图30B所描述。在这样的实施例中,处理单元110可以不确定车辆映像的边界。
在一些实施例中,过程3100可以包括基于以上分析的附加步骤。例如,过程3100可以包括确定相对于目标车辆所生成的边界的至少一部分的方位。如上所描述,可以基于与目标车辆相关联的每个像素的组合分析来确定方位,所述分析包括与目标车辆相关联的一个或多个识别的面。所确定的方位可以指示由目标车辆正在执行或将要执行的动作(或未来动作或状态)。例如,所确定的方位可以指示目标车辆相对于主车辆的横向移动(例如,变道操纵)或者目标车辆朝向主车辆的路径进行的操纵。过程3100还可以包括基于该边界的至少一部分的所确定的方位来确定主车辆的导航动作,并使车辆实现所确定的导航动作。例如,所确定的导航动作可以包括并道操纵、制动操纵、加速操纵、变道操纵、转弯或其他回避操纵等。在一些实施例中,过程3100还可以包括确定边界的该部分到主车辆的距离。这可以包括确定边界的该部分在图像内的位置,并基于该位置估计到主车辆的距离。遍及本公开所描述的各种其他技术也可以用于确定该距离。过程3100还可以包括使车辆至少基于所确定的距离来实现导航动作。
在一些实施例中,过程3100可以包括基于被分析的像素,来确定关于目标车辆的信息。例如,过程3100可以包括确定目标车辆的类型,并输出目标车辆的类型。目标车辆的这种类型可以包括公共汽车、卡车、自行车、摩托车、货车、汽车、建筑车辆、应急车辆或其他类型的车辆中的至少一种。可以基于边界的该部分的尺寸,来确定目标车辆的类型。例如,包含在边界内的像素的数量可以指示目标车辆的类型。在一些实施例中,该尺寸可以基于基于边界的该部分所估计的真实世界尺寸。例如,如上所描述,可以基于与车辆相关联的、在图像中出现的像素,来估计到车辆边的距离。基于该分析,尽管在图像帧之外,也可以确定车辆的准确边界。
如以上关于图27所描述,导航系统可以被配置为对图像中目标车辆的部分表示进行分析,并确定图像中未包括的目标车辆的边界。这对于导航动作的确定是很重要的。图31B是示出与所公开的实施例一致的基于图像中车辆的部分表示来导航主车辆的示例过程3150的流程图。过程3150可以由至少一个处理设备执行,例如如上所描述的处理单元110。在一些实施例中,非暂时性计算机可读介质可以包含指令,当由处理器执行时,这些指令使得处理器执行过程3150。此外,过程3150不一定限于图31B所示的步骤,并且遍及本公开所描述的各种实施例的任何步骤或过程也可以包括在过程3150中,包括以上关于图27-图31A所描述的那些步骤或过程。
在步骤3160中,过程3150可以包括从主车辆的相机接收表示主车辆的环境的至少一个捕获图像。例如,图像获取单元120可以捕获表示主车辆200的环境的一个或多个图像。捕获图像可以对应于以上关于图28所描述的图像2800。
在步骤3170中,过程3150可以包括对至少一个捕获图像的一个或多个像素进行分析,以确定该一个或多个像素是否表示目标车辆。在一些实施例中,目标车辆的至少一部分可能未被表示在至少一个捕获图像中。例如,目标车辆可以对应于车辆2810,并且车辆2810的一部分可以未包含在图像2800中,如图28所示。类似于过程3100,经训练的系统执行对一个或多个像素的分析的至少一部分。例如,如上所描述,经训练的系统可以包括一个或多个神经网络。
在步骤3180中,过程3150可以包括确定从主车辆到目标车辆的估计的距离。该估计的距离可以至少部分地基于目标车辆的未被表示在该至少一个捕获图像中的部分。例如,步骤3180可以包括确定未被表示在至少一个捕获图像中的、目标车辆的至少一个边界的位置。该边界可以根据以上描述的过程3100来确定。因此,可以基于对一个或多个像素的分析来确定至少一个边界。例如,可以使用经训练的神经网络来对包含在至少一个捕获图像中的每个像素(或与目标车辆相关联的像素子集)进行分析。对于被确定为与目标车辆相关联的像素,步骤3180可以包括确定从像素到至少一个边界的至少一个距离。在一些实施例中,至少一个边界可以是目标车辆的整体边界的一部分。从主车辆到目标车辆的所估计的距离可以是从主车辆到该至少一个边界的估计的距离。
如以上关于图28所描述,过程3150还可以包括基于估计的距离来实现导航动作。例如,估计的距离可以是从主车辆到目标车辆的后边(例如,公共汽车、拖车、卡车等的后面)的距离。后边可以对应于至少一个边界,并且因此可以未包含在图像中。尽管该后边不可见,导航系统仍然可以被配置为确定该后边的位置并基于该后边执行导航动作。例如,导航动作可以包括制动操纵(例如,增加主车辆和目标车辆之间的间隙距离)、变道操纵、回避操纵、加速操纵或基于估计的距离可能需要的各种其他操纵中的至少一种,包括遍及本公开所描述的其他导航动作。
图32A是示出与所公开的实施例一致的基于包含车辆映像的图像中的像素分析来导航主车辆的示例过程3200的流程图。过程3200可以由至少一个处理设备执行,例如如上所描述的处理单元110。在一些实施例中,非暂时性计算机可读介质可以包含指令,当由处理器执行时,这些指令使得处理器执行过程3200。此外,过程3200不一定限于图32A所示的步骤,并且遍及本公开所描述的各种实施例的任何步骤或过程也可以包括在过程3200中,包括以上关于图30A和图30B所描述的那些步骤或过程。
在步骤3210中,过程3200可以包括从主车辆的相机接收表示主车辆的环境的至少一个捕获图像。例如,图像获取单元120可以捕获表示主车辆200的环境的一个或多个图像。在一些实施例中,如上所描述,捕获图像可以对应于图像3000B。
在步骤3220中,过程3200可以包括对至少一个捕获图像的两个或更多个像素进行分析,以确定该两个或更多个像素是否表示第一目标车辆的至少一部分和第二目标车辆的至少一部分。在一些实施例中,可以对捕获图像的每个像素执行分析。在其他实施例中,可以对像素子集执行分析。例如,可以对相对于捕获图像而识别的目标车辆候选区域的每个像素执行分析。可以例如使用过程3500来确定这种区域,如下所述。可以使用各种技术执行分析,包括如上所描述的经训练的系统。因此,可以包括一个或多个神经网络的经训练的系统可以执行对一个或多个像素的至少一部分的分析。
在步骤3230中,过程3200可以包括确定第二目标车辆的该部分被包含在第一目标车辆的表面上的映像表示中。例如,第二目标车辆的该部分可以对应于出现在车辆3050的表面上的映像3060。虽然车辆3050在图32中被示为罐式车车辆,但是应当理解,第一目标车辆可以包括汽车、卡车、货车、公共汽车、应急车辆、建筑车辆或者可以包括反射性表面的任何其他类型的车辆。
在步骤3240中,过程3200可以包括基于对两个或更多个像素的分析以及第二目标车辆的该部分被包含在第一目标车辆的表面上的映像表示中的确定,生成相对于第一目标车辆的边界的至少一部分以及不生成相对于第二目标车辆的边界。例如,步骤3240可以包括为车辆3050生成边界,而不为映像3060生成边界。因此,如上所描述,出于确定导航动作的目的,可以忽略第二车辆的感知运动。为第一车辆生成的边界可以根据如上所描述的过程3100来生成。因此,以上关于过程3100所描述的任何步骤也可以作为过程3200的一部分来执行。在一些实施例中,边界可以包括边界框的至少一部分。
图32B是示出与所公开的实施例一致的基于对包含被运载车辆的图像中的像素的分析来导航主车辆的示例过程3250的流程图。过程3250可以由至少一个处理设备执行,例如如上所描述的处理单元110。在一些实施例中,非暂时性计算机可读介质可以包含指令,当由处理器执行时,这些指令使得处理器执行过程3250。此外,过程3250不一定限于图32B所示的步骤,并且遍及本公开所描述的各种实施例的任何步骤或过程也可以包括在过程3250中,包括以上关于图29所描述的那些步骤或过程。
在步骤3260中,过程3250可以包括从主车辆的相机接收表示主车辆的环境的至少一个捕获图像。例如,图像获取单元120可以捕获表示主车辆200的环境的一个或多个图像。在一些实施例中,如上所描述,捕获图像可以对应于图像2900。
在步骤3270中,过程3250可以包括对至少一个捕获图像的两个或更多个像素进行分析,以确定该两个或更多个像素是否表示第一目标车辆的至少一部分和第二目标车辆的至少一部分。在一些实施例中,可以对捕获图像的每个像素执行分析。在其他实施例中,可以对像素子集执行分析。例如,可以对相对于捕获图像而识别的目标车辆候选区域的每个像素执行分析。可以例如使用过程3500来确定这种区域,如下所述。可以使用各种技术执行分析,包括如上所描述的经训练的系统。因此,可以包括一个或多个神经网络的经训练的系统可以执行一个或多个像素的至少一部分的分析。
在步骤3280中,过程3250可以包括确定第二目标车辆被第一目标车辆运载或牵引。例如,第一车辆可以对应于车辆2910,第二车辆可以对应于车辆2920或2930之一。虽然车辆2910在图29中被示为汽车运输拖车,但是应当理解,第一目标车辆可以包括牵引车、拖车、露天运载车、平板车或可以运载或牵引其他车辆的任何其他类型的车辆。
在步骤3290中,过程3250可以包括基于对两个或更多个像素的分析以及第二目标车辆被第一目标车辆运载或牵引的确定,生成相对于第一目标车辆的边界的至少一部分以及不生成相对于第二目标车辆的边界。例如,步骤3290可以包括为车辆2910生成边界,而不为车辆2920和/或车辆2930生成边界。为第一车辆生成的边界可以根据如上所描述的过程3100来生成。因此,以上关于过程3100所描述的任何步骤也可以作为过程3250的一部分来执行。在一些实施例中,边界可以包括边界框的至少一部分。
在一些实施例中,以上所描述的过程中的一个或多个可以在迭代过程中执行。从第一图像中确定的目标车辆的边界可以与后续图像相关联地使用,以确定该目标车辆的第二边界。第一边界可以被用作用来确定第二边界的“捷径(shortcut)”(即,减少处理时间和计算要求)。例如,可以预期第二边界在它们各自的图像内处于与第一边界相似的位置。预期的相似度可以取决于以下因素,诸如第一图像和第二图像被捕获之间的时间、主车辆和/或目标车辆行驶的速度等。在一些实施例中,稍后捕获图像可以被用于细化初始边界,以改善所确定的边界的准确性。例如,如果车辆被图像的边部分地切断,那么随着该车辆移动到相机的视场内,更多的像素可以被包含在第二图像中。基于过程3100和以上所描述的各种其他技术,附加像素信息可以提供更好的边界估计。
图33是示出与所公开的实施例一致的基于对一系列图像中的像素的分析来导航主车辆的示例过程3300的流程图。过程3300可以由至少一个处理设备执行,例如如上所描述的处理单元110。在一些实施例中,非暂时性计算机可读介质可以包含指令,当由处理器执行时,这些指令使得处理器执行过程3300。此外,过程3300不一定限于图33所示的步骤,并且遍及本公开所描述的各种实施例的任何步骤或过程也可以包括在过程3300中,包括以上关于过程3100所描述的那些步骤或过程。
步骤3310-3330可以对应于如上所述的过程3100的步骤3110-3140。例如,在步骤3310中,过程3300可以包括从主车辆的相机接收表示主车辆的环境的第一捕获图像。在步骤3320中,过程3300可以包括对第一捕获图像的一个或多个像素进行分析,以确定该一个或多个像素是否表示目标车辆的至少一部分,并且对于被确定为表示目标车辆的至少一部分的像素,确定从一个或多个像素到目标车辆的面的至少一个边的一个或多个估计的距离值。例如,如上所描述,估计的距离值可以对应于距离2732和2734。在步骤3330,过程3300可以包括基于对第一捕获图像的一个或多个像素的分析,包括所确定的与第一捕获图像的一个或多个像素相关联的一个或多个距离值,生成相对于目标车辆的第一边界的至少一部分。第一边界的该部分可以对应于在过程3100的步骤3140中确定的边界。因此,以上关于过程3100提供的任何步骤或描述也可以应用于过程3300。
在步骤3340,过程3300可以包括从主车辆的相机接收表示主车辆的环境的第二捕获图像。在一些实施例中,第二捕获图像可以在第一捕获图像之后的预定时间被捕获。例如,预定时间段可以基于相机的帧速率。
在步骤3350,过程3300可以包括对第二捕获图像的一个或多个像素进行分析,以确定该一个或多个像素是否表示目标车辆的至少一部分。在一些实施例中,这可以包括对第二捕获图像内的所有像素进行分析。在其他实施例中,可以仅对子集进行分析。例如,可以对被确定为与目标车辆相关联的所有一组像素进行分析。在一些实施例中,可以基于第一边界来选择该子集。例如,步骤3350中的分析可以集中于所识别的第一边界内或附近的像素上。如同步骤3320,步骤3350可以包括对于被确定为表示目标车辆的至少一部分的像素,确定从一个或多个像素到目标车辆的面的至少一个边的一个或多个估计的距离值。
在步骤3360中,过程3300可以包括基于对第二捕获图像的一个或多个像素的分析(包括所确定的与第二捕获图像的一个或多个像素相关联的一个或多个距离值),并且基于该第一边界,来生成相对于目标车辆的第二边界的至少一部分。在一些实施例中,第二边界可以是第一边界的经调整版本。例如,第二边界可以基于该目标车辆在图像帧内的更新后的位置。例如,基于包含在第二捕获图像中的附加信息,诸如在第二捕获图像中表示目标车辆的附加像素,该第二边界可以是第一边界的细化版本。
以上关于图27-图33所描述的各种过程与以下相关联:对图像的每个像素进行分析,以识别图像内的目标车辆并确定与目标车辆相关联的边界。因此,图像的区域可以被分类为与目标车辆相关联。使用所公开的技术,图像的各种其他对象或区域也可以被分类为如上所描述的统一图像分析框架的一部分。例如,单个图像分析层可以接收捕获的图像帧作为输入,对与捕获的图像帧相关联的像素进行分析和表征,并提供经表征的图像帧作为输出。然后可以将经表征的图像帧提供给导航系统的多个不同功能/模块,用于基于经表征的图像帧来生成和实现适当的导航动作。
在一些实施例中,以上所描述的过程的一些或全部(例如,过程3100)可以作为图像分析层的部分来执行。例如,过程3100可以被用于将图像的一部分表征为是与车辆相关联的,其可被提供给功能或模块以用于进一步处理。在其他实施例中,过程3100的一些或全部可以在已经应用了图像分析层之后执行。例如,过程3100可以仅对图像中已经被表征为与车辆相关联的像素子集进行分析。
为了提供所公开的导航系统的图像分析层,可以使用能够接收捕获图像帧并输出经表征的图像的任何合适的系统。在一些情况下,图像分析层可以包括经训练的神经网络,该神经网络根据神经网络的训练协议对捕获图像的片段进行表征。
用于训练神经网络的训练数据集可以包括任何合适的数据集。在一些情况下,训练数据可以包括已经根据该神经网络应该识别的预定特性集而被检查和表征的多个捕获图像。这种表征可以例如由一个或多个人类检查员来执行,这些检查员对训练数据集中的捕获图像进行分析,将该捕获图像的片段与感兴趣的预定特性集(例如,道路、非道路、植被、对象、行人、车辆、车轮、车门边以及许多其他)进行比较,并且指定该捕获图像中与每个感兴趣的特性相关联的像素。经过指定的图像可以被用作神经网络的训练数据集。因此,并非多个独立的过程应用单独的神经网络来识别对象的不同分类并执行相关联的分析,而是该图像分析层神经网络可以在初始分析中对图像的各种部分进行分类。
神经网络的有效性和准确性可以取决于训练数据集内可用训练数据的质量和数量。因此,可以通过采用大的训练数据集(例如,包括数百、数千或数百万个经过指定的捕获图像)来提供优势。然而,生成如此大的数据集可能是不切实际或不可能的。此外,这种手动检查和指定技术缺乏灵活性,因为即使添加一个新的特征以便进行表征(例如,井盖识别能力)也需要重新指定数百、数千、数百万个图像等。这种方法成本高且速度慢。
为了解决这一挑战,本系统可以采用一系列图像分析算法,这些算法被设计成在捕获图像中专门识别环境的预定特性。基于该识别,可以在逐个像素的基础上自动地对捕获图像进行指定,以指示哪些像素或像素片段对应于环境中的每个感兴趣特征。这种指定可以导致捕获图像具有被指定为与感兴趣的特定特征相关联的图像像素部分;或者可以导致图像的完整指定,使得所有像素被指定为与车辆环境的至少一个特征相关联。这种用于图像分析和指定的自动系统可以显著提高可以生成训练数据集的速度和大小。
可以使用各种图像分析算法来识别预定特性。在一些实施例中,图像分析算法可以被配置成基于图像内的确定的结构,来检测主车辆的环境内的特征。在一些实施例中,可以基于在图像序列当中可以显而易见的“视差”效果来确定该结构。这种系统通常使用来自同一相机的、不同的时间段的多个图像。当车辆移动时,相机的运动可以提供不同的视角(例如,信息),经训练的神经网络可以使用这些视角来产生环境的三维(3D)模型。
作为初始步骤,可以使用将图像变换为归一化状态(例如,校正相机透镜失真)、按顺序对齐图像之间的像素(例如,经由单应性(homography)来对稍早的图像进行扭曲(warp)以在很大程度上匹配稍晚的图像)、以及测量剩余像素运动(例如,残差运动)的迭代过程,来对环境进行建模。一旦已经将图像序列归一化,这些图像内的残差运动(表示为)可以如下计算:
其中术语是“γ”——像素在平面(例如,道路表面)上方的高度H与像素到传感器的距离Z的比值,TZ表示传感器在向前方向上的平移(例如,车辆在图像之间移动了多远),d′π表示传感器离该平面的高度,表示极点(epipole)信息(例如,车辆行驶到哪里),以及表示在应用了基于单应性的扭曲之后像素的相应图像坐标。
经训练的模型(例如机器学习系统、人工神经网络(ANN)、深度ANN(DNN)、卷积神经网络(CNN)等)可以被开发,以直接从图像序列中计算与图像中的每个像素相关联的γ或高度信息。例如,可以将图像序列(例如,当前图像和两个先前图像)输入到经训练的模型中,并且可以确定每个像素的高度,从而指示图像的结构。该结构数据可用于训练神经网络。
可能出现的一个问题涉及场景内移动的对象,例如其他车辆。当相机视角在场景内移动时,固定对象倾向于以可预测的方式平移。例如,对于垂直对象,如灯杆,当相机靠近时,灯杆的底部随着道路表面移动,而灯杆的顶部可能看起来移动得比道路表面快。可能出现的一个问题涉及场景内移动的对象,例如其他车辆。
移动对象和固定对象之间的不同响应可以导致神经网络训练中的伪迹(artifact),这可以影响环境模型的准确性。一种克服这种情况的技术可以涉及识别移动对象,然后在训练图像中忽略(例如,掩蔽(mask))它们以减少其对训练的影响。这类似于仅仅基于网络针对图像中所表示的该环境的固定(例如,静态、非移动)区域的输出来惩罚或奖励该网络。然而,这种掩蔽可以导致一些问题。例如,结果通常不具有关于移动对象的有用的3D信息。此外,不同的伪迹可以出现在输出中,例如在不存在孔洞(例如,凹陷)的移动对象附近处预测出孔洞。此外,因为待解决的移动对象通常是相机前面的车辆,所以网络可能被无意地训练成擦除(例如,忽略)直接在相机前面的对象,而不管这些对象是移动的还是固定的。
为了解决上面提到的一些问题,用于训练网络的多个图像帧可以是在一个时间点从多个相机拍摄的,而不是在多个时间点从一个相机拍摄的。因为不同的视角是同时捕获的,所以移动和非移动的对象之间不再有区别。相反,变化的视角可以用于对场景中所有对象的3D特性进行建模,以提供用于训练神经网络的真值(ground-truth)。
在第一操作中,在提供图像的相机之间确定校准(例如,RT)。这可以使用对来自角(corner)相机的帧中可见的3D信息的一些初始理解来实行,以将滚动快门图像重新绘制为全局快门图像。例如,滚动快门校正使用场景的3D信息、每行像素的曝光时间、以及相机在时间戳周围的自我运动(Egomotion)。这可以通过相对朴素的3D信息来实现,例如假设所有像素都在平面上;或者可以通过更丰富的3D信息来实现,例如在该相机上训练不同的视差模型并使用其输出进行校正。
接下来,可以使用该平面和RT(例如,单应性),将来自左侧和右侧的图像扭曲到当前帧。现在,在损失计算中,可以使用来自经扭曲的侧面帧的像素和来自神经网络的3D信息,来渲染当前帧的新版本。该结果可以与真实的当前帧(例如,来自主相机)进行比较,以确定两者的部分匹配的程度。
接下来,可以遵循两条路径。可以使用来自环绕(surround)相机的跨整个图像的损失;或者来自环绕相机的损失可以仅在移动对象掩蔽内部使用。
在一个示例中,如果滚动快门图像没有被重新绘制为全局快门图像,如上所描述,则滚动快门可以在此处被校正。在此迭代处使用自我运动、每行的曝光时间、以及来自神经网络的输出的3D信息。
以上的操作可以以几种方式来使用。例如,神经网络可以被训练用于基于来自三个相机的输入进行推理,该训练使用如上所描述的损失。在另一个示例中,用于推理的输入来自单个相机(例如,来自主相机的三个帧),并且环绕图像仅被用于训练期间的光度(photometric)损失。在这个示例中,神经网络在只有主相机可用时的现场工作,并且车载架构与之前的实现方式相同。因此,芯片上的计算效率(例如,成本)是相同的。然而,神经网络现在也已经学会了如何输出关于移动对象的合理的3D信息。使用第二种方法,我们已经关于所安装硬件或性能而言基本上完全免费地添加了这个特征。
除了提供关于移动和不移动的一个或多个对象的3D信息之外,这种损失的组合可以被用于输出一掩蔽,该掩蔽指示图像中哪些像素是移动对象的部分而哪些不是。这可以通过向神经网络的输出添加另一个通道来实现。因此,不仅仅为图像中的每个像素产生3D信息,还为每个像素提供移动/非移动预测(例如,在0和1之间)。为了训练神经网络来提供该输出,神经网络被激发来推理来自主相机的原始五幅图像之间的损失(例如,附录A的技术)以及来自环绕相机的损失之间的差异有多大。因为来自环绕相机和来自主相机的损失之间的相对较大的差异(例如,经由差异比率而测量)将发生在对象正在其中移动的区域,所以鼓励较大的变化以在该附加输出通道中产生较大的值。然后,这些值可以被用作移动vs.非移动的掩蔽。使用来自环绕相机的立体信息还有其他好处。例如,由于与单个相机相比,环绕相机之间的基线(baseline)相对较宽,因此测量一定距离处的对象的3D形状时可以更准确。此外,某些纹理——诸如实体道路标记(例如,线)——主要是在相机图像运动是横向的时候给出深度信息。因此,这些实体道路标记通常不能很好地向与该道路标记成一直线的单目相机提供深度信息,而环绕相机可以非常有效地使用实体道路标记,因为相对该实体道路标记有两个不同的角度。
一旦生成了训练数据集,就可以将其提供给神经网络,从而可以验证模型。一旦神经网络被训练和验证,就可以将其用在车辆导航系统中,以用于动态对捕获图像进行分析和表征以便导航车辆。例如,由车辆上的相机捕获的每个图像可以被提供给导航系统,用于由图像分析层进行表征。该层可以识别包括在车辆的环境中并在相应的捕获图像中表示的任何或全部感兴趣的特征。如上所述,这种感兴趣的特征可以包括环境的任何特征(例如,车辆、其他对象、车轮、植被、道路、路缘(roadedge)、障碍物、道路车道标记、坑洼、焦油带、交通标志、行人、交通灯、公用基础设施、自由空间区域、自由空间类型(例如,停车场、私人车道等,这在确定非道路区域在紧急情况下是否可导航是很重要的),以及许多其他特征),车辆导航的一个或多个方面可以基于或依赖上述特征。经训练的神经网络的图像分析层的输出可以是全部或部分经指定的图像帧,其中指定了所有感兴趣特征的像素。然后,该输出可以被提供给多个不同的车辆导航功能/模块,并且每个单独的模块/功能可以依赖于经指定的图像帧来导出其提供相应导航功能所需的信息。
图34A和图34B示出了与所公开的实施例一致的可以执行的示例图像分类。具体而言,图34A表示可以由主车辆的图像捕获设备(例如图像捕获设备120)捕获的图像3400A。如图所示,图像3400A包括可以由车辆导航系统识别的几个元素,例如车辆3410A、行人3420A、柱子3422A、树3424A、道路表面3430A、人行道3432A、中央分隔带3434A、护栏3436A和车道标记3438A。图像分析层可以被配置成检测这些特征中的一些或全部,并将图像内的单独的像素分割成多个类。在一些实施例中,分类可以包括二分类,例如“汽车”车”非汽车”,其中确定每个像素是否与车辆相关联(如以上关于过程3100所描述)。在一些实施例中,分析可以将像素分类为“道路”路”非道路”,从而指示图像中的表面是否是可驾驶的道路表面。对于能够让车辆在其中行驶、但应避免在其中行驶的区域,还可以包括第三种分类。这可以包括车辆在紧急情况下可以行驶的区域(例如,草地区域、私人车道、道路附近的泥土区域、低矮的人行道等)。
可替代地,或者作为这些二分类的补充,可以根据预定类的对象或特征的列表,来对每个像素进行分类。这些类可包括但不限于汽车、卡车、公共汽车、摩托车、行人、道路、障碍物、护栏、涂漆道路表面、相对于道路抬高的区域、可驾驶道路表面、杆或可以与车辆导航系统相关的任何其他特征。图28B示出了与所公开的实施例一致的具有经分类的像素区域的图像3400B。图像3400B可以对应于已经通过图像分析层处理过后的图像3400A。例如,如上所描述,图像3400A可以将区域3410B分类为包括与车辆相关联的像素,这可以对应于过程3100的一些或全部。类似地,图像3400B可以包括被分类为包括行人的区域3420B;被分类为包括树(或植被等)的区域3424B;包括柱的区域3422B;被分类为道路表面的区域3430B;被分类为抬高的表面的区域3432B和3434B;和/或被分类为护栏的区域3436B。类似于以上关于图27中的车辆所描述的边检测,也可以确定各种对象分类的边。例如,可以确定道路表面区域3430B的边;以及柱区域3422B、抬高的区域3432B和3434B的边;和/或图像2800B内的其他特征。虽然道路表面区域3430B被示出为包括道路3430A的整个表面,但是它可以包括附加的分类,例如涂漆道路标记的分类(例如车道标记3438A)等。值得注意的是,可以基于对图像3400A内的像素的分析,对护栏3436A和中央分隔带3434A(例如,混凝土障碍物)单独地进行分类。在一些实施例中,其他传感器信息(例如RADAR数据等)也可以被用于在护栏和混凝土障碍物之间进行区分。因此,当与RADAR或类似系统结合使用时,这种分类对于帮助区分单独的特征是很重要的。
通过该初始分析(例如,如上所描述,使用经训练的神经网络)对图像中的一个或多个像素进行分类,可以避免单独的图像分析模块的重复识别任务。通过避免不同模块的重复工作,导航系统内的效率可以大大改善。这种分类还可以改善对图像内的对象和其他特征的检测的准确性。例如,通过确定像素不属于特定的类,系统可以能够更可靠地确定它属于哪个类。在一些实施例中,图像的区域可以属于更多的分类。对区域可以分配到的多个分类(以及被排除的分类)进行评估,可以允许更准确地识别特定对象。
此外,所描述的系统可以增加导航系统的灵活性,从而能够应对新的或不同的特征、子特征(例如,在识别的车辆内的识别的车门中的门把手)或特征表征,或者基于其进行导航。不仅训练数据集的自动生成可以提高生成新的训练数据集(其解决新的特征等)的速度,而且导航系统功能和模块可以很大程度上保持不变。只有图像分析层可能需要重新训练以便应对该新的特征。新的经训练的图像分析层实际上可以向后兼容于先前开发的、不依赖或不需要该新的特征的模块/功能。可以对那些能够利用由该新训练的图像分析层新识别出的特征的模块/功能进行调整或新开发。换句话说,无需修改导航系统的大部分就可以添加新功能。并且,通过在单个图像分析层中执行图像分析和分类的全部,不需要开发特定于功能/模块的图像分析算法。结果,基于车辆的环境中新识别出的类别或类的感兴趣特征的新的导航特征,可以需要很少的额外计算资源用于实现,尤其是从图像分析的角度来看。
图35是示出与所公开的实施例一致的基于对图像中像素的分析来导航主车辆的示例过程3500的流程图。过程3500可以由至少一个处理设备执行,例如如上所描述的处理单元110。在一些实施例中,非暂时性计算机可读介质可以包含指令,当由处理器执行时,这些指令使得处理器执行过程3500。此外,过程3500不一定限于图35所示的步骤,并且遍及本公开所描述的各种实施例的任何步骤或过程也可以包括在过程3500中,包括以上关于图27-图30B所描述的那些步骤或过程。
在步骤3510中,过程3500可以包括从主车辆的相机接收从主车辆的环境捕获的至少一个捕获图像。例如,图像获取单元120可以捕获表示主车辆200的环境的一个或多个图像。如上所描述,至少一个捕获图像可以对应于图像3400A。
在步骤3520中,过程3500可以包括对至少一个图像进行分析,以识别第一对象的至少一部分的表示和第二对象的至少一部分的表示。例如,过程3500可以用于检测包括在图像3400A中的对象,例如车辆3410A、行人3420A等。在一些实施例中,经训练的系统可以执行分析的至少一部分。例如,如上所描述,经训练的系统可以包括一个或多个神经网络。
在一些实施例中,对至少一个图像进行分析可以包括对至少一个图像的一个或多个像素进行分析,如上所描述。例如,可以使用经训练的神经网络来分析图像内的每个像素。因此,识别第一对象的该部分的表示可以包括识别与第一对象的表示相关联的至少一个像素,并且识别第二对象的该部分的表示可以包括识别与第二对象的表示相关联的至少一个像素。在一些实施例中,确定像素不与特定对象相关联可以帮助将其分类为与不同对象相关联。因此,在一些实施例中,至少一个图像中的与第一对象的表示相关联的至少一个像素可以不包括至少一个图像中的与第二对象的表示相关联的至少一个像素。
在步骤3530中,过程3500可以包括确定至少一个图像中的与第一对象相关联的第一区域、以及第一对象的类型。例如,该区域可以对应于图34B中描绘的区域之一。类似地,在步骤3540中,过程3500可以包括确定至少一个图像中的与第二对象相关联的第二区域、以及第二对象的类型。在一些实施例中,第一对象的类型可以不同于第二对象的类型。例如,第一对象的类型可以是车辆(例如,车辆3410A),而第二对象可以是行人(例如,行人3420A)。作为另一个示例,第一对象可以包括护栏(例如,护栏34336A),而第二对象可以包括混凝土障碍物(例如,中央分隔带3434A)。在一些实施例中,第一对象可以包括涂漆道路表面,而第二对象可以包括未涂漆道路表面。例如,该分析可以将道路表面3430A与车道标记3438A区分。在一些实施例中,过程3500可以进一步包括输出第一对象的类型或第二对象的类型。
作为另一个示例,第一对象和第二对象可以对应于图像中识别的不同区域。换句话说,第一对象可以包括主车辆的环境中的第一区域,并且第二对象可以包括主车辆的环境中的第二区域。在一些实施例中,第一区域和第二区域具有不同的标高(elevation)。基于标高的差异,来识别第一区域或第二区域中的至少一个。例如,至少一个图像可以包括在不同时间捕获的多个图像,并且基于该多个图像之间的像素比较(例如,基于以上所讨论的“γ”方程)来确定标高的差异。在一些实施例中,第一区域可以是可驾驶区域,而第二区域可以是不可驾驶区域。例如,如上所描述,不可驾驶区域可以包括未铺砌的表面、私人车道、人行道或草地区域。
对象可以基于它们的对象类型(type)而被分类到不同的类(class)之下。例如,第一对象的类型可以包括在第一对象类中,并且第二对象的类型可以包括在第二对象类中。在一些实施例中,第一对象类和第二对象类可以包括互斥对象。换句话说,第一对象类和第二对象类可以不共享任何公共对象。示例对象类可以包括汽车、卡车、公共汽车、摩托车、道路、障碍物、护栏、涂漆道路表面、相对于道路抬高的区域、可驾驶道路表面或杆中的一个或多个。应当理解,这些对象类仅作为示例提供,并且可以使用附加的或不同的对象类。
在一些实施例中,可以使用多个图像来识别图像内的对象。例如,识别第一对象的该部分的表示或第二对象的该部分的表示可以包括对由相机捕获的至少第二图像进行分析。在一些实施例中,第二图像可以在至少一个图像之后的预定时间段被捕获。预定时间可以基于分析图像之间的设定时段(例如,通过系统或用户设定)。在其他实施例中,预定时间段可以基于相机的帧速率(例如,相机可以捕获图像的最大速率或设定速率)。
在一些实施例中,车辆导航系统还可以被配置为生成与图像中检测到的对象相关联的标签、以及检测到的对象的几何形状(geometry)。如上所述,该过程可以作为图像分析层的部分来执行。例如,类似于以上所描述的过程,可以使用具有对应的对象标签和对象几何形状的图像集来训练神经网络。因此,经训练的模型可以被配置为基于输入到该模型中的一个或多个图像,来确定对象标签和/或几何形状。因此,可以使用对象标签和对象结构信息两者,来训练单个经训练的神经网络模型。在一些实施例中,输出可以具有不同的分辨率。例如,可以以比对象标签更低的分辨率来输出对象几何形状(即,结构信息)。换句话说,对象几何形状和标签可以作为图像或图像层而被输出,并且示出了对象几何形状的图像可以是比对象层图像更低分辨率的图像。在一些实施例中,系统可以基于导航要用到什么,来使得输出能够满足需要。例如,在训练模型之后,可以使用剔除方法来移除与导航系统所使用的实际输出值不相关的所有计算。
对象标签可以是包括关于在图像中检测到的对象的信息的任何数据元素。在一些实施例中,对象标签可以包括检测到的对象的类型。例如,如果在图像3400A中检测到车辆3410A(参见图34A),则图像分析层可以生成指示对象是汽车的数据标签。对象标签还可以包括其他信息,例如对象类(例如,车辆)、对象标识符或任何其他相关信息。对象标签可以以各种格式生成和表示。在一些实施例中,对象标签可以附加到图像,例如,在图像元数据等中。在其他实施例中,对象标签可以包括在数据结构中,例如数据库或类似的格式。
图36示出了与所公开的实施例一致的包括对象标签信息的示例数据库3600。作为说明性示例,数据库3600可以包括如上所描述的在图像3400A中检测到的对象。数据库3600可以包括每个检测到的对象的信息,例如对象标识符(ID)3610、对象类3620、对象类型3630和其他信息3640。对象标识符可以包括表示检测到的对象的任何字符或字符串。在一些实施例中,对象ID可以是随机或伪随机文本串。在其他实施例中,可以以结构化格式(例如,以数字顺序、基于时间和/或日期戳、基于与图像相关联的标识符、基于与主车辆相关联的标识符等)来分配对象ID。在一些实施例中,标识符对于对象的特定实例可以是唯一的。替代地或附加地,标识符可以指示对象的类型、对象的分类或其他信息。标识符可以以各种格式(例如,文本、数字、字母数字等)呈现。
数据库3600还可以包括与检测到的对象相关联的对象类。例如,由行3650指示的对象可以对应于在图像中检测到的车辆,并且因此可以被分类为车辆。数据库3600还可以包括可以从图像中检测到的对象类型。如图36所示,由行3650指示的对象可以被标签为汽车。数据库3600还可以包括关于检测到的对象的附加信息3640,其可以取决于应用而变化。例如,信息3640可以包括与对象相关联的区域的坐标(例如,由一系列顶点、像素范围等表示)。信息3640还可以包括指示检测到的对象方位的方位信息。可以包括在数据库3600中的其他信息可以包括检测到的对象的描述、时间和/或日期戳、关于图像的信息(例如,图像ID等)、关于车辆的信息(例如,车辆ID等),或任何其他可以与分析或导航目的相关的信息。数据库3600可以存储在各种位置中。例如,数据库3600可以存储在网络位置,例如与远程服务器1230相关联的存储器。在一些实施例中,数据库3600可以本地存储在车辆上,例如存储在存储器150或地图数据库160内。
图像分析层还可以被配置为确定检测到的对象的几何形状。如本文所使用的,几何形状可以指代指示对象的点、线、表面、实体或其他元素的一个或多个关系的数据。在一些实施例中,几何形状可以由多个方面组成。如本文所使用的,几何形状的一个方面可以包括定义几何形状的至少一部分的值或一组值。例如,几何形状的一个方面可以包括高度值(例如,相对于道路表面或相对于表示道路表面的平面)、长度值、宽度值、方位角、坐标点、面积测量值、体积测量值或可以表示几何形状的一部分的其他值。图像分析层可以被配置为确定检测到的对象的几何形状的一个或多个方面,其可以用于车辆导航。
图37是示出与所公开的实施例一致的基于对象标签和几何形状来导航主车辆的示例过程3700的流程图。过程3700可以由至少一个处理设备执行,例如如上所描述的处理单元110。在一些实施例中,非暂时性计算机可读介质可以包含指令,当由处理器执行时,这些指令使得处理器执行过程3700。此外,过程3700不一定限于图37所示的步骤,并且遍及本公开所描述的各种实施例的任何步骤或过程也可以包括在过程3700中,包括以上关于图34A-图35所描述的那些步骤或过程。
在步骤3710中,过程3700可以包括从主车辆的相机接收从主车辆的环境捕获的至少一个图像。例如,图像获取单元120可以捕获表示主车辆200的环境的一个或多个图像。至少一个捕获图像可以对应于如上所描述的图像3400A。
在步骤3720中,过程3700可以包括对至少一个图像进行分析以识别第一对象的至少一部分的表示和第二对象的至少一部分的表示。例如,过程3500可以用于检测图像3400A中包括的对象,例如车辆3410A、行人3420A等。在一些实施例中,经训练的系统可以执行分析的至少一部分。例如,如上所描述,经训练的系统可以包括一个或多个神经网络。
在步骤3730中,过程3700可以包括基于该分析,确定第一对象的几何形状的至少一方面和第二对象的几何形状的至少一方面。如上所描述,第一对象和第二对象的至少一个方面可以包括表示对象的几何形状的至少一部分的任何值或一组值。如上所描述,几何形状可以是经训练的神经网络的输出。在一些实施例中,几何形状可以至少部分基于根据对图像的分析所确定的对象的纹理。因此,第一对象和第二对象可以具有在图像中表示的不同的纹理,其可以至少部分地被用于分割这两个对象并且至少部分地定义它们的几何形状。例如,在一些实施例中,第一对象可以是护栏,而第二对象可以是混凝土障碍物。护栏和混凝土护栏一起可以具有相对统一的几何形状,使得很难对两者进行区分。护栏可以具有与混凝土护栏显著不同的纹理。例如,护栏可以包括横杆和间隔开的一系列柱,而混凝土障碍物可以是混凝土、砖等的相对统一的表面。可以基于纹理,将护栏和混凝土障碍物识别为单独的对象。在一些实施例中,几何形状的至少一方面可以基于单独的传感器来确定。例如,过程3700还可以包括接收来自主车辆的至少一个传感器(例如,RADAR传感器、LIDAR传感器、单独的相机(或立体相机对)、接近传感器等等)的输出,并且可以基于该输出来确定第一对象的几何形状的至少一方面或第二对象的几何形状的至少一方面。在一些实施例中,过程3600可以包括输出第一对象的几何形状的至少一方面或者第二对象的几何形状的至少一方面。
在步骤3740中,过程3700可以包括基于第一对象的几何形状的至少一方面,生成与至少一个图像中的包括第一对象的表示的区域相关联的第一标签。类似地,在步骤3750中,过程3700可以包括基于第二对象的几何形状的至少一方面,生成与至少一个图像中的包括第二对象的表示的区域相关联的第二标签。如上所描述,第一标签和第二标签可包括可以基于对图像的分析而确定的关于第一对象和第二对象的任何信息。在一些实施例中,第一标签和第二标签可以分别指示第一对象和第二对象的类型。此外,第一标签和第二标签可以与第一对象和第二对象的类型的标识符相关联。标识符可以是指示对象的类型的数值、文本串或字母数字串。在一些实施例中,标识符可以对应于对象类型3630和/或对象ID3610。
在一些实施例中,可以基于所确定的第一对象和第二对象的几何形状来生成标签。例如,几何形状的至少一方面可包括对象的高度,可将其用于将该对象与其他对象区分开来(例如,将路缘、中央分隔带、人行道或障碍物与道路表面等)区分开来等。因此,第一对象的几何形状的至少一方面可以包括第一对象的高度,并且可以至少部分地基于该高度来生成第一标签。类似地,第二对象的几何形状的至少一方面可以包括第二对象的高度,并且可以至少部分地基于该高度生成第二标签。高度可以作为显式的测量(例如,以厘米、米、英尺等为单位)而输出,或者基于其他输出信息可以是隐式的。例如,标签为车道标记的对象可以具有可忽略的高度,标签为路缘石(curb)的对象可以具有低的高度,而混凝土障碍物可以是相对高的。
在一些实施例中,对象可以与对象类相关联。因此,第一对象的类型可以包括在第一对象类中,而第二对象的类型可以包括在第二对象类中。对象类可以在数据库3600中由对象类3620表示。在一些实施例中,第一对象类和第二对象类包括互斥对象。换句话说,第一对象类和第二对象类可以不共享任何公共对象。示例对象类别可以包括车道标记、路缘石、墙壁、障碍物、汽车、卡车、公共汽车、摩托车、道路、障碍物、护栏、涂漆道路表面、相对于道路抬高的区域、可驾驶道路表面或杆中的一个或多个。在一些实施例中,系统可以被配置成同时输出多个路缘特征。例如,第一对象类可以是路缘石,而第二对象类可以是车道标记。在一些实施例中,过程3700还可以包括确定第一对象或第二对象是否为路缘。如本文所使用的,路缘可以是可行驶道路表面与环境的另一部分之间的任何过渡。与以上所公开的实施例一致,过程3700可以包括确定路缘的类型。示例路缘可以包括人行道、路缘石、障碍物、草地区域、泥土区域、私人车道或类似的边特征。处理单元110可以被配置为区分路缘的类型,这在导航主车辆时可以是有用的。在一些实施例中,过程3700还可以包括确定该路缘是否为主车辆可通行的。例如,尽管在正常条件下它可以不被认为是可行驶的道路表面,但是路缘可以被分类为可通行的(例如,在紧急情况下等)。这可以基于所确定的路缘的类或类型(例如,草可以是可通行的,而中央间隔带可以不是可通行的),通过路缘的测量高度(其可以对应于路缘的尺寸的至少一个方面)、来自传感器的信息、或路缘是否为可通行的其他指示来进行确定。
出于说明的目的已经呈现了前面的描述。它不是穷举性的并且不限于所公开的精确形式或实施例。考虑到所公开实施例的说明书和实践,修改和改编对于本领域技术人员来说是显而易见的。另外,尽管所公开的实施例的方面被描述为存储在存储器中,但本领域的技术人员将理解,这些方面也可以存储在其他类型的计算机可读介质上,诸如辅助存储装置,例如,硬盘或CDROM、或其他形式的RAM或ROM、USB介质、DVD、蓝光、4K超高清蓝光、或其他光驱动介质。
基于书面说明和所公开的方法的计算机程序在有经验的开发人员的技术范围内。可以使用任何本领域技术人员已知的技术来创建或可以结合现有的软件来设计各种程序或程序模块。例如,程序部分或程序模块可以以或通过.NET Framework、.NET CompactFramework(以及相关的语言,诸如Visual Basic,C等)、JAVA、C++、Objective-C、HTML、HTML/AJAX组合、XML或者包含Java小程序的HTML来设计。
此外,虽然已经在本文中描述了说明性实施例,但是本领域技术人员基于本公开将认识到具有等同的要素、修改、省略、组合(例如,遍及各个实施例的方面的)、改编和/或变化的任何以及所有实施例的范围。权利要求书中的限定将基于权利要求书中采用的语言宽泛地解释,并且不限于在本说明书中或在本申请的审查期间所描述的示例。示例将被解释为非排他性的。此外,所公开的方法的步骤可以以任何方式修改,包含通过重新排序步骤和/或插入或删除步骤。因此,意图是说明书和示例被视为仅是说明性的,真正的范围和精神由以下权利要求及其等同物的全部范围来表示。
Claims (88)
1.一种用于主车辆的导航系统,所述系统包括:
至少一个处理器,被编程为:
从所述主车辆的相机接收表示所述主车辆的环境的至少一个捕获图像;
对所述至少一个捕获图像的一个或多个像素进行分析,以确定所述一个或多个像素是否表示目标车辆的至少一部分,并且对于被确定为表示所述目标车辆的至少一部分的像素,确定从所述一个或多个像素到所述目标车辆的面的至少一个边的一个或多个估计的距离值;以及
基于对所述一个或多个像素的分析,包括所确定的与所述一个或多个像素相关联的一个或多个距离值,来生成相对于所述目标车辆的边界的至少一部分。
2.根据权利要求1所述的导航系统,其中所述一个或多个距离值以像素来测量。
3.根据权利要求1所述的导航系统,其中所述一个或多个距离值对应于相对于所述目标车辆测量的真实世界距离。
4.根据权利要求1所述的导航系统,其中所述一个或多个距离值包括从特定像素到所述目标车辆的前边、后边、侧边、顶边或底边中的至少一者的距离。
5.根据权利要求1所述的导航系统,其中所述至少一个处理器还被编程为确定相对于所述目标车辆而生成的所述边界的至少一部分的方位。
6.根据权利要求5所述的导航系统,其中,所述至少一个处理器还被编程为基于所确定的所述边界的至少一部分的方位来确定所述主车辆的导航动作,并使车辆实现所确定的导航动作。
7.根据权利要求5所述的导航系统,其中所确定的方位指示所述目标车辆朝着所述主车辆的路径进行的操纵。
8.根据权利要求5所述的导航系统,其中所确定的方位指示所述目标车辆相对于所述主车辆的横向运动。
9.根据权利要求1所述的导航系统,其中所述至少一个处理器还被编程为确定所述一个或多个像素是否包括边界像素,所述边界像素包括所述目标车辆的至少一个边的至少一部分的表示。
10.根据权利要求1所述的导航系统,其中对于所述捕获图像的每个像素执行所述分析。
11.根据权利要求1所述的导航系统,其中对于相对于所述捕获图像而识别的目标车辆候选区域的每个像素执行所述分析。
12.根据权利要求1所述的导航系统,其中所述边界的所述部分包括边界框的至少一部分。
13.根据权利要求1所述的导航系统,其中所述至少一个处理器还被编程为确定所述边界的所述部分到所述主车辆的距离,并使车辆至少基于所确定的距离来实现导航动作。
14.根据权利要求1所述的导航系统,其中经训练的系统执行对所述一个或多个像素的分析的至少一部分。
15.根据权利要求14所述的导航系统,其中所述经训练的系统包括一个或多个神经网络。
16.根据权利要求1所述的导航系统,其中所述目标车辆的至少一个边的至少一部分未被表示在所述捕获图像中。
17.根据权利要求1所述的导航系统,其中所述目标车辆的一个或多个边未被表示在所述捕获图像中。
18.根据权利要求1所述的导航系统,其中所述至少一个处理器还被编程为基于对所述捕获图像的分析来确定所述目标车辆是否被另一车辆或拖车运载。
19.根据权利要求18所述导航系统,其中所述至少一个处理器还被编程为不确定被运载车辆的边界。
20.根据权利要求1所述的导航系统,其中所述至少一个处理器还被编程为基于对所述捕获图像的分析来确定所述目标车辆是否被包含在所述至少一个图像中的映像表示中。
21.根据权利要求20所述的导航系统,其中所述至少一个处理器还被编程为不确定车辆映像的边界。
22.根据权利要求1所述的导航系统,其中所述至少一个处理器还被编程为输出所述目标车辆的类型。
23.根据权利要求22所述的导航系统,其中所述目标车辆的类型至少基于所述边界的所述部分的大小。
24.根据权利要求22所述的导航系统,其中,所述目标车辆的类型至少部分地基于被包含在所述边界内的像素的数量。
25.根据权利要求22所述的导航系统,其中所述目标车辆的类型包括公共汽车、卡车、自行车、摩托车或汽车中的至少一个。
26.一种用于主车辆的导航系统,所述系统包括:
至少一个处理器,被编程为:
从所述主车辆的相机接收表示所述主车辆的环境的至少一个捕获图像;
对所述至少一个捕获图像的一个或多个像素进行分析,以确定所述一个或多个像素是否表示目标车辆,其中所述目标车辆的至少一部分未被表示在所述至少一个捕获图像中;以及
确定从所述主车辆到所述目标车辆的估计的距离,其中所述估计的距离至少部分地基于未被表示在所述至少一个捕获图像中的所述目标车辆的所述部分。
27.根据权利要求26所述的导航系统,其中经训练的系统执行对所述一个或多个像素的分析的至少一部分。
28.根据权利要求27所述的导航系统,其中所述经训练的系统包括一个或多个神经网络。
29.根据权利要求26所述的导航系统,其中所述至少一个处理器还被配置为基于所述估计的距离来实现导航动作。
30.根据权利要求26所述的导航系统,其中确定所述估计的距离包括确定未被表示在所述至少一个捕获图像中的所述目标车辆的至少一个边界的位置。
31.根据权利要求30所述的导航系统,其中所述至少一个边界的位置是基于对所述一个或多个像素的分析而确定的。
32.根据权利要求30所述的导航系统,其中从所述主车辆到所述目标车辆的估计的距离是从所述主车辆到所述至少一个边界的估计的距离。
33.一种用于主车辆的导航系统,所述系统包括:
至少一个处理器,被编程为:
从所述主车辆的相机接收表示所述主车辆的环境的至少一个捕获图像;
对所述至少一个捕获图像的两个或更多个像素进行分析,以确定所述两个或更多个像素是否表示第一目标车辆的至少一部分和第二目标车辆的至少一部分;
确定所述第二目标车辆的所述部分被包含在所述第一目标车辆的表面上的映像表示中;以及
基于对所述两个或更多个像素的分析以及基于所述第二目标车辆的所述部分被包含在所述第一目标车辆的表面上的映像表示中的确定,生成相对于所述第一目标车辆的边界的至少一部分以及不生成相对于所述第二目标车辆的边界。
34.根据权利要求33所述的导航系统,其中经训练的系统执行对所述两个或更多像素的分析的至少一部分。
35.根据权利要求34所述的导航系统,其中所述经训练的系统包括一个或多个神经网络。
36.根据权利要求33所述的导航系统,其中确定所述第二目标车辆的所述部分被包含在所述第一目标车辆的表面上的映像表示中包括:确定与所述第二目标车辆相关联的至少一个像素与所述第一目标车辆的边相关联。
37.根据权利要求33所述的导航系统,其中所述边界包括边界框的至少一部分。
38.一种用于主车辆的导航系统,所述系统包括:
至少一个处理器,被编程为:
从所述主车辆的相机接收表示所述主车辆的环境的至少一个捕获图像;
对所述至少一个捕获图像的两个或更多个像素进行分析,以确定所述两个或更多个像素是否表示第一目标车辆的至少一部分和第二目标车辆的至少一部分;
确定所述第二目标车辆被所述第一目标车辆运载或牵引;以及
基于对所述两个或更多个像素的分析以及基于所述第二目标车辆被所述第一目标车辆运载或牵引的确定,生成相对于所述第一目标车辆的边界的至少一部分以及不生成相对于所述第二目标车辆的边界。
39.根据权利要求38所述的导航系统,其中所述第二目标车辆包括牵引车、拖车、露天运载工具或平板卡车中的至少一个。
40.根据权利要求38所述的导航系统,其中确定所述第二目标车辆被所述第一目标车辆运载或牵引包括:确定与所述第二目标车辆相关联的至少一个像素与所述第一目标车辆的边相关联。
41.一种用于主车辆的导航系统,所述系统包括:
至少一个处理器,被编程为:
从所述主车辆的相机接收表示所述主车辆的环境的第一捕获图像;
对所述第一捕获图像的一个或多个像素进行分析,以确定所述一个或多个像素是否表示目标车辆的至少一部分,并且对于被确定为表示所述目标车辆的至少一部分的像素,确定从所述一个或多个像素到所述目标车辆的面的至少一个边的一个或多个估计的距离值;
基于对所述第一捕获图像的一个或多个像素的分析,包括所确定的与所述第一捕获图像的一个或多个像素相关联的一个或多个距离值,来生成相对于所述目标车辆的第一边界的至少一部分;
从所述主车辆的相机接收表示所述主车辆的环境的第二捕获图像;
对所述第二捕获图像的一个或多个像素进行分析,以确定所述一个或多个像素是否表示所述目标车辆的至少一部分,并且对于被确定为表示所述目标车辆的至少一部分的像素,确定从所述一个或多个像素到所述目标车辆的面的至少一个边的一个或多个估计的距离值;以及
基于对所述第二捕获图像的一个或多个像素的分析,包括所确定的与所述第二捕获图像的一个或多个像素相关联的一个或多个距离值,并且基于所述第一边界,来生成相对于所述目标车辆的第二边界的至少一部分。
42.根据权利要求41所述的导航系统,其中经训练的系统执行对所述一个或多个像素的分析的至少一部分。
43.根据权利要求42所述的导航系统,其中所述经训练的系统包括一个或多个神经网络。
44.根据权利要求41所述的导航系统,其中所述第一边界包括第一边界框的至少一部分,并且所述第二边界包括第二边界框的至少一部分。
45.一种用于主车辆的导航系统,所述系统包括:
至少一个处理器,被编程为:
从所述主车辆的相机接收从所述主车辆的环境捕获的两个或更多个图像;
对所述两个或更多个图像进行分析,以识别第一对象的至少一部分的表示和第二对象的至少一部分的表示;
确定至少一个图像中的与所述第一对象相关联的第一区域以及所述第一对象的类型;以及
确定至少一个图像中的与所述第二对象相关联的第二区域以及所述第二对象的类型,其中所述第一对象的类型不同于所述第二对象的类型。
46.根据权利要求45所述的导航系统,其中所述至少一个处理器还被编程为输出所述第一对象的类型或所述第二对象的类型。
47.根据权利要求45所述的导航系统,其中经训练的系统执行对所述两个或更多个图像的分析的至少一部分。
48.根据权利要求47所述的导航系统,其中所述经训练的系统包括一个或多个神经网络。
49.根据权利要求45所述的导航系统,其中所述至少一个处理器还被编程为使所述主车辆基于所述第一对象的类型或所述第二对象的类型来实现导航动作。
50.根据权利要求45所述的导航系统,其中所述第一对象的类型包含在第一对象类中,并且所述第二对象的类型包含在第二对象类中,并且其中所述第一对象类和所述第二对象类包括互斥对象。
51.根据权利要求50所述的导航系统,其中所述第一对象类和所述第二对象类包括车辆、行人、直立不动的对象和道路表面中的至少一个。
52.根据权利要求50所述的导航系统,其中所述第一对象类包括汽车、卡车、公共汽车、摩托车、道路、障碍物、护栏、涂漆道路表面、相对于道路抬高的区域、可驾驶道路表面或杆中的一个或多个。
53.根据权利要求45所述的导航系统,其中对所述两个或更多个图像进行分析包括对所述两个或更多个图像的一个或多个像素进行分析。
54.根据权利要求53所述的导航系统,其中识别所述第一对象的所述部分的表示包括:识别所述两个或更多个图像中的与所述第一对象的表示相关联的至少一个像素。
55.根据权利要求54所述的导航系统,其中识别所述第二对象的所述部分的表示包括:识别所述两个或更多个图像中的与所述第二对象的表示相关联的至少一个像素。
56.根据权利要求55所述的导航系统,其中所述两个或更多图像中的与所述第一对象的表示相关联的至少一个像素不包括所述两个或更多图像中的与所述第二对象的表示相关联的至少一个像素。
57.根据权利要求45所述的导航系统,其中所述第一对象包括护栏,并且所述第二对象包括混凝土障碍物。
58.根据权利要求45所述的导航系统,其中所述第一对象包括涂漆道路表面,并且所述第二对象包括未涂漆道路表面。
59.根据权利要求45所述的导航系统,其中所述第一区域和所述第二区域具有不同的标高。
60.根据权利要求59所述的导航系统,其中所述第一区域或所述第二区域中的至少一个是基于标高的差异而识别的。
61.根据权利要求59所述的导航系统,其中,所述两个或更多个图像包括在不同时间捕获的多个图像,并且所述标高的差异是基于所述多个图像之间的像素比较而确定的。
62.根据权利要求45所述的导航系统,其中所述第一区域是可驾驶区域,并且所述第二区域是不可驾驶区域。
63.根据权利要求62所述的导航系统,其中所述不可驾驶区域包括未铺砌的表面。
64.根据权利要求62所述的导航系统,其中所述不可驾驶区域包括私人车道、人行道或草地区域中的至少一个。
65.根据权利要求45所述的导航系统,其中所述第一对象包括车辆,并且所述第二对象包括行人。
66.根据权利要求45所述的导航系统,其中识别所述第一对象的所述部分的表示或所述第二对象的所述部分的表示包括:对由所述相机捕获的至少第二图像进行分析。
67.根据权利要求66所述的导航系统,其中所述第二图像是在所述两个或更多个图像之后的预定时间段被捕获的。
68.根据权利要求67所述的导航系统,其中所述预定时间段基于所述相机的帧速率。
69.一种用于主车辆的导航系统,所述系统包括:
至少一个处理器,被编程为:
从所述主车辆的相机接收从所述主车辆的环境捕获的至少一个图像;
对所述至少一个图像进行分析,以识别第一对象的至少一部分的表示和第二对象的至少一部分的表示;
基于所述分析,确定所述第一对象的几何形状的至少一方面和所述第二对象的几何形状的至少一方面;
基于所述第一对象的几何形状的至少一方面,生成与所述至少一个图像中的包括所述第一对象的表示的区域相关联的第一标签;以及
基于所述第二对象的几何形状的至少一方面,生成与所述至少一个图像中的包括所述第二对象的表示的区域相关联的第二标签。
70.根据权利要求69所述的导航系统,其中所述第一标签指示所述第一对象的类型。
71.根据权利要求69所述的导航系统,其中所述第一标签与所述第一对象的类型的标识符相关联。
72.根据权利要求69所述的导航系统,其中所述第二标签指示所述第二对象的类型。
73.根据权利要求69所述的导航系统,其中所述第二标签与所述第二对象的类型的标识符相关联。
74.根据权利要求69所述的导航系统,其中所述至少一个处理器还被编程为输出所述第一对象的几何形状的至少一方面或所述第二对象的几何形状的至少一方面。
75.根据权利要求69所述的导航系统,其中经训练的系统执行对所述至少一个图像的分析的至少一部分。
76.根据权利要求75所述的导航系统,其中所述经训练的系统包括一个或多个神经网络。
77.根据权利要求69所述的导航系统,其中所述第一对象包括护栏,并且所述第二对象包括混凝土障碍物。
78.根据权利要求77所述的导航系统,其中至少部分地基于从所述至少一个图像中确定的所述护栏的纹理,所述护栏被识别为相对所述混凝土障碍物是单独的对象。
79.根据权利要求69所述的导航系统,其中所述第一对象的几何形状的至少一方面包括所述第一对象的高度,并且所述第一标签至少部分地基于所述高度而生成。
80.根据权利要求69所述的导航系统,其中所述第二对象的几何形状的至少一方面包括所述第二对象的高度,并且所述第二标签至少部分地基于所述高度而生成。
81.根据权利要求69所述的导航系统,其中所述第一对象的类型包含在第一对象类中,并且所述第二对象的类型包含在第二对象类中,并且其中所述第一对象类和所述第二对象类包括互斥对象。
82.根据权利要求81所述的导航系统,其中所述第一对象类和所述第二对象类中的每一个包括车道标记、路缘石或墙壁中的至少一个。
83.根据权利要求69所述的导航系统,其中所述至少一个处理器还被编程为接收来自所述主车辆的至少一个传感器的输出,并且其中所述第一对象的几何形状的至少一方面或所述第二对象的几何形状的至少一方面是基于所述输出而确定的。
84.根据权利要求69所述的导航系统,其中所述第一对象的几何形状的至少一方面是基于所述第一对象的纹理而确定的。
85.根据权利要求69所述的导航系统,其中所述第二对象的几何形状的至少一方面是基于所述第二对象的纹理而确定的。
86.根据权利要求69所述的导航系统,其中所述至少一个处理器还被编程为确定所述第一对象或所述第二对象中的至少一个是路缘。
87.根据权利要求86所述的导航系统,其中所述至少一个处理器还被编程为确定所述路缘的类型。
88.根据权利要求86所述的导航系统,其中所述至少一个处理器还被编程为确定所述路缘是否由被所述主车辆通行。
Applications Claiming Priority (7)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201962852761P | 2019-05-24 | 2019-05-24 | |
US62/852,761 | 2019-05-24 | ||
US202062957009P | 2020-01-03 | 2020-01-03 | |
US62/957,009 | 2020-01-03 | ||
US202062976059P | 2020-02-13 | 2020-02-13 | |
US62/976,059 | 2020-02-13 | ||
PCT/US2020/034231 WO2020242945A1 (en) | 2019-05-24 | 2020-05-22 | Systems and methods for vehicle navigation based on image analysis |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113825979A true CN113825979A (zh) | 2021-12-21 |
Family
ID=71094818
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202080036539.6A Pending CN113825979A (zh) | 2019-05-24 | 2020-05-22 | 用于基于图像分析的车辆导航的系统和方法 |
Country Status (5)
Country | Link |
---|---|
US (2) | US20220035378A1 (zh) |
JP (2) | JP2022532695A (zh) |
CN (1) | CN113825979A (zh) |
DE (1) | DE112020002592T5 (zh) |
WO (1) | WO2020242945A1 (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20220005210A1 (en) * | 2020-07-02 | 2022-01-06 | Magna Electronics Inc. | Vehicular vision system with road contour detection feature |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6838522B2 (ja) * | 2017-08-10 | 2021-03-03 | トヨタ自動車株式会社 | 画像収集システム、画像収集方法、画像収集装置、および記録媒体 |
WO2021008712A1 (en) * | 2019-07-18 | 2021-01-21 | Toyota Motor Europe | Method for calculating information relative to a relative speed between an object and a camera |
EP3770881B1 (en) * | 2019-07-26 | 2023-11-15 | Volkswagen AG | Methods, computer programs, apparatuses, a vehicle, and a traffic entity for updating an environmental model of a vehicle |
KR102443401B1 (ko) * | 2020-06-29 | 2022-09-15 | 주식회사 라이드플럭스 | 자율주행 차량을 위한 로드 네트워크 데이터 생성 방법, 장치 및 컴퓨터프로그램 |
US11790665B2 (en) * | 2021-04-29 | 2023-10-17 | Hitachi Astemo, Ltd. | Data driven dynamically reconfigured disparity map |
CN113674422A (zh) * | 2021-08-27 | 2021-11-19 | 中汽创智科技有限公司 | 一种数据同步采集方法、控制模块、系统及存储介质 |
DE102022128390A1 (de) | 2022-10-26 | 2024-05-02 | Bayerische Motoren Werke Aktiengesellschaft | Verfahren zum Betreiben eines Fahrerassistenzsystems eines Fahrzeugs mit automatisierter Querführung bei einer Folgefahrt, Fahrerassistenzsystem sowie Fahrzeug |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102009033219A1 (de) * | 2009-01-23 | 2010-07-29 | Daimler Ag | Verfahren zur Ermittlung eines Fahrzeug vorausliegenden Straßenprofils einer Fahrspur |
US8977007B1 (en) * | 2013-04-23 | 2015-03-10 | Google Inc. | Detecting a vehicle signal through image differencing and filtering |
US9305223B1 (en) * | 2013-06-26 | 2016-04-05 | Google Inc. | Vision-based indicator signal detection using spatiotemporal filtering |
JP6997106B2 (ja) * | 2016-06-27 | 2022-01-17 | モービルアイ ビジョン テクノロジーズ リミテッド | 車両をナビゲートするためのシステム、方法およびコンピュータプログラム |
US10311312B2 (en) * | 2017-08-31 | 2019-06-04 | TuSimple | System and method for vehicle occlusion detection |
EP3619643A1 (en) * | 2017-05-03 | 2020-03-11 | Mobileye Vision Technologies Ltd. | Detection and classification systems and methods for autonomous vehicle navigation |
DE102017215718B4 (de) * | 2017-09-07 | 2019-06-13 | Audi Ag | Verfahren zum Auswerten eines optischen Erscheinungsbildes in einer Fahrzeugumgebung und Fahrzeug |
US11474530B1 (en) * | 2019-08-15 | 2022-10-18 | Amazon Technologies, Inc. | Semantic navigation of autonomous ground vehicles |
-
2020
- 2020-05-22 CN CN202080036539.6A patent/CN113825979A/zh active Pending
- 2020-05-22 WO PCT/US2020/034231 patent/WO2020242945A1/en active Application Filing
- 2020-05-22 DE DE112020002592.6T patent/DE112020002592T5/de active Pending
- 2020-05-22 JP JP2021552978A patent/JP2022532695A/ja active Pending
-
2021
- 2021-10-12 US US17/499,508 patent/US20220035378A1/en active Pending
- 2021-10-12 US US17/499,291 patent/US20220027642A1/en active Pending
-
2023
- 2023-05-23 JP JP2023084528A patent/JP2023106536A/ja active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20220005210A1 (en) * | 2020-07-02 | 2022-01-06 | Magna Electronics Inc. | Vehicular vision system with road contour detection feature |
US11823395B2 (en) * | 2020-07-02 | 2023-11-21 | Magna Electronics Inc. | Vehicular vision system with road contour detection feature |
Also Published As
Publication number | Publication date |
---|---|
US20220035378A1 (en) | 2022-02-03 |
JP2023106536A (ja) | 2023-08-01 |
DE112020002592T5 (de) | 2022-03-03 |
WO2020242945A1 (en) | 2020-12-03 |
US20220027642A1 (en) | 2022-01-27 |
JP2022532695A (ja) | 2022-07-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20220146276A1 (en) | Using mapped lane width to determine navigational parameters | |
US20220001871A1 (en) | Road vector fields | |
US20220324437A1 (en) | LIDAR-Camera Fusion Where LIDAR and Camera Validly See Different Things | |
CN112654836A (zh) | 用于车辆导航的系统和方法 | |
CN112204349A (zh) | 用于车辆导航的系统和方法 | |
CN115824194A (zh) | 一种用于为车辆规划路线的系统和方法 | |
CN114207381A (zh) | 用于车辆导航的系统和方法 | |
CN114402377A (zh) | 用于监测交通车道拥塞的系统和方法 | |
CN114514411A (zh) | 用于交通工具导航的系统和方法 | |
US20220027642A1 (en) | Full image detection | |
CN114729813A (zh) | 用于车辆导航的系统和方法 | |
US20220227373A1 (en) | Systems and methods for detecting an open door | |
CN113490835A (zh) | 用于车辆导航的系统和方法 | |
CN113924462A (zh) | 用于确定物体尺寸的导航系统和方法 | |
US20230202473A1 (en) | Calculating vehicle speed for a road curve | |
US20230211726A1 (en) | Crowdsourced turn indicators | |
CN117355871A (zh) | 多帧图像分割 | |
CN116368540A (zh) | 用于动态道路几何形状建模与导航的系统和方法 | |
CN114930123A (zh) | 用于检测交通灯的系统和方法 | |
CN117571001A (zh) | 用于公共速度映射和导航的系统和方法 | |
US20240029446A1 (en) | Signature network for traffic sign classification | |
US20230205533A1 (en) | Systems and methods for performing neural network operations | |
US20230311863A1 (en) | Detecting an open door using a sparse representation | |
WO2023067385A2 (en) | Radar-camera fusion for vehicle navigation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |