CN113156935A - 用于交通灯检测的系统和方法 - Google Patents
用于交通灯检测的系统和方法 Download PDFInfo
- Publication number
- CN113156935A CN113156935A CN202110016703.3A CN202110016703A CN113156935A CN 113156935 A CN113156935 A CN 113156935A CN 202110016703 A CN202110016703 A CN 202110016703A CN 113156935 A CN113156935 A CN 113156935A
- Authority
- CN
- China
- Prior art keywords
- image
- traffic light
- autonomous vehicle
- sensor
- traffic
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000000034 method Methods 0.000 title claims abstract description 118
- 238000001514 detection method Methods 0.000 title abstract description 75
- 230000003287 optical effect Effects 0.000 claims abstract description 27
- 238000012545 processing Methods 0.000 claims description 71
- 230000015654 memory Effects 0.000 claims description 34
- 230000006870 function Effects 0.000 claims description 15
- 238000005286 illumination Methods 0.000 claims description 9
- 238000004891 communication Methods 0.000 description 37
- 238000010586 diagram Methods 0.000 description 8
- 230000001133 acceleration Effects 0.000 description 7
- 230000008859 change Effects 0.000 description 7
- 238000013500 data storage Methods 0.000 description 7
- 230000008447 perception Effects 0.000 description 7
- 239000007787 solid Substances 0.000 description 6
- 230000005540 biological transmission Effects 0.000 description 5
- 238000005259 measurement Methods 0.000 description 5
- 230000004044 response Effects 0.000 description 5
- 230000004927 fusion Effects 0.000 description 4
- 238000003384 imaging method Methods 0.000 description 4
- 238000013459 approach Methods 0.000 description 3
- 238000012512 characterization method Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 230000003068 static effect Effects 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 239000000446 fuel Substances 0.000 description 2
- 239000003550 marker Substances 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 238000001228 spectrum Methods 0.000 description 2
- 239000013589 supplement Substances 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- RYGMFSIKBFXOCR-UHFFFAOYSA-N Copper Chemical compound [Cu] RYGMFSIKBFXOCR-UHFFFAOYSA-N 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000000903 blocking effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000001556 precipitation Methods 0.000 description 1
- 239000011435 rock Substances 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 238000001429 visible spectrum Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
- G06V20/582—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of traffic signs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
- G06V20/584—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0234—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using optical markers or beacons
- G05D1/0236—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using optical markers or beacons in combination with a laser
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W60/00—Drive control systems specially adapted for autonomous road vehicles
- B60W60/001—Planning or execution of driving tasks
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/0088—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0214—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory in accordance with safety or protection criteria, e.g. avoiding hazardous areas
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0221—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0223—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving speed control of the vehicle
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0225—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving docking at a fixed facility, e.g. base station or loading bay
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0238—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
- G05D1/024—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors in combination with a laser
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0242—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using non-visible light signals, e.g. IR or UV signals
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
- G05D1/0251—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting 3D information from a plurality of images taken from different locations, e.g. stereo vision
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0255—Control of position or course in two dimensions specially adapted to land vehicles using acoustic signals, e.g. ultra-sonic singals
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0257—Control of position or course in two dimensions specially adapted to land vehicles using a radar
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0259—Control of position or course in two dimensions specially adapted to land vehicles using magnetic or electromagnetic means
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0259—Control of position or course in two dimensions specially adapted to land vehicles using magnetic or electromagnetic means
- G05D1/0261—Control of position or course in two dimensions specially adapted to land vehicles using magnetic or electromagnetic means using magnetic plots
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0276—Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0276—Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
- G05D1/0278—Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle using satellite positioning signals, e.g. GPS
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0276—Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
- G05D1/028—Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle using a RF signal
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
- G06V10/12—Details of acquisition arrangements; Constructional details thereof
- G06V10/14—Optical characteristics of the device performing the acquisition or on the illumination arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
- G06V10/12—Details of acquisition arrangements; Constructional details thereof
- G06V10/14—Optical characteristics of the device performing the acquisition or on the illumination arrangements
- G06V10/145—Illumination specially adapted for pattern recognition, e.g. using gratings
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/60—Extraction of image or video features relating to illumination properties, e.g. using a reflectance or lighting model
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/803—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of input or preprocessed data
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/09—Arrangements for giving variable traffic instructions
- G08G1/0962—Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
- G08G1/09623—Systems involving the acquisition of information from passive traffic signs by means mounted on the vehicle
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/70—Circuitry for compensating brightness variation in the scene
- H04N23/71—Circuitry for evaluating the brightness variation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/70—Circuitry for compensating brightness variation in the scene
- H04N23/743—Bracketing, i.e. taking a series of images with varying exposure conditions
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2555/00—Input parameters relating to exterior conditions, not covered by groups B60W2552/00, B60W2554/00
- B60W2555/60—Traffic rules, e.g. speed limits or right of way
Abstract
本发明描述了使用光学传感器来检测和表征交通灯的状态以辅助自主运载工具的导航。特别地,示出了包括固定曝光传感器和自动曝光传感器这两者的特定光学配置。可以组合来自这两个传感器类型的影像,以更准确地表征任何特定交叉口处的交通信号的状态。还描述了用于仅分析由交通灯检测系统捕获到的影像的所选区域的系统和方法。
Description
技术领域
本说明书涉及用于检测和表征自主运载工具前方的环境中的一个或多个交通信号的状态的计算机系统。
背景技术
自主运载工具可用于将人和/或货物(例如,包裹、对象或其它物品)从一个地点运输到另一地点。例如,自主运载工具可以导航到某人的地点,等待该人登上该自主运载工具,并导航到所指定的目的地(例如,由该人选择的地点)。为了在环境中导航,这些自主运载工具配备有各种传感器以检测周围的对象、交通标志和交通信号。
发明内容
本说明书中所述的主题涉及用于检测和表征位于自主运载工具的前方的交通灯的状态的计算机系统和技术。通常,计算机系统被配置为从运载工具的一个或多个传感器接收输入,基于所接收到的输入来检测运载工具前方的环境中的一个或多个交通灯,并且基于所表征的交通灯的状态来操作运载工具。
特别地,详细论述用于检测和表征交通灯的状态的系统和方法。一种用于进行交通灯检测和表征的方法,包括以下:使用联接至自主运载工具的传感器来捕获图像;使用处理电路来获得表示在捕获到所述图像时的所述自主运载工具的地点的数据(例如,GPS数据);使用所述处理电路来获得表示交通灯的地点的数据;使用所述处理电路,基于所获得的所述交通灯的地点和所获得的所述自主运载工具的地点(例如,相对于所述自主运载工具的地点的所述交通灯的地点)来选择所述图像中的包括所述交通灯的部分;使用所述处理电路,通过分析所述图像的所选部分来确定所述交通灯的状态(例如,无需分析所述图像的未选择部分以确定交通灯的状态);以及通过控制电路,根据所确定的所述交通灯的状态来操作所述自主运载工具。
在一些实施例中,所述方法还包括:在选择所述图像的所述部分之前,将相对于所获得的所述自主运载工具的地点的所获得的所述交通灯的地点与所述图像中的地点相关。选择所述图像的所述部分包括:基于所述自主运载工具和所述交通灯之间的距离来确定所述图像的所选部分的大小。所选部分的大小与自主运载工具和交通灯之间的距离成反比。还对后续捕获图像进行该选择处理,其中后续捕获图像的所选部分是基于在捕获各后续捕获图像时的自主运载工具相对于交通灯的地点来选择的。
在一些实施例中,所述方法还包括:选择所述图像中的包括另一交通灯的第二部分。该第二部分的选择是基于所获得的另一交通灯的地点和所获得的自主运载工具的地点。所述方法继续分析所述图像的所述第二部分,以确定所述另一交通灯的状态。然后,所述自主运载工具的所述控制电路根据所确定的所述交通灯的状态和所确定的所述另一交通灯的状态来导航所述自主运载工具。在一些实施例中,所述方法还包括:确定所述交通灯的状态与所述另一交通灯是否匹配。匹配可以提高自主运载工具在交通灯的状态下的置信度。
在一些实施例中,确定所述交通灯的状态包括:确定由位于所述图像的所选部分内的所述交通灯所发射的光的颜色和形状。例如,所确定的所述交通灯的状态可以是黄色箭头。交通灯的可能状态至少包括绿色、红色或黄色圆圈、或者具有左方向、右方向或上方向的绿色、红色或黄色箭头。由于颜色变化和传感器能力,黄色往往是最难准确地检测的颜色。此外,箭头与圆圈相比更难准确地检测。
在一些实施例中,可以使用交通灯数据库来通过将交通信号的已知箭头方向与捕获图像中所检测到的光的图案进行比较来帮助确定一个或多个箭头的方向。例如,如果处理电路不能确定箭头是左绿色箭头还是上绿色箭头、并且交通灯数据库指示在交叉口处仅存在左箭头和右箭头,则处理电路可以将该状态识别为左箭头。
在一些实施例中,处理电路所承担的任务其中之一是确定与所确定的交通灯的状态相关联的置信度水平。降至低于阈值水平的置信度水平被忽视且被假定为是未知的。在超过阈值水平的情况下,该状态被传递到控制电路,该控制电路然后能够在导航自主运载工具时考虑交通灯状态。所确定的交通灯的状态的置信度可受到图像中的被所检测到的由交通灯发射的光所占据的区域离该图像中的被该光所占据的预期区域有多近的影响。该大小度量可以帮助避免运载工具的尾灯位于自主运载工具和交通灯之间的不良状态确定。
在一些实施例中,所述传感器是第一光学传感器且所述图像是第一图像,并且所述方法还包括:使用第二光学传感器来捕获第二图像;以及使用所述处理电路来选择所述第二图像中的包括所述交通灯的部分。确定所述交通灯的状态包括:分析所述第二图像的所选部分。
在一些实施例中,所述第一光学传感器是固定曝光传感器,并且所述第二光学传感器是自动曝光传感器。所述第一光学传感器的操作参数具有非常适合于检测交通灯所发射的平均照明量的值。适合于配置这些值以实现期望曝光的操作参数包括光圈、曝光时间/快门速度以及ISO。
在一些实施例中,所述图像是在从所述交通灯起的第一距离处捕获到的第一图像,并且所述第一图像的所选部分是第一部分。所述方法还包括:在从所述交通灯起的第二距离处捕获第二图像,所述第二距离短于所述第一距离;以及选择所述第二图像的第二部分,所述第二部分大于所述第一部分,使得交通信号的高度相对于所述第一图像中的所述第一部分的高度的第一比与交通信号的高度相对于所述第二图像中的所述第二部分的高度的第二比大致相同。
在一些实施例中,所述图像的所选部分的高度大于所述图像的所选部分的宽度。较窄的宽度可以有助于减少在单个图像内捕获到的交通灯的数量,因为交通灯通常是水平分布的。较大的高度尺寸在传感器准确度在垂直方向上与在水平方向上相比更低的情况下也可以是有用的。图像的所选部分的宽高比是固定的。在特定实施例中,宽高比可以是2/3(宽度/高度)。对于所选择的图像区域的宽度(w),其取决于从交通灯到照相机的深度距离d。使用三角方程:w=s*r*f/d,其中:r是交通灯灯泡半径,f是照相机焦距,d是交通灯相对于照相机的深度距离,并且s是用以确定多少背景部分包括在所裁剪图像中的调整良好的固定参数。
图像的所选部分的高度基于示出图像内的交通灯的预测地点的准确度的历史数据。图像的所选部分的大小基于图像内的交通灯的预测地点的估计准确度,其中该估计准确度基于从先前捕获到的图像生成的历史数据。
在一些实施例中,在所述图像中的所述交通灯的垂直位置的估计准确度低于所述图像中的所述交通灯的水平位置的估计准确度的情况下,所述图像的所选部分的高度大于所述图像的所选部分的宽度。由于运载工具的垂直稳定的问题,并且由于在自主运载工具接近交通灯时交通灯的垂直位置与水平位置相比可以更快地改变,因此垂直位置变化可能不太精确。
所描述的方法可以通过以下来实现:一种存储有指令的非暂时性计算机可读存储介质,所述指令被配置为由自主运载工具的一个或多个电路、或者通过所述自主运载工具的处理器执行编码指令来执行。
与交通灯检测相关联的另一方法包括:利用针对交通灯的平均照明输入所调整的传感器来捕获图像。特别地,该方法包括:使用具有固定曝光配置的第一传感器来捕获包括交通灯的第一图像。固定曝光配置是这样的配置:不论从传感器所覆盖的视场内正发射的光量如何,传感器的设置都是固定的,即设置通常是指快门速度、光圈和ISO。该方法还包括:使用具有自动曝光配置的第二传感器来进行捕获。自动曝光配置是这样的配置:基于从由传感器覆盖的视场内正发射的光量来改变传感器的设置,以实现期望的图像曝光。连续改变诸如快门速度、光圈和ISO等的自动曝光配置的设置,以实现针对环境光量的期望曝光。该方法继续以下操作:使用处理电路,通过分析第一图像和第二图像来确定交通灯的状态;以及使用控制电路,根据所确定的交通灯的状态来操作自主运载工具。
在一些实施例中,第一传感器的操作参数具有非常适合于检测交通灯的平均照明强度的固定值,而在其它实施例中,这些值能够改变调制。如果例如期望更高或更低的ISO,则可以调整光圈和快门速度以维持期望的曝光水平。在一些实施例中,第一传感器可以在白天和夜间具有不同的曝光水平。
在一些实施例中,第一传感器的第一视场不同于第二传感器的第二视场并且与该第二视场重叠。第一传感器的焦距可以不同于第二传感器的焦距。在一些传感器配置中,第二传感器相对于自主运载工具位于第一传感器的前方和下方。
在一些实施例中,处理电路分析第二图像以识别移动对象,从而允许第二传感器用作交通灯传感器和对象检测传感器这两者。
在一些实施例中,根据所确定的交通灯的状态来操作自主运载工具包括:根据所确定的交通灯的状态是红色圆圈或红色箭头来停止自主运载工具。
在一些实施例中,传感器配置可以包括第二传感器、以及用于确定一个或多个对象的地点的具有自动曝光配置的第三传感器。与第二传感器一样,第三传感器也可用于确定交通灯的状况。第二传感器的视场的至少一半可以位于第三传感器的视场之外,由此增加这两个传感器的覆盖区域。
在一些实施例中,该方法还包括:选择第一图像和第二图像中的包括交通灯的部分。此外,分析第一图像和第二图像包括:仅分析第一图像和第二图像的所选部分。
在一些实施例中,根据确定为第一图像和第二图像的所选部分包括多个灯,该方法还包括:将多个灯中的灯确定为交通灯,确定多个灯中的哪个灯是交通灯与来自第一传感器的读数相比更多地基于来自第二传感器的读数。使用自动曝光照相机的一个典型示例是将红色圆圈交通灯与运载工具尾灯区分开。由于有时仅灯在固定曝光照相机所拍摄到的影像中清楚地可见、这使得难以清楚地看见背景(运载工具本体或交通灯箱壳体),因此这是有帮助的。由自动曝光照相机生成的影像包括添加额外提示以允许处理电路将这些混淆情况分开的额外背景上下文。
在一些实施例中,确定交通灯的状态包括:通过参考由交通灯发射的第一光在第一图像和第二图像内的预期地点,来将第一光与由另一光源发射的第二光区分开。
在一些实施例中,分析第一图像和第二图像包括:仅分析第一图像的第一部分和第二图像的第二部分,其中第一光和第二光在第一图像的第一部分和第二图像的第二部分中是可见的。
在一些实施例中,自主运载工具包括第三传感器,该第三传感器被配置为捕获位于第二传感器的视场之外的交通灯的图像,以及其中,处理电路被配置为使用由第三传感器提供的影像来确定由第三传感器捕获到的交通灯的状态。
在一些实施例中,第一传感器和第二传感器具有能够检测可见光的固定焦点光学器件和数字传感器。第一传感器和第二传感器可以并入能够以至少24帧/秒的速率捕获影像的摄像机中。在一些实施例中,第一传感器和第二传感器是前向传感器,所述前向传感器的视场覆盖以自主运载工具的前端为中心的至少30度的角度。在一些实施例中,处理电路包括用于确定交通灯的状态的神经网络。
所描述的方法可以通过以下来实现:一种存储有指令的非暂时性计算机可读存储介质,所述指令被配置为由自主运载工具的一个或多个电路、或者通过所述自主运载工具的处理器执行编码指令来执行。
在一些实施例中,一种自主运载工具,包括:传感器;处理电路;控制电路;以及存储有一个或多个程序的存储器,所述一个或多个程序被配置为由所述自主运载工具的所述处理电路和所述控制电路执行,所述一个或多个程序使得所述自主运载工具执行步骤,所述步骤包括:使用所述传感器来捕获图像;使用所述处理电路来获得表示在捕获到所述图像时的所述自主运载工具的地点的数据;使用所述处理电路来获得表示交通灯的地点的数据;使用所述处理电路,根据相对于所获得的所述自主运载工具的地点的所述交通灯的地点来选择所述图像中的包括所述交通灯的部分;使用所述处理电路,通过分析所述图像的所选部分来确定所述交通灯的状态;以及通过所述控制电路,根据所确定的所述交通灯的状态来操作所述自主运载工具。
在一些实施例中,一种存储有指令的非暂时性存储介质,所述指令在由一个或多个计算装置执行时,使得进行上述的方法。
在一些实施例中,一种装置,包括:处理电路;控制电路;以及存储有一个或多个程序的存储器,所述一个或多个程序被配置为由所述处理电路和所述控制电路执行,所述一个或多个程序包括用于进行上述的方法的指令。
这些和其它方面、特征和实现可被表示为方法、设备、系统、组件、程序产品、用于进行功能的方法或步骤以及其它方式。
从以下的包括权利要求书的说明书,这些和其它方面、特征和实现将变得明显。
附图说明
图1示出具有自主能力的自主运载工具的示例。
图2例示示例“云”计算环境。
图3例示计算机系统。
图4示出自主运载工具的示例架构。
图5示出感知模块可以使用的输入和输出的示例。
图6示出LiDAR系统的示例。
图7示出操作中的LiDAR系统。
图8示出LiDAR系统的操作的附加细节。
图9示出规划模块的输入和输出之间的关系的框图。
图10示出路径规划中所使用的有向图。
图11示出控制模块的输入和输出的框图。
图12示出控制器的输入、输出和组件的框图。
图13示出具有交通灯检测系统的示例性自主运载工具。
图14A示出在自主运载工具接近交叉口时由交通灯检测传感器捕获到的示例性图像。
图14B示出可以将图14A所示的图像内的交通灯彼此区分开的一个方式。
图15A-15B示出历史数据,该历史数据用于指示图像的所选部分内的交通信号的检测位置在X轴和Y轴中如何以不同的方式变化。
图16A-16B示出由交通信号检测传感器在时间T1捕获到的第一图像和在时间T2捕获到的第二图像。
图17示出分析来自两个不同类型的传感器的影像避免了交通信号的状态的误表征的示例性情景。
图18示出描述用于交通灯检测和表征的方法的流程图。
具体实施方式
在以下描述中,为了解释的目的,阐述了许多具体细节,以便提供对本发明的透彻理解。然而,显而易见的是,本发明可以在没有这些具体细节的情况下实施。在其它实例中,众所周知的构造和装置是以框图形式示出的,以避免不必要地使本发明模糊。
在附图中,为了便于描述,显示了示意要素的具体安排或次序,例如表示设备、模块、指令块和数据要素的那些要素。然而,本领域技术人员应当理解,附图中示意要素的具体排序或安排并不意味着要求特定的处理顺序或序列、或处理过程的分离。此外,在附图中包含示意性要素并不意味着在所有实施例中都需要这种要素,也不意味着由这种要素表示的特征不能包括在一些实施例中或不能在一些实施例中与其它要素结合。
此外,在附图中,连接要素、例如实线或虚线或箭头用于说明两个或两个以上其它示意要素之间的连接、关系或关联,没有任何此类连接要素并不意味着不能存在连接、关系或关联。换句话说,一些要素之间的连接、关系或关联未在附图中显示,以便不掩盖本发明。此外,为了便于说明,使用单个连接要素来表示要素之间的多个连接、关系或关联。例如,如果连接元件代表信号、数据或指令的通信,本领域技术人员应理解,该元件代表影响通信可能需要的一个或多个信号路径(例如,总线)。
现在将详细参考实施例,其示例在附图中示出。在下面的详细描述中,阐述了许多具体细节,以便提供对所描述的各种实施例的透彻理解。然而,对于本领域的普通技术人员来说明显的是,可以在没有这些具体细节的情况下实施所描述的各种实施例。在其它情况下,没有详细描述众所周知的方法、程序、组件、电路和网络,以便不会不必要地掩盖实施例的方面。
下面描述的若干特征可以彼此独立地使用,也可以与其它特征的任何组合一起使用。但是,任何个别特征可能不能解决上述任何问题,或者只能解决上述问题之一。上文讨论的一些问题可能不能通过本文所述的任何一个特征得到充分解决。虽然提供了标题,但在本说明的其它地方也可以找到与某一标题有关但在该标题部分未找到的信息。本文根据以下概要描述实施例:
1.总体概述
2.硬件概述
3.自主运载工具架构
4.自主运载工具输入
5.自主运载工具规划
6.自主运载工具控制
7.使用柱(pillar)的对象检测所用的计算系统
8.示例点云和柱
9.用于检测对象并基于对象的检测来操作运载工具的示例处理
总体概述
在复杂环境(例如,城市环境)中驾驶的自主运载工具带来巨大的技术挑战。为了使自主运载工具在这些环境中导航,运载工具使用诸如照相机、LiDAR(光检测和测距)和/或RADAR(雷达)等的传感器来实时地检测诸如交通灯、运载工具、行人和自行车等的各种对象。用于对图像输入进行对象检测的一个方法是深度学习。然而,传感器输入(例如,LiDAR点云)的稀疏性使得现有的基于图像的深度学习技术从计算上效率低。所公开的实施例包括用于基于影像产生传感器来高效且快速地检测交通灯的系统和技术、以及用于实现具有不同曝光配置的两个或更多个光学传感器来检测和表征自主运载工具周围的交通灯的状态的系统和技术。
特别地,可以选择性地裁剪由与交通信号检测系统相关联的传感器捕获到的影像,从而仅留下包括特定交通信号的该影像中的区域。这样,将除交通信号以外的发射某物的照明模式识别为交通信号的可能性大大降低。小汽车前照灯、尾灯和电子广告牌全部是可能与交通信号混淆的灯的示例。在一些实施例中,交通灯检测系统包括被称为交通灯检测传感器的固定曝光传感器和与对象检测系统相关联的自动曝光传感器。交通灯检测传感器具有维持非常适合于检测由交通信号正常发射的光量的曝光水平的固定设置。
硬件概述
图1示出具有自主能力的自主运载工具100的示例。
如本文所使用的,术语“自主能力”是指一种功能、特征或设施,该功能、特征或设施使运载工具能够部分地或完全地运行,而无需实时的人类干预,包括但不限于完全自主运载工具、高度自主运载工具和有条件自主运载工具。
如本文所使用的,自主运载工具(AV)是一种具有自主能力的运载工具。
如本文所使用的,“运载工具”包括货物或人员的运输方式。例如,小汽车、公共汽车、火车、飞机、无人机、卡车、船只、舰艇、潜水器、飞船等。无人驾驶的小汽车是运载工具的示例。
如本文所使用的,“轨迹”是指将AV从第一时空地点导航到第二时空地点的路径或路线。在实施例中,第一时空地点被称为初始地点或起始地点,第二时空地点被称为目的地、最终地点、目标、目标位置或目标地点。在一些示例中,轨迹由一个或多个路段(例如,道路的数段)组成,并且各路段由一个或多个块(例如,车道或交叉口的一部分)组成。在实施例中,时空地点对应于真实世界地点。例如,时空地点是上车或下车地点,以使人员或货物上车或下车。
如本文所使用的,“(一个或多个)传感器”包括一个或多个硬件组件,用于检测与传感器周围环境有关的信息。一些硬件组件可包括感测组件(例如,图像传感器、生物测量传感器)、发送和/或接收组件(例如,激光或射频波发射器和接收器)、电子组件(例如,模数转换器)、数据存储装置(例如,RAM和/或非易失性存储器)、软件或固件组件和数据处理组件(例如,专用集成电路)、微处理器和/或微控制器。
如本文所使用的,“场景描述”是一种数据结构(例如,列表)或数据流,其包括由AV运载工具上的一个或多个传感器检测到的一个或多个分类或标记的对象,或由AV外部的源提供的一个或多个分类或标记的对象。
如本文所使用的,“道路”是一个可以被运载工具穿过的物理区域,并且可以对应于已命名的通道(例如,城市街道、州际高速公路等)或可对应于未命名的通道(例如,房屋或办公楼内的行车道、停车场的一段、空置停车场的一段、乡村地区的污物通道等)。因为有些运载工具(如四轮驱动的小卡车、越野车(SUV)等)能够穿越各种不特别适合运载工具行驶的物理区域,因此“道路”可以是任何市政当局或其它政府或行政机构没有正式界定为一条通道的物理区域。
如本文所使用的,“车道”是道路的可被运载工具穿过的部分,并且可对应于车道标记之间的大部分或全部空间,或仅对应于车道标记之间的部分空间(例如,小于50%)。例如,具有相距很远的车道标记的道路可能容纳两个或两个以上的运载工具,使得一个运载工具可以在不穿过车道标记的情况下超过另一个运载工具,因此可被解释为车道比车道标记之间的空间窄,或车道之间有两个车道。在没有车道标记的情况下,也可以对车道进行解释。例如,可以基于环境的物理特征(例如,农村地区的岩石和沿着大道的树木)来定义车道。
“一个或多个”包括由一个要素执行的功能,由多个要素执行的功能、例如以分布式的方式,由一个要素执行的几个功能,由几个要素执行的几个功能,或上述的任意组合。
还将理解的是,尽管在某些情况下,术语“第一”、“第二”等是用来描述各种要素的,但这些要素不应受到这些术语的限制。这些术语仅用于区分一个要素与另一个要素。例如,在未背离各种所述实施例的范围的情况下,第一触点可被称为第二触点,并且同样,第二触点可被称为第一触点。除非另外说明,否则第一触点和第二触点都是触点,但这两者不是相同触点。
此处描述的各种实施例的描述中使用的术语仅用于描述特定实施例,而不是意在限制。正如在所描述的各种实施例和所附权利要求书的描述中所使用的,单数形式“a”、“an”和“the”也意在包括复数形式,除非上下文另有明确说明。还应理解,本文所用的"和/或"一词是指并且包括一个或多个相关清单项目的任何和所有可能的组合。还应理解的是,在本说明中使用的术语“包括”、“包含”、“具备”和/或“具有”具体说明存在所述的特征、整数、步骤、操作、要素和/或组成部分,但并不排除存在或添加一个或多个其它特征、整数、步骤、操作、要素、组成部分、和/或上述的组。
如本文所使用的,“如果”一词可选择地理解为在该情况下、在当时、或者响应于检测到、或响应于确定为,视上下文而定。同样,“如果已确定”或“如果[所述条件或事件]已被检测到”这一短语,视情境而定,可以理解为“在确定时”或“响应于确定为“或”在检测到[所述条件或事件]时”或“响应于检测到[所述条件或事件]”。
如本文所使用的,AV系统是指AV以及实时生成的支持AV操作的硬件、软件、存储的数据和实时生成的支持AV运作的数据。在实施例中,AV系统并入在AV内。在实施例中,AV系统跨多个地点分布。例如,AV系统的一些软件是在类似于下面结合图2描述的云计算环境200的云计算环境中实现的。
一般而言,本文件描述了适用于任何具有一种或多种自主能力的运载工具的技术,包括完全自主运载工具、高度自主运载工具和有条件自主运载工具,如所谓的第5级、第4级和第3级运载工具(见SAE国际标准J3016:道路上机动车自动驾驶系统相关术语的分类和定义,通过引用将其全部内容纳入本说明,以了解运载工具自主权等级的更多详细信息)。本说明所述技术也适用于部分自主运载工具和驾驶员辅助运载工具,如所谓的2级和1级运载工具(见SAE国际标准J3016:道路上机动车自动驾驶系统相关术语的分类和定义)。在实施例中,一个或多个1级、2级、3级、4级和5级运载工具系统可根据对传感器输入的处理,在某些操作条件下自动执行某些运载工具操作(例如,转向、制动和使用地图)。本文件中所述的技术可以使从完全自主运载工具到人类操作的运载工具的各级运载工具受益。
参考图1,AV系统120使AV 100沿着轨迹198运行,穿过环境190至目的地199(有时称为最终地点),同时避开对象(例如,自然障碍物191、运载工具193、行人192、骑车者和其它障碍物)和遵守道路规则(例如,操作规则或驾驶偏好)。
在实施例中,AV系统120包括用于从计算机处理器146接收操作命令并对其进行操作的装置101。在实施例中,计算处理器146与下面参考图3描述的处理器304相似。装置101的示例包括转向控制器102、制动器103、挡位、加速踏板或其它加速控制机构、挡风玻璃雨刮器、侧门锁、窗控器和转向指示器。
在实施例中,AV系统120包括用于测量或推断AV 100的状态或条件的属性的传感器121,这些属性例如是AV的位置、线速度和加速度及角速度和加速度、以及航向(例如,AV100的前端的方向)。传感器121的示例是GPS、以及测量运载工具线性加速度和角速率的惯性测量单元(IMU)、用于测量或估计车轮滑移率的车轮速率传感器、车轮制动压力或制动扭矩传感器、引擎扭矩或车轮扭矩传感器以及转向角度和角速率传感器。
在实施例中,传感器121还包括用于感测或测量AV的环境的属性的传感器。例如,可见光、红外或热(或两者兼有)光谱的单目或立体摄像机122、LiDAR 123、RADAR、超声波传感器、飞行时间(TOF)深度传感器、速率传感器、温度传感器、湿度传感器和降水传感器。
在实施例中,AV系统120包括数据存储单元142和存储器144,用于存储与计算机处理器146或由传感器121收集的数据相关的机器指令。在实施例中,数据存储单元142与以下结合图3描述的ROM 308或存储装置310类似。在实施例中,存储器144与下面描述的主存储器306类似。在实施例中,数据存储单元142和存储器144存储有关环境190的历史、实时和/或预测性信息。在实施例中,存储的信息包括地图、驾驶性能、交通拥堵更新或天气条件。在实施例中,与环境190有关的数据通过来自远程数据库134的通信信道传输到AV 100。
在实施例中,AV系统120包括通信装置140,用于将对其它运载工具的状态和条件(诸如位置、线性和角速度、线性和角加速度以及线性和角航向等)的测量到或推断的属性传送到AV 100。这些装置包括运载工具到运载工具(V2V)和运载工具到基础设施(V2I)通信装置以及用于通过点对点或自组织(ad hoc)网络或两者兼而有之进行无线通信的装置。在实施例中,通信装置140跨电磁频谱(包括无线电和光通信)或其它介质(例如,空气和声学介质)进行通信。运载工具对运载工具(V2V)、运载工具对基础设施(V2I)通信(以及在一些实施例中为一种或多种其它类型的通信)的组合有时被称为运载工具对所有事物(V2X)通信。V2X通信通常符合一个或多个通信标准,用于与自主运载工具进行的和在自主运载工具之间的通信。
在实施例中,通信装置140包括通信接口。例如,有线、无线、WiMAX、WiFi、蓝牙、卫星、蜂窝、光、近场、红外或无线电接口。通信接口将数据从远程数据库134传输到AV系统120。在实施例中,远程数据库134嵌入云计算环境200中,如图2中所述。通信接口140将从传感器121收集的数据或与AV 100操作有关的其它数据传输到远程数据库134。在实施例中,通信接口140向AV 100传输与远程操作有关的信息。在一些实施例中,AV 100与其它远程(例如,“云”)服务器136通信。
在实施例中,远程数据库134还存储和传输数字数据(例如,存储道路和街道地点等的数据)。这些数据存储在AV 100上的存储器144中,或者通过通信信道从远程数据库134传输到AV 100。
在实施例中,远程数据库134存储和传输与以前在一天中类似时间沿着轨迹198行驶的运载工具的驾驶属性有关的历史信息(例如,速率和加速率分布)。在一个实现中,这种数据可以存储在AV 100上的存储器144中,或者通过通信信道从远程数据库134传输到AV100。
位于AV 100上的计算装置146基于实时传感器数据和先验信息以算法方式生成控制动作,使得AV系统120能够执行其自主驾驶能力。
在实施例中,AV系统120包括连接到计算装置146的计算机外围设备132,用于向AV100的用户(例如,乘员或远程用户)提供信息和提醒并接收来自该用户的输入。在实施例中,外围设备132类似于下面参考图3讨论的显示器312、输入装置314和光标控制器316。连接是无线的或有线的。任意两个或更多的接口设备可以集成到单个设备中。
图2例示示例“云”计算环境。云计算是一种服务交付模式,可以方便、按需地在网络上访问共享的可配置计算资源池(例如网络、网络带宽、服务器、处理、内存、存储、应用程序、虚拟机和服务)。在典型的云计算系统中,一个或多个大型云数据中心容纳用于递送云所提供的服务的机器。现在参考图2,云计算环境200包括通过云202互连的云数据中心204a、204b和204c。数据中心204a、204b和204c为连接到云202的计算机系统206a、206b、206c、206d、206e和206f提供云计算服务。
云计算环境200包括一个或多个云数据中心。通常,云数据中心(例如图2中所示的云数据中心204a)是指构成云(例如图2中所示的云202或云的特定部分)的服务器的物理排列。例如,服务器在云数据中心中物理排列成房间、组、行和机架。云数据中心有一个或多个区域,其中包括一个或多个服务器房间。每个房间有一行或多行服务器,每行都包括一个或多个机架。每个机架包括一个或多个单独的服务器节点。在一些实现中,区域、房间、机架和/或行中的服务器根据数据中心设施的物理基础设施要求(包括电力、能源、热力、热源和/或其它要求)分为若干组。在实施例中,服务器节点类似于图3中描述的计算机系统。数据中心204a具有许多分布在多个机架上的计算系统。
云202包括云数据中心204a、204b和204c以及用于连接云数据中心204a、204b和204c并有助于促进计算系统206a-f对云计算服务的访问的网络和网络资源(例如,网络设备、节点、路由器、交换机和网络电缆)。在实施例中,该网络表示一个或多个本地网络、广域网或通过使用地面或卫星连接部署的有线或无线链路连接的网际网络的任意组合。通过网络交换的数据采用多种网络层协议(如Internet协议(IP)、多协议标签交换(MPLS)、异步传输模式(ATM)、帧中继(FrameRelay)等)进行传输。此外,在网络代表多个子网络的组合的实施例中,在每个底层子网络上使用不同的网络层协议。在一些实施例中,网络代表一个或多个互连网际网络(例如公共互联网等)。
计算系统206a-f或云计算服务消费者通过网络链路和网络适配器连接到云202。在实施例中,计算系统206a-f被实现为各种计算装置,例如服务器、台式机、膝上型计算机、平板电脑、智能手机、物联网(IoT)设备、自主运载工具(包括小汽车、无人机、航天飞机、火车、公共汽车等)和消费电子产品。在实施例中,计算系统206a-f在其它系统中实现或作为其它系统的一部分实现。
图3例示计算机系统300。在实现中,计算机系统300是一种专用计算装置。专用计算装置被硬连线以执行这些技术,或包括诸如一个或多个专用集成电路(ASIC)或现场可编程门阵列(FPGA)等的被持久编程为进行上述技术的数字电子装置,或可包括一个或多个通用硬件处理器,这些硬件处理器经编程以根据固件、存储器、其它存储器、或者组合中的程序指令执行这些技术。这种专用的计算装置还可以将定制的硬线逻辑、ASIC或FPGA与定制的编程相结合来完成这些技术。在各种实施例中,专用计算装置是台式计算机系统、便携式计算机系统、手持设备、网络设备或包含硬线和/或程序逻辑以实现这些技术的任何其它设备。
在实施例中,计算机系统300包括总线302或用于通信信息的其它通信机制、以及与总线302连接以处理信息的硬件处理器304。硬件处理器304是例如通用微处理器。计算机系统300还包括主存储器306,例如随机存取存储器(RAM)或其它动态存储装置,连接到总线302以存储信息和指令,该信息和指令由处理器304执行。在一个实现中,主存储器306用于在执行要由处理器304执行的指令期间存储临时变量或其它中间信息。当这些指令存储在处理器304可访问的非暂时性存储介质中时,使计算机系统300变成一个专用机器,该机器被定制以执行指令中指定的操作。
在实施例中,计算机系统300还包括只读存储器(ROM)308或连接到总线302的其它静态存储装置,用于存储处理器304的静态信息和指令。提供诸如磁盘、光盘、固态驱动器或三维交叉点存储器等的存储装置310,并连接到总线302以存储信息和指令。
在实施例中,计算机系统300通过总线302连接到诸如阴极射线管(CRT)、液晶显示器(LCD)、等离子体显示器、发光二极管(LED)显示器或用于向计算机用户显示信息的有机发光二极管(OLED)显示器等的显示器312。包括字母数字键和其它键的输入装置314连接到总线302,用于向处理器304传送信息和命令选择。另一种类型的用户输入装置是光标控制器316,例如鼠标、轨迹球、触控显示器或光标方向键,用于将方向信息和命令选择传送到处理器304,并用于控制光标在显示器312上的移动。这种输入装置通常具有两个轴线上的两个自由度,第一轴线(例如,x轴)和第二轴线(例如,y轴),这两个轴线允许装置指定平面上的位置。
根据一个实施例,这里的技术由计算机系统300执行,以响应处理器304执行主存储器306中包含的一个或多个指令的一个或多个序列。这些指令从诸如存储装置310等的另一存储介质读入主存储器306。执行主存储器306中包含的指令序列使处理器304执行本文所述的处理步骤。在替代实施例中,使用硬连线电路代替或与软件指令结合使用。
此处使用的术语“存储介质”是指存储数据和/或指令的任何非暂时性介质,这些数据和/或指令使机器以特定方式运行。这种存储介质包括非易失性介质和/或易失性介质。非易失性介质例如包括诸如存储装置310等的光盘、磁盘、固态驱动器或三维交叉点存储器。易失性介质包括动态存储器,诸如主存储器306等。存储介质的常见形式包括例如软盘、软盘、硬盘、固态驱动器、磁带或任何其它磁数据存储介质、CD-ROM、任何其它光数据存储介质、任何具有孔型的物理介质、RAM、PROM和EPROM、FLASH-EPROM、NV-RAM、或任何其它存储芯片或存储盒。
存储介质有别于传输介质,但可以与传输介质相结合使用。传输介质参与存储介质之间的信息传输。例如,传输介质包括同轴电缆、铜线和光纤,其包括具备总线302的电线。传输介质也可以采取声波或光波的形式,如在无线电波和红外数据通信过程中产生的声波或光波。
在实施例中,各种形式的介质涉及向处理器304携带一个或多个指令序列以供执行。例如,这些指令最初是在远程计算机的磁盘或固态驱动器上执行的。远程计算机将指令加载到其动态存储器中,并使用调制解调器通过电话线路发送指令。计算机系统300的本地调制解调器接收电话线路上的数据,并使用红外发射机将数据转换为红外信号。红外检测器接收红外信号中携带的数据,并且适当的电路将数据放置在总线302上。总线302将数据承载到主存储器306,处理器304从主存储器306检索并执行指令。主存储器306接收的指令可以任选地在处理器304执行之前或之后存储在存储装置310上。
计算机系统300还包括连接到总线302的通信接口318。通信接口318提供耦合到连接至本地网络322的网络链路320多双向数据通信。例如,通信接口318是综合业务数字网(ISDN)卡、电缆调制解调器、卫星调制解调器或用以提供与相应类型电话线路的数据通信连接的调制解调器。作为另一示例,通信接口318是局域网(LAN)卡,用于提供与兼容LAN的数据通信连接。在一些实现中,无线链路也被实现。在任何这种实现中,通信接口318发送和接收承载代表各种信息的数字数据流的电、电磁或光信号。
网络链路320通常通过一个或多个网络向其它数据装置提供数据通信。例如,网络链路320通过本地网络322提供与主计算机324或与由因特网服务提供商(ISP)326运营的云数据中心或设备的连接。ISP 326又通过现在通常称为“因特网”的世界范围分组数据通信网络来提供数据通信服务。本地网络322和因特网328都使用携带数字数据流的电、电磁或光信号。通过各种网络的信号以及网络链路320上并通过通信接口318的信号是传输介质的示例形式,其中通信接口318承载了进出计算机系统300的数字数据。在实施例中,网络320包含上述云202或云202的一部分。
计算机系统300通过(一个或多个)网络、网络链路320和通信接口318发送消息和接收包括程序代码的数据。在实施例中,计算机系统300接收用于处理的代码。接收到的代码在接收到时由处理器304执行,和/或存储在存储装置310中,或存储在其它非易失性存储装置中以便以后执行。
自主运载工具架构
图4示出用于自主运载工具(例如,图1所示的AV 100)的示例架构400。架构400包括感知模块402(有时称为感知电路)、规划模块404(有时称为规划电路)、控制模块406(有时称为控制电路)、定位模块408(有时称为定位电路)和数据库模块410(有时称为数据库电路)。各模块在AV 100的操作中发挥作用。共同地,模块402、404、406、408和410可以是图1所示的AV系统120的一部分。在一些实施例中,模块402、404、406、408和410中的任何模块是计算机软件(例如,计算机可读介质上所存储的可执行代码)和计算机硬件(例如,一个或多个微处理器、微控制器、专用集成电路[ASIC]、硬件存储器装置、其它类型的集成电路、其它类型的计算机硬件、或者这些硬件中的任何或所有的组合)的组合。
在使用中,规划模块404接收表示目的地412的数据,并且确定表示AV 100为了到达(例如,抵达)目的地412而可以行驶的轨迹414(有时称为路线)的数据。为了使规划模块404确定表示轨迹414的数据,规划模块404从感知模块402、定位模块408和数据库模块410接收数据。
感知模块402使用例如也如图1所示的一个或多个传感器121来识别附近的物理对象。将对象分类(例如,分组成诸如行人、自行车、汽车、交通标志等的类型),并且将包括经分类的对象416的场景描述提供至规划模块404。
规划模块404还从定位模块408接收表示AV位置418的数据。定位模块408通过使用来自传感器121的数据和来自数据库模块410的数据(例如,地理数据)以计算位置来确定AV位置。例如,定位模块408使用来自GNSS(全球导航卫星系统)传感器的数据和地理数据来计算AV的经度和纬度。在实施例中,定位模块408所使用的数据包括具有行车道几何属性的高精度地图、描述道路网络连接属性的地图、描述行车道物理属性(诸如交通速率、交通量、运载工具和自行车车道的数量、车道宽度、车道交通方向、或车道标记类型和地点,或者它们的组合)的地图、以及描述道路特征(诸如十字路口、交通标志或各种类型的其它行驶信号等)的空间地点的地图。
控制模块406接收表示轨迹414的数据和表示AV位置418的数据,并且以将使得AV100行驶轨迹414到达目的地412的方式来操作AV的控制功能420a~420c(例如,转向、油门、制动、点火)。例如,如果轨迹414包括左转,则控制模块406将以如下方式操作控制功能420a~420c:转向功能的转向角度将使得AV 100左转,并且油门和制动将使得AV 100在进行转弯之前暂停并等待经过的行人或运载工具。
自主运载工具输入
图5示出感知模块402(图4)所使用的输入502a-502d(例如,图1中所示的传感器121)和输出504a-504d(例如,传感器数据)的示例。一个输入502a是LiDAR(光检测和测距)系统(例如,图1所示的LiDAR 123)。LiDAR是使用光(例如,诸如红外光等的一道光)来获得与其视线中的物理对象有关的数据的技术。LiDAR系统产生LiDAR数据作为输出504a。例如,LiDAR数据是用于构造环境190的表现的3D或2D点(也称为点云)的集合。
另一输入502b是RADAR(雷达)系统。RADAR是使用无线电波来获得与附近的物理对象有关的数据的技术。RADAR可以获得与不在LiDAR系统的视线内的对象有关的数据。RADAR系统502b产生RADAR数据作为输出504b。例如,RADAR数据是用于构造环境190的表现的一个或多个射频电磁信号。
另一输入502c是照相机系统。照相机系统使用一个或多个照相机(例如,使用诸如电荷耦合器件[CCD]等的光传感器的数字照相机)来获取与附近的物理对象有关的信息。照相机系统产生照相机数据作为输出504c。照相机数据通常采用图像数据的形式(例如,诸如RAW、JPEG、PNG等的图像数据格式的数据)。在一些示例中,照相机系统具有例如为了立体影像(立体视觉)的目的的多个独立照相机,这使得照相机系统能够感知深度。尽管照相机系统所感知的对象在这里被描述为“附近”,但这是相对于AV而言的。在使用中,照相机系统可被配置为“看见”远处的(例如,AV前方的远至1公里以上的)对象。因此,照相机系统可以具有为了感知遥远的对象而优化的诸如传感器和透镜等的特征。
另一输入502d是交通灯检测(TLD)系统。TLD系统使用一个或多个照相机来获得与交通灯、街道标志和提供视觉导航信息的其它物理对象有关的信息。TLD系统产生TLD数据作为输出504d。TLD数据经常采用图像数据的形式(例如,诸如RAW、JPEG、PNG等的图像数据格式的数据)。TLD系统与包含照相机的系统的不同之处在于:TLD系统使用具有宽视场(例如,使用广角镜头或鱼眼镜头)的照相机,以获得与尽可能多的提供视觉导航信息的物理对象有关的信息,使得AV 100有权访问这些对象所提供的所有相关导航信息。例如,TLD系统的视角可以为约120度以上。
在一些实施例中,使用传感器融合技术来组合输出504a-504d。因而,将个体输出504a-504d提供至AV 100的其它系统(例如,提供至如图4所示的规划模块404),或者采用相同类型(例如,使用相同组合技术或组合相同输出或者这两者)或不同类型(例如,使用不同的各个组合技术或组合不同的各个输出或者这两者)的单个组合输出或多个组合输出的形式,可以将组合输出提供至其它系统。在一些实施例中,使用早期融合技术。早期融合技术的特征在于:将输出组合,之后将一个或多个数据处理步骤应用到组合输出。在一些实施例中,使用后期融合技术。后期融合技术的特征在于:在将一个或多个数据处理步骤应用到个体输出之后,将输出组合。
图6示出LiDAR系统602的示例(例如,图5所示的输入502a)。LiDAR系统602从发光器606(例如,激光发射器)发射光604a-604c。LiDAR系统所发射的光通常不在可见光谱中;例如,经常使用红外光。所发射的光604b中的一些光遇到物理对象608(例如,运载工具)并且反射回到LiDAR系统602。(从LiDAR系统发射的光通常不会穿透物理对象,例如,实心形式的物理对象。)LiDAR系统602还具有用于检测反射光的一个或多个光检测器610。在实施例中,与LiDAR系统相关联的一个或多个数据处理系统生成表示LiDAR系统的视场614的图像612。图像612包括表示物理对象608的边界616的信息。这样,图像612用于确定AV附近的一个或多个物理对象的边界616。
图7示出操作中的LiDAR系统602。在该图所示的情境中,AV 100接收采用图像702的形式的照相机系统输出504c和采用LiDAR数据点704的形式的LiDAR系统输出504a。在使用中,AV 100的数据处理系统将图像702与数据点704进行比较。特别地,在数据点704中也识别出在图像702中识别出的物理对象706。这样,AV 100基于数据点704的轮廓和密度来感知物理对象的边界。
图8示出LiDAR系统602的操作的附加细节。如上所述,AV 100基于LiDAR系统602所检测到的数据点的特性来检测物理对象的边界。如图8所示,诸如地面802等的平坦对象将以一致的方式反射从LiDAR系统602发射的光804a-804d。换句话说,由于LiDAR系统602使用一致的间隔发射光,因此地面802将以相同的一致间隔将光反射回到LiDAR系统602。在AV100在地面802上行驶时,在没有东西阻挡道路的情况下,LiDAR系统602将继续检测到由下一个有效地面点806反射的光。然而,如果对象808阻挡道路,则LiDAR系统602所发射的光804e-804f将以不符合预期一致方式的方式从点810a-810b反射。根据该信息,AV 100可以确定为存在对象808。
路径规划
图9示出(例如,如图4所示的)规划模块404的输入和输出之间的关系的框图900。通常,规划模块404的输出是从起点904(例如,源地点或初始地点)到终点906(例如,目的地或最终地点)的路线902。路线902通常由一个或多个路段定义。例如,路段是指要行驶经过街道、道路、公路、行车道或适合汽车行驶的其它物理区域的至少一部分的距离。在一些示例中,例如,如果AV 100是诸如四轮驱动(4WD)或全轮驱动(AWD)小汽车、SUV或小型卡车等的越野运载工具,则路线902包括诸如未铺面道路或开阔田野等的“越野”路段。
除路线902之外,规划模块还输出车道级路线规划数据908。车道级路线规划数据908用于在特定时间基于路线902的路段的条件来驶过这些路段。例如,如果路线902包括多车道公路,则车道级路线规划数据908包括轨迹规划数据910,其中AV 100可以使用该轨迹规划数据910以例如基于出口是否临近、多个车道中的一个以上的车道是否存在其它运载工具、或者在几分钟或更少时间的过程中变化的其它因素,来从这多个车道中选择某车道。同样地,在一些实现中,车道级路线规划数据908包括路线902的某路段特有的速率约束912。例如,如果该路段包括行人或非预期交通,则速率约束912可以将AV 100限制到比预期速率慢的行驶速率,例如基于该路段的限速数据的速率。
在实施例中,向规划模块404的输入包括(例如,来自图4所示的数据库模块410的)数据库数据914、当前地点数据916(例如,图4所示的AV位置418)、(例如,用于图4所示的目的地412的)目的地数据918和对象数据920(例如,如图4所示的感知模块402所感知的经分类的对象416)。在一些实施例中,数据库数据914包括规划时所使用的规则。规则是使用形式语言(例如,使用布尔逻辑)指定的。在AV 100所遇到的任何给定情形中,这些规则中的至少一些规则将适用于该情形。如果规则具有基于AV 100可用的信息(例如,与周围环境有关的信息)所满足的条件,则该规则适用于给定情形。规则可以具有优先级。例如,“如果公路是高速公路,则移动到最左侧车道”这一规则与“如果出口在一英里内临近,则移动到最右侧车道”相比可以具有更低的优先级。
图10示出在路径规划中(例如,由规划模块404(图4))使用的有向图1000。通常,如图10所示的有向图那样的有向图1000用于确定任何起点1002和终点1004之间的路径。在现实世界中,分隔起点1002和终点1004的距离可能相对较大(例如,在两个不同的都市区域中),或者可能相对较小(例如,毗邻城市街区的两个十字路口或多车道道路的两条车道)。
在实施例中,有向图1000具有表示起点1002和终点1004之间的AV 100可能占用的不同地点的节点1006a-1006d。在一些示例中,例如,在起点1002和终点1004表示不同的都市区域时,节点1006a-1006d表示道路的路段。在一些示例中,例如,在起点1002和终点1004表示相同道路上的不同地点时,节点1006a-1006d表示该道路上的不同位置。这样,有向图1000包括不同粒度级别的信息。在实施例中,具有高粒度的有向图也是具有更大规模的另一有向图的子图。例如,起点1002和终点1004相距远(例如,相距许多英里)的有向图的大部分信息处于低粒度,并且该有向图基于所存储的数据,但该有向图还包括供该有向图中的表示AV 100的视场中的物理地点的一部分用的一些高粒度信息。
节点1006a-1006d不同于无法与节点重叠的对象1008a-1008b。在实施例中,在粒度低时,对象1008a-1008b表示汽车不能驶过的地区,例如无街道或道路的区域。在粒度高时,对象1008a-1008b表示AV 100的视场中的物理对象,例如其它汽车、行人、或AV 100不能与之共用物理空间的其它实体。在实施例中,对象1008a-1008b的一部分或全部是静态对象(例如,不改变位置的对象,诸如街灯或电线杆等)或动态对象(例如,能够改变位置的对象,诸如行人或其它小汽车等)。
节点1006a-1006d通过边缘1010a-1010c连接。如果两个节点1006a-1006b通过边缘1010a连接,则AV 100可以在一个节点1006a和另一节点1006b之间行驶,例如,而不必在到达另一节点1006b之前行驶到中间节点。(当提到AV100在节点之间行驶时,意味着AV 100在由相应节点表示的两个物理位置之间行驶。)边缘1010a-1010c通常是双向的,从某种意义上,AV 100从第一节点行驶到第二节点,或者从第二节点行驶到第一节点。在实施例中,边缘1010a-1010c是单向的,从某种意义上,AV 100可以从第一节点行驶到第二节点,然而AV 100不能从第二节点行驶到第一节点。在边缘1010a-1010c表示例如单向街道、街道、道路或公路的单独车道、或者由于法律或物理约束因而仅能沿一个方向驶过的其它特征的情况下,边缘1010a-1010c是单向的。
在实施例中,规划模块404使用有向图1000来识别由起点1002和终点1004之间的节点和边缘组成的路径1012。
边缘1010a-1010c具有关联成本1014a-1014b。成本1014a-1014b是表示在AV 100选择该边缘的情况下将花费的资源的值。典型的资源是时间。例如,如果一个边缘1010a所表示的物理距离是另一边缘1010b所表示的物理距离的两倍,则第一边缘1010a的关联成本1014a可以是第二边缘1010b的关联成本1014b的两倍。影响时间的其它因素包括预期交通、十字路口的数量、限速等。另一典型的资源是燃料经济性。两个边缘1010a-1010b可以表示相同的物理距离,但例如由于道路条件、预期天气等,因此一个边缘1010a与另一边缘1010b相比需要更多的燃料。
在规划模块404识别起点1002和终点1004之间的路径1012时,规划模块404通常选择针对成本优化的路径,例如,在将边缘的各个成本相加到一起时具有最小总成本的路径。
自主运载工具控制
图11示出(例如,如图4所示的)控制模块406的输入和输出的框图1100。控制模块根据控制器1102而工作,该控制器1102例如包括:与处理器304类似的一个或多个处理器(例如,诸如微处理器或微控制器或这两者等的一个或多个计算机处理器);与主存储器306、ROM 308和存储装置310类似的短期和/或长期数据存储装置(例如,存储器随机存取存储器或闪速存储器或这两者);以及存储器中所存储的指令,这些指令在(例如,由一个或多个处理器)执行时执行控制器1102的操作。
在实施例中,控制器1102接收表示期望输出1104的数据。期望输出1104通常包括速度,例如速率和航向。期望输出1104例如可以基于从(例如,如图4所示的)规划模块404接收到的数据。根据期望输出1104,控制器1102产生可用作油门输入1106和转向输入1108的数据。油门输入1106表示例如通过接合转向踏板或接合另一油门控件来接合AV 100的油门(例如,加速控制)以实现期望输出1104的大小。在一些示例中,油门输入1106还包括可用于接合AV100的制动器(例如,减速控制)的数据。转向输入1108表示转向角度,例如AV的转向控制(例如,方向盘、转向角致动器或用于控制转向角度的其它功能)应被定位成实现期望输出1104的角度。
在实施例中,控制器1102接收在调整提供至油门和转向的输入时使用的反馈。例如,如果AV 100遇到诸如山丘等的干扰1110,则AV 100的测量速率1112降至低于期望输出速率。在实施例中,任何测量输出1114均被提供至控制器1102,使得例如基于测量速率和期望输出之间的差分1113来进行所需的调整。测量输出1114包括测量位置1116、测量速度1118(包括速率和航向)、测量加速度1120和AV 100的传感器可测量的其它输出。
在实施例中,例如通过诸如照相机或LiDAR传感器等的传感器预先检测与干扰1110有关的信息,并且该信息被提供至预测性反馈模块1122。然后,预测性反馈模块1122将控制器1102可用于相应地调整的信息提供至控制器1102。例如,如果AV 100的传感器检测到(“看见”)山丘,则控制器1102可以使用该信息来准备在适当时间接合油门,以避免显著减速。
图12示出控制器1102的输入、输出和组件的框图1200。控制器1102具有影响油门/制动器控制器1204的操作的速率分析器1202。例如,速率分析器1202根据例如由控制器1102接收到并由速率分析器1202处理后的反馈,来指示油门/制动器控制器1204使用油门/制动器1206进行加速或进行减速。
控制器1102还具有影响方向盘控制器1210的操作的横向跟踪控制器1208。例如,横向跟踪控制器1208根据例如由控制器1102接收到并由横向跟踪控制器1208处理后的反馈,来指示方向盘控制器1210调整转向角致动器1212的位置。
控制器1102接收用于确定如何控制油门/制动器1206和转向角致动器1212的多个输入。规划模块404提供控制器1102例如选择AV 100开始操作时的航向并确定在AV 100到达十字交叉路口时驶过哪个道路路段所使用的信息。定位模块408例如将描述AV 100的当前地点的信息提供至控制器1102,使得控制器1102可以确定AV 100是否处于基于正控制油门/制动器1206和转向角致动器1212的方式而预期所处的地点。在实施例中,控制器1102接收来自其它输入1214的信息,例如从数据库、计算机网络等接收到的信息。
交通灯检测
图13示出具有交通灯检测系统的示例性自主运载工具(AV)1300。AV 1300可以与上述的AV 100基本上相同。AV 1300包括以圆形配置分布在AV 1300周围的多个对象检测传感器1302,从而允许对接近AV 1300的对象的360覆盖和跟踪。在一些实施例中,对象检测传感器可以采用被配置为确定有可能对AV 1300的安全操作构成危险的对象的光学传感器的形式。为了准确地检测和表征对象,对象检测传感器1302具有自动曝光控制,该自动曝光控制允许光学传感器适应于变化的光照条件,使得不论光照条件如何,接近AV 1300的对象都清楚地保持在由对象检测传感器1302捕获到的影像中。在其它实施例中,对象检测传感器1302中的一个或多个可以是诸如LiDAR或RADAR传感器等的非成像传感器。除了提供对象检测数据之外,对象检测传感器1302中的一个或多个还可以为交通灯检测系统提供数据。
图13还示出位于AV 1300的车顶的中心区域的交通灯检测传感器1304。交通灯检测传感器1304可以是成像传感器,并且可被升高到对象检测传感器1302的上方以避免对象检测传感器阻挡交通灯检测传感器1304的视场的情形。交通灯检测传感器1304可以因支撑结构或者简单地由AV 1300的车顶的曲度升高。例如,具有凸形的车顶自然地将对象检测传感器1304放置在其它对象检测传感器的上方。这对于防止对象检测传感器1302-1遮掩交通灯检测传感器1304的视场特别重要。尽管注意到仅示出交通灯检测传感器,但应当理解,其它交通灯检测传感器也是可以的。例如,可以并排安装两个对象检测传感器以提供由交通信号发射的光的立体成像。
交通灯检测传感器1304可以被特别调谐用于检测交通灯所发射的光量。例如,可以设置交通灯检测传感器1304的快门速度、光圈和ISO,以实现经调整以帮助区分交通灯所发射的光的大小和颜色的期望曝光水平。尽管交通灯通常将被称为经常仅具有红色、黄色和绿色圆圈的信号,但术语交通灯可以是更广义的并且通常应被解释为意味着被配置成将驾驶信息传送至自主运载工具的任何发光信号。通过将交通灯检测传感器调整到通常由交通信号发射的光量,交通灯检测传感器1304所检测到的影像的视场中的其它对象可能过亮或过暗。这可以防止影像清楚地示出所发射的光是来自交通灯还是来自运载工具。与交通灯检测传感器1304对准的对象检测传感器1302-1可以根据与各传感器相关联的光学器件的焦距而共享非常类似的视场。当视场类似时,这允许由对象检测传感器1302-1生成的影像补充由交通灯检测传感器1304收集到的影像。当交通灯检测传感器1304的视场与对象检测传感器1302-1相比宽得多时,由交通灯检测传感器1304收集的影像的侧向部分可以由对象检测传感器1302-2和1302-3补充。
可以用各种方式补充影像数据。例如,可以组合图像以创建清楚地示出交通信号的特征和由交通信号发射的光这两者的高动态范围(HDR)影像。在其它实施例中,可以从两个传感器顺次运行分析。在一些实施例中,分析从交通灯检测传感器所生成的影像中检测到的光,之后可以使用来自对象检测传感器1302-1的影像来确定各检测到的光是否是从至少类似交通灯的对象发射的。以这种方式,来自对象检测传感器的影像可用于拒绝在交通灯检测系统仅依赖于交通灯检测传感器1304的情况下亦可能与交通灯混淆的光检测。
图14A示出在AV 1300接近街道1402和街道1404的交叉口时由交通灯检测传感器1304捕获到的示例性图像1400。对象检测传感器1302-1在图像1400的下部区域中是可见的,并且仅遮掩图像1400中的不太可能包含交通信号的一小部分。图像1400还示出图像1400可以如何包括并非所有都与自主运载工具1300相关的大量交通信号。如图14A所示,交通信号1406、1408和1410全部为自主运载工具1300提供即将到来的交叉口的状况。不幸地,向在十字街1404上行驶的运载工具提供交叉口状况的交通信号1408和1410也可以是可见的,并且可以发射具有冲突状况的光。在无任何附加的提示或信息源来补充在图像1400中捕获到的内容的情况下,试图确定交叉口的状况的处理器在看见指示不同状况的交通灯时,可能变得容易困惑。
图14B示出可以将图像1400内的交通灯彼此区分开的一个方式。当接近街道1402和1404的交叉口时,诸如与交通检测系统相关联的处理器146等的处理器可被配置为确定已知位于交叉口且与自主运载工具1300的当前行驶方向相关的各个交通信号的地点。该信息可以通过参考本地存储的或云可访问的地图数据来获得。然后,处理器146被配置为基于所确定的交通灯的地点来估计图像1400内的各个相关交通灯的地点。处理器146还估计在从由诸如传感器121(参见图1)等的传感器提供的地点数据导出的捕获到图像1400的时间、在AV 1300的地点上的图像1400内的交通灯的地点。当交通灯的地点数据还包括状况标记的高度时,处理器146能够估计图像1400内的交通信号的地点。在无高度数据可用的情况下,可以使用平均交通信号高度或可能高度的范围来帮助进行准确估计。应当注意,在一些实施例中,处理器146可被配置为获得交叉口处的所有灯的交通信号地点,以辅助识别与AV1300的当前行驶方向不相关的返回。
由于图像1400内的各交通信号的估计地点可能由于诸如照相机校准、地图数据准确度或来自传感器121的位置数据的准确度而略微偏移,因此处理器146可被配置为选择图像1400中的以估计地点为中心且足够大以具有包括特定交通信号的高置信度的部分。例如,处理器146选择了图像1400中的处理器146确定了各个交通信号1410和1408应位于的第一部分1416和第二部分1418。如图所示,这导致处理器146从处理器146分析的图像中与交通信号1408和1410相关联的部分中消除任何其它交通信号。不幸地,图像1400的第三部分1420包括三个不同的交通信号。处理器146可以使用许多不同的算法来确定哪个交通信号是交通信号1406,但主要方法是确定第三部分1420内的交通信号中的哪个交通信号离第三部分1420的中心最近。在该特定示例中,由于交通信号1408遥远而偏向第三部分1420的一侧,因此交通信号1408可以由处理器1406考虑删除。不幸地,交通信号1412和1406这两者都非常接近第三部分1420的中心,因此可能需要处理器146考虑附加因素。例如,处理器146能够基于由各交通信号发射的光的大小和/或形状来区分这两个交通信号。就形状而言,由交通信号1406发射的光将具有圆形图案,而从交通信号1412发射的光由于其远离交通灯检测系统而定向因而将具有更椭圆的图案。此外,由交通信号1406发射的照明图案的大小与由交通信号1412发射的光相比也将更大且更接近预期照明图案大小。这样,可以将由五个不同的交通信号产生的各种照明图案彼此区分开。
图15A-15B示出历史数据,该历史数据指示图像的所选部分内的交通信号的检测位置在X轴和Y轴上如何以不同方式变化。由于该原因,所选部分或如图14B所示的虚线框的高度可以不同于其宽度。在曲线图1502和1504中描绘的位置变化示出所估计的X轴位置如何趋向于比所估计的Y轴位置略微更准确。Y轴上的变化性更高的可能原因包括:大多数交通信号的朝向是垂直的;各交通信号的高度的准确度较低;以及照相机校准在Y轴中与在X轴中相比更不稳定。不论原因如何,都可以使用位置变化性数据来生成用于控制交通灯的所选部分的大小和宽高比的缩放因子。用于控制图像的所选部分的大小的其它因素包括与各传感器相关联的光学器件的焦距以及成像传感器和交通灯之间的距离。通过如下的方程(1)给出可用于指示图像的所选部分的大小的一个方程:
如上所述,Sx和Sy是根据历史数据所确定的缩放因子。可变的fcamera是传感器的固定焦距,并且ΔDistance to TL是传感器和交通灯之间的当前距离。如从该方程可以理解,假定fcamera和缩放值这两者都是恒定的,则随着传感器和交通灯之间的距离减小,框的大小增大。通过随着距离改变所选部分的大小,处理器能够保持交通信号的大小相对于所选部分的大小相对恒定。在一些实施例中,这可以帮助正由处理器146运行的机器学习算法更有效地进行,因为正分析的数据保持不变,但随着自主运载工具1300逐渐更接近交通灯而具有越来越高的分辨率。
图16A-16B示出由交通灯检测传感器1304在时间T1捕获到的第一图像1602和在时间T2捕获到的第二图像1604。在图16A中,第一图像1602中的与交通信号1608相关联的所选部分1606在图16A的图像1602中与在图16B的图像1604中相比被描绘得明显更小。图像1602和1604的所选部分的比较示出所选部分如何维持各交通信号相对于捕获图像的所选部分的大小一致。该缩放与上述方程(1)一致。应当注意,一旦定义了所选部分,就可能无法确定交通信号状况。例如,交通信号1608可能太小而不能在图像1602中在第一时间检测到,并且随后变得足够大以从图像1604中在第二时间辨别出其状态。还应当注意,交通灯的状态可以在连续捕获到的图像之间改变。在这样的情景中,在确定为新颜色不是由传感器的遮掩或光照的突然变化引起之后,可以确认新状况。当新颜色出现在阈值数量的图像中、以及/或者颜色变化的浓淡与在先前图像中相比具有显著不同的色相和/或形状时,可以做出这样的确定。当交通灯检测系统正使用的传感器能够在交叉口在多于一个的交通信号中观察到相同的变化时,可以更快地建立与该新状况相关联的置信度得分。
图17示出分析来自两个不同类型的传感器的影像避免了交通信号的状态的误表征的示例性情景。特别地,图17示出采用位于自主运载工具1300和交通信号1704之间的足够高以遮掩针对交通信号1704的直接视线的公共汽车1702的形式的大型运载工具。交通信号1704是利用虚线指示的以示出其地点,同时强调其在公共汽车1702后方的被遮掩地点。在低光情景中,仅依赖于交通灯检测传感器1304可能导致考虑到公共汽车1702的尾灯1706在所选部分1708内的中心位置而将尾灯1706误表征为交通信号1704。在不存在来自具有自动曝光配置的对象检测传感器的影像的情况下,仅由交通灯检测传感器1304捕获到的影像可能太暗而不能将公共汽车1702的形状与交通信号1704的形状区分开。在这样的单个传感器情景中,如果交通信号1710与自主运载工具1300的交通灯检测传感器1304所检测到的误表征确定尾灯状况不匹配,则自主运载工具1300可能在其无需停止时停止、或者不必要地报告系统错误。
图18示出描绘用于交通灯检测和表征的方法的流程图1800。在1802中,该方法包括:使用联接至自主运载工具的传感器来捕获图像。在1804中,使用处理电路来获得表示在捕获到图像时的自主运载工具的地点的数据(例如,GPS数据)。在1806中,处理电路获得表示交通灯的地点的数据。在1808中,处理电路基于所获得的交通灯的地点和所获得的自主运载工具的地点(例如,相对于自主运载工具的地点的交通灯的地点)来选择图像中的包括交通灯的部分。在1810中,处理电路通过分析图像的所选部分来确定交通灯的状态(例如,无需分析图像的未选择部分以确定交通灯的状态)。最后,在1812中,控制电路根据所确定的交通灯的状态来导航自主运载工具。
在先前描述中,已经参考许多具体细节描述了本发明的实施例,这些具体细节可因实现而不同。因此,说明书和附图应被视为说明性的,而非限制性意义的。本发明范围的唯一且排他的指示、以及申请人期望是本发明范围的内容是以发布权利要求书的具体形式从本申请发布的权利要求书的字面和等同范围,包括任何后续修正。本文中明确阐述的用于被包括在此类权利要求中的术语的任何定义应当以此类术语如在权利要求书中所使用的意义为准。另外,当在先前的说明书或所附权利要求书使用术语“还包括”时,该短语的下文可以是附加的步骤或实体、或先前所述的步骤或实体的子步骤/子实体。
以下的项描述本发明所涵盖的各种实施例:
1.一种方法,包括:
使用联接至自主运载工具的传感器来捕获图像;
使用处理电路来获得表示在捕获到所述图像时的所述自主运载工具的地点的数据;
使用所述处理电路来获得表示交通灯的地点的数据;
使用所述处理电路,基于所获得的所述交通灯的地点和所获得的所述自主运载工具的地点来选择所述图像中的包括所述交通灯的部分;
使用所述处理电路,通过分析所述图像的所选部分来确定所述交通灯的状态;以及
通过控制电路,根据所确定的所述交通灯的状态来操作所述自主运载工具。
2.根据项1所述的方法,还包括:在选择所述图像的所述部分之前,将相对于所获得的所述自主运载工具的地点的所获得的所述交通灯的地点与所述图像中的地点相关。
3.根据项1或2所述的方法,其中,选择所述图像的所述部分包括:基于所述自主运载工具和所述交通灯之间的距离来确定所述图像的所选部分的大小。
4.根据项1至3中任一项所述的方法,还包括:基于后续的所述自主运载工具相对于所述交通灯的地点来选择后续捕获图像的部分。
5.根据项1至4中任一项所述的方法,还包括:
选择所述图像中的包括另一交通灯的第二部分;以及
分析所述图像的所述第二部分,以确定所述另一交通灯的状态,
其中,通过所述控制电路来操作所述自主运载工具是根据所确定的所述交通灯的状态和所确定的所述另一交通灯的状态来进行的。
6.根据项5所述的方法,还包括:
确定所述交通灯的状态与所述另一交通灯的状态是否匹配。
7.根据项1所述的方法,其中,确定所述交通灯的状态包括:确定由位于所述图像的所选部分内的所述交通灯所发射的光的颜色和形状。
8.根据项7所述的方法,其中,所确定的所述交通灯的状态是黄色箭头。
9.根据项8所述的方法,还包括:使用所述处理电路,通过参考交通灯数据库来确定所述箭头的方向,所述交通灯数据库包括已知要由所述交通灯所显示的一个或多个箭头的方向。
10.根据项1至7中任一项所述的方法,还包括:确定所确定的所述交通灯的状态的置信度。
11.根据项10所述的方法,其中,所确定的所述交通灯的状态的所述置信度至少部分地基于所述图像中的被所检测到的由所述交通灯发射的光所占据的区域相对于所述图像中预期的被所述交通灯发射的光所占据的区域。
12.根据项1至11中任一项所述的方法,其中,所述传感器是第一光学传感器,并且所述图像是第一图像,以及其中,所述方法还包括:
使用第二光学传感器来捕获第二图像;以及
使用所述处理电路来选择所述第二图像中的包括所述交通灯的部分,
其中,确定所述交通灯的状态包括:分析所述第二图像的所选部分。
13.根据项12所述的方法,其中,所述第一光学传感器是固定曝光传感器,并且所述第二光学传感器是自动曝光传感器。
14.根据项13所述的方法,其中,所述第一光学传感器的操作参数具有适合于检测交通灯所发射的平均照明量的值。
15.根据项1所述的方法,其中,所述图像是在从所述交通灯起的第一距离处捕获到的第一图像,并且所述第一图像的所选部分是第一部分,以及其中,所述方法还包括:
在从所述交通灯起的第二距离处捕获第二图像,所述第二距离短于所述第一距离;以及
选择所述第二图像的第二部分,所述第二部分大于所述第一部分,使得所述交通信号的高度相对于所述第一图像中的所述第一部分的高度的第一比与所述交通信号的高度相对于所述第二图像中的所述第二部分的高度的第二比大致相同。
16.根据项1至15中任一项所述的方法,其中,所述图像的所选部分的高度大于所述图像的所选部分的宽度。
17.根据项1至16中任一项所述的方法,其中,所述图像的所选部分的大小基于所述图像内的所述交通灯的预测地点的估计准确度,其中所述估计准确度基于从先前捕获到的图像生成的历史数据。
18.根据项17所述的方法,其中,在所述图像中的所述交通灯的垂直位置的估计准确度低于所述图像中的所述交通灯的水平位置的估计准确度的情况下,所述图像的所选部分的高度大于所述图像的所选部分的宽度。
19.一种存储有指令的非暂时性存储介质,所述指令在由一个或多个计算装置执行时,使得进行根据项1至18中任一项所述的方法。
20.一种装置,包括:
处理电路;
控制电路;以及
存储有一个或多个程序的存储器,所述一个或多个程序被配置为由所述处理电路和所述控制电路执行,所述一个或多个程序包括用于进行根据项1至18中任一项所述的方法的指令。
21.一种自主运载工具,包括:
用于捕获图像的部件;
用于获得表示在捕获到所述图像时的所述自主运载工具的地点的数据的部件;
用于获得表示交通灯的地点的数据的部件;
用于基于所获得的所述交通灯的地点和所获得的所述自主运载工具的地点来选择所述图像中的包括所述交通灯的部分的部件;
用于通过分析所述图像的所选部分来确定所述交通灯的状态的部件;以及
用于根据所确定的所述交通灯的状态来操作所述自主运载工具的部件。
22.一种方法,包括:
使用具有固定曝光配置的第一传感器来捕获包括交通灯的第一图像;
使用具有自动曝光配置的第二传感器来捕获包括所述交通灯的第二图像,所述第一传感器和所述第二传感器联接至自主运载工具;
使用处理电路,通过分析所述第一图像和所述第二图像来确定所述交通灯的状态;以及
使用控制电路,根据所确定的所述交通灯的状态来操作所述自主运载工具。
23.根据项22所述的方法,其中,所述第一传感器的操作参数具有非常适合于检测所述交通灯的平均照明强度的固定值。
24.根据项22或23所述的方法,其中,所述第一传感器的第一视场不同于所述第二传感器的第二视场并且与所述第二视场重叠。
25.根据项22至24中任一项所述的方法,其中,所述第一传感器的焦距不同于所述第二传感器的焦距。
26.根据项22至25中任一项所述的方法,其中,所述第二传感器相对于所述自主运载工具位于所述第一传感器的前方和下方。
27.根据项22至26中任一项所述的方法,还包括:使用所述处理电路来分析所述第二图像以识别移动对象。
28.根据项22至27中任一项所述的方法,其中,根据所确定的所述交通灯的状态来操作所述自主运载工具包括:根据所确定的所述交通灯的状态是红色圆圈或红色箭头,来停止所述自主运载工具。
29.根据项22至28中任一项所述的方法,还包括:
使用所述第二传感器和具有自动曝光配置的第三传感器来跟踪一个或多个对象的地点。
30.根据项29所述的方法,其中,所述第二传感器的视场的至少一半位于所述第三传感器的视场之外。
31.根据项22至30中任一项所述的方法,还包括:
选择所述第一图像和所述第二图像中的包括所述交通灯的部分,
其中,分析所述第一图像和所述第二图像包括:仅分析所述第一图像和所述第二图像的所选部分。
32.根据项31所述的方法,其中,确定所述交通灯的状态还包括:
根据确定为所述第一图像和所述第二图像的所选部分包括多个灯,将所述多个灯中的灯确定为所述交通灯,确定所述多个灯中的哪个灯是所述交通灯与来自所述第一传感器的读数相比更多地基于来自所述第二传感器的读数。
33.根据项22至32中任一项所述的方法,其中,确定所述交通灯的状态包括:通过参考由所述交通灯发射的第一光在所述第一图像和所述第二图像内的预期地点,来将所述第一光与由另一光源发射的第二光区分开。
34.根据项33所述的方法,其中,分析所述第一图像和所述第二图像包括:仅分析所述第一图像的第一部分和所述第二图像的第二部分,其中所述第一光和所述第二光在所述第一图像的所述第一部分和所述第二图像的所述第二部分中是可见的。
35.根据项22至34中任一项所述的方法,其中,所述自主运载工具包括第三传感器,所述第三传感器被配置为捕获位于所述第二传感器的视场之外的交通灯的图像,以及其中,所述处理电路被配置为使用由所述第三传感器提供的影像来确定由所述第三传感器捕获到的交通灯的状态。
36.根据项22至35中任一项所述的方法,其中,所述第一传感器和所述第二传感器具有固定焦点光学器件。
37.根据项22至36中任一项所述的方法,其中,所述第一传感器和所述第二传感器是能够以至少24帧/秒的速率捕获影像的数字可见光摄像机。
38.根据项22至37中任一项所述的方法,其中,所述第一传感器和所述第二传感器是前向传感器,所述前向传感器的视场覆盖以所述自主运载工具的前端为中心的至少30度的角度。
39.根据项22至38中任一项所述的方法,其中,所述处理电路包括用于确定所述交通灯的状态的神经网络。
40.一种存储有指令的非暂时性计算机可读存储介质,所述指令被配置为由自主运载工具的一个或多个电路执行,所述指令使得所述自主运载工具执行步骤,各步骤包括:
使用具有固定曝光配置的第一传感器来捕获包括交通灯的第一图像;
使用具有自动曝光配置的第二传感器来捕获包括所述交通灯的第二图像,所述第一传感器和所述第二传感器联接至所述自主运载工具;
使用处理电路,通过分析所述第一图像和所述第二图像来确定所述交通灯的状态;以及
使用控制电路,根据所确定的所述交通灯的状态来操作所述自主运载工具。
41.一种自主运载工具,包括:
具有固定曝光配置的第一传感器;
具有自动曝光配置的第二传感器;
处理电路;
控制电路;以及
存储有一个或多个程序的存储器,所述一个或多个程序被配置为由所述自主运载工具的所述处理电路和所述控制电路执行,所述一个或多个程序包括用于进行以下操作的指令:
使用所述第一传感器来捕获包括交通灯的第一图像;
使用所述第二传感器来捕获包括所述交通灯的第二图像,所述第一传感器和所述第二传感器联接至自主运载工具;
使用所述处理电路,通过分析所述第一图像和所述第二图像来确定所述交通灯的状态;以及
使用所述控制电路,根据所确定的所述交通灯的状态来操作所述自主运载工具。
42.一种存储有指令的非暂时性存储介质,所述指令在由一个或多个计算装置执行时,使得进行根据项22至39中任一项所述的方法。
43.一种装置,包括:
处理电路;以及
存储有一个或多个程序的存储器,所述一个或多个程序被配置为由所述处理电路执行,所述一个或多个程序包括用于进行根据项22至39中任一项所述的方法的指令。
44.一种自主运载工具,包括:
用于捕获包括交通灯的第一图像的部件;
用于捕获包括所述交通灯的第二图像的部件;
用于通过分析所述第一图像和所述第二图像来确定所述交通灯的状态的部件;以及
用于使用控制电路、根据所确定的所述交通灯的状态来操作所述自主运载工具的部件。
相关申请的交叉引用
本申请要求2020年1月7日提交的标题为“SYSTEMS AND METHODS FOR TRAFFICLIGHT DETECTION”的美国临时专利申请62/958,065的权益,其全部内容通过引用而被包含于此。
Claims (22)
1.一种方法,包括:
使用联接至自主运载工具的传感器来捕获图像;
使用处理电路来获得表示在捕获到所述图像时的所述自主运载工具的地点的数据;
使用所述处理电路来获得表示交通灯的地点的数据;
使用所述处理电路,基于所获得的所述交通灯的地点和所获得的所述自主运载工具的地点来选择所述图像中的包括所述交通灯的部分;
使用所述处理电路,通过分析所述图像的所选部分来确定所述交通灯的状态;以及
通过控制电路,根据所确定的所述交通灯的状态来操作所述自主运载工具。
2.根据权利要求1所述的方法,还包括:在选择所述图像的所述部分之前,将相对于所获得的所述自主运载工具的地点的所获得的所述交通灯的地点与所述图像中的地点相关。
3.根据权利要求1或2所述的方法,其中,选择所述图像的所述部分包括:基于所述自主运载工具和所述交通灯之间的距离来确定所述图像的所选部分的大小。
4.根据权利要求1所述的方法,还包括:基于后续的所述自主运载工具相对于所述交通灯的地点来选择后续捕获图像的部分。
5.根据权利要求1所述的方法,还包括:
选择所述图像中的包括另一交通灯的第二部分;以及
分析所述图像的所述第二部分,以确定所述另一交通灯的状态,
其中,通过所述控制电路来操作所述自主运载工具是根据所确定的所述交通灯的状态和所确定的所述另一交通灯的状态来进行的。
6.根据权利要求5所述的方法,还包括:
确定所述交通灯的状态与所述另一交通灯的状态是否匹配。
7.根据权利要求1所述的方法,其中,确定所述交通灯的状态包括:确定由位于所述图像的所选部分内的所述交通灯所发射的光的颜色和形状。
8.根据权利要求7所述的方法,其中,所确定的所述交通灯的状态是黄色箭头。
9.根据权利要求8所述的方法,还包括:使用所述处理电路,通过参考交通灯数据库来确定所述箭头的方向,所述交通灯数据库包括已知要由所述交通灯所显示的一个或多个箭头的方向。
10.根据权利要求4至7中任一项所述的方法,还包括:确定所确定的所述交通灯的状态的置信度。
11.根据权利要求10所述的方法,其中,所确定的所述交通灯的状态的所述置信度至少部分地基于所述图像中的被所检测到的由所述交通灯发射的光所占据的区域相对于所述图像中预期的被所述交通灯发射的光所占据的区域。
12.根据权利要求1所述的方法,其中,所述传感器是第一光学传感器,并且所述图像是第一图像,以及其中,所述方法还包括:
使用第二光学传感器来捕获第二图像;以及
使用所述处理电路来选择所述第二图像中的包括所述交通灯的部分,
其中,确定所述交通灯的状态包括:分析所述第二图像的所选部分。
13.根据权利要求12所述的方法,其中,所述第一光学传感器是固定曝光传感器,并且所述第二光学传感器是自动曝光传感器。
14.根据权利要求13所述的方法,其中,所述第一光学传感器的操作参数具有适合于检测交通灯所发射的平均照明量的值。
15.根据权利要求1所述的方法,其中,所述图像是在从所述交通灯起的第一距离处捕获到的第一图像,并且所述第一图像的所选部分是第一部分,以及其中,所述方法还包括:
在从所述交通灯起的第二距离处捕获第二图像,所述第二距离短于所述第一距离;以及
选择所述第二图像的第二部分,所述第二部分大于所述第一部分,使得所述交通信号的高度相对于所述第一图像中的所述第一部分的高度的第一比与所述交通信号的高度相对于所述第二图像中的所述第二部分的高度的第二比大致相同。
16.根据权利要求12至15中任一项所述的方法,其中,所述图像的所选部分的高度大于所述图像的所选部分的宽度。
17.根据权利要求1所述的方法,其中,所述图像的所选部分的大小基于所述图像内的所述交通灯的预测地点的估计准确度,其中所述估计准确度基于从先前捕获到的图像生成的历史数据。
18.根据权利要求17所述的方法,其中,在所述图像中的所述交通灯的垂直位置的估计准确度低于所述图像中的所述交通灯的水平位置的估计准确度的情况下,所述图像的所选部分的高度大于所述图像的所选部分的宽度。
19.一种存储有指令的非暂时性计算机可读存储介质,所述指令被配置为由自主运载工具的一个或多个电路执行,所述指令使得所述自主运载工具执行步骤,所述步骤包括:
使用联接至自主运载工具的传感器来捕获图像;
使用处理电路来获得表示在捕获到所述图像时的所述自主运载工具的地点的数据;
使用所述处理电路来获得表示交通灯的地点的数据;
使用所述处理电路,根据相对于所获得的所述自主运载工具的地点的所述交通灯的地点来选择所述图像中的包括所述交通灯的部分;
使用所述处理电路,通过分析所述图像的所选部分来确定所述交通灯的状态;以及
通过控制电路,根据所确定的所述交通灯的状态来操作所述自主运载工具。
20.一种自主运载工具,包括:
传感器;
处理电路;
控制电路;以及
存储有一个或多个程序的存储器,所述一个或多个程序被配置为由所述自主运载工具的所述处理电路和所述控制电路执行,所述一个或多个程序使得所述自主运载工具执行步骤,所述步骤包括:
使用所述传感器来捕获图像;
使用所述处理电路来获得表示在捕获到所述图像时的所述自主运载工具的地点的数据;
使用所述处理电路来获得表示交通灯的地点的数据;
使用所述处理电路,根据相对于所获得的所述自主运载工具的地点的所述交通灯的地点来选择所述图像中的包括所述交通灯的部分;
使用所述处理电路,通过分析所述图像的所选部分来确定所述交通灯的状态;以及
通过所述控制电路,根据所确定的所述交通灯的状态来操作所述自主运载工具。
21.一种存储有指令的非暂时性存储介质,所述指令在由一个或多个计算装置执行时,使得进行根据权利要求1至18中任一项所述的方法。
22.一种装置,包括:
处理电路;
控制电路;以及
存储有一个或多个程序的存储器,所述一个或多个程序被配置为由所述处理电路和所述控制电路执行,所述一个或多个程序包括用于进行根据权利要求1至18中任一项所述的方法的指令。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US202062958065P | 2020-01-07 | 2020-01-07 | |
US62/958,065 | 2020-01-07 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113156935A true CN113156935A (zh) | 2021-07-23 |
Family
ID=74566578
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110016703.3A Withdrawn CN113156935A (zh) | 2020-01-07 | 2021-01-07 | 用于交通灯检测的系统和方法 |
Country Status (5)
Country | Link |
---|---|
US (1) | US20210211568A1 (zh) |
KR (1) | KR20210089588A (zh) |
CN (1) | CN113156935A (zh) |
DE (1) | DE102020135000A1 (zh) |
GB (2) | GB2594125B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20210248915A1 (en) * | 2018-07-20 | 2021-08-12 | Cybernet Systems Corp. | Autonomous transportation system and methods |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11681780B2 (en) * | 2020-09-30 | 2023-06-20 | Nissan North America, Inc. | Annotation and mapping for vehicle operation in low-confidence object detection conditions |
US20220204032A1 (en) * | 2020-12-31 | 2022-06-30 | Waymo Llc | Traffic light viewsheds |
EP4097554B1 (en) * | 2021-04-20 | 2023-12-06 | Baidu.com Times Technology (Beijing) Co., Ltd. | Traffic light detection and classification for autonomous driving vehicles |
US11881031B2 (en) * | 2021-09-03 | 2024-01-23 | Ford Global Technologies, Llc | Hierarchical processing of traffic signal face states |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100033571A1 (en) * | 2006-09-28 | 2010-02-11 | Pioneer Corporation | Traffic information detector, traffic information detecting method, traffic information detecting program, and recording medium |
CN102792316A (zh) * | 2010-01-22 | 2012-11-21 | 谷歌公司 | 交通信号的映射和检测 |
CN104411559A (zh) * | 2012-03-26 | 2015-03-11 | 谷歌公司 | 用于检测交通信号及其关联状态的鲁棒方法 |
CN106886757A (zh) * | 2017-01-19 | 2017-06-23 | 华中科技大学 | 一种基于先验概率图的多类交通灯检测方法及系统 |
CN108734979A (zh) * | 2017-04-20 | 2018-11-02 | 通用汽车环球科技运作有限责任公司 | 交通信号灯检测系统及方法 |
CN108883725A (zh) * | 2016-03-06 | 2018-11-23 | 预见汽车有限责任公司 | 一种行驶车辆警报系统和方法 |
CN109416475A (zh) * | 2016-08-03 | 2019-03-01 | 伟摩有限责任公司 | 分束扩展的动态范围图像捕获系统 |
US20190197729A1 (en) * | 2017-12-21 | 2019-06-27 | Industrial Technology Research Institute | Object detecting device, object detecting method and non-transitory computer-readable medium |
CN110543814A (zh) * | 2019-07-22 | 2019-12-06 | 华为技术有限公司 | 一种交通灯的识别方法及装置 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4631750B2 (ja) * | 2006-03-06 | 2011-02-16 | トヨタ自動車株式会社 | 画像処理システム |
MX354764B (es) * | 2014-07-08 | 2018-03-21 | Nissan Motor | Dispositivo de deteccion de semaforo y metodo de deteccion de semaforo. |
BR112018000708B1 (pt) * | 2015-07-13 | 2023-03-14 | Nissan Motor Co., Ltd | Dispositivo de reconhecimento de sinal luminoso de trânsito e método de reconhecimento de sinal luminoso de trânsito |
US10139832B2 (en) * | 2017-01-26 | 2018-11-27 | Intel Corporation | Computer-assisted or autonomous driving with region-of-interest determination for traffic light analysis |
US10453208B2 (en) * | 2017-05-19 | 2019-10-22 | Waymo Llc | Camera systems using filters and exposure times to detect flickering illuminated objects |
US10757320B2 (en) * | 2017-12-28 | 2020-08-25 | Waymo Llc | Multiple operating modes to expand dynamic range |
US10339400B1 (en) * | 2018-12-18 | 2019-07-02 | Chongqing Jinkang New Energy Automobile Co., Ltd. | Traffic light detection using multiple cameras |
-
2020
- 2020-12-21 US US17/129,661 patent/US20210211568A1/en active Pending
- 2020-12-29 DE DE102020135000.7A patent/DE102020135000A1/de active Pending
-
2021
- 2021-01-05 GB GB2100090.6A patent/GB2594125B/en active Active
- 2021-01-05 GB GB2218541.7A patent/GB2617655A/en active Pending
- 2021-01-06 KR KR1020210001548A patent/KR20210089588A/ko not_active Application Discontinuation
- 2021-01-07 CN CN202110016703.3A patent/CN113156935A/zh not_active Withdrawn
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100033571A1 (en) * | 2006-09-28 | 2010-02-11 | Pioneer Corporation | Traffic information detector, traffic information detecting method, traffic information detecting program, and recording medium |
CN102792316A (zh) * | 2010-01-22 | 2012-11-21 | 谷歌公司 | 交通信号的映射和检测 |
CN104411559A (zh) * | 2012-03-26 | 2015-03-11 | 谷歌公司 | 用于检测交通信号及其关联状态的鲁棒方法 |
CN108883725A (zh) * | 2016-03-06 | 2018-11-23 | 预见汽车有限责任公司 | 一种行驶车辆警报系统和方法 |
CN109416475A (zh) * | 2016-08-03 | 2019-03-01 | 伟摩有限责任公司 | 分束扩展的动态范围图像捕获系统 |
CN106886757A (zh) * | 2017-01-19 | 2017-06-23 | 华中科技大学 | 一种基于先验概率图的多类交通灯检测方法及系统 |
CN108734979A (zh) * | 2017-04-20 | 2018-11-02 | 通用汽车环球科技运作有限责任公司 | 交通信号灯检测系统及方法 |
US20190197729A1 (en) * | 2017-12-21 | 2019-06-27 | Industrial Technology Research Institute | Object detecting device, object detecting method and non-transitory computer-readable medium |
CN110543814A (zh) * | 2019-07-22 | 2019-12-06 | 华为技术有限公司 | 一种交通灯的识别方法及装置 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20210248915A1 (en) * | 2018-07-20 | 2021-08-12 | Cybernet Systems Corp. | Autonomous transportation system and methods |
Also Published As
Publication number | Publication date |
---|---|
US20210211568A1 (en) | 2021-07-08 |
GB202218541D0 (en) | 2023-01-25 |
GB2617655A (en) | 2023-10-18 |
GB202100090D0 (en) | 2021-02-17 |
GB2594125B (en) | 2023-02-15 |
DE102020135000A1 (de) | 2021-07-08 |
GB2594125A (en) | 2021-10-20 |
KR20210089588A (ko) | 2021-07-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112801124B (zh) | 用于运载工具的方法和系统 | |
CN111104849B (zh) | 运载工具的导航期间的、地图中的环境特征的自动注释 | |
KR102593948B1 (ko) | 주석 달기를 위한 데이터 샘플의 자동 선택 | |
US11092456B2 (en) | Object location indicator system and method | |
CN112703423B (zh) | 合并来自多个LiDAR装置的数据 | |
CN111915917A (zh) | 用于规划和更新运载工具的轨迹的系统和方法 | |
KR102552520B1 (ko) | 융합된 카메라/LiDAR 데이터 포인트를 사용한 자동화된 대상체 주석 달기 | |
CN113313936A (zh) | 用于运载工具的交通灯检测系统 | |
CN113012187A (zh) | 使用曲面拟合的前景提取 | |
CN114556139A (zh) | 用于传感器校准的系统和方法 | |
US20210211568A1 (en) | Systems and methods for traffic light detection | |
CN112634633B (zh) | 利用自主运载工具对多路停车交叉口进行导航 | |
CN114667460A (zh) | 使用可移动传感器改善运载工具操作的系统和方法 | |
EP3647733A1 (en) | Automatic annotation of environmental features in a map during navigation of a vehicle | |
CN115328110A (zh) | 用于自主运载工具的系统和方法以及存储介质 | |
CN112394384A (zh) | 基于环境的预定义特征的定位 | |
US20220185324A1 (en) | Merging LiDAR Information and Camera Information | |
CN113048995A (zh) | 支持自主运载工具导航的长期对象跟踪 | |
CN113126612A (zh) | 支持自主运载工具导航的对象跟踪 | |
CN113970924A (zh) | 用于运载工具的方法和系统 | |
CN115079687A (zh) | 用于自主运载工具的系统、方法和存储介质 | |
CN112486163A (zh) | 基于导航信息的可用性的自主运载工具的操作 | |
CN113196356A (zh) | 交通灯估计 | |
CN115220439A (zh) | 用于运载工具的系统和方法以及存储介质 | |
CN114252066A (zh) | 运载工具、用于运载工具的方法以及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WW01 | Invention patent application withdrawn after publication |
Application publication date: 20210723 |
|
WW01 | Invention patent application withdrawn after publication |