CN115516397A - 用于自动驾驶车辆的交通灯光检测和分类 - Google Patents
用于自动驾驶车辆的交通灯光检测和分类 Download PDFInfo
- Publication number
- CN115516397A CN115516397A CN202180004904.XA CN202180004904A CN115516397A CN 115516397 A CN115516397 A CN 115516397A CN 202180004904 A CN202180004904 A CN 202180004904A CN 115516397 A CN115516397 A CN 115516397A
- Authority
- CN
- China
- Prior art keywords
- sensor
- image sensor
- frame
- exposure time
- traffic light
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 title claims description 16
- 238000000034 method Methods 0.000 claims description 28
- 238000012545 processing Methods 0.000 claims description 17
- 230000015654 memory Effects 0.000 claims description 7
- 230000004044 response Effects 0.000 claims description 7
- 238000004590 computer program Methods 0.000 claims description 6
- 239000003086 colorant Substances 0.000 claims 1
- 238000002379 ultrasonic velocimetry Methods 0.000 description 89
- 230000008447 perception Effects 0.000 description 15
- 230000008569 process Effects 0.000 description 12
- 238000004891 communication Methods 0.000 description 11
- 238000010586 diagram Methods 0.000 description 7
- 230000001133 acceleration Effects 0.000 description 5
- 230000033001 locomotion Effects 0.000 description 5
- 238000007405 data analysis Methods 0.000 description 4
- 230000002085 persistent effect Effects 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 229920006395 saturated elastomer Polymers 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 230000010267 cellular communication Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000009429 electrical wiring Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W60/00—Drive control systems specially adapted for autonomous road vehicles
- B60W60/001—Planning or execution of driving tasks
- B60W60/0015—Planning or execution of driving tasks specially adapted for safety
- B60W60/0016—Planning or execution of driving tasks specially adapted for safety of the vehicle or its occupants
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/02—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W60/00—Drive control systems specially adapted for autonomous road vehicles
- B60W60/001—Planning or execution of driving tasks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/56—Extraction of image or video features relating to colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
- G06V20/584—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/70—Circuitry for compensating brightness variation in the scene
- H04N23/73—Circuitry for compensating brightness variation in the scene by influencing the exposure time
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W2050/0001—Details of the control system
- B60W2050/0002—Automatic control, details of type of controller or control system architecture
- B60W2050/0004—In digital systems, e.g. discrete-time systems involving sampling
- B60W2050/0005—Processor details or data handling, e.g. memory registers or chip architecture
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/403—Image sensing, e.g. optical camera
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/408—Radar; Laser, e.g. lidar
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2555/00—Input parameters relating to exterior conditions, not covered by groups B60W2552/00, B60W2554/00
- B60W2555/60—Traffic rules, e.g. speed limits or right of way
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2556/00—Input parameters relating to data
- B60W2556/45—External transmission of data to or from the vehicle
- B60W2556/50—External transmission of data to or from the vehicle of positioning data, e.g. GPS [Global Positioning System] data
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Automation & Control Theory (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Human Computer Interaction (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- Signal Processing (AREA)
- Mathematical Physics (AREA)
- Traffic Control Systems (AREA)
- Aviation & Aerospace Engineering (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
- Electromagnetism (AREA)
- Image Analysis (AREA)
- Business, Economics & Management (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Game Theory and Decision Science (AREA)
- Medical Informatics (AREA)
Abstract
基于从安装在ADV上的多个传感器获得的传感器数据来感知驾驶环境,包括检测交通灯光,其中,多个传感器包括至少一个图像传感器。将第一传感器设置(402)应用于至少一个图像传感器以捕获第一帧,并且将第二传感器设置(403)应用于至少一个图像传感器以捕获第二帧。基于第一帧中的至少一个图像传感器的传感器数据来确定交通灯光的颜色。根据基于第一帧中的至少一个图像传感器的传感器数据确定的交通灯光的颜色和基于第二帧中的至少一个图像传感器的传感器数据感知的驾驶环境来控制ADV自动驾驶。
Description
技术领域
本公开的实施方式总体涉及操作自动驾驶车辆(ADV)。更具体地,本公开的实施方式涉及ADV的交通灯光检测和分类。
背景技术
以自动驾驶模式运行(例如,无人驾驶)的车辆可将乘员、尤其是驾驶员从一些驾驶相关的职责中解放出来。当以自动驾驶模式运行时,车辆可使用车载传感器导航到各个位置,从而允许车辆在最少人机交互的情况下或在没有任何乘客的一些情况下行驶。
运动规划和控制是自动驾驶中的关键操作。交通灯光检测和分类对于ADV的运动规划和控制很重要。然而,例如在黑暗/阴天环境下,由于颜色伪像而难以识别红色交通灯光。已经报道了许多不能识别红色交通灯光的案例。
发明内容
本公开的实施方式提供了用于操作自动驾驶车辆(ADV)的计算机实现的方法、非暂时性机器可读介质、数据处理系统和计算机程序产品。
在第一方面,本公开的一些实施方式提供了一种用于操作自动驾驶车辆(ADV)的计算机实现的方法。该方法包括:基于从安装在ADV上的多个传感器获得的传感器数据来感知驾驶环境,包括检测交通灯光,该多个传感器包括至少一个图像传感器;对所述至少一个图像传感器应用第一传感器设置以捕获第一帧;对所述至少一个图像传感器应用第二传感器设置以捕获第二帧;基于第一帧中的所述至少一个图像传感器的传感器数据来确定交通灯光的颜色;以及根据基于第一帧中的所述至少一个图像传感器的传感器数据确定的交通灯光的颜色以及基于第二帧中的所述至少一个图像传感器的传感器数据感知的驾驶环境,控制ADV自动驾驶。
在第二方面,本公开的一些实施方式提供了一种其中存储有指令的非暂时性机器可读介质,该指令在由处理器执行时使得处理器执行操作,该操作包括:基于从安装在ADV上的多个传感器获得的传感器数据来感知驾驶环境,包括检测交通灯光,该多个传感器包括至少一个图像传感器;对所述至少一个图像传感器应用第一传感器设置以捕获第一帧;对所述至少一个图像传感器应用第二传感器设置以捕获第二帧;基于第一帧中的所述至少一个图像传感器的传感器数据来确定交通灯光的颜色;以及根据基于第一帧中的所述至少一个图像传感器的传感器数据确定的交通灯光的颜色以及基于第二帧中的所述至少一个图像传感器的传感器数据感知的驾驶环境,控制ADV自动驾驶。
在第三方面,本公开的一些实施方式提供了一种数据处理系统,该数据处理系统包括:处理器;以及存储器,联接到处理器以存储指令,指令在由处理器执行时致使处理器执行操作,该操作包括:基于从安装在ADV上的多个传感器获得的传感器数据来感知驾驶环境,包括检测交通灯光,该多个传感器包括至少一个图像传感器;对所述至少一个图像传感器应用第一传感器设置以捕获第一帧;对所述至少一个图像传感器应用第二传感器设置以捕获第二帧;基于第一帧中的所述至少一个图像传感器的传感器数据来确定交通灯光的颜色;以及根据基于第一帧中的所述至少一个图像传感器的传感器数据确定的交通灯光的颜色以及基于第二帧中的所述至少一个图像传感器的传感器数据感知的驾驶环境,控制ADV自动驾驶。
在第四方面中,本公开的一些实施方式提供一种计算机程序产品,该计算机程序产品包括计算机程序,该计算机程序在由处理器执行时致使处理器实施根据第一方面的方法。
附图说明
本公开的实施方式在附图的各图中以举例而非限制的方式示出,附图中的相同参考标记指示相似元件。
图1是示出根据一个实施方式的网络化系统的框图。
图2是示出根据一个实施方式的自动驾驶车辆的示例的框图。
图3A和图3B是示出根据一个实施方式的与自动驾驶车辆一起使用的自动驾驶系统的示例的框图。
图4是示出根据一个实施方式的自动驾驶车辆的自动驾驶系统的控制模块的示例的框图。
图5示出了根据一个实施方式的像素输出相对于自动驾驶车辆的自动驾驶系统的传感器的光强度的示例。
图6A至图6C示出了根据一个实施方式的自动驾驶车辆的自动驾驶系统的光检测和分类的示例。
图7是示出根据一个实施方式的自动驾驶车辆的自动驾驶系统的光检测和分类过程的示例的流程图。
具体实施方式
将参考以下所讨论的细节来描述本公开的各种实施方式和方面,附图将示出所述各种实施方式。下列描述和附图是本公开的说明,而不应当解释为对本公开进行限制。描述了许多特定细节以提供对本公开的各种实施方式的全面理解。然而,在某些情况下,并未描述众所周知的或常规的细节,以提供对本公开的实施方式的简洁讨论。
本说明书中对“一个实施方式”或“实施方式”的提及意味着结合该实施方式所描述的特定特征、结构或特性可包括在本公开的至少一个实施方式中。短语“在一个实施方式中”在本说明书中各个地方的出现不必全部指同一实施方式。
根据一些实施方式,在检测交通灯光时,ADV的传感器的曝光时间被减小到例如最小曝光时间或与明亮光或日间光的条件类似的曝光时间。传感器的所有增益可设置为x1。较短的曝光时间或较低的增益可应用于备选帧中的传感器的传感器设置。例如,一个帧(帧B)可以是正常条件。另一帧(帧A)可以是短曝光条件(例如,较短的曝光时间或较低的增益)。例如,可在交通灯光周围限定边界框。可提取红光、绿光和/或蓝光的统计量(平均值或最小值/最大值或百分位数等)。可应用短曝光时间/增益来满足红光、绿光和/或蓝光的统计的阈值,可在一个帧(帧A)上应用。因此,帧A可用于识别交通灯光的状况。帧B可用于感知驾驶环境。可根据使用帧A识别的交通灯光的状况和使用帧A感知的驾驶环境两者来控制ADV自动驾驶。
根据一些实施方式,基于从安装在ADV上的多个传感器获得的传感器数据来感知驾驶环境,包括检测交通灯光,其中,多个传感器包括至少一个图像传感器。第一传感器设置应用于至少一个图像传感器以捕获第一帧,以及第二传感器设置应用于至少一个图像传感器以捕获第二帧。基于第一帧中的至少一个图像传感器的传感器数据来确定交通灯光的颜色。根据基于第一帧中的至少一个图像传感器的传感器数据确定的交通灯光的颜色和基于第二帧中的至少一个图像传感器的传感器数据感知的驾驶环境来控制ADV自动地驾驶。以这种方式,ADV可识别红色的交通灯信号并且在黑暗/阴天环境下感知驾驶环境,从而增加驾驶安全性。
在一个实施方式中,第一传感器设置包括第一曝光时间或第一增益中的至少一个,第二传感器设置包括第二曝光时间或第二增益中的至少一个,并且第一曝光时间或第一增益中的至少一个分别小于第二曝光时间或第二增益中的至少一个。
在一个实施方式中,基于日间光条件下的最小值或预定值来确定第一传感器设置。在一个实施方式中,在第一帧中的至少一个图像传感器的传感器数据中的交通灯光周围确定边界框,并且提取边界框内的像素的特征。
在一个实施方式中,边界框内的像素的特征包括边界框内的像素的红色、绿色或蓝色中的一种的平均值、最小值、最大值或百分位数中的至少一个。在一个实施方式中,基于边界框内的像素的特征的预定阈值来确定第一传感器设置。
在一个实施方式中,在检测交通灯光时,在至少一个图像传感器的初始设置中确定初始曝光时间,并且确定至少一个图像传感器的初始曝光时间是否超过预定阈值。响应于确定至少一个图像传感器的初始设置超过预定阈值,将第一传感器设置应用于至少一个图像传感器。
图1是示出根据本公开的一个实施方式的自动驾驶网络配置的框图。参考图1,网络配置100包括可通过网络102通信地联接到一个或多个服务器103至104的自动驾驶车辆(ADV)101。尽管示出一个ADV,但多个ADV可通过网络102联接到彼此和/或联接到服务器103至104。网络102可以是任何类型的网络,例如,有线或无线的局域网(LAN)、诸如互联网的广域网(WAN)、蜂窝网络、卫星网络或其组合。服务器103至104可以是任何类型的服务器或服务器群集,诸如,网络或云服务器、应用服务器、后端服务器或其组合。服务器103至104可以是数据分析服务器、内容服务器、交通信息服务器、地图和兴趣点(MPOI)服务器或位置服务器等。
ADV是指可配置成处于自动驾驶模式下的车辆,在所述自动驾驶模式下车辆在极少或没有来自驾驶员的输入的情况下导航通过环境。这种ADV可包括传感器系统,所述传感器系统具有配置成检测与车辆运行环境有关的信息的一个或多个传感器。例如,ADV可包括用于感知ADV周围的驾驶环境的一个或多个传感器。所述车辆和其相关联的控制器使用所检测的信息来导航通过所述环境。ADV 101可在手动模式下、在全自动驾驶模式下或者在部分自动驾驶模式下运行。
在一个实施方式中,ADV 101包括,但不限于,自动驾驶系统(ADS)110、车辆控制系统111、无线通信系统112、用户接口系统113和传感器系统115。ADV 101还可包括普通车辆中包括的某些常用部件,诸如:发动机、车轮、方向盘、变速器等,所述部件可由车辆控制系统111和/或ADS 110使用多种通信信号和/或命令进行控制,该多种通信信号和/或命令例如,加速信号或命令、减速信号或命令、转向信号或命令、制动信号或命令等。
部件110至115可经由互连件、总线、网络或其组合通信地联接到彼此。例如,部件110至115可经由控制器局域网(CAN)总线通信地联接到彼此。CAN总线是设计成允许微控制器和装置在没有主机的应用中与彼此通信的车辆总线标准。它是最初是为汽车内的复用电气布线设计的基于消息的协议,但也用于许多其它环境。
现在参考图2,在一个实施方式中,传感器系统115包括但不限于一个或多个摄像机211(包括一个或多个图像传感器)、全球定位系统(GPS)单元212、惯性测量单元(IMU)213、雷达单元214以及光探测和测距(LIDAR)单元215。GPS系统212可包括收发器,所述收发器可操作以提供关于ADV的位置的信息。IMU单元213可基于惯性加速度来感测ADV的位置和定向变化。雷达单元214可表示利用无线电信号来感测ADV的本地环境内的对象的系统。在一些实施方式中,除感测对象之外,雷达单元214可另外感测对象的速度和/或前进方向。LIDAR单元215可使用激光来感测ADV所处环境中的对象。除其它系统部件之外,LIDAR单元215还可包括一个或多个激光源、激光扫描器以及一个或多个检测器。摄像机211可包括用来采集ADV周围环境的图像的一个或多个装置。例如,摄像机211可包括用于采集ADV周围环境的图像的一个或多个图像传感器。摄像机211可以是静物摄像机和/或视频摄像机。摄像机可以是可机械地移动的,例如,通过将摄像机安装在旋转和/或倾斜平台上。
传感器系统115还可包括其它传感器,诸如:声纳传感器、红外传感器、转向传感器、油门传感器、制动传感器以及音频传感器(例如,麦克风)。音频传感器可配置成从ADV周围的环境中采集声音。转向传感器可配置成感测方向盘、车辆的车轮或其组合的转向角度。油门传感器和制动传感器分别感测车辆的油门位置和制动位置。在一些情形下,油门传感器和制动传感器可集成为集成式油门/制动传感器。
在一个实施方式中,车辆控制系统111包括但不限于转向单元201、油门单元202(也称为加速单元)和制动单元203。转向单元201用来调整车辆的方向或前进方向。油门单元202用来控制电动机或发动机的速度,电动机或发动机的速度进而控制车辆的速度和加速度。制动单元203通过提供摩擦使车辆的车轮或轮胎减速而使车辆减速。应注意,如图2所示的部件可以以硬件、软件或其组合实施。
返回参考图1,无线通信系统112允许ADV 101与诸如装置、传感器、其它车辆等外部系统之间的通信。例如,无线通信系统112可以与一个或多个装置直接无线通信,或者经由通信网络进行无线通信,诸如,通过网络102与服务器103至104通信。无线通信系统112可使用任何蜂窝通信网络或无线局域网(WLAN),例如,使用WiFi,以与另一部件或系统通信。无线通信系统112可例如使用红外链路、蓝牙等与装置(例如,乘客的移动装置、显示装置、车辆101内的扬声器)直接通信。用户接口系统113可以是在车辆101内实施的外围装置的部分,包括例如键盘、触摸屏显示装置、麦克风和扬声器等。
ADV 101的功能中的一些或全部可由ADS 110控制或管理,尤其当在自动驾驶模式下操作时。ADS 110包括必要的硬件(例如,处理器、存储器、存储装置)和软件(例如,操作系统、规划和路线安排程序),以从传感器系统115、控制系统111、无线通信系统112和/或用户接口系统113接收信息,处理所接收的信息,规划从起始点到目的地点的路线或路径,随后基于规划和控制信息来驾驶车辆101。可替代地,ADS 110可与车辆控制系统111集成在一起。
例如,作为乘客的用户可例如经由用户接口来指定行程的起始位置和目的地。ADS110获得行程相关数据。例如,ADV 110可从MPOI服务器中获得位置和路线数据,所述MPOI服务器可以是服务器103至104的一部分。位置服务器提供位置服务,并且MPOI服务器提供地图服务和某些位置的POI。可替代地,此类位置和MPOI信息可本地高速缓存在ADS 110的永久性存储装置中。
当ADV 101沿着路线移动时,ADS 110也可从交通信息系统或服务器(TIS)获得实时交通信息。应注意,服务器103至104可由第三方实体进行操作。可替代地,服务器103至104的功能可与ADS 110集成在一起。基于实时交通信息、MPOI信息和位置信息以及由传感器系统115检测或感测的实时本地环境数据(例如,障碍物、对象、附近车辆),ADS 110可规划最佳路线并且根据所规划的路线例如经由控制系统111来驾驶车辆101,以安全且高效到达指定目的地。
服务器103可以是数据分析系统,从而为各种客户执行数据分析服务。在一个实施方式中,数据分析系统103包括数据收集器121和机器学习引擎122。数据收集器121从各种车辆(ADV或由人类驾驶员驾驶的常规车辆)收集驾驶统计数据123。驾驶统计数据123包括指示所发出的驾驶指令(例如,油门、制动、转向指令)以及由车辆的传感器在不同的时间点捕捉到的车辆的响应(例如,速度、加速、减速、方向)的信息。驾驶统计数据123还可包括描述不同时间点下的驾驶环境的信息,例如,路线(包括起始位置和目的地位置)、MPOI、道路状况、天气状况等。
基于驾驶统计数据123,出于各种目的,机器学习引擎122生成或训练一组规则、算法和/或预测模型124。在一个实施方式中,算法124可包括基于从安装在ADV上的多个传感器获得的传感器数据来感知驾驶环境(包括检测交通灯光)的算法或模型,其中,多个传感器包括至少一个图像传感器。算法124还可包括将第一传感器设置应用于至少一个图像传感器以捕获第一帧的算法或模型、将第二传感器设置应用于至少一个图像传感器以捕获第二帧的算法或模型、基于第一帧中的至少一个图像传感器的传感器数据来确定交通灯光的状况的算法或模型、和/或根据基于第一帧中的至少一个图像传感器中的传感器数据确定的交通灯光的状况和基于第二帧中的至少一个图像传感器的传感器数据感知的驾驶环境来控制ADV自动驾驶的算法或模型。然后,算法124可上载到ADV上,以便在自动驾驶期间实时地利用。
图3A和图3B是示出根据一个实施方式的与ADV一起使用的ADV的示例的框图。系统300可实施为图1的ADV 101的一部分,包括但不限于ADS 110、控制系统111和传感器系统115。参考图3A至图3B,ADS 110包括但不限于定位模块301、感知模块302、预测模块303、决策模块304、规划模块305、控制模块306、路线安排模块307。
模块301至307中的一些或全部可以以软件、硬件或其组合实施。例如,这些模块可安装在永久性存储装置352中、加载到存储器351中,并且由一个或多个处理器(未示出)执行。应注意,这些模块中的一些或全部可通信地联接到图2的车辆控制系统111的一些或全部模块或者与它们集成在一起。模块301至307中的一些可一起集成为集成模块。
定位模块301确定ADV 300的当前位置(例如,利用GPS单元212)以及管理与用户的行程或路线相关的任何数据。定位模块301(又称作为地图与路线模块)管理与用户的行程或路线相关的任何数据。用户可例如经由用户接口登录并且指定行程的起始位置和目的地。定位模块301与ADV 300的诸如地图与路线数据311的其它部件通信,以获得行程相关数据。例如,定位模块301可从位置服务器和地图与POI(MPOI)服务器获得位置和路线数据。位置服务器提供位置服务,并且MPOI服务器提供地图服务和某些位置的POI,从而可作为地图与路线数据311的一部分高速缓存。当ADV 300沿着路线移动时,定位模块301也可从交通信息系统或服务器获得实时交通信息。
基于由传感器系统115提供的传感器数据和由定位模块301获得的定位信息,感知模块302确定对周围环境的感知。感知信息可表示普通驾驶员在驾驶员正驾驶的车辆周围将感知到的东西。感知可包括例如采用对象形式的车道配置、交通灯信号、另一车辆的相对位置、行人、建筑物、人行横道或其它交通相关标志(例如,停止标志、让行标志)等。车道配置包括描述一个或多个车道的信息,诸如,例如车道的形状(例如,直线或弯曲)、车道的宽度、道路中的车道数量、单向或双向车道、合并或分开车道、出口车道等。
感知模块302可包括计算机视觉系统或计算机视觉系统的功能,以处理并分析由一个或多个摄像机采集的图像,从而识别ADV环境中的对象和/或特征。所述对象可包括交通信号、道路边界、其它车辆、行人和/或障碍物等。计算机视觉系统可使用对象识别算法、视频跟踪以及其它计算机视觉技术。在一些实施方式中,计算机视觉系统可绘制环境地图,跟踪对象,以及估算对象的速度等。感知模块302也可基于由诸如雷达和/或LIDAR的其它传感器提供的其它传感器数据来检测对象。
针对每个对象,预测模块303预测对象在这种情况下将如何表现。预测是基于感知数据执行的,该感知数据在考虑一组地图/路线信息311和交通规则312的时间点感知驾驶环境。例如,如果对象为相反方向上的车辆且当前驾驶环境包括十字路口,则预测模块303将预测车辆是否可能会笔直向前移动或转弯。如果感知数据表明十字路口没有交通灯,则预测模块303可能会预测车辆在进入十字路口之前可能需要完全停车。如果感知数据表明车辆目前处于左转唯一车道或右转唯一车道,则预测模块303可能预测车辆将更可能分别左转或右转。
针对每个对象,决策模块304作出关于如何处置对象的决定。例如,针对特定对象(例如,交叉路线中的另一车辆)以及描述对象的元数据(例如,速度、方向、转弯角度),决策模块304决定如何与所述对象相遇(例如,超车、让行、停止、超过)。决策模块304可根据诸如交通规则或驾驶规则312的规则集来作出此类决定,所述规则集可存储在永久性存储装置352中。
路线安排模块307配置成提供从起始点到目的地点的一个或多个路线或路径。对于从起始位置到目的地位置的给定行程,例如从用户接收的给定行程,路线安排模块307获得路线与地图信息311,并确定从起始位置至到达目的地位置的所有可能路线或路径。路线安排模块307可生成地形图形式的参考线,它确定了从起始位置至到达目的地位置的每个路线。参考线是指不受其它诸如其它车辆、障碍物或交通状况的任何干扰的理想路线或路径。即,如果道路上没有其它车辆、行人或障碍物,则ADV应精确地或紧密地跟随参考线。然后,将地形图提供至决策模块304和/或规划模块305。决策模块304和/或规划模块305检查所有可能的路线,以根据由其它模块提供的其它数据选择和更改最佳路线中的一个,其中,其它数据诸如为来自定位模块301的交通状况、由感知模块302感知到的驾驶环境以及由预测模块303预测的交通状况。根据时间点下的特定驾驶环境,用于控制ADV的实际路径或路线可能接近于或不同于由路线安排模块307提供的参考线。
基于针对所感知到的对象中的每个的决定,规划模块305使用由路线安排模块307提供的参考线作为基础,为ADV规划路径或路线以及驾驶参数(例如,距离、速度和/或转弯角度)。换言之,针对给定的对象,决策模块304决定对该对象做什么,而规划模块305确定如何去做。例如,针对给定的对象,决策模块304可决定超过所述对象,而规划模块305可确定在所述对象的左侧还是右侧超过。规划和控制数据由规划模块305生成,包括描述车辆300在下一移动循环(例如,下一路线/路径段)中将如何移动的信息。例如,规划和控制数据可指示车辆300以30英里每小时(mph)的速度移动10米,随后以25mph的速度变到右侧车道。
基于规划和控制数据,控制模块306根据由规划和控制数据限定的路线或路径通过将适当的命令或信号发送到车辆控制系统111来控制并驾驶ADV。所述规划和控制数据包括足够的信息,以沿着路径或路线在不同的时间点使用适当的车辆设置或驾驶参数(例如,油门、制动、转向命令)将车辆从路线或路径的第一点驾驶到第二点。
在一个实施方式中,规划阶段在多个规划周期(也称作为驾驶周期)中执行,例如,在每个时间间隔为100毫秒(ms)的周期中执行。对于规划周期或驾驶周期中的每一个,将基于规划和控制数据发出一个或多个控制命令。即,对于每100ms,规划模块305规划下一个路线段或路径段,例如,包括目标位置和ADV到达目标位置所需要的时间。可替代地,规划模块305还可规定具体的速度、方向和/或转向角等。在一个实施方式中,规划模块305为下一个预定时段(诸如,5秒)规划路线段或路径段。对于每个规划周期,规划模块305基于在前一周期中规划的目标位置规划用于当前周期(例如,下一个5秒)的目标位置。控制模块306然后基于当前周期的规划和控制数据生成一个或多个控制命令(例如,油门、制动、转向控制命令)。
应注意,决策模块304和规划模块305可集成为集成模块。决策模块304/规划模块305可包括导航系统或导航系统的功能,以确定ADV的驾驶路径。例如,导航系统可确定用于影响ADV沿着以下路径移动的一系列速度和前进方向:所述路径在使ADV沿着通往最终目的地的基于车行道的路径前进的同时,基本上避免感知到的障碍物。目的地可根据经由用户接口系统113进行的用户输入来设定。导航系统可在ADV正在运行的同时动态地更新驾驶路径。导航系统可将来自GPS系统和一个或多个地图的数据合并,以确定用于ADV的驾驶路径。
图4是示出根据一个实施方式的自动驾驶车辆的自动驾驶系统的感知模块和控制模块的示例的框图400。参考图4,感知模块302包括但不限于检测模块401和确定模块404。感知模块302配置为基于从安装在ADV上的多个传感器获得的传感器数据来感知驾驶环境,其中,多个传感器包括至少一个图像传感器。检测模块401配置为检测交通灯光。控制模块306包括但不限于第一传感器设置模块402和第二传感器设置模块403。第一传感器设置模块402配置为将第一传感器设置应用于至少一个图像传感器以捕获第一帧,以及第二传感器设置模块403配置为将第二传感器设置应用于至少一个图像传感器以捕获第二帧。确定模块404配置为基于第一帧中的至少一个图像传感器的传感器数据来确定交通灯光的状况。检测模块401还配置为基于第二帧中的至少一个图像传感器的传感器数据来检测驾驶环境。控制模块306还配置为根据基于第一帧中的至少一个图像传感器的传感器数据确定的交通灯光的状况和基于第二帧中的至少一个图像传感器的传感器数据检测的驾驶环境来控制ADV自动驾驶。例如,控制模块306还可配置成根据基于第一帧中的至少一个图像传感器的传感器数据确定的交通灯光的状况自动地控制ADV的制动器,并且控制模块306还可配置成根据基于第二帧中的至少一个图像传感器的传感器数据检测到的驾驶环境自动地控制ADV的车轮。
图5是示出根据一个实施方式的像素输出504相对于自动驾驶车辆的自动驾驶系统的图像传感器的光强度505的示例的图500。成功地检测交通灯光并正确地分类交通灯光(例如,红色、黄色或绿色交通灯信号)以用于ADV的运动规划和控制很重要。然而,难以正确识别红色交通灯信号,特别是在黑暗/阴天环境下。由于颜色伪像,已经报道了许多不能识别红色交通灯信号的案例。例如,ADV可能因丢失红色交通灯信号而导致无法识别红色交通灯信号。对于另一示例,ADV可能错误地将红色交通灯信号确定为黄色交通灯信号。识别红色交通灯信号的失败可能是由于ADV的摄像机的图像传感器的颜色伪像。
图像传感器像素输出504包括红光分量(R分量)501、绿光分量(G分量)502和蓝光分量(B分量)503。例如,ADV的摄像机的图像传感器可使用拜耳(Bayer)滤光器,该拜耳滤光器是用于在光电传感器的正方形栅格上布置RGB滤色器的滤色器阵列(CFA)。滤色器的拜耳滤光器的特定布置用于数字摄像机、摄录像机和扫描仪中的大多数单片数字图像传感器中以创建彩色图像。
在黑暗/阴天环境下,在常规传感器设置中图像传感器的曝光时间增加。然后,红光强度(R分量)501以及绿光强度(G分量)502和蓝光强度(B分量)503根据曝光时间而增大。然而,红光强度(R分量)具有红光强度饱和阈值521,其低于绿光强度饱和阈值522或蓝光强度饱和阈值523。
在区域511中,红光强度(R分量)501、绿光强度(G分量)502和蓝光强度(B分量)503增加,并且三个分量处于适当的比率。因此,像素输出504是红色的。
在区域512中,当红光强度(R分量)501增大到红光强度饱和阈值521时,红光强度(R分量)501饱和并且不能变得更高。绿光强度(G分量)502仍然增大。因此,R分量与G分量的比率改变,因此,像素输出504在区域512中改变为橙色。
在区域513中,当绿光强度(G分量)502将达到绿光强度饱和阈值522时,绿光强度(G分量)502将饱和。因此,R分量501与G分量502的比率接近1,并且B分量503较低。因此,像素输出504呈现黄色。
在区域514中,当所有三个分量饱和时,像素输出504呈现白色。
如图5中所示,在黑暗/阴天环境下,在常规传感器设置中图像传感器的增加的曝光时间可能引起伪像,这可能导致识别红色交通灯信号的失败。
图6A至图6C示出了根据一个实施方式的自动驾驶车辆的自动驾驶系统的光检测和分类的示例600。图6A示出了光检测和分类的过程的示例。图6B示出了图6A中的帧A 602的部分610a的放大视图。图6C示出了图6A中的帧B 603的部分610b的放大视图。参考图6A至图6C,ADV可基于从安装在ADV上的多个传感器获得的传感器数据来感知驾驶环境,其中,多个传感器包括一个或多个图像传感器。图像传感器中的每一个可具有传感器设置。例如,传感器设置可包括曝光时间、增益等。
在初始时间T1,ADV可基于从包括一个或多个图像传感器的多个传感器获得的传感器数据来检测一个或多个交通灯光620。可在ADV上安装一个或多个摄像机,并且一个或多个摄像机中的每一个可包括图像传感器。在黑暗/阴天环境下,可增加一个或多个图像传感器的初始传感器设置中的初始曝光时间(例如,在时间T1的曝光时间),以捕获驾驶环境。
在一个实施方式中,一个或多个图像传感器的初始传感器设置中的初始曝光时间可在检测交通灯光620时确定。可确定一个或多个图像传感器的初始曝光时间是否超过预定阈值。例如,预定阈值可基于红光强度饱和阈值(例如,图5中的521)来确定。如结合图5所讨论的,当一个或多个图像传感器的初始设置中的初始曝光时间超过预定阈值时,ADV可能无法识别红色交通灯光。因此,为了正确地识别红色交通灯信号,可将曝光时间减少到最小曝光时间或与明亮阳光或日光下的条件类似的曝光时间。
在时间T2,可将第一传感器设置应用于第一帧(即“帧A”610a)中的一个或多个图像传感器。第一传感器设置可包括第一曝光时间和/或第一增益。例如,第一曝光时间可以是减少的曝光时间,诸如最小曝光时间或与明亮阳光或日光下的条件类似的曝光时间。作为另一示例,所有的增益可设置为x1或最小增益。
如图6B中所示,在“帧A”602的部分610a的放大视图中,例如,由于减少的曝光时间和/或减少的增益,红色交通灯光620可呈现红色。感知模块302中的确定模块404可将交通灯光620的颜色确定为红色,从而可识别红色交通灯光620。然而,难以识别第一帧“帧A”602中的其它驾驶环境,诸如车道配置、障碍物等。
在时间T3,可将第二传感器设置应用于第二帧(即“帧B”610b)中的一个或多个图像传感器。第二传感器设置可包括第二曝光时间和/或第二增益。第二传感器设置可以是黑暗/阴天环境下的正常传感器设置。例如,第二曝光时间可以是比明亮阳光或日光下的曝光时间更长的曝光时间。作为另一示例,所有增益可设置为大于1x或最小增益。
如图6C中所示,在“帧B”603的部分610b的放大视图中,例如,由于结合图5所讨论的曝光时间的增加,红色交通灯光620可呈现橙色或黄色。然而,感知模块302可基于第二帧“帧B”603中的一个或多个传感器的传感器数据来感知驾驶环境。ADV可识别第二帧“帧B”603中的其它驾驶环境,诸如车道配置、障碍物。
ADV的控制模块306可将第一传感器设置和第二传感器设置应用于交替的帧。在一个实施方式中,ADV可将第一传感器设置应用于一个或多个传感器以捕获第一帧,并且将第二传感器设置应用于一个或多个传感器以捕获第二帧,并且重复。
在一个实施方式中,可确定第一帧“帧A”602中的一个或多个传感器的传感器数据中的交通灯光620周围的边界框622。每个交通灯光620可具有一个相应的边界框622。可提取边界框622内的像素的特征。例如,边界框622内的像素的特征可包括边界框622内的像素的红光(R分量)、绿光(G分量)或蓝光(B分量)中的一个的平均值、最小值、最大值或百分位数。作为示例,该特征可以是红光(R分量)的平均值。
在一个实施方式中,第一传感器设置可基于边界框内的像素的特征的预定阈值来确定。例如,可将第一曝光时间设置为满足边界框622内的像素的红光(R分量)、绿光(G分量)或蓝光(B分量)中的一个平均值、最小值、最大值或百分位数的预定阈值。作为示例,第一曝光时间可设置为满足第一帧“帧A”602中的边界框622内的像素的红光(R分量)的平均值的预定阈值。作为另一示例,可将第一曝光时间设置为满足第一帧“帧A”602中的边界框622内的像素的红光(R分量)的最大值的预定阈值。
ADV可交替地应用第一传感器设置和设置的传感器设置。ADV可应用第一传感器设置以捕获多个第一帧,或者应用第二传感器设置以捕获多个第二帧,这取决于光条件和/或环境。在一个实施方式中,ADV可将第一传感器设置应用于一个或多个图像传感器以捕获多个第一帧,并且将第二传感器设置应用于一个或多个图像传感器以捕获第二帧。在一个实施方式中,ADV可将第一传感器设置应用于一个或多个图像传感器以捕获第一帧,并且将第二传感器设置应用于一个或多个图像传感器以捕获多个第二帧。在一个实施方式中,ADV可将第一传感器设置应用于一个或多个图像传感器以捕获多个第一帧,并且将第二传感器设置应用于一个或多个图像传感器以捕获多个第二帧。
可根据基于第一帧中的一个或多个图像传感器的传感器数据确定的交通灯光的颜色和基于第二帧中的一个或多个图像传感器的传感器数据感知的驾驶环境来控制ADV自动驾驶。例如,AV的制动器可应用于响应于基于第一帧中的一个或多个图像传感器的传感器数据确定交通灯光中的颜色是红色而停止ADV。例如,ADV的车轮可转动以响应于基于第二帧中的一个或多个图像传感器的传感器数据而感知到的障碍来改变ADV的轨迹。以这种方式,ADV可识别红色的交通灯信号并且在黑暗/阴天环境下感知驾驶环境,从而增加驾驶安全性。
图7是示出根据一个实施方式的自动驾驶车辆的自动驾驶系统的光检测和分类的过程的示例的流程图。过程700可由可包括软件、硬件或其组合的处理逻辑来执行。例如,过程700可由感知模块302和/或控制模块306执行。参考图7,在操作701中,处理逻辑基于从安装在ADV上的多个传感器获得的传感器数据来感知ADV周围的驾驶环境,包括检测交通灯光,其中,多个传感器包括至少一个图像传感器。在操作702中,处理逻辑将第一传感器设置应用于至少一个图像传感器以捕获第一帧。在操作703中,处理逻辑将第二传感器设置应用于至少一个图像传感器以捕获第二帧。在操作704中,处理逻辑基于第一帧中的至少一个图像传感器的传感器数据来确定交通灯光的颜色。在操作705中,处理逻辑根据基于第一帧中的至少一个图像传感器的传感器数据确定的交通灯光的颜色和基于第二帧中的至少一个图像传感器的传感器数据感知的驾驶环境来控制ADV自动驾驶。通过该过程,ADV可识别红色的交通灯信号并且在黑暗/阴天环境下感知驾驶环境,从而增加驾驶安全性。
应注意,如上文示出和描述的部件中的一些或全部可在软件、硬件或其组合中实施。例如,此类部件可实施为安装并存储在永久性存储装置中的软件,所述软件可通过处理器(未示出)加载在存储器中并在存储器中执行以实施贯穿本申请所述的过程或操作。可替代地,此类部件可实施为编程或嵌入到专用硬件(诸如,集成电路(例如,专用集成电路或ASIC)、数字信号处理器(DSP)或现场可编程门阵列(FPGA))中的可执行代码,所述可执行代码可经由来自应用的相应驱动程序和/或操作系统来访问。此外,此类部件可实施为处理器或处理器内核中的特定硬件逻辑,作为可由软件部件通过一个或多个特定指令访问的指令集的一部分。
前述详细描述中的一些部分已经根据在计算机存储器内对数据位的运算的算法和符号表示而呈现。这些算法描述和表示是数据处理领域中的技术人员所使用的方式,以将他们的工作实质最有效地传达给本领域中的其他技术人员。本文中,算法通常被认为是导致所期望结果的自洽操作序列。这些操作是指需要对物理量进行物理操控的操作。
然而,应当牢记,所有这些和类似的术语均旨在与适当的物理量关联,并且仅仅是应用于这些量的方便标记。除非在以上讨论中以其它方式明确地指出,否则应当了解,在整个说明书中,利用术语(诸如所附权利要求书中所阐述的术语)进行的讨论是指计算机系统或类似电子计算装置的动作和处理,所述计算机系统或电子计算装置操控计算机系统的寄存器和存储器内的表示为物理(电子)量的数据,并将所述数据变换成计算机系统存储器或寄存器或者其它此类信息存储装置、传输或显示装置内类似地表示为物理量的其它数据。
本公开的实施方式还涉及用于执行本文中的操作的设备。这种计算机程序存储在非暂时性计算机可读介质中。机器可读介质包括用于以机器(例如,计算机)可读的形式存储信息的任何机构。例如,机器可读(例如,计算机可读)介质包括机器(例如,计算机)可读存储介质(例如,只读存储器(“ROM”)、随机存取存储器(“RAM”)、磁盘存储介质、光存储介质、闪存存储器装置)。
前述附图中所描绘的过程或方法可由处理逻辑来执行,所述处理逻辑包括硬件(例如,电路、专用逻辑等)、软件(例如,体现在非暂时性计算机可读介质上)或两者的组合。尽管所述过程或方法在上文是依据一些顺序操作来描述的,但是应当了解,所述操作中的一些可按不同的顺序执行。此外,一些操作可并行地执行而不是顺序地执行。
本公开的实施方式并未参考任何特定的编程语言进行描述。应认识到,可使用多种编程语言来实施如本文描述的本公开的实施方式的教导。
在以上的说明书中,已经参考本公开的具体示例性实施方式对本公开的实施方式进行了描述。将显而易见的是,在不脱离所附权利要求书中阐述的本公开的更宽泛精神和范围的情况下,可对本发明作出各种修改。因此,应当在说明性意义而不是限制性意义上来理解本说明书和附图。
Claims (22)
1.一种用于操作自动驾驶车辆(ADV)的计算机实现的方法,所述方法包括:
基于从安装在所述ADV上的多个传感器获得的传感器数据来感知驾驶环境,包括检测交通灯光,所述多个传感器包括至少一个图像传感器;
将第一传感器设置应用于所述至少一个图像传感器以捕获第一帧;
将第二传感器设置应用于所述至少一个图像传感器以捕获第二帧;
基于所述第一帧中的所述至少一个图像传感器的传感器数据来确定所述交通灯光的颜色;以及
根据基于所述第一帧中的所述至少一个图像传感器的传感器数据确定的所述交通灯光的颜色和基于所述第二帧中的所述至少一个图像传感器的传感器数据感知的驾驶环境来控制所述ADV自动驾驶。
2.根据权利要求1所述的方法,其中,所述第一传感器设置包括第一曝光时间或第一增益中的至少一个,其中,所述第二传感器设置包括第二曝光时间或第二增益中的至少一个,以及其中,所述第一曝光时间或所述第一增益中的所述至少一个分别小于所述第二曝光时间或所述第二增益中的所述至少一个。
3.根据权利要求1所述的方法,其中,基于日间光条件下的最小值或预定值来确定所述第一传感器设置。
4.根据权利要求1至3中任一项所述的方法,还包括:
确定所述第一帧中的所述至少一个图像传感器的所述传感器数据中的所述交通灯光周围的边界框;以及
提取所述边界框内的像素的特征。
5.根据权利要求4所述的方法,其中,所述边界框内的所述像素的特征包括所述边界框内的所述像素的红色、绿色或蓝色中的一个的平均值、最小值、最大值或百分位数中的至少一个。
6.根据权利要求4所述的方法,其中,基于所述边界框内的所述像素的特征的预定阈值来确定所述第一传感器设置。
7.根据权利要求1至6中任一项所述的方法,还包括:
在检测到所述交通灯光时,确定所述至少一个图像传感器的初始传感器设置中的初始曝光时间;以及
确定所述至少一个图像传感器的所述初始曝光时间是否超过预定阈值;
其中,响应于确定所述至少一个图像传感器的所述初始曝光时间超过所述预定阈值,将所述第一传感器设置应用于所述至少一个图像传感器。
8.一种其中存储有指令的非暂时性机器可读介质,所述指令在由处理器执行时使所述处理器执行操作,所述操作包括:
基于从安装在所述ADV上的多个传感器获得的传感器数据来感知驾驶环境,包括检测交通灯光,所述多个传感器包括至少一个图像传感器;
将第一传感器设置应用于所述至少一个图像传感器以捕获第一帧;
将第二传感器设置应用于所述至少一个图像传感器以捕获第二帧;
基于所述第一帧中的所述至少一个图像传感器的传感器数据来确定所述交通灯光的颜色;以及
根据基于所述第一帧中的所述至少一个图像传感器的传感器数据确定的所述交通灯光的颜色和基于所述第二帧中的所述至少一个图像传感器的传感器数据感知的驾驶环境来控制所述ADV自动驾驶。
9.根据权利要求8所述的非暂时性机器可读介质,其中,所述第一传感器设置包括第一曝光时间或第一增益中的至少一个,其中,所述第二传感器设置包括第二曝光时间或第二增益中的至少一个,以及其中,所述第一曝光时间或所述第一增益中的所述至少一个分别小于所述第二曝光时间或所述第二增益中的所述至少一个。
10.根据权利要求8所述的非暂时性机器可读介质,其中,基于日间光条件下的最小值或预定值来确定所述第一传感器设置。
11.根据权利要求8至10中任一项所述的非暂时性机器可读介质,其中,所述操作还包括:
确定所述第一帧中的所述至少一个图像传感器的所述传感器数据中的所述交通灯光周围的边界框;以及
提取所述边界框内的像素的特征。
12.根据权利要求11所述的非暂时性机器可读介质,其中,所述边界框内的所述像素的特征包括所述边界框内的所述像素的红色、绿色或蓝色中的一个的平均值、最小值、最大值或百分位数中的至少一个。
13.根据权利要求11所述的非暂时性机器可读介质,其中,基于所述边界框内的所述像素的特征的预定阈值来确定所述第一传感器设置。
14.根据权利要求8至13中任一项所述的非暂时性机器可读介质,其中,所述操作还包括:
在检测到所述交通灯光时,确定所述至少一个图像传感器的初始传感器设置中的初始曝光时间;以及
确定所述至少一个图像传感器的所述初始曝光时间是否超过预定阈值;
其中,响应于确定所述至少一个图像传感器的所述初始曝光时间超过所述预定阈值,将所述第一传感器设置应用于所述至少一个图像传感器。
15.一种数据处理系统,包括:
处理器;以及
存储器,联接到所述处理器以存储指令,所述指令在由所述处理器执行时致使所述处理器执行操作,所述操作包括:
基于从安装在所述ADV上的多个传感器获得的传感器数据来感知驾驶环境,包括检测交通灯光,所述多个传感器包括至少一个图像传感器;
将第一传感器设置应用于所述至少一个图像传感器以捕获第一帧;
将第二传感器设置应用于所述至少一个图像传感器以捕获第二帧;
基于所述第一帧中的所述至少一个图像传感器的传感器数据来确定所述交通灯光的颜色;以及
根据基于所述第一帧中的所述至少一个图像传感器的传感器数据确定的所述交通灯光的颜色和基于所述第二帧中的所述至少一个图像传感器的传感器数据感知的驾驶环境来控制所述ADV自动驾驶。
16.根据权利要求15所述的数据处理系统,其中,所述第一传感器设置包括第一曝光时间或第一增益中的至少一个,其中,所述第二传感器设置包括第二曝光时间或第二增益中的至少一个,以及其中,所述第一曝光时间或所述第一增益中的所述至少一个分别小于所述第二曝光时间或所述第二增益中的所述至少一个。
17.根据权利要求15所述的数据处理系统,其中,基于日间光条件下的最小值或预定值来确定所述第一传感器设置。
18.根据权利要求15至17中任一项所述的数据处理系统,其中,所述操作还包括:
确定所述第一帧中的所述至少一个图像传感器的所述传感器数据中的所述交通灯光周围的边界框;以及
提取所述边界框内的像素的特征。
19.根据权利要求18所述的数据处理系统,其中,所述边界框内的所述像素的特征包括所述边界框内的所述像素的红色、绿色或蓝色中的一个的平均值、最小值、最大值或百分位数中的至少一个。
20.根据权利要求18所述的数据处理系统,其中,基于所述边界框内的所述像素的特征的预定阈值来确定所述第一传感器设置。
21.根据权利要求15至20中任一项所述的数据处理系统,其中,所述操作还包括:
在检测到所述交通灯光时,确定所述至少一个图像传感器的初始传感器设置中的初始曝光时间;以及
确定所述至少一个图像传感器的所述初始曝光时间是否超过预定阈值;
其中,响应于确定所述至少一个图像传感器的所述初始曝光时间超过所述预定阈值,将所述第一传感器设置应用于所述至少一个图像传感器。
22.一种包括计算机程序的计算机程序产品,所述计算机程序在由处理器执行时使所述处理器实现根据权利要求1至7中任一项所述的方法。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/CN2021/088379 WO2022222028A1 (en) | 2021-04-20 | 2021-04-20 | Traffic light detection and classification for autonomous driving vehicles |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115516397A true CN115516397A (zh) | 2022-12-23 |
Family
ID=81988199
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202180004904.XA Pending CN115516397A (zh) | 2021-04-20 | 2021-04-20 | 用于自动驾驶车辆的交通灯光检测和分类 |
Country Status (6)
Country | Link |
---|---|
US (1) | US20240020988A1 (zh) |
EP (1) | EP4097554B1 (zh) |
JP (1) | JP2023527599A (zh) |
KR (1) | KR20220081380A (zh) |
CN (1) | CN115516397A (zh) |
WO (1) | WO2022222028A1 (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116152785A (zh) * | 2023-04-24 | 2023-05-23 | 之江实验室 | 一种基于cbam结合hsb模式的交通信号灯检测方法和系统 |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116434041A (zh) * | 2022-12-05 | 2023-07-14 | 北京百度网讯科技有限公司 | 错误感知数据的挖掘方法、装置、设备及自动驾驶车辆 |
Family Cites Families (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0996284B1 (en) * | 1998-10-23 | 2002-04-03 | Datalogic S.P.A. | Process for regulating the exposure time of a light sensor |
KR100284305B1 (ko) * | 1998-10-28 | 2001-03-02 | 김영환 | 이미지 센서에서 녹색 화소의 평균값을 이용하여 화면의 밝기를조절하기 위한 장치 및 방법 |
EP2172873B1 (en) * | 2008-10-06 | 2018-08-15 | Mobileye Vision Technologies Ltd. | Bundling of driver assistance systems |
DE102012217093A1 (de) * | 2012-09-21 | 2014-04-17 | Robert Bosch Gmbh | Kamerasystem, insbesondere für ein Fahrzeug, und Verfahren zum Ermitteln von Bildinformationen eines Erfassungsbereichs |
US9654738B1 (en) | 2013-08-07 | 2017-05-16 | Waymo Llc | Using multiple exposures to improve image processing for autonomous vehicles |
KR101579098B1 (ko) * | 2014-05-23 | 2015-12-21 | 엘지전자 주식회사 | 스테레오 카메라, 이를 구비한 차량 운전 보조 장치, 및 차량 |
US10507807B2 (en) * | 2015-04-28 | 2019-12-17 | Mobileye Vision Technologies Ltd. | Systems and methods for causing a vehicle response based on traffic light detection |
CN105635597B (zh) * | 2015-12-21 | 2018-07-27 | 湖北工业大学 | 车载相机的自动曝光方法及系统 |
US10084967B1 (en) | 2017-03-24 | 2018-09-25 | Qualcomm Incorporated | Systems and methods for regionally controlling exposure time in high dynamic range imaging |
US10453208B2 (en) * | 2017-05-19 | 2019-10-22 | Waymo Llc | Camera systems using filters and exposure times to detect flickering illuminated objects |
DE102017210845A1 (de) | 2017-06-27 | 2018-12-27 | Conti Temic Microelectronic Gmbh | Kameravorrichtung sowie Verfahren zur umgebungsangepassten Erfassung eines Umgebungsbereichs eines Fahrzeugs |
US10757320B2 (en) * | 2017-12-28 | 2020-08-25 | Waymo Llc | Multiple operating modes to expand dynamic range |
US20190243376A1 (en) * | 2018-02-05 | 2019-08-08 | Qualcomm Incorporated | Actively Complementing Exposure Settings for Autonomous Navigation |
KR20200053125A (ko) * | 2018-11-08 | 2020-05-18 | 삼성전자주식회사 | 전자 장치 및 그 제어 방법 |
KR20210096086A (ko) | 2018-12-07 | 2021-08-04 | 소니 세미컨덕터 솔루션즈 가부시키가이샤 | 정보 처리 장치, 및 정보 처리 방법, 그리고 프로그램 |
US20210211568A1 (en) * | 2020-01-07 | 2021-07-08 | Motional Ad Llc | Systems and methods for traffic light detection |
-
2021
- 2021-04-20 WO PCT/CN2021/088379 patent/WO2022222028A1/en active Application Filing
- 2021-04-20 KR KR1020227017842A patent/KR20220081380A/ko unknown
- 2021-04-20 EP EP21887861.9A patent/EP4097554B1/en active Active
- 2021-04-20 US US17/294,877 patent/US20240020988A1/en active Pending
- 2021-04-20 JP JP2022520172A patent/JP2023527599A/ja active Pending
- 2021-04-20 CN CN202180004904.XA patent/CN115516397A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116152785A (zh) * | 2023-04-24 | 2023-05-23 | 之江实验室 | 一种基于cbam结合hsb模式的交通信号灯检测方法和系统 |
CN116152785B (zh) * | 2023-04-24 | 2023-07-18 | 之江实验室 | 一种基于cbam结合hsb模式的交通信号灯检测方法和系统 |
Also Published As
Publication number | Publication date |
---|---|
KR20220081380A (ko) | 2022-06-15 |
WO2022222028A1 (en) | 2022-10-27 |
US20240020988A1 (en) | 2024-01-18 |
JP2023527599A (ja) | 2023-06-30 |
EP4097554B1 (en) | 2023-12-06 |
EP4097554A1 (en) | 2022-12-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111775945B (zh) | 用于自动驾驶的用于检测最接近的路径内对象的方法和装置 | |
CN110573978A (zh) | 用于自驾交通工具的动态传感器选择 | |
CN112498365A (zh) | 基于置信度水平和距离、响应于障碍物的自动驾驶车辆的延迟决策 | |
US11560159B2 (en) | Group and combine obstacles for autonomous driving vehicles | |
CN113129624B (zh) | 交通堵塞情况下的最快车道确定算法 | |
CN113495560A (zh) | 基于场景的自动驾驶车辆控制 | |
US20210004010A1 (en) | Hierarchical path decision system for planning a path for an autonomous driving vehicle | |
CN112825127A (zh) | 生成用于自动驾驶标记的紧密2d边界框的新方法 | |
WO2022222028A1 (en) | Traffic light detection and classification for autonomous driving vehicles | |
CN113885011A (zh) | 自动车辆的基于点云图的光检测测距重新校准系统 | |
CN114379590A (zh) | 紧急车辆音频和视觉检测后融合 | |
CN113753070A (zh) | 自动车辆的锁定行人检测与预测 | |
CN113748059A (zh) | 离线和在线解决方案相结合的停车轨迹生成方法 | |
CN114127778A (zh) | 基于点云特征的障碍物过滤系统 | |
CN112230646A (zh) | 设计用于单车运行的自动驾驶系统下的车辆队列实施 | |
CN112230645A (zh) | 用于控制无人驾驶车辆的操纵杆控制的安全机制 | |
CN113247017B (zh) | 用于确保自动驾驶车辆的稳定绕行的双缓冲系统 | |
CN112829770A (zh) | 基于车道边界和车辆速度的绕行决策 | |
CN113642372A (zh) | 在自主驾驶车辆的操作中基于灰度图像识别对象的方法和系统 | |
CN113428173A (zh) | 用于自动驾驶车辆的静态曲率误差补偿控制逻辑 | |
CN113002534A (zh) | 碰撞后减损制动系统 | |
CN113060140A (zh) | 基于中心线移位的变道前路径规划 | |
CN113658443B (zh) | 用于确定即将到来的交通灯的状态的方法、装置和系统 | |
CN212391730U (zh) | 用于自动驾驶车辆的光探测和测距装置 | |
US20210284195A1 (en) | Obstacle prediction system for autonomous driving vehicles |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |