CN113423627B - 在遮挡的情况下根据道路使用者反应建模来操作自动车辆 - Google Patents
在遮挡的情况下根据道路使用者反应建模来操作自动车辆 Download PDFInfo
- Publication number
- CN113423627B CN113423627B CN201980092141.1A CN201980092141A CN113423627B CN 113423627 B CN113423627 B CN 113423627B CN 201980092141 A CN201980092141 A CN 201980092141A CN 113423627 B CN113423627 B CN 113423627B
- Authority
- CN
- China
- Prior art keywords
- determining
- autonomous vehicle
- vehicle
- lane
- lane segments
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000035484 reaction time Effects 0.000 claims abstract description 50
- 238000000034 method Methods 0.000 claims abstract description 22
- 230000005284 excitation Effects 0.000 claims description 15
- 238000001514 detection method Methods 0.000 claims description 13
- 238000004891 communication Methods 0.000 claims description 5
- 230000015654 memory Effects 0.000 description 27
- 230000006399 behavior Effects 0.000 description 22
- 230000008447 perception Effects 0.000 description 15
- 238000010586 diagram Methods 0.000 description 9
- 230000001133 acceleration Effects 0.000 description 6
- 230000000007 visual effect Effects 0.000 description 5
- 230000006870 function Effects 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 230000011664 signaling Effects 0.000 description 3
- 239000007787 solid Substances 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 239000000446 fuel Substances 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 238000013515 script Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 230000003542 behavioural effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000000737 periodic effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 239000013598 vector Substances 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
- B60W30/14—Adaptive cruise control
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W60/00—Drive control systems specially adapted for autonomous road vehicles
- B60W60/001—Planning or execution of driving tasks
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/0088—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R21/00—Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
- B60R21/01—Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
- B60R21/013—Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over
- B60R21/0134—Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over responsive to imminent contact with an obstacle, e.g. using radar systems
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
- B60W30/08—Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
- B60W30/095—Predicting travel path or likelihood of collision
- B60W30/0956—Predicting travel path or likelihood of collision the prediction being responsive to traffic or environmental parameters
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
- B60W30/10—Path keeping
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
- B60W30/18—Propelling the vehicle
- B60W30/18009—Propelling the vehicle related to particular drive situations
- B60W30/18159—Traversing an intersection
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/02—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W60/00—Drive control systems specially adapted for autonomous road vehicles
- B60W60/001—Planning or execution of driving tasks
- B60W60/0027—Planning or execution of driving tasks using trajectory prediction for other traffic participants
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W60/00—Drive control systems specially adapted for autonomous road vehicles
- B60W60/001—Planning or execution of driving tasks
- B60W60/0027—Planning or execution of driving tasks using trajectory prediction for other traffic participants
- B60W60/00276—Planning or execution of driving tasks using trajectory prediction for other traffic participants for two or more other traffic participants
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/588—Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/0104—Measuring and analyzing of parameters relative to traffic conditions
- G08G1/0125—Traffic data processing
- G08G1/0133—Traffic data processing for classifying traffic situation
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
- G08G1/166—Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
- G08G1/167—Driving aids for lane monitoring, lane changing, e.g. blind spot detection
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2556/00—Input parameters relating to data
- B60W2556/45—External transmission of data to or from the vehicle
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60Y—INDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
- B60Y2300/00—Purposes or special features of road vehicle drive control systems
- B60Y2300/14—Cruise control
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
- G06T2207/30256—Lane; Road marking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
- G06T2207/30261—Obstacle
Abstract
本公开提供了一种用于操作自动车辆100的方法。为了操作自动车辆,确定在自动车辆的环境中的多个车道路段,并检测环境中的第一对象和第二对象。确定第一对象与多个车道路段相关的第一位置,并使用该第一位置确定被第一对象遮挡的特定车道路段。根据被遮挡的车道路段,确定第二对象的反应时间,并根据该反应时间确定自动车辆的驾驶指令。然后基于驾驶指令操作自动车辆。
Description
相关申请的交叉引用
本申请要求于2018年12月14日提交的美国申请序列号16/220,144的权益,其全部公开内容通过引用结合于此。
背景技术
自动车辆,诸如不需要人类驾驶员的车辆,可以用于协助将载客或物品从一个地点运输到另一个地点。这样的车辆可以在完全自动模式下操作,在该完全自动模式下载客可以提供某一初始输入,诸如接载或目的地地点,并且车辆操纵自己到该地点。
这样的车辆通常装备有各种类型的传感器以便检测周围的对象。例如,自动车辆可以包括激光、声纳、雷达、照相机和其它扫描和记录来自车辆周围的数据的设备。来自这些设备中的一个或多个的传感器数据可以用于检测对象以及它们各自的特征(位置、形状、走向、速度等)。这些特征可以用于预测其它对象的轨迹。这些轨迹可以限定对象在未来的某一短暂时期内可能会做什么。这些轨迹然后可以用于控制车辆以避开这些对象。因此,检测、识别和预测是自动车辆安全操作的关键功能。
发明内容
本公开的各方面提供了一种用于操作自动车辆的方法。该方法包括:由一个或多个计算设备确定在自动车辆的环境中的多个车道路段;由一个或多个计算设备使用自动车辆的检测系统检测在自动车辆环境中的第一对象和第二对象;由一个或多个计算设备确定第一对象与多个车道路段相关的位置;根据所述位置,由一个或多个计算设备确定在设定的时间间隔期间从自动车辆的角度要被第一对象遮挡的多个车道路段中的一个或多个车道路段;根据被遮挡的一个或多个车道路段,由一个或多个计算设备确定第二对象的反应时间;根据确定的第二对象的反应时间,由一个或多个计算设备确定自动车辆的驾驶指令,该驾驶指令包括自动车辆的操纵的时机;以及由一个或多个计算设备基于驾驶指令操作自动车辆。
在一个示例中,确定要被遮挡的一个或多个车道路段包括确定在设定的时间间隔期间第一对象的位置和自动车辆的位置之间的关系。在该示例中,确定在设定的时间间隔期间第一对象的位置和自动车辆的位置之间的关系包括确定一区域在设定的时间间隔期间在所述位置处从自动车辆的视野被阻挡。
在另一个示例中,第二对象是与名义上的人类行为者相关联的一种类型的车辆。在该示例中,确定反应时间包括确定与第二对象相关联的名义上的人类行为者是否被定位成使得名义上的人类行为者的视野包括自动车辆的位置。确定反应时间还可选地包括计算自动车辆的底盘到名义上的人类行为者的预测位置之间的线型路段。
在进一步的示例中,确定反应时间包括:确定第二对象将最可能开始对自动车辆作出反应的激励点;以及增加估计的感知时间到该激励点。在又一示例中,所述方法还包括由一个或多个计算设备通过确定在紧随设定的时间间隔之后的接下来的时间间隔期间要被第一对象遮挡的一个或多个第二车道路段来跟踪多个车道路段上的遮挡。
本公开的其它方面提供了一种自动车辆的自主驾驶系统。该自主驾驶系统包括:被配置为检测在自动车辆的环境中的对象的检测系统,以及与检测系统通信的一个或多个计算设备。所述一个或多个计算设备被配置为:确定在自动车辆的环境中的多个车道路段;使用检测系统检测在自动车辆的环境中的第一对象和第二对象;确定第一对象与多个车道路段相关的位置;根据所述位置,确定在设定的时间间隔期间从自动车辆的角度要被第一对象遮挡的多个车道路段中的一个或多个车道路段;根据被遮挡的一个或多个车道路段,确定第二对象的反应时间;根据确定的第二对象的反应时间,确定自动车辆的驾驶指令,该驾驶指令包括自动车辆的操纵的时机;以及基于驾驶指令操纵的时机操作自主驾驶系统。
在一个示例中,一个或多个车道路段是基于在设定的时间间隔期间从自动车辆的视野被第一对象阻挡的一区域而被确定为是被遮挡的。在另一示例中,第二对象是与名义上的人类行为者相关联的一种类型的车辆;并且反应时间是基于与第二对象相关联的名义上的人类行为者是否被定位成使得名义上的人类行为者的视野包括自动车辆的位置而确定的。在该示例中,反应时间还是基于自动车辆的底盘到名义上的人类行为者的预测位置之间的计算出的线型路段而确定的。
在另一示例中,反应时间的确定是基于:第二对象将最可能开始对自动车辆作出反应的激励点;以及到激励点的额外的估计感知时间。在进一步的示例中,一个或多个计算设备还被配置为通过确定在紧随设定的时间间隔之后的接下来的时间间隔期间要被第一对象遮挡的一个或多个第二车道路段来跟踪多个车道路段上的遮挡。在又一示例中,所述系统还包括自动车辆。
本公开的进一步的方面提供了一种其上存储了程序的计算机可读指令的非暂时性、有形的计算机可读存储介质。所述指令在由一个或多个处理器执行时引起一个或多个处理器执行方法。该方法包括:确定在自动车辆的环境中的多个车道路段;使用自动车辆的检测系统检测在自动车辆的环境中的第一对象和第二对象;确定第一对象与多个车道路段相关的位置;根据所述位置,确定在设定的时间间隔期间从自动车辆的角度要被第一对象遮挡的多个车道路段中的一个或多个车道路段;根据被遮挡的一个或多个车道路段,确定第二对象的反应时间;根据确定的第二对象的反应时间,确定自动车辆的驾驶指令,该驾驶指令包括自动车辆的操纵的时机;以及基于驾驶指令来操作自动车辆。
在一个示例中,确定要被遮挡的一个或多个车道路段包括确定在设定的时间间隔期间第一对象的位置和自动车辆的位置之间的关系。在该示例中,确定在设定的时间间隔期间第一对象的位置和自动车辆的位置之间的关系包括确定一区域在设定的时间间隔期间在所述位置处从自动车辆的视野被阻挡。
在另一个示例中,第二对象是与名义上的人类行为者相关联的一种类型的车辆,并且确定反应时间包括确定与第二对象相关联的名义上的人类行为者是否被定位成使得名义上的人类行为者的视野包括自动车辆的位置。在该示例中,确定反应时间还包括计算自动车辆的底盘到名义上的人类行为者的预测位置之间的线型路段。在进一步的示例中,确定反应时间包括:确定第二对象将最可能开始对自动车辆作出反应的激励点;以及增加估计的感知时间到该激励点。
附图说明
图1是根据本公开的各方面的示例车辆的功能图。
图2是根据本公开的各方面的示例地图信息。
图3是根据本公开的各方面的车辆的示例外部视图。
图4是根据本公开的各方面的系统的示例直观图。
图5是根据本公开的各方面的系统的示例功能图。
图6是根据本公开的各方面的用于操作车辆的方法的流程图600。
图7是根据本公开的各方面的场景700的示例直观图。
图8A和图8B是根据本公开的各方面的场景700的进一步示例直观图。
图9是根据本公开的各方面的场景900的直观图。
图10是根据本公开的各方面的场景700的直观图。
具体实施方式
概述
本技术涉及使用车辆环境中的被遮挡的车道路段来预测车辆环境中的道路使用者的行为。车辆环境中可以检测到一个或多个对象。为了确定车辆操纵的时机(诸如无保护左转弯),可以确定一个或多个对象中的每个对象的预测行为。预测行为可以取决于对象是否能够看见车辆并对该车辆做出反应。这样,确定预测行为可以包括检测更靠近车辆的对象是否会遮挡该对象将要,或更确切地说,被预测要行驶通过的车道路段。
上述特征可以提供对于对象行为更准确的预测,并带来不需要因为对象行为不同于已预测的而经常重新计算路径的更安全更高效的自主驾驶系统。另外,跟踪如所述的车道路段级别上的遮挡通过使用有限数量或恒定数量的车道路段,而不是必须要解决复杂的多体问题简化了过程。由于所述系统被设计成辨认其中多体问题需要被解决的更具体的区域,所以可以需要更少的计算能力。自主驾驶系统可以更快地调整预测,并更快地对其附近的对象作出反应。
示例系统
如图1中所示,根据本公开的一个方面的车辆100包括各种组件。尽管本公开的某些方面对于特定类型的车辆特别有用,但是车辆可以是任何类型的车辆,包括但不限于轿车、卡车、摩托车、公共汽车、休闲车辆等。车辆可以具有一个或多个计算设备,诸如包含一个或多个处理器120、存储器130和通常存在于通用计算设备中的其它组件的计算设备110。
存储器130存储一个或多个处理器120可访问的信息,包括可以由处理器120执行或者以其它方式使用的指令132和数据134。存储器130可以是能够存储处理器可访问的信息的任何类型,包括计算设备可读介质,或者存储可以借助电子设备来读取的数据的其它介质,诸如硬盘驱动器、存储卡、ROM、RAM、DVD或其它光盘,以及其它可写存储器和只读存储器。系统和方法可以包括前述的不同组合,由此指令和数据的不同部分被存储在不同类型的介质上。
指令132可以是由处理器直接执行(诸如机器代码)或间接执行(诸如脚本)的任何指令集。例如,指令可以作为计算设备代码存储在计算设备可读介质上。在这方面,术语“指令”和“程序”在本文中可以互换使用。指令可以以目标代码格式存储以便由处理器直接处理,或者以任何其它计算设备语言(包括按需解释或预先编译的脚本或独立源代码模块的集合)存储。下面更详细地解释了指令的功能、方法和例程。
数据134可以由处理器120根据指令132来检索、存储或修改。作为一示例,存储器130的数据134可以存储预定义的场景。给定的场景可以识别一组场景要求,包括对象的类型、对象相对于车辆的位置范围、以及其它因素,诸如自动车辆是否能够围绕对象操纵、对象是否正在使用转弯信号、与对象的当前位置有关的交通灯的状况、对象是否正在接近停车标志等。这些要求可以包括离散值(诸如“右转弯信号打开”或“在右转弯专用车道上”),或值的范围(诸如“具有朝向在从车辆当前路径偏移30至60度角度的前进方向”)。在一些示例中,预先确定的场景可以包括多个对象的相似信息。
一个或多个处理器120可以是任何常规处理器,诸如商业上可获得的CPU。或者,一个或多个处理器可以是专用设备,诸如ASIC或其它基于硬件的处理器。尽管图1在功能上示出了处理器、存储器和计算设备110的其它元件在同一框内,但是本领域普通技术人员将理解,所述处理器、计算设备或存储器实际上可以包括可以存放在或可以不存放在同一物理壳体内的多个处理器、计算设备或存储器。作为一示例,内部电子显示器152可以由具有它自己的CPU或其它处理器、存储器等的专用计算设备控制,其可以经由高带宽或其它网络连接与计算设备110接口。在一些示例中,该计算设备可以是能够与用户的客户端设备通信的用户界面计算设备。类似地,存储器可以是位于与计算设备110的壳体不同的壳体中的硬盘驱动器或其它存储介质。因此,对处理器或计算设备的引用将被理解为包括对可以并行操作或可以不并行操作的处理器或计算设备或存储器的集合的引用。
计算设备110可以具有通常与计算设备关联使用的所有组件,诸如上述处理器和存储器,以及用户输入150(例如,鼠标、键盘、触摸屏和/或麦克风)和各种电子显示器(例如,具有屏幕的监视器或者可操作以显示信息的任何其它电学设备)。在该示例中,车辆包括内部电子显示器152以及一个或多个扬声器154,以提供信息或视听体验。在这方面,内部电子显示器152可以位于车辆100的车厢内,并且可以由计算设备110使用以向车辆100内的载客提供信息。除了内部扬声器之外,一个或多个扬声器154还可以包括布置在车辆上的不同位置处的外部扬声器以便向车辆100外部的对象提供可听见的通知。车辆100的计算设备110还可以例如使用无线网络连接156接收来自其它计算设备的信息或发送信息到其它计算设备。
在一个示例中,计算设备110可以是结合到车辆100中的自动驾驶计算系统。自动驾驶计算系统可以是能够与车辆的各种组件进行通信。例如,计算设备110可以与车辆100的各种系统通信,例如减速系统160(用于控制车辆的制动)、加速系统162(用于控制车辆的加速)、转向系统164(用于控制车轮的朝向以及车辆的方向)、信令系统166(用于控制转弯信号)、导航系统168(用于将车辆导航到某一位置或在对象周围对车辆进行导航)、定位系统170(用于确定车辆的定位)、感知系统172(用于检测车辆环境中的对象)、以及动力系统174(例如,电池和/或汽油或柴油驱动的引擎),以便在自动驾驶模式下根据存储器130的指令132控制车辆100的移动、速度等,所述自动驾驶模式不要求或不需要来自车辆载客的连续或周期性的输入。此外,尽管这些系统被示为在计算设备110的外部,但是实际上,这些系统也可以被结合到计算设备110中,再次作为用于控制车辆100的自动驾驶计算系统。
计算设备110可以通过控制各种组件来控制车辆的方向和速度。作为示例,计算设备110可以使用来自地图信息和导航系统168的数据完全自动地将车辆导航到目的地位置。计算设备110可以使用定位系统170来确定车辆位置,以及使用感知系统172来检测对象并且在需要时对对象作出响应,以便安全地到达该位置。为此,计算设备110可以致使车辆加速(例如,通过由加速系统162增加提供给引擎的燃料或其它能量)、减速(例如,通过由减速系统160减少供应给引擎的燃料、换档和/或通过施加制动)、改变方向(例如,通过由转向系统164转动车辆100的前轮或后轮),以及用信号通知这样的改变(例如,通过点亮信令系统166的转弯信号)。因此,加速系统162和减速系统160可以是传动系统的一部分,所述传动系统包括车辆引擎和车轮之间的各种组件。此外,通过控制这些系统,计算设备110还可以控制车辆的传动系统以便自动地操纵车辆。
作为一示例,计算设备110可以与减速系统160和加速系统162相互作用,以便控制车辆的速度。类似地,转向系统164可以由计算设备110使用以便控制车辆100的方向。例如,如果车辆100被配置为在道路上使用,诸如轿车或卡车,则转向系统可以包括用于控制车轮角度以转动车辆的组件。信令系统166可以由计算设备110使用,例如,通过在需要时点亮转弯信号或刹车灯,以便向其它驾驶员或车辆用信号通知车辆意图。
导航系统168可以由计算设备110使用,以便确定并遵循到某一位置的路线。在这方面,导航系统168和/或数据134可以存储地图信息,例如,计算设备110可以使用的高度详细的地图,以对车辆进行导航或控制。作为一示例,这些地图可以识别行车道的形状和高程(elevation)、车道标记、交叉路口、人行横道、速度限制、交通信号灯、建筑物、标志、实时或历史交通信息、植被或者其它这样的对象和信息。车道标记可以包括诸如实线或虚线双车道线或者实线或虚线单车道线、实线或虚线车道线、反光面等特征。给定的车道可以与限定车道边界的左车道线和右车道线或其它车道标记相关联。因此,大多数车道可以是由一条车道线的左边缘和另一条车道线的右边缘界定的。如上所述,地图信息可以存储已知的交通信息或拥堵信息和/或在过去类似时间的从特定接载位置的运输时间表(火车、公共汽车等)。该信息甚至可以通过由计算设备110接收到的信息实时更新。
图2是包括交叉路口230的一段行车道的地图信息200的示例。在该示例中,地图信息200描绘了包括识别各种特征的形状、位置和其它特性的信息的地图信息的一部分。例如,地图信息200包括在交叉路口230处相交的道路210和道路220。地图信息200包括在交叉路口230第一侧上的道路210的车道标记或车道线241A和243A,在与所述第一侧相对的交叉路口230第二侧上的道路210的车道线241B和243B。另外,地图信息包括从第三侧经过交叉路口230到与所述第三侧相对的第四侧的道路220的车道线242和246、在交叉路口230第三侧上的道路220的车道线244A、以及在交叉路口230第四侧上的道路220的车道线244B。所述车道线可以是不同类型的车道线,诸如双线车道线241A、241B、244A和244B,以及虚线车道线242、243A、243B和246。车道线还可以限定各种车道,诸如车道251、252、253、254、255、256和258。道路210的车道部分251A、253A和255A在交叉路口230的第一侧上,而道路210的车道部分251B、253B和255B在与所述第一侧相对的交叉路口230的第二侧上。道路220的车道部分252A、254A、256A和258A在交叉路口230的第三侧上,而道路220的车道部分252B、254B、256B和258B在与所述第三侧相对的交叉路口230的第四侧上。车道可以如所示的在地图信息200中被明确地标识,或者可以由道路的宽度暗示。地图信息200还可以识别自行车车道。如所示的,地图信息200还可以包括道路210的停车线261和263。
除了这些特征之外,地图信息200还可以包括识别每个车道的交通方向和速度限制的信息,以及允许计算设备110确定车辆是否具有路权以完成特定操纵(例如,完成转弯或者穿过交通车道或交叉路口)的信息。地图信息200还可以包括关于交通标志的信息,诸如交通灯、停车标志、单行道标志、禁止转弯标志等。地图信息200可以包括关于其它环境特征(诸如路缘、建筑物、停车场、车行道、水路、植被等)的信息。
虽然详细的地图信息在本文中被描绘为基于图像的地图,但是地图信息不需要完全基于图像(例如,光栅)。例如,详细的地图信息可以包括一个或多个道路图或者信息的图形网络,诸如道路、车道、交叉路口,以及这些特征之间的联系。每个特征可以被存储为图形数据,并且可以与信息(诸如地理位置以及其是否联系到其它相关特征,例如,停车标志可以联系到道路和交叉路口等)相关联。在一些示例中,相关联的数据可以包括道路图的基于网格的索引,以允许某些道路图特征的高效查找。
感知系统172还包括用于检测车辆外部对象(诸如其它车辆、道路中的障碍物、交通信号、标志、树木等)的一个或多个组件。例如,感知系统172可以包括一个或多个LIDAR传感器、声纳设备、雷达单元、照相机和/或记录可以由计算设备110处理的数据的任何其它检测设备。感知系统的传感器可以检测对象及其特性,诸如位置、朝向、尺寸、形状、类型(例如,车辆、行人、骑自行车的人等)、前进方向和移动速度等。来自传感器的原始数据和/或前述特性可以被量化或布置成描述函数、矢量和/或边界框,并且随着其由感知系统172生成而被周期性地和连续地发送到计算设备110以供进一步处理。如下面进一步详细讨论的,计算设备110可以使用定位系统170来确定车辆位置,以及使用感知系统172来检测对象并且在需要时对对象作出响应,以便安全地到达该位置。
图3是车辆100的示例外部视图。在该示例中,车顶顶部(roof-top)壳体310和圆顶(dome)壳体312可以包括LIDAR传感器以及各种照相机和雷达单元。另外,位于车辆100前端的壳体320以及车辆驾驶员侧的壳体330和载客侧的壳体332可以各自存放LIDAR传感器。例如,壳体330位于驾驶员车门350的前面。车辆100还包括同样位于车辆100顶部的雷达单元和/或照相机的壳体340、342。附加的雷达单元和照相机(未示出)可以位于车辆100的前端和后端和/或沿着车顶或车顶顶部壳体310的其它位置。车辆100还包括典型乘用车(passenger vehicle)的许多特征,诸如车门(350、352)、车轮(360、362)等。
一旦检测到附近的对象,计算设备110和/或感知系统172可以确定该对象的类型,例如,交通锥标、行人、车辆(诸如乘用轿车、卡车、公共汽车等)、自行车等。可以由各种模型识别对象,所述模型可以考虑检测到的对象的各种特性,诸如对象的尺寸、对象的速度(自行车不倾向于快于40英里每小时或慢于0.1英里每小时)、来自自行车的热量(自行车倾向于具有从他们身体散发热量的骑车人)等。另外,可以基于对象的特定属性对对象进行分类,诸如包含出现在车辆上的车票、保险杠贴纸或徽标上的信息。
存储器130可以存储由计算设备110使用以确定如何控制车辆100的各种模型。例如,存储器130可以存储一个或多个对象辨认模型,用于识别从传感器数据中检测到的道路使用者及对象。再例如,存储器130可以存储一个或多个行为模型,用于提供检测到的对象正在采取的一个或多个动作的概率。再例如,存储器130可以存储一个或多个速度规划模型,用于基于来自导航系统168的地图信息200以及由来自感知系统172的传感器数据检测到的其它道路使用者的预测轨迹来确定车辆100的速度曲线(speed profile)。
图4和图5分别是示例系统400的直观图和功能图,所述示例系统400包括经由网络460连接的多个计算设备410、420、430、440和存储系统450。系统400还包括车辆100以及可以与车辆100类似地配置的车辆100A。尽管为了简明起见,仅描绘了几个车辆和计算设备,但是一典型的系统可以包括显著更多的车辆和计算设备。
如图4中所示,计算设备410、420、430、440中的每一个可以包括一个或多个处理器、存储器、数据和指令。这样的处理器、存储器、数据和指令可以与计算设备110的一个或多个处理器120、存储器130、数据134和指令132类似地配置。
网络460和中间节点可以包括各种配置和协议,包括短程通信协议,诸如BLUETOOTH(R)、蓝牙LE、因特网、万维网、内联网、虚拟专用网、广域网、局域网、使用专属于一个或多个公司的通信协议的专用网络、以太网、WiFi和HTTP,以及前述的各种组合。这样的通信可以由能够向其它计算设备传输数据和传输来自其它计算设备的数据的任何设备(诸如调制解调器和无线接口)来促进。
在一个示例中,计算设备110可以包括具有多个计算设备的服务器(例如,负载均衡的服务器群),所述多个计算设备为了接收来自其它计算设备的数据、处理数据以及向其它计算设备发送数据的目的而与网络的不同节点交换信息。例如,一个或多个计算设备410可以包括能够经由网络460与车辆100的计算设备110或车辆100A的类似的计算设备以及客户端计算设备420、430、440进行通信的一个或多个服务器计算设备。例如,车辆100和100A可以是能够由服务器计算设备派遣到各种位置的车辆队伍的一部分。在这方面,队伍中的车辆可以周期性地发送由车辆各自的定位系统提供的服务器计算设备位置信息,并且所述一个或多个服务器计算设备可以跟踪车辆的位置。
另外,服务器计算设备410可以使用网络460传输信息,并在显示器(诸如计算设备420、430、440的显示器424、434、444)上向用户(诸如用户422、432、442)呈现信息。在这方面,计算设备420、430、440可以被认为是客户端计算设备。
如图5所示,每个客户端计算设备420、430、440可以是旨在由用户422、432、442使用的个人计算设备,并且具有通常与个人计算设备关联使用的所有组件,包括一个或多个处理器(例如,CPU)、存储数据和指令的存储器(例如,RAM和内部硬盘驱动器)、诸如显示器424、434、444的显示器(例如,具有屏幕的监视器、触摸屏、投影仪、电视或可操作以显示信息的其它设备)、以及用户输入设备426、436、446(例如,鼠标、键盘、触摸屏或麦克风)。客户端计算设备还可以包括用于记录视频流的照相机、扬声器、网络接口设备,以及用于将这些元件彼此连接的所有组件。
尽管客户端计算设备420、430和440的每个可以包括全尺寸的个人计算设备,但是它们可以可替代地包括能够通过网络(诸如互联网)与服务器无线交换数据的移动计算设备。仅作为示例,客户端计算设备420可以是移动电话或能够经由互联网或其它网络获取信息的设备,诸如能够无线的PDA、平板PC、可穿戴计算设备或系统、或上网本。在另一示例中,客户端计算设备430可以是可穿戴计算系统,如图4中的腕表所示。作为一示例,用户可以使用小型键盘、键区、麦克风、利用照相机使用可视信号、或触摸屏来输入信息。
在一些示例中,客户端计算设备440可以是由管理员使用以向用户(诸如用户422和432)提供远程操作员服务的远程操作员工作站。例如,远程操作员442可以使用远程操作员工作站440经由电话呼叫或音频连接通过用户各自的客户端计算设备和/或车辆100或100A与用户进行通信,以便确保车辆100和100A的安全操作以及用户的安全,如下面进一步详细描述的。尽管在图4和图5中仅示出了单个远程操作员工作站440,但是任何数量的这样的工作站可以包括在典型的系统中。
存储系统450可以存储各种类型的信息,如下面进一步详细描述的。该信息可以由服务器计算设备(诸如一个或多个服务器计算设备410)检索或以其它方式访问,以便执行本文中描述的一些或所有特征。例如,所述信息可以包括用户账户信息,诸如可以用于识别到一个或多个服务器计算设备的用户的凭证(例如,在传统单因素认证的情况下的用户名和密码,以及通常在多因素认证中使用的其它类型的凭证,诸如随机标识符、生物计量等)。存储系统450还可以存储用于生成和评估位置之间的路线的路线选择(routing)数据。例如,路线选择信息可以被用于估计第一位置处的车辆到达第二位置会花费多长时间。在这方面,路线选择信息可以包括地图信息,不一定如上述详细的地图信息一样具体,但是包括道路,以及关于这些道路的信息,诸如方向(单向、双向等)、朝向(北、南等)、速度限制,以及识别预期的交通状况的交通信息等。存储系统450还可以存储地图信息,诸如地图信息200。
存储系统450还可以存储用于路线选择和控制车辆100的各种模型,诸如对象辨认模型、行为模型、速度规划模型等。在这方面,存储系统450可以存储用于训练这些模型中的一些或所有的数据。例如,训练数据可以包括人工地用识别到的对象进行标签的图像、在各种交通模式下由道路使用者拍摄的轨迹的视频。存储系统450可以存储使用这些模型所要求的其它数据,诸如参数和值。
存储系统450还可以存储能够提供到客户端计算设备用于向用户显示的信息。例如,存储系统450可以存储预先确定的距离信息,用于确定车辆为了给定的接载位置或目的地位置而可能停止的区域。存储系统450还可以存储图形、图标以及如下所述的可以向用户显示的其它项目。
与存储器130一样,存储系统450可以是能够存储服务器计算设备410可访问的信息的任何类型的计算机化存储装置,诸如硬盘驱动器、存储卡、ROM、RAM、DVD、可写存储器和只读存储器。另外,存储系统450可以包括分布式存储系统,其中数据存储在可以物理上位于相同或不同地理位置处的多个不同的存储设备上。存储系统450可以如图4中所示的经由网络460连接到计算设备,和/或可以直接连接到或结合到计算设备110、410、420、430、440等中的任何计算设备。
示例方法
除了以上描述的和附图中所示的系统之外,现在将描述各种操作。计算设备110可以使用如下所述的车辆环境中被遮挡的车道路段来预测车辆环境中道路使用者的行为。在图6中,根据本公开的各方面示出的流程图600可以由计算设备110执行。尽管图6以特定顺序示出了框,但是顺序可以变化,并且可以同时执行多个操作。此外,可以添加或省略操作。
在框602处,计算设备110确定车辆环境中的多个车道路段。该确定可以通过检测车辆100的检测范围内的道路的交通控制特征来作出,以识别道路上的车道。例如,用于识别道路上的车道的交通控制特征可以包括车道线或车道标记。车道路段可以限定为特定车道的固定长度,诸如10英尺的车道。长度是两个端点之间的距离。长度还可以限定为设定的区域,诸如矩形或其它形状。针对特定车道的多个车道路段可以沿着特定车道的长度彼此相邻。在一些实现方式中,确定车辆环境中的多个车道路段可以包括确定车辆100的位置并且访问存储在车辆存储器130中的识别包围该车辆位置的区域中的车道路段的地图数据。在图7中描绘的场景700中,车辆100可以在车道部分253A中靠近交叉口230,在停车线261处停车。车辆100可以具有规划好的操纵702以穿过道路220的一个或多个车道。车辆的规划好的操纵702,如虚线所示,包括从车道部分253A进入到道路220的车道部分256A的左转弯。在操纵702中,车辆100需要穿过道路220的车道252和254。
对于图7中描绘的车道252的部分,限定了十二(12)个车道路段,由沿着车道252端对端布置的多个方框区域示出。车道路段的形状可以是其它形状或线型路段。车道254、256和258的部分也具有大致十二个限定的车道路段,也由端对端布置的多个方框区域示出。这些车道路段可以由计算设备110限定,或者可以预先确定并存储在车辆的存储器130中。
在框604处,计算设备110例如使用来自感知系统172的传感器数据来检测车辆环境中的多个对象。传感器数据还可以包括每个对象的特性,诸如对象的大小、形状、速度、朝向、方向等。多个对象可以包括移动的和/或静止的对象。特别地,多个对象可以包括其它道路使用者,诸如车辆、自行车或行人,或者可以包括其它类型的障碍物,诸如建筑物、柱子(post)、树木或施工工具。如图7中所示,卡车710和厢式轿车720在车辆环境中。计算设备110可以使用感知系统172检测分别在车道252和254中行驶的卡车710和厢式轿车720,并将卡车710和厢式轿车720都归类为道路使用者。计算设备110还可以使用感知系统172识别卡车710和厢式轿车720的大致维度和速度。
在框606处,计算设备110确定多个对象中的每个对象与多个车道路段相关的位置信息。该位置信息可以包括每个对象的位置以及每个对象的朝向。对于多个道路使用者中的第一对象,计算设备110可以检测第一对象相对于检测到的交通控制特征的位置。在一些其它实现方式中,第一对象相对于车辆位置的位置可以使用存储在车辆存储器中的地图数据来检测和识别。在一些实现方式中,位置信息还可以包括每个对象的预测行为,诸如轨迹。例如,预测行为可以包括基于由感知系统172检测到的第一对象的速度、朝向和/或方向确定的第一对象的轨迹。在第一对象是静止对象时,预测行为可以是第一对象保持固定。
在场景700中,计算设备110可以基于卡车的位置在车道线242和道路220的边缘之间和/或卡车的位置在车道路段712上来确定卡车710在车道部分252A中。计算设备110还可以确定卡车710具有指向车道部分252B的朝向。类似地,计算设备110可以基于厢式轿车的位置在车道线242和244A之间和/或厢式轿车的位置在车道路段722上来确定厢式轿车720在车道部分254A中。计算设备还可以确定厢式轿车720具有指向车道部分254B的朝向。关于预测行为,卡车的预测行为包括在第一时间间隔内以恒定速度或在当前速度的5英里/小时范围内的速度沿车道部分252A向交叉路口230驾驶。厢式轿车的预测行为包括在第一时间间隔内以恒定速度或在当前速度的5英里/小时范围内的速度沿车道部分254A向交叉路口230驾驶。第一时间间隔内的厢式轿车720的速度可以大于卡车710的速度。
在框608处,计算设备110还确定多个车道路段中的一个或多个车道路段被或将要被多个对象中的至少一个对象遮挡第一时间间隔。第一时间间隔可以被设置为,例如,五(5)秒,或者更多或更少。确定一个或多个车道路段被或将要被遮挡第一时间间隔可以包括确定第一时间间隔期间每个对象(包括例如第一对象)的位置与车辆位置之间的关系。第一时间间隔的开始可以是当前时间或未来时间。当确定一个或多个车道路段将要在一未来的时间点被遮挡时,可以基于给定对象的位置和预测行为来确定给定对象的预测位置。
遮挡可以包括在第一时间间隔期间从车辆100的视野被多个对象阻挡的一个或多个区域。这些被阻挡的区域可以基于位置之间的关系来识别。特别地,被阻挡的区域可以包括从车辆100的视点落在多个对象中的给定对象的当前位置或预测位置之后的区域。车辆100的视野可以由感知系统172的传感器以及由感知系统172生成的传感器数据来限定。视野可以包括在从车辆100的位置延伸的角度范围内以及在距离车辆100的位置的某一距离内的传感器数据中的区域。在一个或多个区域中的任何车道路段可以被确定为在第一时间间隔期间被遮挡。
在场景700中,计算设备110确定被卡车710遮挡的一个或多个车道路段。图7和图8A示出在第一时间间隔开始时卡车710和厢式轿车720的位置。如图所示,卡车710和厢式轿车720彼此相邻地驾驶,且厢式轿车720更靠近卡车710的后部而不是卡车的前部。图8B示出在第一时间间隔结束时预测的卡车710和厢式轿车720的未来位置。如所示的,卡车710和厢式轿车720两者都被预测为沿它们各自的车道部分252A和254A驾驶,且厢式轿车720被预测为以比卡车710更快的速度驾驶,使得厢式轿车720在第一时间间隔结束时将会更靠近卡车710的前部并且开始超过卡车710一段长度。
计算设备110可以随着卡车710和厢式轿车720在第一时间间隔的开始和结束之间移动来投影视野。在第一时间间隔开始时,车道部分254A中的三(3)个车道路段以及车道部分256A中的两(2)个车道路段被卡车710遮挡,由图8A中的视野部分802和被遮挡的车道路段的阴影示出。其它地图信息中的额外的车道路段也可以被确定为被遮挡。在第一时间间隔结束时,车道部分254A中的六(6)个车道路段、车道部分256A中的五(5)个车道路段、以及车道部分258A中的四(4)个车道路段被卡车710遮挡,由图8B中的视野部分804和被遮挡的车道路段的阴影示出。第一时间间隔的被遮挡的车道路段是在整个时间间隔内从视线中被阻挡的所有车道路段。计算设备110还确定被多个对象中的其它对象(诸如厢式轿车720)遮挡的车道路段。例如,当厢式轿车720超过卡车710时,被厢式轿车720遮挡的车道部分256A中额外的两(2)个车道路段,如图8B中的视野部分806和被遮挡的车道路段的阴影线所示。
在框610处,计算设备110然后根据被遮挡的一个或多个车道路段来确定多个对象中的至少一个对象(诸如第二对象)的反应时间。反应时间是一对象能够调整其行为(诸如通过减速或加速)以响应车辆100的当前行为或规划行为的时间点。为其确定了反应时间的至少一个对象可以是被归类为车辆环境中的道路使用者的一个或多个对象,诸如卡车710和厢式轿车720。另外,所述至少一个对象可以是,根据所述至少一个对象的预测行为,被预测为在第一时间间隔期间在被遮挡的一个或多个车道路段中的一个或多个对象,诸如如图8A和图8B中所示的被预测为要行驶通过被遮挡的车道路段的厢式轿车720。
反应时间可以是给定对象可以被预期为意识到自动车辆100并开始对自动车辆100作出反应的预测的时间点和/或位置。给定对象的意识可以基于给定对象或者与给定对象相关联的名义上的人类行为者相对于车辆100的位置和朝向来评估。与给定对象相关联的名义上的人类行为者可以是道路使用者的操作者,诸如车辆的驾驶员或自行车上的骑车人,或者行人。例如,当给定对象不在被遮挡的车道路段中并且朝向成使得相关联的名义上的人类行为者的视野包括车辆位置时,给定对象被确定为意识到车辆100。名义上的人类行为者的视野可以被限制在小于180°的面向前方的角度范围。
对于在被遮挡的一个或多个车道路段中的对象,确定反应时间可以包括确定相关联的名义上的人类行为者是否被定位成使得名义上的人类行为者的视野包括车辆位置,不管其是否在被遮挡的车道路段中。即使当一对象(如轿车)在另一对象后面的被遮挡的车道上时,人类行为者(诸如车辆的驾驶员)仍然可以在他或她能够看见自动车辆100的位置中并对自动车辆100作出反应。该确定可以包括检测在被遮挡的车道路段中的与给定对象相关联的名义上的人类行为者的位置是在车辆100的视野中,并且给定对象朝向成使得相关联的名义上的人类行为者的视野包括车辆位置。可替换地,该确定可以包括确定相关联的名义上的人类行为者的视野可以包括车辆100的最小量。该最小量可以是车辆100的表面积的30%、50%或70%。名义上的人类行为者的位置可以使用车辆100的感知系统172来检测,或者可以基于例如在驾驶时在道路表面上方的名义上的人类行为者眼睛的平均高度来确定。名义上的人类行为者的位置还可以基于给定车辆的位置和朝向、车辆中驾驶员的预测位置来确定。在图9中所示的场景900中,其中卡车710和厢式轿车的位置与场景700中的位置互换,计算设备110可以检测卡车驾驶员在相对于车辆的朝向的卡车710的最右四分之一车厢中,并确定车辆100在卡车驾驶员的视野中。例如,可以在检测到的卡车驾驶员的位置和车辆100的位置之间计算出线型路段902,并且该线型路段902可以在卡车驾驶员的估计视野中。可替换地,卡车驾驶员的估计视野中的车辆的量可以被估计为大于上述最小量。
在其它实现方式中,确定相关联的名义上的人类行为者是否被定位成使得名义上的人类行为者的视野包括车辆位置可以包括计算车辆100的车身的最低点和与被遮挡的一个或多个车道路段中的给定对象相关联的名义上的人类行为者的位置之间的线型路段是否与任何障碍物相交。车辆100的底盘可以是车辆100的车身的最低点。当障碍物与线型路段相交时,给定对象被确定为未意识到车辆100且不能够对车辆100作出反应。另外,当车辆100的车身的最低点和名义上的人类行为者的位置之间的线型路段不在名义上的人类行为者的视野内时,给定对象也被确定为未意识到车辆100且不能够对车辆作出反应。可替换地,当名义上的人类行为者的视野内的车辆部分小于车辆的最小量时,给定对象可以被确定为未意识到车辆100且不能够对车辆作出反应。
图10是与图8A中所示的第一时间的开始相对应的场景700的另一示意图,其中厢式轿车720在被遮挡的车道路段中。可以在车辆100的底盘和厢式轿车720的名义上的人类驾驶员的预测位置之间计算出线型路段1002。底盘被确定为车辆车身的底部的中心。考虑到厢式轿车720的朝向沿车道部分252A向车道部分252B,名义上的人类驾驶员的预测位置被确定为在从车辆100的视角看到的厢式轿车720的最右四分之一车厢中。线型路段1002与卡车710的车身相交。因此,计算设备110可以确定厢式轿车720在第一时间间隔开始时未意识到车辆100且厢式轿车720的反应时间在第一时间间隔的开始之后。
确定反应时间可以包括当给定对象在被遮挡的一个或多个车道路段中行驶时,调节给定对象的预测行为。特别地,可以假设,一个或多个对象在第一时间间隔期间在被遮挡的一个或多个车道路段中行驶时,将不会对车辆100作出反应。例如,第二对象,诸如厢式轿车720,在第一时间间隔期间在行驶通过一个或多个被遮挡的车道路段时可能保持相同或相似的速度,这是因为该第二对象最可能将不会看见车辆100来为车辆100减速或加速。
确定反应时间还可以包括确定多个对象中的每个对象将最可能开始对车辆100作出反应的激励点,以及增加估计的感知时间。对于给定对象(诸如第二对象)的激励点可以被确定为给定对象到达一个或多个被遮挡的车道路段的一端或到达经过一个或多个被遮挡的车道路段的最小距离的时间点。最小距离可以是车辆100的最小量对于与第二对象相关联的名义上的人类行为者变得可见的地方。感知时间,诸如0.5秒、1.5秒或其它时间,也可以被增加到确定的激励点,以便解释(account for)名义上的人类行为者为处理视觉激励并且然后对视觉激励作出反应(诸如移动脚并施加制动)所花费的时间。感知时间还可以包括名义上的人类行为者注意到车辆100所花费的时间量。如果给定对象在第一时间间隔期间没有到达一个或多个被遮挡的车道路段的一端,则不会为给定对象确定激励点。
在场景700中,计算设备110可以确定厢式轿车720的反应时间。因为厢式轿车720是在在第一间隔的大部分时间被卡车710遮挡的车道路段中,如图8A和图8B中所示,所以厢式轿车720可以被预测为穿过被遮挡的车道路段而没有对车辆100的任何反应(诸如保持一恒定速度)地行驶。在第一间隔结束时,厢式轿车720超过卡车710的长度可以等于车辆100对于厢式轿车720中的名义上的人类行为者变得可见的最小距离。因此,第一间隔的结束可以被计算设备110确定为厢式轿车720的激励点。厢式轿车720的反应时间然后被确定为第一时间间隔结束后的1.5秒。
在框612处,基于确定的多个对象的反应时间,计算设备110确定车辆100的驾驶指令。车辆100的驾驶指令包括取决于多个对象中的一个或多个对象的反应时间的车辆100的操纵时机。例如,操纵可以是穿过单个车道或多车道道路的无保护左转弯。这种操纵取决于车辆100需要穿过其以进行左转弯的多车道道路中的对象的反应时间。所述操纵可以是另一类型的无保护操纵,诸如穿过交叉路口或右转弯。为了确定操纵的时机,计算设备110在车辆100有足够的时间完成考虑到一个或多个对象的轨迹和预测行为的操纵时,可以在相应的反应时间之后使用针对多个对象中的每个对象的预测行为来选择操纵的时机。在一些实现方式中,仅为具有可能与操纵轨迹相交的轨迹的对象的子集确定预测行为。
在场景700中,计算设备110确定车辆100的规划操纵702的时机,以穿过交叉路口230无保护左转弯到多车道道路220上。由于厢式轿车720的反应时间被预测为是第一时间间隔的结束,计算设备110确定规划操纵702的时机为在第一时间间隔之后。特别地,该时机可以在卡车710和厢式轿车720两者都经过交叉路口230之后,而不是之前,这是因为厢式轿车720将可能到达交叉路口而没有看见车辆100并对车辆100作出反应。
在进一步的示例中,计算设备110可以通过确定在紧随第一时间间隔之后的第二时间间隔期间接下来的一个或多个车道路段将被多个对象中的至少一个遮挡来继续跟踪被遮挡的车道路段。第二时间间隔可以是与第一时间间隔相同的时间长度,或者更多或更少。确定接下来的一个或多个车道路段可以是基于在第二时间间隔期间每个对象的预测位置和车辆位置之间的关系。被遮挡的车道路段的确定因此可以根据需要而重复,直到为车辆确定了驾驶指令。
在一些其它实现方式中,可以为被遮挡的一个或多个车道路段中的假想的第三对象确定反应时间。当被遮挡的车道路段由车辆100的感知系统172部分或完全不可检测到时,这对于计算设备110确定可能在被遮挡的车道路段中的假想对象的反应时间会是有利的。这样做,计算设备110可以能够为车辆100规划考虑到可能未检测到的对象的操纵。假想的第三对象可以被假设为具有相关联的名义上的人类行为者,并且在被遮挡的车道路段(有交通行驶)中的至少一个车道路段中。假想的第三对象可以被假设为具有在包括至少一个被遮挡的车道路段的车道中行驶的车辆的平均特性,诸如平均速度或加速度。假想的第三对象的反应时间可以如框610中对于在被遮挡的车道路段中的对象所描述的来确定。
除非另有说明,否则前述替代示例并不相互排斥,而是可以以各种组合来实现,以获得独特的优点。由于在不脱离由权利要求所限定的主题的情况下,可以利用上述特征的这些和其它变化和组合,所以对实施例的前述描述应该通过说明的方式进行,而不是通过限制由权利要求所限定的主题。另外,本文中描述的示例的提供,以及措辞为“诸如”、“包括”等的子句,不应该被解释为将权利要求的主题限制到特定示例;相反,这些示例旨在说明许多可能实施例中的仅一个实施例。此外,不同附图中的相同附图标记可以识别相同或相似的元件。
Claims (20)
1.一种用于操作自动车辆的方法,所述方法包括:
由一个或多个计算设备确定在所述自动车辆的环境中的多个车道路段;
由所述一个或多个计算设备使用所述自动车辆的检测系统检测在所述自动车辆的环境中的第一对象和第二对象;
由所述一个或多个计算设备确定所述第一对象与所述多个车道路段相关的位置;
根据所述位置,由所述一个或多个计算设备确定在设定的时间间隔期间从所述自动车辆的角度要被所述第一对象遮挡的所述多个车道路段中的一个或多个车道路段;
根据被遮挡的一个或多个车道路段,由所述一个或多个计算设备确定所述第二对象的反应时间;
根据确定的所述第二对象的反应时间,由所述一个或多个计算设备确定所述自动车辆的驾驶指令,所述驾驶指令包括所述自动车辆的操纵的时机;以及
由所述一个或多个计算设备基于所述驾驶指令来操作所述自动车辆。
2.根据权利要求1所述的方法,其中,确定要被遮挡的一个或多个车道路段包括确定在所述设定的时间间隔期间所述第一对象的位置和所述自动车辆的位置之间的关系。
3.根据权利要求2所述的方法,其中,确定在所述设定的时间间隔期间所述第一对象的位置和所述自动车辆的位置之间的关系包括确定一区域在所述设定的时间间隔期间在所述位置处从所述自动车辆的视野被阻挡。
4.根据权利要求1所述的方法,其中:
所述第二对象是与名义上的人类行为者相关联的一种类型的车辆;并且
确定所述反应时间包括确定与所述第二对象相关联的所述名义上的人类行为者是否被定位成使得所述名义上的人类行为者的视野包括所述自动车辆的位置。
5.根据权利要求4所述的方法,其中,确定所述反应时间还包括计算所述自动车辆的底盘到所述名义上的人类行为者的预测位置之间的线型路段。
6.根据权利要求1所述的方法,其中,确定所述反应时间包括:
确定所述第二对象将最可能开始对所述自动车辆作出反应的激励点;以及
增加估计的感知时间到所述激励点。
7.根据权利要求1所述的方法,还包括:由所述一个或多个计算设备通过确定在紧随所述设定的时间间隔之后的接下来的时间间隔期间要被所述第一对象遮挡的一个或多个第二车道路段来跟踪所述多个车道路段上的遮挡。
8.一种自动车辆的自主驾驶系统,所述自主驾驶系统包括:
检测系统,被配置为检测在所述自动车辆的环境中的对象;以及
与所述检测系统通信的一个或多个计算设备,所述一个或多个计算设备被配置为:
确定在所述自动车辆的环境中的多个车道路段;
使用所述检测系统检测在所述自动车辆的环境中的第一对象和第二对象;
确定所述第一对象与所述多个车道路段相关的位置;
根据所述位置,确定在设定的时间间隔期间从所述自动车辆的角度要被所述第一对象遮挡的所述多个车道路段中的一个或多个车道路段;
根据被遮挡的一个或多个车道路段,确定所述第二对象的反应时间;
根据确定的所述第二对象的反应时间,确定所述自动车辆的驾驶指令,所述驾驶指令包括所述自动车辆的操纵的时机;以及
基于所述驾驶指令来操作所述自主驾驶系统。
9.根据权利要求8所述的自主驾驶系统,所述一个或多个车道路段是基于在所述设定的时间间隔期间从所述自动车辆的视野被所述第一对象阻挡的一区域而被确定为是被遮挡的。
10.根据权利要求8所述的自主驾驶系统,其中:
所述第二对象是与名义上的人类行为者相关联的一种类型的车辆;并且
所述反应时间是基于与所述第二对象相关联的所述名义上的人类行为者是否定位成使得所述名义上的人类行为者的视野包括所述自动车辆的位置而确定的。
11.根据权利要求10所述的自主驾驶系统,其中,所述反应时间还是基于所述自动车辆的底盘到所述名义上的人类行为者的预测位置之间的计算出的线型路段而确定的。
12.根据权利要求8所述的自主驾驶系统,其中,反应时间的确定是基于:
所述第二对象将最可能开始对所述自动车辆作出反应的激励点;以及
到所述激励点的额外的估计感知时间。
13.根据权利要求8所述的自主驾驶系统,其中,所述一个或多个计算设备还被配置为通过确定在紧随所述设定的时间间隔之后的接下来的时间间隔期间要被所述第一对象遮挡的一个或多个第二车道路段来跟踪所述多个车道路段上的遮挡。
14.根据权利要求8所述的自主驾驶系统,还包括所述自动车辆。
15.一种其上存储了程序的计算机可读指令的非暂时性、有形的计算机可读存储介质,所述指令在由一个或多个处理器执行时引起所述一个或多个处理器执行方法,所述方法包括:
确定在自动车辆的环境中的多个车道路段;
使用所述自动车辆的检测系统检测在所述自动车辆的环境中的第一对象和第二对象;
确定所述第一对象与所述多个车道路段相关的位置;
根据所述位置,确定在设定的时间间隔期间从所述自动车辆的角度要被所述第一对象遮挡的所述多个车道路段中的一个或多个车道路段;
根据被遮挡的一个或多个车道路段,确定所述第二对象的反应时间;
根据确定的所述第二对象的反应时间,确定所述自动车辆的驾驶指令,所述驾驶指令包括所述自动车辆的操纵的时机;以及
基于所述驾驶指令来操作所述自动车辆。
16.根据权利要求15所述的介质,其中,确定要被遮挡的一个或多个车道路段包括确定在所述设定的时间间隔期间所述第一对象的位置和所述自动车辆的位置之间的关系。
17.根据权利要求16所述的介质,其中,确定在所述设定的时间间隔期间所述第一对象的位置和所述自动车辆的位置之间的关系包括确定一区域在所述设定的时间间隔期间在所述位置处从所述自动车辆的视野被阻挡。
18.根据权利要求15所述的介质,其中:
所述第二对象是与名义上的人类行为者相关联的一种类型的车辆;并且
确定所述反应时间包括确定与所述第二对象相关联的所述名义上的人类行为者是否被定位成使得所述名义上的人类行为者的视野包括所述自动车辆的位置。
19.根据权利要求18所述的介质,其中,确定所述反应时间还包括计算所述自动车辆的底盘到所述名义上的人类行为者的预测位置之间的线型路段。
20.根据权利要求15所述的介质,其中,确定所述反应时间包括:
确定所述第二对象将最可能开始对所述自动车辆作出反应的激励点;以及
增加估计的感知时间到所述激励点。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210420312.2A CN114750783A (zh) | 2018-12-14 | 2019-12-03 | 在遮挡的情况下根据道路使用者反应建模来操作自动车辆 |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/220,144 US10824148B2 (en) | 2018-12-14 | 2018-12-14 | Operating an autonomous vehicle according to road user reaction modeling with occlusions |
US16/220,144 | 2018-12-14 | ||
PCT/US2019/064163 WO2020123199A1 (en) | 2018-12-14 | 2019-12-03 | Operating an autonomous vehicle according to road user reaction modeling with occlusions |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210420312.2A Division CN114750783A (zh) | 2018-12-14 | 2019-12-03 | 在遮挡的情况下根据道路使用者反应建模来操作自动车辆 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113423627A CN113423627A (zh) | 2021-09-21 |
CN113423627B true CN113423627B (zh) | 2022-05-03 |
Family
ID=71072523
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210420312.2A Pending CN114750783A (zh) | 2018-12-14 | 2019-12-03 | 在遮挡的情况下根据道路使用者反应建模来操作自动车辆 |
CN201980092141.1A Active CN113423627B (zh) | 2018-12-14 | 2019-12-03 | 在遮挡的情况下根据道路使用者反应建模来操作自动车辆 |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210420312.2A Pending CN114750783A (zh) | 2018-12-14 | 2019-12-03 | 在遮挡的情况下根据道路使用者反应建模来操作自动车辆 |
Country Status (6)
Country | Link |
---|---|
US (3) | US10824148B2 (zh) |
EP (1) | EP3877227A4 (zh) |
JP (2) | JP7082246B2 (zh) |
KR (2) | KR102335684B1 (zh) |
CN (2) | CN114750783A (zh) |
WO (1) | WO2020123199A1 (zh) |
Families Citing this family (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020146445A1 (en) * | 2019-01-08 | 2020-07-16 | Philip Christopher Du Toit | Classifying perceived objects based on activity |
US11188082B2 (en) * | 2019-01-11 | 2021-11-30 | Zoox, Inc. | Occlusion prediction and trajectory evaluation |
CN109878513A (zh) * | 2019-03-13 | 2019-06-14 | 百度在线网络技术(北京)有限公司 | 防御性驾驶策略生成方法、装置、设备及存储介质 |
US11161504B2 (en) * | 2019-03-19 | 2021-11-02 | Honda Motor Co., Ltd. | Vehicle control apparatus and method |
US11574089B2 (en) * | 2019-06-28 | 2023-02-07 | Zoox, Inc. | Synthetic scenario generator based on attributes |
US11568100B2 (en) * | 2019-06-28 | 2023-01-31 | Zoox, Inc. | Synthetic scenario simulator based on events |
US11360488B2 (en) * | 2020-01-07 | 2022-06-14 | International Business Machines Corporation | Dynamic relative position reassignment of vehicle in autonomous vehicles ecosystem |
US11526721B1 (en) | 2020-02-21 | 2022-12-13 | Zoox, Inc. | Synthetic scenario generator using distance-biased confidences for sensor data |
US11571969B2 (en) * | 2020-06-04 | 2023-02-07 | Toyota Motor Engineering & Manufacturing North America, Inc. | External communication suppression device for driving automation |
US11733054B2 (en) * | 2020-12-11 | 2023-08-22 | Motional Ad Llc | Systems and methods for implementing occlusion representations over road features |
JP2022147924A (ja) * | 2021-03-24 | 2022-10-06 | 株式会社Subaru | 運転支援装置 |
US20220379911A1 (en) * | 2021-05-26 | 2022-12-01 | Argo AI, LLC | Using relevance of objects to assess performance of an autonomous vehicle perception system |
US20230177839A1 (en) * | 2021-12-02 | 2023-06-08 | Nvidia Corporation | Deep learning based operational domain verification using camera-based inputs for autonomous systems and applications |
CN114882477A (zh) * | 2022-03-04 | 2022-08-09 | 吉林大学 | 一种利用眼动信息预测自动驾驶接管时间的方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5939976A (en) * | 1997-07-31 | 1999-08-17 | Toyota Jidosha Kabushiki Kaisha, Hino Jidosha Kogyo Kabushiki Kaisha, Aisin Seiki Kabushiki Kaisha, And Denso Corporation | Intersection warning system |
JP2006298310A (ja) * | 2005-04-25 | 2006-11-02 | Nissan Motor Co Ltd | 車両用走行制御装置 |
CN105835878A (zh) * | 2015-01-29 | 2016-08-10 | 丰田自动车工程及制造北美公司 | 在乘员视野和传感器检测受阻环境中的自主车辆操作 |
US9495874B1 (en) * | 2012-04-13 | 2016-11-15 | Google Inc. | Automated system and method for modeling the behavior of vehicles and other agents |
Family Cites Families (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4134891B2 (ja) * | 2003-11-28 | 2008-08-20 | 株式会社デンソー | 衝突可能性判定装置 |
JP2008059178A (ja) * | 2006-08-30 | 2008-03-13 | Nippon Soken Inc | 運転支援装置およびプログラム |
US8532862B2 (en) | 2006-11-29 | 2013-09-10 | Ryan A. Neff | Driverless vehicle |
KR100845951B1 (ko) * | 2007-05-23 | 2008-07-11 | 제일전기공업 주식회사 | 차량의 사각지대 감지를 통한 충돌회피시스템 |
JP2011194979A (ja) * | 2010-03-18 | 2011-10-06 | Toyota Motor Corp | 運転支援装置 |
US8457827B1 (en) | 2012-03-15 | 2013-06-04 | Google Inc. | Modifying behavior of autonomous vehicle based on predicted behavior of other vehicles |
US9180882B1 (en) * | 2012-06-20 | 2015-11-10 | Google Inc. | Avoiding blind spots of other vehicles |
WO2016052507A1 (ja) | 2014-09-30 | 2016-04-07 | エイディシーテクノロジー株式会社 | 自動運転制御装置 |
US9934689B2 (en) * | 2014-12-17 | 2018-04-03 | Toyota Motor Engineering & Manufacturing North America, Inc. | Autonomous vehicle operation at blind intersections |
JP6550994B2 (ja) * | 2015-07-15 | 2019-07-31 | 日産自動車株式会社 | 走行制御装置の制御方法および走行制御装置 |
US9784592B2 (en) | 2015-07-17 | 2017-10-10 | Honda Motor Co., Ltd. | Turn predictions |
JP6565431B2 (ja) * | 2015-07-28 | 2019-08-28 | 日産自動車株式会社 | 走行制御装置の制御方法および走行制御装置 |
US9694813B2 (en) | 2015-08-25 | 2017-07-04 | Toyota Motor Engineering & Manufacturing North America, Inc. | Autonomous vehicle operation within a center turn lane |
RU2700318C1 (ru) * | 2015-11-04 | 2019-09-16 | Ниссан Мотор Ко., Лтд. | Устройство управления автономным транспортным средством и способ управления автономным транспортным средством |
JP6558238B2 (ja) | 2015-12-22 | 2019-08-14 | アイシン・エィ・ダブリュ株式会社 | 自動運転支援システム、自動運転支援方法及びコンピュータプログラム |
JP6319914B2 (ja) | 2016-02-18 | 2018-05-09 | 本田技研工業株式会社 | 車両制御システム、車両制御方法、および車両制御プログラム |
MX2019009397A (es) | 2017-02-10 | 2019-12-05 | Nissan North America Inc | Gestion operacional de vehiculo autonomo que incluye operar una instancia de modelo de proceso de decision de markov parcialmente observable. |
JP7128625B2 (ja) * | 2017-05-18 | 2022-08-31 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | 車両システム、車両情報処理方法、プログラム、交通システム、インフラシステムおよびインフラ情報処理方法 |
US20200180638A1 (en) * | 2017-05-26 | 2020-06-11 | Honda Motor Co., Ltd. | Vehicle control system and vehicle control method |
CN109033951B (zh) * | 2017-06-12 | 2022-05-27 | 法拉第未来公司 | 用于基于图形处理来检测遮挡对象的系统及方法 |
US10496099B2 (en) * | 2017-07-18 | 2019-12-03 | Uatc, Llc | Systems and methods for speed limit context awareness |
US10627825B2 (en) * | 2017-11-22 | 2020-04-21 | Waymo Llc | Using discomfort for speed planning in autonomous vehicles |
US10967861B2 (en) * | 2018-11-13 | 2021-04-06 | Waymo Llc | Using discomfort for speed planning in responding to tailgating vehicles for autonomous vehicles |
US11022971B2 (en) * | 2018-01-16 | 2021-06-01 | Nio Usa, Inc. | Event data recordation to identify and resolve anomalies associated with control of driverless vehicles |
EP3576074A1 (en) * | 2018-06-01 | 2019-12-04 | Volvo Car Corporation | Method and system for assisting drivers to drive with precaution |
US11807227B2 (en) * | 2018-11-02 | 2023-11-07 | Intel Corporation | Methods and apparatus to generate vehicle warnings |
-
2018
- 2018-12-14 US US16/220,144 patent/US10824148B2/en active Active
-
2019
- 2019-12-03 EP EP19894626.1A patent/EP3877227A4/en active Pending
- 2019-12-03 KR KR1020217019879A patent/KR102335684B1/ko active IP Right Grant
- 2019-12-03 CN CN202210420312.2A patent/CN114750783A/zh active Pending
- 2019-12-03 CN CN201980092141.1A patent/CN113423627B/zh active Active
- 2019-12-03 WO PCT/US2019/064163 patent/WO2020123199A1/en unknown
- 2019-12-03 JP JP2021532040A patent/JP7082246B2/ja active Active
- 2019-12-03 KR KR1020217039405A patent/KR102446698B1/ko active IP Right Grant
-
2020
- 2020-09-28 US US17/035,115 patent/US11307587B2/en active Active
-
2022
- 2022-03-17 US US17/697,399 patent/US11619940B2/en active Active
- 2022-05-26 JP JP2022086350A patent/JP2022119905A/ja active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5939976A (en) * | 1997-07-31 | 1999-08-17 | Toyota Jidosha Kabushiki Kaisha, Hino Jidosha Kogyo Kabushiki Kaisha, Aisin Seiki Kabushiki Kaisha, And Denso Corporation | Intersection warning system |
JP2006298310A (ja) * | 2005-04-25 | 2006-11-02 | Nissan Motor Co Ltd | 車両用走行制御装置 |
US9495874B1 (en) * | 2012-04-13 | 2016-11-15 | Google Inc. | Automated system and method for modeling the behavior of vehicles and other agents |
CN105835878A (zh) * | 2015-01-29 | 2016-08-10 | 丰田自动车工程及制造北美公司 | 在乘员视野和传感器检测受阻环境中的自主车辆操作 |
Also Published As
Publication number | Publication date |
---|---|
WO2020123199A1 (en) | 2020-06-18 |
US11307587B2 (en) | 2022-04-19 |
JP2022119905A (ja) | 2022-08-17 |
JP7082246B2 (ja) | 2022-06-07 |
KR20210083371A (ko) | 2021-07-06 |
EP3877227A4 (en) | 2022-08-24 |
US20200192365A1 (en) | 2020-06-18 |
US11619940B2 (en) | 2023-04-04 |
KR102335684B1 (ko) | 2021-12-07 |
US20220206494A1 (en) | 2022-06-30 |
JP2022508326A (ja) | 2022-01-19 |
US10824148B2 (en) | 2020-11-03 |
US20210109525A1 (en) | 2021-04-15 |
CN114750783A (zh) | 2022-07-15 |
EP3877227A1 (en) | 2021-09-15 |
KR20210148438A (ko) | 2021-12-07 |
KR102446698B1 (ko) | 2022-09-26 |
CN113423627A (zh) | 2021-09-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113423627B (zh) | 在遮挡的情况下根据道路使用者反应建模来操作自动车辆 | |
JP7395529B2 (ja) | 自律走行車の予測のテスト | |
AU2020203517B2 (en) | Dynamic routing for autonomous vehicles | |
US11709490B1 (en) | Behavior and intent estimations of road users for autonomous vehicles | |
KR102274273B1 (ko) | 자율 차량을 위한 정지 위치 계획 | |
US20210139048A1 (en) | Tree policy planning for autonomous vehicle driving solutions | |
CN112789209A (zh) | 减少由停止的自主车辆给周围道路使用者带来的不便 | |
US11945433B1 (en) | Risk mitigation in speed planning | |
CN112985435A (zh) | 用于操作自主驾驶车辆的方法及系统 | |
EP3995379B1 (en) | Behavior prediction for railway agents for autonomous driving system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |