CN113924241A - 用于自主车辆的追踪消失对象 - Google Patents

用于自主车辆的追踪消失对象 Download PDF

Info

Publication number
CN113924241A
CN113924241A CN202080038888.1A CN202080038888A CN113924241A CN 113924241 A CN113924241 A CN 113924241A CN 202080038888 A CN202080038888 A CN 202080038888A CN 113924241 A CN113924241 A CN 113924241A
Authority
CN
China
Prior art keywords
vehicle
perception system
characteristic
perceived
determining
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202080038888.1A
Other languages
English (en)
Other versions
CN113924241B (zh
Inventor
L.托雷斯
B.卢德斯
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Waymo LLC
Original Assignee
Waymo LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Waymo LLC filed Critical Waymo LLC
Publication of CN113924241A publication Critical patent/CN113924241A/zh
Application granted granted Critical
Publication of CN113924241B publication Critical patent/CN113924241B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0027Planning or execution of driving tasks using trajectory prediction for other traffic participants
    • B60W60/00272Planning or execution of driving tasks using trajectory prediction for other traffic participants relying on extrapolation of current movement
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/0097Predicting future conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0027Planning or execution of driving tasks using trajectory prediction for other traffic participants
    • B60W60/00276Planning or execution of driving tasks using trajectory prediction for other traffic participants for two or more other traffic participants
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/015Detecting movement of traffic to be counted or controlled with provision for distinguishing between two or more types of vehicles, e.g. between motor-cars and cycles
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2400/00Indexing codes relating to detected, measured or calculated conditions or factors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/402Type
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/402Type
    • B60W2554/4026Cycles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/402Type
    • B60W2554/4029Pedestrians
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4041Position
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4042Longitudinal speed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4044Direction of movement, e.g. backwards
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4045Intention, e.g. lane change or imminent movement
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4048Field of view, e.g. obstructed view or direction of gaze
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/10Historical data
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/18Propelling the vehicle
    • B60W30/18009Propelling the vehicle related to particular drive situations
    • B60W30/18154Approaching an intersection

Landscapes

  • Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Business, Economics & Management (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Game Theory and Decision Science (AREA)
  • Medical Informatics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)

Abstract

本公开的各方面涉及用于控制具有自主驾驶模式的车辆100的方法。例如,可以从车辆的感知系统174的一个或多个传感器接收传感器数据,传感器数据标识由感知系统感知的对象的特性。可以确定对象不再被感知系统感知。基于确定,可以基于特性生成对象的预测特性。对象的预测特性可以被用于以自主驾驶模式控制车辆,使得当对象不再被感知系统的一个或多个传感器感知时,车辆能够对对象作出响应。

Description

用于自主车辆的追踪消失对象
相关申请的交叉引用
本申请要求于2019年5月31日提交的第16/427,610号美国专利申请的权益,其全部公开内容通过引用结合于此。
背景技术
自主车辆,诸如不需要人类驾驶员的车辆,可以用于协助将乘客或物品从一个位置运输到另一个位置。可以以完全自主模式操作这样的车辆,在自主模式中,用户可以提供诸如接载(pickup)或目的地位置的一些初始输入,并且车辆操纵自身到该位置。为了这样做,包括一个或多个传感器的车辆的感知系统可以定期地发布标识由一个或多个传感器感知的对象的特性并向车辆的其他系统发送这些特性的传感器数据。例如,行为预测系统可以使用对象的发布特性来预测对象的未来行为(例如,预测特性以及这些特性如何随时间改变)。典型地,车辆的规划器系统可以使用感知对象的最新的发布特性集合、行为预测系统的输出以及地图信息来确定车辆在未来某段时间将遵循的轨迹。
发明内容
本公开的一个方面提供了控制具有自主驾驶模式的车辆的方法。该方法包括:由一个或多个处理器从车辆的感知系统的一个或多个传感器接收传感器数据,传感器数据标识由感知系统感知的对象的特性;由一个或多个处理器确定对象不再被感知系统的一个或多个传感器感知;由一个或多个处理器基于确定以及特性中的一个或多个生成对象的预测特性;以及由一个或多个处理器使用对象的预测特性来以自主驾驶模式控制车辆,使得当对象不再被感知系统的一个或多个传感器感知时,车辆能够对对象作出响应。
在一个示例中,多个条件还包括特性中的一个将对象标识为道路使用者。在该示例中,道路使用者是行人、骑自行车者或车辆。在另一个示例中,该方法还包括:确定特性中的一个将对象标识为未知的移动对象,并且还基于确定特性中的一个将对象标识为未知的移动对象生成预测特性。在另一个示例中,当对象不再被感知系统的一个或多个传感器感知时,已经在预定时间段内未从感知系统接收对象的特性。在另一个示例中,该方法还包括:确定由感知系统发布的假对象集合中不包括该对象,并且还基于确定假对象集合中不包括该对象来生成预测特性。在另一个示例中,确定对象在发布传感器数据的感知系统的至少最小迭代次数中一直被识别,并且还基于该确定生成预测特性。在该示例中,该方法还包括:基于特性的分类识别最小迭代次数。在另一个示例中,该方法还包括:基于特性确定对象不应该在感知系统的视场内,并且还基于确定对象不应该在感知系统的视场内来生成预测特性。在该示例中,该方法还包括:基于传感器的范围和感知对象的特性来确定视场。在另一个示例中,该方法还包括:基于特性确定对象在感知系统的视场的边缘的预定距离内,并且,其中,还基于确定对象在感知系统的视场的边缘的预定距离内生成预测特性。在该示例中,该方法还包括:基于传感器的范围和感知对象的特性来确定视场。在另一个示例中,该方法还包括:接收对象的行为预测,并且,其中,还基于行为预测生成预测特性。在该示例中,该方法还包括:将行为预测和特性中的一个或多个存储在存储器中以供未来基于确定使用。在另一个示例中,该方法还包括:使用预测特性为对象生成新的行为预测;基于新的行为预测为对象生成更新的预测特性;并且使用对象的更新的预测特性来以自主驾驶模式控制车辆,使得当对象不再被感知系统的一个或多个传感器感知时,车辆能够对对象作出响应。在另一个示例中,该方法还包括:确定所述对象何时满足对象已经在预定时间量内未被感知系统的一个或多个传感器感知的条件,并且当确定对象满足条件时,不再使用对象的预测特性来以自主驾驶模式控制车辆。在另一个示例中,该方法还包括:确定对象何时满足预测特性的对象的预测位置与由感知系统的一个或多个传感器当前感知的对象的位置重叠的条件,以及当确定对象满足条件时,不再使用对象的预测特性来以自主驾驶模式控制车辆。在另一个示例中,该方法还包括:确定对象何时满足预测特性的对象的预测位置在由感知系统的一个或多个传感器当前感知的对象的位置的预定距离内的条件,并且当确定对象满足条件时,不再使用对象的预测特性来以自主驾驶模式控制车辆。在该示例中,该方法还包括:基于由感知系统当前感知的对象的速度来识别预定距离。在另一个示例中,该方法还包括:确定所述对象何时满足已经经历了在其期间所述预测特性的对象的位置与由感知系统感知的位置相对应的的预定时间段的条件,并且当确定对象满足条件时,不再使用对象的预测特性来以自主驾驶模式控制车辆。
附图说明
图1是根据示例性实施例的示例车辆的功能图。
图2是根据本公开的各方面的地图信息的示例。
图3是根据本公开的各方面的车辆的示例外部视图。
图4是根据本公开的各方面的与图2的地图信息相对应的道路段的示例视图。
图5是根据本公开的各方面的图4的道路段的另一个示例视图。
图6是根据本公开的各方面的标识遮挡区域的如图5中描绘的道路段的示例视图。
图7是根据本公开的各方面的图4的道路段的又一个示例视图。
图8是根据本公开的各方面的示例流程图。
具体实施方式
概述
本技术涉及追踪似乎已经消失的对象,或者更确切地说,追踪在某一时刻被自主车辆的感知系统的一个或多个传感器感知为对象并且在之后的某个时科不再被一个或多个传感器中的任何一个感知为对象的对象。如上所述,车辆的感知系统可以发布由一个或多个传感器感知的对象的特性并向车辆的其他系统发送这些特性。特性可以包括分类(类型)、位置、速度、前进方向(heading)、朝向、大小和形状等。例如,行为预测系统可以使用对象的发布特性来预测对象的未来行为(例如,预测特性以及这些特性如何随时间改变)。典型地,车辆的规划器系统可以使用感知对象的最新的发布特性集合、行为预测系统的输出以及地图信息来确定车辆在未来某段时间将遵循的轨迹。
一旦对象不再被感知系统的传感器感知,对象的特性就不再被发布和向车辆的其他系统发送。因此,在没有一些另外的输入的情况下,规划器可能不再能够响应于该对象。这可能由于许多原因发生,例如,如果对象变得被另一个对象(诸如,在树后行走的行人或移动进入另一辆车辆后面的区域的车辆)遮挡,或者如果对象只是已经移动出了车辆的感知系统的视场。因为其中一些对象最终可能会重新出现,所以“记住”或追踪这些对象中的一些可能是有用的。本文描述的特征允许自主车辆的规划器系统对这些记住的对象作出响应,或者更确切地说,当没有由感知系统发布的这些对象的特性时,对对象作出响应。
例如,消失对象管理器系统可以通过传播似乎已经消失的对象的最有可能的位置来追踪它们,该最有可能的位置是基于最近的可用特性的。在许多情况下,当对象消失时,消失对象管理器系统可能不需要追踪那些对象,诸如对象实际上与规划无关。因此,追踪似乎已经消失的所有对象可能是资源的低效使用。在这方面,可能只记住某些分类的对象,诸如其他道路使用者和未知的移动对象。
为了避免追踪过多的对象,对于在上述分类中的一个中的识别的对象,消失对象管理器系统可以确定识别的对象是否满足多个条件。在这方面,对于每个识别的对象,消失对象管理器系统可以确定识别的对象是否满足多个条件。
同样满足多个特性的分类中的一个中的任何对象可以被认为是消失对象并且被消失对象管理器系统记住。在这方面,消失对象管理器系统可以存储对象的消失对象数据,包括对象的一个或多个最后已知的特性,诸如对象的最后感知位置,以及对象的最有可能行为预测。
每次感知系统发布对象的新特性时,消失对象管理器系统可以使用任何记住对象的消失对象数据来生成消失对象的预测特性集合。然后可以将这些预测特性输入到规划器系统中,以便用于生成轨迹。这可以使车辆在即使感知系统没有感知到消失对象的情况下仍能够对它们进行响应于。
最终,记住某些消失对象可能是不再必要或不切实际。在这方面,在某个时间点处,消失对象数据可能不再被存储或用于向规划器系统发送预测特性。当满足一个或多个条件时可能是该情况。
本文描述的特征可以使自主车辆能够对可能在车辆附近但车辆的感知系统不能感知的真实对象作出响应。这也可以增加车辆的安全性。此外,例如,如果记住似乎消失的所有观察对象,则通过仅记住满足特定条件的某些分类的对象,这可能限制记住所需要的资源量。
示例系统
如图1所示,根据本公开的一方面的车辆100包括各种组件。虽然本公开的某些方面结合特定类型的车辆特别有用,但是车辆可以是任何类型的车辆,包括但不限于小汽车、卡车、摩托车、公共汽车、休闲车等。车辆可以具有一个或多个计算设备,诸如包含一个或多个处理器120、存储器130和通常存在于通用计算设备中的其他组件的计算设备110。
存储器130存储可由一个或多个处理器120访问的信息,包括可以由处理器120执行或以其他方式使用的指令132和数据134。存储器130可以是能够存储可由处理器访问的信息的任何类型的存储器,包括计算设备可读介质或存储可以借助电子设备读取的数据的其他介质,诸如硬盘驱动器、存储器卡、ROM、RAM、DVD或其他光盘以及其他可写和只读存储器。系统和方法可以包括前述的不同组合,由此指令和数据的不同部分被存储在不同类型的介质上。
指令132可以是由处理器直接(例如机器代码)或间接(例如脚本)执行的任何指令集合。例如,指令可以作为计算设备代码存储在计算设备可读介质上。在这方面,术语“软件”、“指令”和“程序”在本文中可以互换使用。指令可以以目标代码格式存储以便利处理器直接处理,或者以任何其他计算设备语言存储,包括按需解释或预先编译的独立源代码模块的脚本或集合。下面更详细地解释指令的功能、方法和例程。
处理器120可以根据指令132检索、存储或修改数据134。例如,虽然要求保护的主题不受任何特定数据结构的限制,但是数据可以存储在计算设备寄存器中、作为具有多个不同字段和记录的表、XML文档或平面文件存储在关系数据库中。数据也可以被格式化为任何计算设备可读的格式。
一个或多个处理器120可以是任何常规处理器,诸如商用CPU。可替代地,一个或多个处理器可以是专用设备,诸如ASIC或其他基于硬件的处理器。尽管图1在功能上将计算设备110的处理器、存储器和其他元件示为在相同的块内,但是本领域普通技术人员将理解处理器、计算设备或存储器实际上可以包括可能存储或可能不存储在相同物理外壳内的多个处理器、计算设备或存储器。例如,存储器可以是位于不同于计算设备110的外壳的外壳中的硬盘驱动器或其他存储介质。因此,对处理器或计算设备的引用将被理解为包括对可能并行或可能不并行操作的处理器或计算设备或存储器的集合的引用。
计算设备110可以包括通常与计算设备结合使用的所有组件,诸如上述处理器和存储器以及用户输入150(例如,鼠标、键盘、触摸屏和/或麦克风)以及各种电子显示器(例如,具有屏幕的监视器或可操作以显示信息的任何其他电气设备)。在该示例中,车辆包括内部电子显示器152以及一个或多个扬声器154以提供信息或视听体验。在这方面,内部电子显示器152可以位于车辆100的舱室内并且可以由计算设备110使用以向车辆100内的乘客提供信息。
计算设备110还可以包括一个或多个无线网络连接156以促进与诸如下面详细描述的客户端计算设备和服务器计算设备的其他计算设备的通信。无线网络连接可包括短距离通信协议,诸如蓝牙、蓝牙低功耗(LE)、蜂窝连接以及各种配置和协议,包括互联网、万维网、内联网、虚拟专用网、广域网、本地网络、使用专属于一个或多个公司的通信协议的专用网络、以太网、WiFi和HTTP,以及上述的各种组合。
在一个示例中,计算设备110可以是自主驾驶计算系统的或结合到车辆100中的控制计算设备。如以下进一步讨论的,自主驾驶计算系统能够与车辆的各种组件通信以便根据存储器130的自主车辆控制软件来控制车辆100的移动。例如,返回图1,计算设备110可以与车辆100的各种系统通信,诸如减速系统160、加速系统162、转向系统164、信令系统166、规划系统168、路由系统170、定位系统172、感知系统174、行为建模系统176、动力系统178(即车辆的引擎或马达)以便根据存储器130的指令132控制车辆100的运动、速度等),以及消失对象管理器系统。这些系统中的每一个可以包括各种硬件(类似于处理器120和存储器130的处理器和存储器)以及软件,以便使这些系统能够执行各种任务。同样,尽管这些系统被示为在计算设备110的外部,但实际上,这些系统也可以结合到计算设备110中,同样作为用于控制车辆100的自主驾驶计算系统。
作为示例,计算设备110可以与减速系统160和/或加速系统162的一个或多个致动器(诸如制动器、加速踏板、和/或车辆的引擎或马达)相互作用,以便控制车辆的速度。类似地,计算设备110可以使用转向系统164的一个或多个致动器(诸如方向盘、转向轴和/或齿条和小齿轮系统中的小齿轮和齿条),以便控制车辆100的方向。例如,如果车辆100被配置为在道路上使用,诸如小汽车或卡车,则转向系统可以包括一个或多个致动器以控制车轮的角度以转动车辆。计算设备110可以使用信令系统166以便例如通过在需要时点亮转弯信号或刹车灯来向其他驾驶员或车辆发信号通知车辆的意图。
计算设备110可以使用规划系统168以便确定和遵循由路由系统170生成的到位置的路线。例如,路由系统170可以使用地图信息来确定从车辆的当前位置到目的地位置的路线。规划系统168可以周期地生成用于控制车辆在未来的某段时间内的轨迹或短期规划,以便遵循到目的地的路线。在这方面,规划系统168、路由系统170和/或数据134可以存储详细的地图信息,例如,标识道路、车道线、交叉路口、人行横道、速度限制、交通信号、建筑物、标志、实时交通信息、植被的形状和高度或其他这样的对象和信息的高度详细的地图。
图2是包括交叉路口202的道路段的地图信息200的示例。地图信息200包括标识包括车道线210、211、212、213、214、交通控制设备220、222(其可以包括,例如,交通信号灯、停止标志等)、人行横道230、232、人行道240、包括箭头250、251、252的道路标记的各种特征以及诸如车道260、261、262、263、264、265的特征的形状、位置和其他特性的信息。虽然仅显示和标识了少许特征,但是地图信息200可以是高度详细的并且包括各种另外的特征。
尽管本文描绘的地图信息为基于图像的地图,但是地图信息不需要完全基于图像(例如,栅格)。例如,地图信息可以包括诸如道路、车道、交叉口以及这些特征之间的连接的信息的一个或多个道路图形或图形网络。每个特征可以被存储为图形数据,并且可以与诸如地理位置以及其是否链接到其他相关特征(例如,停止标志可以链接到道路和交叉口等)的信息相关联。在一些示例中,相关联的数据可以包括道路图形的基于网格的索引,以允许高效查找某些道路图形特征。
计算设备110可以使用定位系统172以便确定车辆在地图上或地球上的相对或绝对定位。例如,定位系统172可以包括GPS接收器以确定设备的纬度、经度和/或海拔定位。其他位置系统,诸如基于激光的定位系统、惯性辅助GPS或基于相机的定位,也可以用于识别车辆的位置。车辆的位置可以包括诸如纬度、经度和海拔高度的绝对地理位置,以及诸如相对于紧邻其周围的其他车辆的位置的相对位置信息,这通常可以以比绝对地理位置更少的噪声来确定。
定位系统172还可以包括与计算设备110通信的其他设备,诸如加速度计、陀螺仪或另一个方向/速度检测设备,以确定车辆的方向和速度或对其的改变。仅作为示例,加速设备可以确定其相对于重力方向或与其垂直的平面的俯仰、偏转或滚动(或对其的改变)。设备还可以追踪速度的增加或减少以及这样的变化的方向。可以自动地向计算设备110、其他计算设备和前述的组合提供如本文中阐述的提供的设备的位置和朝向数据。
感知系统174还包括用于检测车辆外部的对象(诸如其他车辆、道路中的障碍物、交通信号、标志、树木等)的一个或多个组件。例如,感知系统174可以包括一个或多个传感器,包括例如激光器、声纳、雷达、相机和/或记录可以由计算设备110处理的数据的任何其他检测设备。在这方面,感知系统174可以具有在其中感知系统174能够感知对象的、与一个或多个传感器的组合视场相对应的视场。当感知对象时,感知系统174可以发布包括对象的多个特性的传感器数据。
在车辆是诸如小型货车的客运车辆的情况下,小型货车的感知系统174可以包括安装在车顶(roof)或其他方便位置上的激光器或其他传感器。例如,图3是车辆100的示例外部视图。在该示例中,顶部(roof-top)外壳310和圆顶外壳312可以包括LIDAR传感器以及各种相机和雷达单元。此外,位于车辆100前端的外壳320和车辆的驾驶员侧和乘客侧的外壳330、332中的每个可以存储LIDAR传感器。例如,外壳330位于驾驶员车门350的前面。车辆100还包括用于也位于车辆100的车顶上的雷达单元和/或相机的外壳340、342。附加的雷达单元和相机(未示出)可以位于车辆100的前端和后端和/或在沿车顶或顶部外壳310的其他定位上。车辆100还包括典型客运车辆的许多特征,诸如车门350、352、车轮360、362等。
为了解决对象似乎消失的状况,消失对象管理器系统180可以通过传播似乎已经消失的对象的最有可能的位置来追踪它们,最有可能的位置是基于最近的可用特性的。消失对象管理器系统可以是独立的系统,也可以结合到感知系统或规划器系统。下面进一步讨论该系统的方面和功能。
车辆的各种系统可以使用自主车辆控制软件来运行以便确定控制车辆以及如何控制车辆。作为示例,感知系统174的感知系统软件模块可以使用由自主车辆的一个或多个传感器(诸如相机、LIDAR传感器、雷达单元、声纳单元等)生成的传感器数据来检测和识别对象以及他们的特性。这些特性可以包括位置、分类(类型)、前进方向、朝向、速度、加速度、加速度的改变、大小、形状等。在一些实例中,特性可以被输入到行为预测系统软件模块中,行为预测系统软件模块使用基于分类(类型)的各种模型以输出检测对象的预测未来行为。在其他实例中,特性可以被放入一个或多个检测系统软件模块中,诸如被配置为从由车辆的一个或多个传感器生成的传感器数据检测施工区的施工区检测系统软件模块,以及被配置为从由车辆的传感器生成的传感器数据检测紧急车辆的紧急车辆检测系统。这些检测系统软件模块中的每一个都可以使用各种模型来输出施工区或对象是紧急车辆的可能性。检测对象、预测未来行为、来自检测系统软件模块的各种可能性、标识车辆的环境的地图信息、来自定位系统172的标识车辆的位置和朝向的位置信息、车辆的目的地以及来自车辆的各种其他系统的反馈(包括由路由系统170生成的路线)可以被输入到规划系统168的规划系统软件模块中。规划系统可以使用该输入来生成用于车辆在到未来的某短时间段遵循的轨迹。计算设备110的控制系统软件模块可以被配置为控制车辆的移动,例如通过控制车辆的制动、加速和转向,以便遵循轨迹。
计算设备110可以通过控制各种组件来自主地控制车辆的方向和速度。为了这样做,计算设备110可以使车辆加速(例如,通过增加由加速系统162提供给引擎的燃料或其他能量)、减速(例如,通过减少供应给引擎的燃料、改变档位、和/或通过减速系统160施加制动),改变方向(例如,通过转向系统164转动车辆100的前轮或后轮),并发信号通知这样的改变(例如,通过点亮信令号系统166的转弯信号)。因此,加速系统162和减速系统160可以是包括车辆的引擎和车辆的车轮之间的各种组件的传动系统的一部分。同样,通过控制这些系统,计算设备110还可以控制车辆的传动系统以便自主地操纵车辆。
示例方法
除了上述和图中示出的操作之外,现在将描述各种操作。应当理解,以下操作不必以下面描述的精确顺序执行。相反,可以以不同的顺序或同时处理各种步骤,并且还可以添加或省略步骤。
图4表示车辆100在第一时间点处并在与地图信息200相对应的道路段400中行驶。道路400包括标识各种特征的形状、位置和的其他特性的信息,各种特征包括与交叉路口202相对应的交叉路口402,与车道线210、211、212、213、214相对应的车道线410、411、412、413、414,与交通控制设备220、222相对应的交通控制设备420、422,与人行横道230、232相对应的人行横道430、432,与人行道240相对应的人行道440、与箭头250、251、252相对应的箭头450、451、452以及与车道260、261、262、263、264、265相对应的车道460、461、462、463、464、465。在该示例中,车辆100正在车道461中接近交叉路口402。此外,各种其他车辆470、472、474、476以及行人480位于交叉路口402中和周围的各种点处。
如上所述,感知系统174可以发布由感知系统的一个或多个传感器生成的传感器数据。该传感器数据可以包括标识由感知系统感知的对象的特性的信息。例如,图4表示在第一时间点处的车辆100。在该第一时间点处,车辆470、472、474、476以及行人480中的每一个都在感知系统174的视场内,或者更确切地说,可以由感知系统174的一个或多个传感器感知。因此,感知系统174可以发布车辆470、472、474、476和行人480中的每一个的特性,包括例如位置、前进方向、速度、朝向、加速度、加速度的改变等。
该传感器数据和特性可以由计算设备110以及车辆的各种其他系统接收。例如,如上所述,该传感器数据可以被输入到行为建模系统176中以便预测对象的未来行为。这些未来行为、每个感知对象的特性以及其他信息(诸如地图信息200和车辆100当前遵循的路线)也可以被输入到规划系统168中以便确定用于车辆100遵循的轨迹。该轨迹然后可以用于以自主驾驶模式控制车辆。
在某时间点处,一些对象可能似乎消失。例如,图5表示车辆100在第二时间点并停止在交叉路口402处。在该示例中,第二时间点可以在第一时间点之后几秒发生。因此,车辆470、472、474、476以及行人480中的每一个的定位已经移动。在该第二时间点处,车辆470不再被描绘在道路400上,因此车辆470可能不再像车辆470一样在感知系统的视场内。例如,车辆470可能位于感知系统174的传感器的范围之外。此外,转向图6,车辆474和476的位置实质上投射(cast)“阴影”或创建遮挡区域610、620。换言之,由于车辆474和476关于感知系统174的视场的相对位置,感知系统174不再能够感知车辆472或行人480,因为这些对象位于遮挡区域610、620内。因此,车辆470、472和行人480中的每一个可能似乎已经消失。因此,在第二时间点处,感知系统174不再发布这些对象的传感器数据。
为了解决这样的情况,消失对象管理器系统180可以通过传播似乎已经消失的对象的最有可能的位置来追踪它们,该最有可能的位置是基于最近的可用特性的。在许多情况下,当对象消失时,消失对象管理器系统可能不需要追踪那些对象,诸如对象实际上与规划无关。在一些实例中,当自主车辆100经过缓慢移动的车辆或经过远离自主车辆的车辆时(同样,假设这些车辆实际上与规划无关),这可能发生。因此,追踪似乎已经消失的所有对象可能是资源的低效使用。
为了避免追踪太多的对象,针对在上述分类中的一个中的识别的对象,消失对象管理器系统可以确定识别的对象是否满足多个条件。例如,示例条件可以包括仅可以记住某些分类的对象。换言之,消失对象管理器系统180可以使用感知系统174发布的特性来确定对象是否是特定分类或类型。例如,消失对象管理器系统180可以仅记住诸如行人、骑自行车者和车辆的其他道路使用者。在这方面,返回到图4和5,作为道路使用者的车辆470、472、474、476和行人480中的每一个将是适合被记住的分类。例如,如果对象被感知系统的传感器感知,但没有足够的确定性将其识别为特定分类,则对象的分类可以被指定为未知。如果对象还在移动,则对象的分类可以被指定为未知移动对象。
另一个示例条件可以包括对象已经在至少最小时间量或迭代次数被感知。例如,感知系统有时可能在很短的时间(诸如1或2次迭代或几分之一秒)发布在现实世界中实际上不存在的短暂的“假对象”。这样的对象不应该被记住,因为它们实际上在第一地点从不存在。因此,为了确保这样的对象不被记住,示例条件可能要求对象在最小时间段期间(诸如0.1秒或更多或更少,或者在最小迭代次数中的每一次,诸如3次或更多或更少)被发布。该最小迭代次数可以基于对象的分类,使得对于更易受伤害的(vulnerable)道路使用者,更少的迭代可能是必要的。例如,车辆的时间量可能更长,而行人的时间量可能更短。
可替代地,感知系统可能发布假对象集合,或者在一次检测和发布之后发现是假对象的对象集合。例如,因为对象不满足上述最小迭代次数,所以可以在该集合中包括这样的对象。在这方面,另一个示例条件可以包括对象在假对象集合中未被标识。
另一个示例条件可以基于对象的遮挡推理。换言之,不应该预期对象在激光雷达(lidar)传感器视场内可见。在这方面,消失对象管理器系统可以确定对象是否因为对象离开感知系统的视场而消失。例如,计算设备可以确定对象的最后观察位置是否靠近该视场的边缘。例如,计算设备110可以确定对象的最后感知位置是否在感知系统174的视场的边缘的某个距离内。可以基于对象的速度来确定该距离,使得距离在对象的速度减小处减小,并随着对象的速度增加而增加。视场可能取决于如上所述的感知系统的一个或多个传感器的范围以及该范围内可能导致遮挡区域(诸如遮挡区域610、620)的任何对象二者。例如,相比于如果对象在普通视野中并消失,如果对象在视场的边缘几英尺或更多或更少内,则记住该对象可能更有意义。前一个情况可能指示对象仅仅穿过了视场的边缘边界,并且从对感知系统可见去到对感知系统不可见。在这样的状况下,这可能指示对象更有可能一直是真实的对象,并且在其消失后追踪对象可能更有用。后一个情况可能指示该对象实际上不是真实对象,因为它在就要消失之前不靠近视场的边缘。在这方面,该示例条件可能要求对象的最后感知位置(即,发布位置)靠近视场的边缘或距视场的边缘在几英尺或更多或更小之内。此外,对于不同类型的对象或以不同速度移动的对象,该距离可能不同。例如,较大的距离可能被用于较快的对象,因为与较慢的对象相比,它们可能更有可能离开视场。
可以以任何组合使用上述条件以便确定哪些对象应该被消失对象管理器系统180记住。满足多个条件的任何对象可以被认为是消失对象并且被消失对象管理器系统180记住。例如,车辆470、472和行人480中的每一个可以被识别为消失对象管理器系统180应该记住的消失的对象。
消失对象管理器系统可以存储对象的消失对象数据,包括对象的一个或多个最后已知的特性(例如,感知系统174发布的对象的最新特性),诸如对象的最后感知位置以及对象的最有可能行为预测。可以基于来自感知系统的对象的最后发布特性从行为建模系统176输出该最有可能行为预测。在这方面,行为建模系统176可以输出单个预测或多个预测,每个预测具有不同的发生的可能性。转向图7,虚线车辆710表示车辆472在第一时间点处的位置,而阴影车辆720表示车辆472在第二时间点处的预测位置。类似地,虚线行人730表示行人480在第一时间点处的位置,而阴影行人740表示行人480在第二时间点处的预测位置。
在一些实例中,一旦对象消失,该消失对象的预期预测位置和/或其他预测特性可以被输入回行为建模系统176以便提供新的或者更新的(updated)行为预测,例如在给定的时间点处的更新的消失对象的特性的预测。这些更新的预测特性也可以由消失对象管理器系统180存储。
每次感知系统174发布感知对象的新的特性时,消失对象管理器系统180可以使用任何记住的对象的消失对象数据来生成消失对象的预测特性集合。例如,消失对象管理器系统180可以使用存储的对象的最有可能行为预测来识别或确定当前时间的预测特性集合。
这些预测特性然后可以被输入到规划系统168中(结合上面识别的其他数据)以便用于生成轨迹。这可以使车辆100能够响应消失对象,诸如车辆472和行人480,即使这些对象没有被感知系统感知。例如,车辆可以让步行人480以及车辆472。
此外,在一些情况下,与由车辆的传感器检测的感知对象相比,消失对象可能与更高水平的不确定性相关联。该不确定性也可能随时间增加。因此,规划器系统可能使车辆对记住的对象的反应与对感知对象的反应不同,因为记住的对象的存在或定位周围有一些不确定性。作为示例,如果车辆关于记住的对象可能去哪里高度不确定,则车辆实际上可能会更加谨慎地驾驶。
最终,记住某些消失对象可能不再是必要或实际的。在这方面,在某个时间点处,消失对象数据可能不再被存储或用于向规划器系统发送预测特性。当满足一个或多个条件时可能是该情况。一个示例条件可以是如果对象已经在多于阈值时间段(诸如3秒或更多或更少)内未被感知到。这可能是诸如车辆470的车辆的情况,其只是从车辆100“驶离”,不太可能再出现。作为另一示例条件,如果预定时间段(诸如0.7秒或更多或更少)已经过去,在预定时间段期间对象预测位置指示对象应该在感知系统174的视场内可见或未被遮挡。作为另一个示例条件,如果对象的预测位置与匹配的类别的新感知对象在预定距离内。该预定距离可以取决于分类以及新感知的对象移动地多快。例如,近(near),对于车辆可以是3到5米或更多或更少(对于移动较慢的车辆为3米,对于移动较快的车辆为5米),对于行人可以是1米或更多或更少。作为另一个示例条件,如果对象的预测位置与相同或不同类别的另一个对象的边界框或轮廓重叠或在其内。这可能解释了感知系统先前错误分类对象的状况。
在一些实施例中,如果车辆上有可转向的传感器,则消失对象管理器系统可以使感知系统将传感器转向消失对象的预测位置。这可以允许车辆的感知系统和/或消失对象管理器系统感知对象和/或确认对象的预测位置。当然,这可能取决于对象的预测位置未被另一个对象遮挡的假设。
图8是本文描述的用于控制具有自主驾驶模式的车辆(诸如车辆100)的技术的各方面的示例流程图800,其可以由车辆的一个或多个计算设备的一个或多个处理器(诸如计算设备110的处理器120或车辆100的各种系统的任何其他处理器或计算设备)执行。例如,在框810处,从车辆的感知系统的一个或多个传感器接收传感器数据,传感器数据标识由感知系统感知的对象的特性。在框820处,确定对象不再被感知系统的一个或多个传感器感知。如上所述,多个条件可以包括各种其他条件。在框830处,基于确定以及特性中的一个或多个,生成对象的预测特性。在框840处,对象的预测特性用于以自主驾驶模式控制车辆,使得当对象不再被感知系统的一个或多个传感器感知时,车辆能够对对象作出响应。
本文描述的特征可以使自主车辆能够对可能在车辆附近但车辆的感知系统不能感知的真实对象作出响应。这还可以增加车辆的安全性。此外,例如,如果似乎消失的所有观察的对象都被记住,则通过仅记住满足某些条件的某些分类的对象,这可能限制记住所需要的资源量。
除非另有说明,否则上述替代性示例不是相互排斥的,而是可以以各种组合实施以实现独特的优势。由于可以在不脱离由权利要求限定的主题的情况下利用以上讨论的特征的这些和其他变化和组合,所以实施例的前述描述应该通过说明的方式而不是通过限制由权利要求限定的主题的方式来理解。此外,本文描述的示例的提供以及表述为“诸如”、“包括”等的子句不应该被解释为将权利要求的主题限制于特定示例;然而,示例仅旨在说明许多可能的实施例中的一个。此外,不同附图中相同的附图标记可以标识相同或相似的元素。

Claims (20)

1.一种控制具有自主驾驶模式的车辆的方法,所述方法包括:
由一个或多个处理器从车辆的感知系统的一个或多个传感器接收传感器数据,所述传感器数据标识由感知系统感知的对象的特性;
由一个或多个处理器确定对象不再被感知系统的一个或多个传感器感知;
由一个或多个处理器基于所述确定以及所述特性生成对象的预测特性;以及
由一个或多个处理器使用对象的预测特性来以自主驾驶模式控制车辆,使得当对象不再被感知系统的一个或多个传感器感知时,车辆能够对对象作出响应。
2.根据权利要求1所述的方法,其中,多个条件还包括特性中的一个将所述对象标识为道路使用者。
3.根据权利要求2所述的方法,其中,所述道路使用者是行人、骑自行车者或车辆。
4.根据权利要求1所述的方法,还包括确定特性中的一个将所述对象标识为未知的移动对象,并且,其中,还基于确定特性中的一个将对象标识为所述未知的移动对象来生成预测特性。
5.根据权利要求1所述的方法,其中,当所述对象不再被感知系统的一个或多个传感器感知时,已经在预定时间段内未从感知系统接收对象的特性。
6.根据权利要求1所述的方法,还包括确定由感知系统发布的假对象集合中不包括所述对象,并且,其中,还基于确定假对象集合中不包括所述对象生成预测特性。
7.根据权利要求1所述的方法,还包括确定所述对象在发布传感器数据的感知系统的至少最小迭代次数中一直被识别,并且,其中,还基于所述确定生成预测特性。
8.根据权利要求7所述的方法,还包括基于所述特性的分类来识别所述最小迭代次数。
9.根据权利要求1所述的方法,还包括基于所述特性确定对象不应该在感知系统的视场内,并且,其中,还基于确定对象不应该在感知系统的视场内来生成预测特性。
10.根据权利要求9所述的方法,还包括基于所述传感器的范围和感知对象的特性来确定视场。
11.根据权利要求1所述的方法,还包括基于所述特性确定对象在感知系统的视场的边缘的预定距离内,并且,其中,还基于确定所述对象在感知系统的视场的边缘的预定距离内来生成预测特性。
12.根据权利要求11所述的方法,还包括基于传感器的范围和感知对象的特性来确定所述视场。
13.根据权利要求1所述的方法,还包括接收对于所述对象的行为预测,并且,其中,还基于所述行为预测来生成预测特性。
14.根据权利要求13所述的方法,还包括将行为预测和特性中的一个或多个存储在存储器中以供未来基于所述确定使用。
15.根据权利要求1所述的方法,还包括:
使用预测特性为所述对象生成新的行为预测;
基于所述新的行为预测为所述对象生成被更新的预测特性;以及
使用所述对象的被更新的预测特性来以自主驾驶模式控制车辆,使得当对象不再被感知系统的一个或多个传感器感知时,车辆能够对所述对象作出响应。
16.根据权利要求1所述的方法,还包括:
确定所述对象何时满足对象已经在预定时间量内未被感知系统的一个或多个传感器感知的条件;以及
当确定所述对象满足所述条件时,不再使用所述对象的预测特性来以自主驾驶模式控制车辆。
17.根据权利要求1所述的方法,还包括:
确定所述对象何时满足所述预测特性的对象的预测位置与由感知系统的一个或多个传感器当前感知的对象的位置重叠的条件;以及
当确定所述对象满足所述条件时,不再使用所述对象的预测特性来以自主驾驶模式控制车辆。
18.根据权利要求1所述的方法,还包括:
确定所述对象何时满足所述预测特性的对象的预测位置在由感知系统的一个或多个传感器当前感知的对象的位置的预定距离内的条件;以及
当确定所述对象满足所述条件时,不再使用所述对象的预测特性来以自主驾驶模式控制车辆。
19.根据权利要求18所述的方法,还包括基于所述由感知系统当前感知的对象的速度来识别所述预定距离。
20.根据权利要求1所述的方法,还包括:
确定所述对象何时满足已经经历了在其期间所述预测特性的对象的位置与由感知系统感知的位置相对应的的预定时间段的条件;以及
当确定所述对象满足所述条件时,不再使用所述对象的预测特性来以自主驾驶模式控制车辆。
CN202080038888.1A 2019-05-31 2020-05-29 用于自主车辆的追踪消失对象 Active CN113924241B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US16/427,610 US11643115B2 (en) 2019-05-31 2019-05-31 Tracking vanished objects for autonomous vehicles
US16/427,610 2019-05-31
PCT/US2020/035202 WO2020243481A1 (en) 2019-05-31 2020-05-29 Tracking vanished objects for autonomous vehicles

Publications (2)

Publication Number Publication Date
CN113924241A true CN113924241A (zh) 2022-01-11
CN113924241B CN113924241B (zh) 2024-03-01

Family

ID=73550124

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202080038888.1A Active CN113924241B (zh) 2019-05-31 2020-05-29 用于自主车辆的追踪消失对象

Country Status (5)

Country Link
US (2) US11643115B2 (zh)
EP (1) EP3959112A4 (zh)
JP (2) JP7315714B2 (zh)
CN (1) CN113924241B (zh)
WO (1) WO2020243481A1 (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11400924B2 (en) * 2019-03-31 2022-08-02 Gm Cruise Holdings Llc Autonomous vehicle maneuvering based upon risk associated with occluded regions
US11148663B2 (en) * 2019-10-02 2021-10-19 Ford Global Technologies, Llc Enhanced collision mitigation
KR20220083002A (ko) * 2020-12-10 2022-06-20 현대자동차주식회사 차량
US11859989B2 (en) 2021-08-24 2024-01-02 Waymo Llc Speed reasoning in the presence of uncertainty when pulling over

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130197736A1 (en) * 2012-01-30 2013-08-01 Google Inc. Vehicle control based on perception uncertainty
US9335766B1 (en) * 2013-12-06 2016-05-10 Google Inc. Static obstacle detection
CN106184217A (zh) * 2015-05-25 2016-12-07 丰田自动车株式会社 车辆的自动驾驶系统
US20180032078A1 (en) * 2016-07-26 2018-02-01 Waymo Llc Determining drivability of objects for autonomous vehicles
US20180174465A1 (en) * 2016-12-21 2018-06-21 Toyota Jidosha Kabushiki Kaisha Driving assistance apparatus
US10146223B1 (en) * 2016-10-21 2018-12-04 Waymo Llc Handling sensor occlusions for autonomous vehicles
US20190025433A1 (en) * 2017-07-19 2019-01-24 Aptiv Technologies Limited Automated vehicle lidar tracking system for occluded objects
US20190064840A1 (en) * 2017-08-31 2019-02-28 Uber Technologies, Inc. Systems and Methods for Controlling an Autonomous Vehicle with Occluded Sensor Zones

Family Cites Families (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6898528B2 (en) 2002-07-23 2005-05-24 Ford Global Technologies, Llc Collision and injury mitigation system using fuzzy cluster tracking
TWI314115B (en) 2007-09-27 2009-09-01 Ind Tech Res Inst Method and apparatus for predicting/alarming the moving of hidden objects
US8126642B2 (en) 2008-10-24 2012-02-28 Gray & Company, Inc. Control and systems for autonomously driven vehicles
US8799201B2 (en) * 2011-07-25 2014-08-05 Toyota Motor Engineering & Manufacturing North America, Inc. Method and system for tracking objects
US11195057B2 (en) * 2014-03-18 2021-12-07 Z Advanced Computing, Inc. System and method for extremely efficient image and pattern recognition and artificial intelligence platform
WO2014171258A1 (ja) * 2013-04-16 2014-10-23 日本電気株式会社 情報処理システム、情報処理方法及びプログラム
US9424672B2 (en) 2013-11-07 2016-08-23 Here Global B.V. Method and apparatus for processing and aligning data point clouds
DE102014205014A1 (de) 2014-03-18 2015-09-24 Ford Global Technologies, Llc Verfahren und Vorrichtung zum Erfassen von bewegten Objekten in der Umgebung eines Fahrzeugs
JP6318864B2 (ja) 2014-05-29 2018-05-09 トヨタ自動車株式会社 運転支援装置
US9934689B2 (en) 2014-12-17 2018-04-03 Toyota Motor Engineering & Manufacturing North America, Inc. Autonomous vehicle operation at blind intersections
US9434382B1 (en) * 2015-03-19 2016-09-06 Toyota Motor Engineering & Manufacturing North America, Inc. Vehicle operation in environments with second order objects
US9983591B2 (en) 2015-11-05 2018-05-29 Ford Global Technologies, Llc Autonomous driving at intersections based on perception data
EP3391339A2 (en) * 2015-12-18 2018-10-24 Iris Automation, Inc. Real-time visual situational awareness system
US20170329332A1 (en) 2016-05-10 2017-11-16 Uber Technologies, Inc. Control system to adjust operation of an autonomous vehicle based on a probability of interference by a dynamic object
CA3028933C (en) 2016-06-27 2019-09-10 Nissan Motor Co., Ltd. Vehicle control method and vehicle control device
KR102060267B1 (ko) * 2016-06-27 2019-12-27 닛산 지도우샤 가부시키가이샤 물체 추적 방법 및 물체 추적 장치
MX2018015701A (es) 2016-06-30 2019-05-27 Nissan Motor Metodo de rastreo de objetos y aparato de rastreo de objetos.
US10160448B2 (en) * 2016-11-08 2018-12-25 Ford Global Technologies, Llc Object tracking using sensor fusion within a probabilistic framework
EP3559600A2 (en) * 2016-12-23 2019-10-30 Mobileye Vision Technologies Ltd. Navigational system with imposed liability constraints
US20180211403A1 (en) * 2017-01-20 2018-07-26 Ford Global Technologies, Llc Recurrent Deep Convolutional Neural Network For Object Detection
US10037613B1 (en) * 2017-03-30 2018-07-31 Uber Technologies, Inc. Systems and methods to track vehicles proximate perceived by an autonomous vehicle
US10255525B1 (en) * 2017-04-25 2019-04-09 Uber Technologies, Inc. FPGA device for image classification
US20180341822A1 (en) * 2017-05-26 2018-11-29 Dura Operating, Llc Method and system for classifying objects in a perception scene graph by using a scene-detection-schema
US10216189B1 (en) * 2017-08-23 2019-02-26 Uber Technologies, Inc. Systems and methods for prioritizing object prediction for autonomous vehicles
US20190079526A1 (en) * 2017-09-08 2019-03-14 Uber Technologies, Inc. Orientation Determination in Object Detection and Tracking for Autonomous Vehicles
WO2019140699A1 (en) * 2018-01-22 2019-07-25 SZ DJI Technology Co., Ltd. Methods and system for multi-target tracking
EP3740737A1 (en) * 2018-04-03 2020-11-25 Mobileye Vision Technologies Ltd. Systems and methods for determining navigational parameters
JP6988698B2 (ja) * 2018-05-31 2022-01-05 トヨタ自動車株式会社 物体認識装置
KR102572784B1 (ko) * 2018-10-25 2023-09-01 주식회사 에이치엘클레무브 운전자 보조 시스템 및 그 제어방법
US11436839B2 (en) * 2018-11-02 2022-09-06 Toyota Research Institute, Inc. Systems and methods of detecting moving obstacles
US11188082B2 (en) * 2019-01-11 2021-11-30 Zoox, Inc. Occlusion prediction and trajectory evaluation
US20200249674A1 (en) * 2019-02-05 2020-08-06 Nvidia Corporation Combined prediction and path planning for autonomous objects using neural networks
US11016492B2 (en) * 2019-02-28 2021-05-25 Zoox, Inc. Determining occupancy of occluded regions
US11670001B2 (en) * 2019-05-17 2023-06-06 Nvidia Corporation Object pose estimation
US11227401B1 (en) * 2019-05-22 2022-01-18 Zoox, Inc. Multiresolution voxel space

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130197736A1 (en) * 2012-01-30 2013-08-01 Google Inc. Vehicle control based on perception uncertainty
CN104094177A (zh) * 2012-01-30 2014-10-08 谷歌公司 基于感知不确定性的车辆控制
US9335766B1 (en) * 2013-12-06 2016-05-10 Google Inc. Static obstacle detection
CN106184217A (zh) * 2015-05-25 2016-12-07 丰田自动车株式会社 车辆的自动驾驶系统
US20180032078A1 (en) * 2016-07-26 2018-02-01 Waymo Llc Determining drivability of objects for autonomous vehicles
CN109562759A (zh) * 2016-07-26 2019-04-02 伟摩有限责任公司 为自主车辆确定对象的可行驶性
US10146223B1 (en) * 2016-10-21 2018-12-04 Waymo Llc Handling sensor occlusions for autonomous vehicles
US20180174465A1 (en) * 2016-12-21 2018-06-21 Toyota Jidosha Kabushiki Kaisha Driving assistance apparatus
US20190025433A1 (en) * 2017-07-19 2019-01-24 Aptiv Technologies Limited Automated vehicle lidar tracking system for occluded objects
US20190064840A1 (en) * 2017-08-31 2019-02-28 Uber Technologies, Inc. Systems and Methods for Controlling an Autonomous Vehicle with Occluded Sensor Zones

Also Published As

Publication number Publication date
JP2022535194A (ja) 2022-08-05
CN113924241B (zh) 2024-03-01
JP2023145525A (ja) 2023-10-11
JP7315714B2 (ja) 2023-07-26
EP3959112A1 (en) 2022-03-02
EP3959112A4 (en) 2023-01-25
US11643115B2 (en) 2023-05-09
WO2020243481A1 (en) 2020-12-03
US20230227074A1 (en) 2023-07-20
US20200377092A1 (en) 2020-12-03

Similar Documents

Publication Publication Date Title
US11636362B1 (en) Predicting trajectory intersection by another road user
US11760354B2 (en) Multi-way stop intersection precedence for autonomous vehicles
US11242040B2 (en) Emergency braking for autonomous vehicles
CN113924241B (zh) 用于自主车辆的追踪消失对象
US11703875B2 (en) Braking control behaviors for autonomous vehicles
CN113692372B (zh) 用于自主车辆的异常处理
CN113692373B (zh) 自动驾驶车辆服务的滞留和范围分析
CN113196101A (zh) 探测水坑和积水
US11537128B2 (en) Detecting and responding to processions for autonomous vehicles
CN113302109A (zh) 实施自主车辆的回退行为的系统
KR20190067851A (ko) 센서 데이터로부터 생성된 물체를 평활화하기 위한 맵 정보의 이용
CN113677582A (zh) 为自动车辆生成简化对象模型以减少计算资源要求
CN113508056A (zh) 针对自主车辆的转弯发出信号
CN114286774A (zh) 针对自主车辆检测潜在被遮挡对象
CN112424047B (zh) 将不适感用于自主车辆的速度规划
CN115593429A (zh) 自动驾驶车辆对紧急车辆的响应
US11590978B1 (en) Assessing perception of sensor using known mapped objects
CN113226878A (zh) 铁路灯检测

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant