CN117315628A - 检测阻塞静止车辆 - Google Patents

检测阻塞静止车辆 Download PDF

Info

Publication number
CN117315628A
CN117315628A CN202311504016.1A CN202311504016A CN117315628A CN 117315628 A CN117315628 A CN 117315628A CN 202311504016 A CN202311504016 A CN 202311504016A CN 117315628 A CN117315628 A CN 117315628A
Authority
CN
China
Prior art keywords
vehicle
stationary
indication
determining
sensor data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202311504016.1A
Other languages
English (en)
Inventor
M·加法里安扎德
B·J·萨普
J·S·莱文森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zoox Inc
Original Assignee
Zoox Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zoox Inc filed Critical Zoox Inc
Publication of CN117315628A publication Critical patent/CN117315628A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0137Measuring and analyzing of parameters relative to traffic conditions for specific applications
    • G08G1/0145Measuring and analyzing of parameters relative to traffic conditions for specific applications for active traffic flow control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K31/00Vehicle fittings, acting on a single sub-unit only, for automatically controlling vehicle speed, i.e. preventing speed from exceeding an arbitrarily established velocity or maintaining speed at a particular velocity, as selected by the vehicle operator
    • B60K31/0008Vehicle fittings, acting on a single sub-unit only, for automatically controlling vehicle speed, i.e. preventing speed from exceeding an arbitrarily established velocity or maintaining speed at a particular velocity, as selected by the vehicle operator including means for detecting potential obstacles in vehicle path
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0221Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/243Classification techniques relating to the number of classes
    • G06F18/24323Tree-organised classifiers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models
    • G06N7/01Probabilistic graphical models, e.g. probabilistic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0108Measuring and analyzing of parameters relative to traffic conditions based on the source of data
    • G08G1/0112Measuring and analyzing of parameters relative to traffic conditions based on the source of data from the vehicle, e.g. floating car data [FCD]
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0125Traffic data processing
    • G08G1/0133Traffic data processing for classifying traffic situation
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/165Anti-collision systems for passive traffic, e.g. including static obstacles, trees

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Computing Systems (AREA)
  • Chemical & Material Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Analytical Chemistry (AREA)
  • General Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Mathematical Physics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Automation & Control Theory (AREA)
  • Remote Sensing (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Combustion & Propulsion (AREA)
  • Algebra (AREA)
  • Pure & Applied Mathematics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Computational Mathematics (AREA)
  • Mathematical Optimization (AREA)
  • Mathematical Analysis (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)

Abstract

一种确定静止车辆是否为阻塞车辆以改善对自动驾驶车辆的控制的方法和系统。感知引擎可以由从自动驾驶车辆接收的传感器数据检测自动驾驶车辆的环境中的静止车辆。响应于该检测,感知引擎可以根据传感器数据确定车辆环境的特征值(例如,静止车辆的特征,其他物体,环境本身)。自动驾驶车辆可以将这些特征值输入到机器学习模型中,以确定静止车辆是阻塞车辆的概率,并使用该概率生成轨迹来控制自动驾驶车辆的运动。

Description

检测阻塞静止车辆
本申请是申请日为2019年02月01日、申请号为201980013149.4、发明名称为“检测阻塞静止车辆”的发明专利申请的分案申请。
相关申请的交叉引用
该PCT国际申请要求2018年2月14日提交的美国专利申请15/897,028的优先权,其通过引用合并于此。
背景技术
静止物体,例如道路上的车辆,可能会干扰车辆的自动操作。例如,自动驾驶车辆前方的静止车辆可以是并排停放的,或者以其他方式丧失功能,从而阻塞了自动驾驶车辆。检测这种阻塞车辆可能受到传感器可见度的限制,因为可能无法“看见”潜在阻塞车辆的前方以确定它是否是阻塞车辆。
此外,环境提示可能会增加检测的复杂性。作为列举的两个示例,停在具有被检测的红灯的十字路口的车辆可能是阻塞车辆并且没在等待交通信号灯。类似地,停在具有被检测的绿灯的交叉路口附近的车辆实际上可能在排长队等待转弯,而不是阻塞车辆。基于未正确被检测的阻塞车辆自动操作可能会产生其他问题,例如,自动驾驶车辆无法重新进入其原始车道。
附图说明
参照附图描述详细说明。在附图中,附图标记的最左边的数字标识该附图标记首次出现的附图。不同附图中的相同附图标记表示相似或相同的项目。
图1A示出涉及静止车辆的示例场景,该静止车辆可以是阻塞车辆。
图1B示出描绘图1A的场景的自动驾驶车辆视图的示例,以显示从自动驾驶车辆收集的传感器数据可辨别出的图1A的场景的一部分。
图2示出用于检测阻塞车辆的示例过程的图形流程图。
图3A-3F示出传感器数据和从中得出的用于检测阻塞车辆的特征的示例。
图4示出包括示例车辆系统的用于检测阻塞车辆的示例架构的框图。
图5示出根据本文讨论的技术的用于训练阻塞车辆机器学习模型的示例过程的流程图。
图6示出根据本文讨论的技术的用于使用机器学习模型来检测阻塞车辆的示例过程的示意性流程图。
图7示出根据本文所讨论的技术的用于训练阻塞车辆机器学习模型的示例过程的流程图。
具体实施方式
如上所述,阻塞物体(包括车辆)包括阻碍自动驾驶车辆沿着规划的路线或路径前进的物体。例如,在许多城市环境中,并排停放是一种常见的做法。需要将这种并排停放的车辆检测为阻塞车辆,以与静止车辆分开处理。特别地,虽然可以指示自动驾驶车辆等待停止的车辆移动,但是也可以指示自动驾驶车辆在这种并排停放的车辆周围行驶。一般规则,例如将所有在绿灯处静止车辆视为阻塞,通常不准确和/或不足以安全地操作自动驾驶车辆和/或以更接近地模仿车辆的人类操作的方式操作自动驾驶车辆。本公开总体上针对用于确定静止车辆是阻塞车辆还是物体以便根据该确定来控制自动驾驶车辆的技术(例如,机器,程序,过程)。在一些示例中,本文讨论的技术包括机器学习(ML)模型,该机器学习模型被配置为接收传感器数据以确定是否指示静止车辆是阻塞车辆。代替根据条件规则进行该确定(例如,如果确实是绿色的灯并且确实是车辆已停止,则指示该车辆是阻塞车辆),本文讨论的技术可以使用以传感器数据为输入的ML模型来确定静态车辆是阻塞车辆的概率。
在一些示例中,本文讨论的技术可以包括:从自动驾驶车辆的传感器(一个或多个)和/或软件和/或硬件模块接收原始的和/或处理的传感器数据(例如,由自动驾驶车辆的另一机器学习模型和/或软件/硬件模块处理的传感器数据);确定自动驾驶车辆路径中的车辆是静止的;确定来自传感器数据的特征值(例如,指示以下特征的值:诸如,与道路中下一个路口的距离;从静止车辆到静止车辆前方的下一车辆的距离;静止车辆的速度、刹车灯状况、高度、大小和/或偏航;静止车辆和/或在静止车辆附近的物体(一个或多个)的分类;交通流数据);以及确定该静止车辆为阻塞车辆的概率。在一些示例中,可以使用ML模型来确定概率。
在一些示例中,自动驾驶车辆可以包括用于控制自动驾驶车辆的感知引擎和/或规划器。感知引擎可以包括一个或多个ML模型和/或其他计算机可执行指令,用于由从自动驾驶车辆的环境收集的传感器数据来检测、识别、分类和/或跟踪物体。在一些示例中,感知引擎可以包括被配置为确定静止车辆是阻塞车辆的概率的ML模型(下文中称为“BV模型”,尽管ML模型的一般讨论同样适用于BV模型)。规划器可以包括用于路线规划、轨迹规划、评估决策等的一个或多个ML模型、算法等。规划器可以被配置为由从自动驾驶车辆的其他部件接收的数据、从其他车辆和/或网络连接、全球和/或本地地图部件等接收的数据,生成用于控制自动驾驶车辆的运动的轨迹,所述自动驾驶车辆的其他部件例如是感知引擎、传感器(一个或多个)。
本文所讨论的技术通过相对于先前解决方案(例如,使用条件规则)提高检测的准确性来改善自动驾驶车辆的操作。实际上,该技术导致防止自动驾驶车辆不必要地停留在阻塞的车辆后面,因此减少车辆的功率消耗和浪费的计算周期。当静止车辆是非阻塞静止车辆时,该技术还可以防止自动驾驶车辆不必要地改变车道或改变路线。这可以类似地减少车辆的功率消耗和浪费的计算周期。这些技术还可以通过更准确地感知情况来提高自动驾驶车辆操作对自动驾驶乘客和/或环境实体的安全性。例如,这些技术可以防止自动驾驶车辆:改变车道,而只是不得不返回到由自动驾驶车辆先前未察觉的一排汽车占据的原始车道(例如,可能会增加碰撞危险);遭遇非阻塞静止车辆已为之暂停的物体;预计非阻塞静止车辆的门(一个或多个)可能会打开且避免撞到门等。
如本文中所使用的,阻塞车辆是在可行驶表面上的静止车辆,其在一定程度上妨碍其他车辆前进。并非所有可行驶表面上的静止车辆都在阻塞车辆。例如,非阻塞静止车辆可以是在可行驶的路面上由于发出红灯信号的交通灯、让行另一辆车辆和/或等待另一辆车辆前进而暂停前进的车辆。与此相反,阻塞车辆可以是并排停放的车辆、停放以进行运送的运送卡车、驾驶员不在的车辆、停下的警车、丧失功能的车辆等。非阻塞静止车辆与阻塞车辆之间的差异可能是模棱两可且难以确定,因为在大多数情况下,该差异可能只是静止车辆停止的时间长度问题。然而,静止车辆和阻塞车辆之间的主要差异在于,除非阻塞车辆存在,否则车辆的前进将是可能和/或被允许的。在一些示例中,阻塞车辆可以被分类为不遵守公认道路规则(诸如沿车道行进)的静止车辆。本文中讨论的技术通过防止自动驾驶车辆在不可维持的时间段内停止在阻塞车辆后方而改善自动驾驶车辆的操作。
示例场景
图1A是示例场景100的示意性鸟瞰图,其示出可以对其应用本文所讨论的技术的许多实例中的一个实例。在示例场景中,自动驾驶车辆102接近包括交通信号灯106的道路交叉口104。在一些示例中,自动驾驶车辆102可以是被配置为根据美国国家公路交通安全管理局发布的5级分类进行操作的自动驾驶车辆,所述5级分类描述了一种能够在整个行程中执行所有对安全至关重要的功能的车辆,而驾驶员(或乘员)在任何时候都不被期待控制该车辆。然而,在其他示例中,自动驾驶车辆102可以是具有现在存在或将来发展的任何其他级别或类别的完全或部分自动驾驶车辆。此外,在一些示例中,本文描述的用于确定阻塞车辆的技术也可以由非自动驾驶车辆使用。
自动驾驶车辆102可以从自动驾驶车辆102的一个或多个传感器接收传感器数据。自动驾驶车辆102可以使用该传感器数据来确定用于控制自动驾驶车辆的运动的轨迹。在一些示例中,除其他硬件和软件模块之外,自动驾驶车辆102还可以包括从传感器接收数据的规划器和/或感知引擎。例如,该数据可以包括:由全球定位系统(GPS)传感器确定的自动驾驶车辆102的位置,与自动驾驶车辆102附近的物体有关的数据,指定车辆的目的地的路线数据,识别道路特征的全球地图数据(例如,可用于定位自动驾驶车辆的不同传感器模式中可检测的特征),标识在车辆的附近检测的特征的本地地图数据(例如,建筑物,树木,围栏的位置和/或尺寸,消火栓,停车标志,以及在各种传感器模式中可检测的任何其他特征),等等。规划器可以使用此数据生成用于控制车辆运动的轨迹。在一些示例中,自动驾驶车辆102可以包括感知引擎,该感知引擎从车辆102的一个或多个传感器接收传感器数据,从传感器数据确定感知数据,并将感知数据传输到规划器以供规划器用来定位。在全球地图上确定自动驾驶车辆102的位置,确定一个或多个轨迹,并控制自动驾驶车辆102的运动以遍历路径或路线。例如,规划器可以确定自动驾驶车辆102从第一位置到第二位置的路线,生成用于控制自动驾驶车辆102在时间窗(例如,1微秒,半秒)内的运动以控制车辆遍历路线的潜在轨迹,并选择潜在轨迹之一作为自动驾驶车辆102的轨迹,所述轨迹可用于生成可被传输到自动驾驶车辆102的驱动部件的驱动控制信号。
感知引擎可以包括一个或多个ML模型和/或其他计算机可执行指令,以用于由从自动驾驶车辆102的环境中收集的传感器数据来检测、识别、分割、分类和/或跟踪物体。例如,感知引擎可以检测环境中的物体并将所述物体分类(例如,乘用车,半卡车,皮卡车,人,儿童,狗,球)。感知引擎还可以确定物体的行迹(例如,物体的历史、当前和/或预测的前进方向、位置、速率和/或加速度)。
感知引擎可以至少部分地基于从自动驾驶车辆的一个或多个传感器接收的传感器数据来确定车辆是静止车辆。在一些示例中,感知引擎可以接收传感器数据,并且至少部分地基于传感器数据来检测自动驾驶车辆102的环境中的物体,将该物体分类为某种类型的车辆,并且确定传感器数据指示被检测的车辆的速率不超过预设阈值速率(例如,感测到的车辆的速率不大于或等于0.1米每秒或0.05米每秒)。如本文所用,车辆可以是例如但不限于物理运输工具,例如乘用车、运送卡车、自行车、用于运输物体的无人机等。在一些示例中,感知引擎可以基于确定静止车辆的速率不满足(例如,符合,超过)预设阈值速率和/或另一条件被满足而将被检测的车辆分类为静止车辆,所述另一条件比如是持续时间、交通信号灯状态、与路口的感测距离满足预设阈值距离等。例如,感知引擎可以至少部分地基于接收到的传感器数据将被检测的车辆分类为静止车辆,该传感器数据被确定为指示被检测的车辆行驶的速度低于预设阈值速率(例如,车辆停止),并且车辆行驶的速度低于预设阈值速率一段预设的时间(例如,车辆停止20秒),而交通信号灯则指示绿灯和/或与路口100米的距离。
返回图1A中的示例场景,自动驾驶车辆102可以接近包括交通信号灯106的路口104,并且可能遇到被分类为静止车辆(例如,车辆108)的物体,该物体在图中也用问号指示。出现的技术困难是,当感知引擎没有足够的信息来知道静止车辆是否只是暂停(即,非阻塞静止车辆),自身是否被另一物体和/或法律约束(例如,停车灯)阻碍,或者静止车辆是否实际上是阻塞车辆。如本文所使用的,阻塞车辆是在可行驶路面上以小于预设阈值速度的速率停止或运动的车辆,该预设阈值速率妨碍其他车辆的前进。例如,阻塞车辆可能是并排停放的车辆、从中卸下货物的运送卡车、驾驶员不在或驾驶员正在等待接载乘客的车辆、停止的警车、丧失功能的车辆(例如,具有故障驱动系统的车辆,爆胎的车辆,发生车祸的车辆,乘员已离开车辆的车辆)、或抄表巡逻车辆。如本文所使用的,“可行驶路面”可以包括与关联于规范驾驶条件相关联的道路相关联的那些部分,这与诸如路肩、停放车道和/或自行车车道之类的不可行驶路面相反。
阻塞车辆与非阻塞静止车辆的不同之处在于,当任何其他车辆无论如何(或按照普遍接受的驾驶规则)都无法前进时,非阻塞静止车辆将停止,因此,非阻塞静止车辆本身并不妨碍其他车辆(例如,交通信号灯为红色,物体已进入道路,静止车辆前方有另一辆车辆)。如本文所述,阻塞车辆可以与非阻塞静止车辆不同,因为阻塞车辆妨碍由自动驾驶车辆102确定的轨迹(例如,阻塞车辆占据与自动驾驶车辆102相同的车道的至少一部分,和/或与自动驾驶车辆102的路径和/或轨迹重合)。
在不解决被检测的车辆是非阻塞静止车辆还是被检测的车辆是阻塞车辆的歧义的情况下,感知引擎可能无法向规划器提供足够的数据,以使规划器生成适于给定场景地控制自动驾驶车辆102的运动的轨迹。
图1B示出图1A的相同示例场景100的鸟瞰图,并且反映示例场景100的进一步复杂化。特别地,图1B反映经由传感器数据可用于自动驾驶车辆102的场景的有限且不完美的视图。未来的传感器和感知进步可能会增加传感器数据中反映的场景的一部分,但是至少在某些时候仍然很可能不会向自动驾驶车辆102通知在场景中或对场景有影响的状态、物体等的100%。因此,图1B示出场景100的示例部分,其由自动驾驶车辆102的规划器接收的传感器数据反映。例如,从自动驾驶车辆102的传感器接收的全球地图数据和GPS位置可能指示路口104位于自动驾驶车辆102前方100米处;传感器数据可以指示交通灯106是绿色的,并且与全球地图数据激光雷达数据和/或摄像机数据(尽管可以考虑任何其他传感器形式)配合使用,感知引擎可以证实自动驾驶车辆102在基于绿灯被授权进入路口104的车道中;自动驾驶车辆102可以接收传感器数据,自动驾驶车辆从该传感器数据确定车辆108以及车辆110和112是静止车辆。
由于传感器(一个或多个)的限制,自动驾驶车辆102可能不接收传感器数据来检测车辆114-122的存在。例如,车辆114-122可能在传感器的视野之外,超出传感器的可靠操作距离或被遮挡。在一些示例中,感知引擎可以包括条件规则,该条件规则指定针对其输出阻塞车辆指示的条件。在一些示例中,条件规则可以由程序员或管理员预先硬编码。例如,硬编码规则可以在下述情况下指定感知引擎输出阻塞车辆指示:被检测的车辆已被分类为静止车辆;检测到绿灯且绿灯在预设时间段内保持绿色,静止车辆在预设时间段期间未移动;且静止车辆到路口104超过15米。
但是,这样的硬编码规则可能无法正确解决许多潜在的场景。例如,上面给出的示例性硬编码规则可能适用于静止车辆108丧失功能并因此是阻塞车辆108的示例。然而,如图1A所示,实际上在静止车辆108的前面可能有长排的汽车,这可能是自动驾驶车辆102无法检测的。因此,例如,向规划器提供阻塞车辆指示,例如场景100可能会产生自动驾驶车辆102的错误或麻烦的操作。例如,规划器可以发起车道改变,假设自动驾驶车辆102能够在经过由感知引擎指示为阻塞车辆的静止车辆108之后返回相同的车道。由于在静止车辆前方存在长排的汽车,因此自动驾驶车辆102可能无法返回到原始车道。因此,在这种情况下将静止车辆108分类为阻塞车辆将是错误肯定。错误否定可能类似地干扰自动驾驶车辆102的操作。硬编码规则因此可能生成不可接受的错误肯定和/或错误否定的比率。
此外,向一组硬编码规则引入新特征(例如,检查感知引擎是否检测到静止车辆的危险警告灯正在闪烁)将是费时的并且需要人工编码和/或重新配置感知引擎。这是不被期望的,因为这种重新配置可能需要停止自动驾驶车辆102的操作和/或等待人重新配置以完成,这可能需要开发和测试感知引擎的新的重新配置的多次迭代。
在一些示例中,本文所讨论的技术可以代之以通过不限于此的ML模型概率地确定静止车辆是否为阻塞车辆。本文结合BV ML模型描述该方法。
示例过程
图2示出示例过程200的图形流程图,该示例过程200用于在自动驾驶车辆处确定静止车辆是否是阻塞车辆以便控制自动驾驶车辆。在操作202处,示例过程200可以包括从自动驾驶车辆204的传感器(一个或多个)接收传感器数据。在一些示例中,可以附加地或替代地从远程传感器(一个或多个)接收传感器数据,远程传感器诸如是另一车辆的传感器(一个或多个),远程计算装置的传感器(例如,远程操作服务、气象站、交通控制服务、紧急服务)和/或位于基础架构中的传感器(一个或多个)(例如,位于在灯柱、建筑物上的传感器(一个或多个))。
在操作206处,示例过程200可以包括从传感器数据检测静止车辆208。这可以包括检测物体、将该物体分类为车辆、以及确定车辆的速率(或速度)小于阈值速率(或速度)。在一些示例中,阈值可以是预设阈值(例如,车辆停止或以小于0.05米每秒的速度移动),而在其他示例中,阈值可以是相对的(例如,车辆以小于20%的平均交通速率移动)。在一些示例中,操作206可以附加地或可替代地包括确定从传感器数据确定的其他特征满足一个或多个条件,诸如车辆满足与路口的距离、车辆是特定类型(例如,自行车,乘用车)、亮的交通信号灯为绿色等。
操作206可以包括检测自动驾驶车辆204的传感器的“视野”内的所有静止车辆(即,那些在一个或多个传感器的视场内的车辆)。在附加或替代示例中,操作206可以包括在预设阈值距离内检测静止车辆。例如,自动驾驶车辆204可以检测50米内的静止车辆。通过限制自动驾驶车辆204检测静止车辆的范围,自动驾驶车辆204节省处理和存储资源。另外,通过不仅检测静止车辆是否与自动驾驶车辆204位于同一车道中,自动驾驶车辆204的规划器能够做出更复杂的决定,所述决定有关于产生和/或选择控制自动驾驶车辆204的轨迹。
在操作208处,示例过程200可以包括至少部分地基于传感器数据来确定特征值210。在一些示例中,特征值210可以对应于由阻塞车辆(BV)ML模型指定的特征。BV ML模型可以被配置为基于由自动驾驶车辆204的感知引擎所确定的特征值210来确定静止车辆208是否为阻塞车辆的概率。在一些示例中,自动驾驶车辆204可以尝试对于可能特征的至少子集进行确定特征值210,BV ML模型被配置用于所述可能特征。例如,下表示出由感知引擎确定的特征值210的示例,该特征值210对应于这样的特征,BV ML依赖于这样的特征来确定静止车辆208是阻塞车辆的概率。在给定的示例中,某些特征值210不由感知引擎确定、或者是不适用的、或者不能从传感器数据中获得(即,“被另一物体阻塞”,“其他物体行为”)。关于图3A-3F讨论了这些特征中的一些以及其他。
特征 特征值
与路口的距离 14.3米
刹车灯开启 0
SV速度 .001m/s
交通流正态性 .87
被另一物体阻塞 -
车辆附近的人 0
其他物体行为 -
代理类型 “乘用车”
尽管上面列出了数个示例特征(并且相对于图3A-3F),但是特征的数量和类型并不限于此。例如,可以考虑任何数量的特征,例如,物体边界框大小、物体颜色、物体高度、物体大小、物体宽度、物体速率(即,速度和/或方向)、物体偏航(例如,相对于车辆的方位)、车道标识(例如,左,中,右)、GPS位置、与静止车辆相关联的检测到的徽标和/或文本等。任何特征都可以用简单的布尔值(即,特征是否存在)、实数(例如,检测到的速度)、文本(例如,分类)、或其他任何数据表示形式来表示。
在一些示例中,由感知引擎确定的特征值210可以包括:静止车辆208的速度;交通信号状态(例如,交通信号灯状态,交通标志的存在);交通流数据;静止车辆数据与交通流数据的关系(例如,静止车辆数据是否在交通流数据的正态分布内);静止车辆208被另一物体阻塞的概率(例如,基于检测传感器数据中的残差,所述残差可以指示静止物体前方的物体的存在);遮挡物体存在的概率,所述概率可以由传感器残差指示(例如,噪声雷达传感器数据,其可以指示静止车辆208前方的物体);在静止车辆208附近检测到的人以及相关数据(例如,人与静止车辆的接近程度,该人是否离开并返回静止车辆208);其他物体的行为(例如,绕过静止车辆208的其他车辆,不绕过静止车辆208的其他车辆);静止车辆208(例如,警车,乘用车,运送卡车)和/或环境中其他物体的分类标签(类型);门打开/关闭情况(例如,静止车辆208的后门或某个孔被打开/关闭);等等。
在操作212处,示例过程200可以包括使用BV ML模型214并根据特征值确定静止车辆208是阻塞车辆的概率。例如,可以将特征值210输入到BV ML模型214中,并且BV ML模型214可以响应于并根据BV ML模型214的配置,输出静止车辆208是阻塞车辆的概率。在一些示例中,BV ML模型214可以包括决策树或其任何布置,例如随机森林和/或决策树的增强集成;有向无环图(DAG)(例如,其中的节点被组织为贝叶斯网络);深度学习算法(一种或多种),诸如,人工神经网络(ANN),深度置信网络(DBN),深度堆叠网络(DSN),或递归神经网络(RNN);等等。在一些示例中,BV ML模型214可以包括梯度增强的决策树。
例如,在BV ML模型214包括决策树的情况下,决策树可以输出正数或负数以分别指示静止车辆208是阻塞车辆或不是阻塞车辆。在一些示例中,BV ML模型214可以包括可以被加权的多个决策树。例如,一个决策树可以被加权以输出-1.63或+1.63,第二个决策树可以被加权以输出-0.76或+0.76。一旦所有决策树都输出数字,感知引擎就可以对它们的输出求和以确定静止车辆208是阻塞车辆的总和概率。
在BV ML模型214包括神经网络的情况下,BV ML模型214可以包括节点的输入层、节点的一个或多个隐藏层以及节点的输出层。在一些示例中,节点的输入层可以被配置为接收一个或多个特征值并激活一个或多个隐藏层的节点。输出层可以被配置为从一个或多个隐藏层的节点接收刺激,并且基于输出层的最被激活的节点来输出指示。在一些示例中,输出层可以包括两个节点(静止车辆是阻塞车辆的肯定指示、和否定指示),和/或输出层提供静止车辆是阻塞车辆的强置信度和静止车辆不是阻塞车辆的强置信度之间的输出。在一些示例中,决策树可以是分类树,在分类树中输出包括被检测的车辆是否是阻塞车辆。
在一些示例中,可以从标记的特征数据中生成(学习)BV ML模型214。例如,BV ML模型214可以包括深度学习模型,其基于与标签相关联的输入样本特征值来学习输出静止车辆208是阻塞车辆的概率,该标签指示该样本特征值是否来自静止车辆208是阻塞车辆的场景(即,地面实况标签)。图2将BV ML 214示出为决策树,其中阴影节点是输入特征值到达的节点。所示的决策树可以输出静止车辆208是阻塞车辆等于0.623的加权概率。在一些示例中,正值可以指示静止车辆208是阻塞车辆,而负值可以指示静止车辆208不是阻塞车辆,但是可以考虑任何符号值(例如,相反)。
在操作216处,示例过程200可以包括将感知引擎确定的概率传输到规划器,该规划器确定用于控制自动驾驶车辆的轨迹,如在218和220处描绘的。规划器可以使用指示静止车辆208是阻塞车辆的概率,以生成用于控制自动驾驶车辆204的轨迹。例如,图2示出规划器可以在替代场景中确定的两个示例轨迹。
在示例场景218中,感知引擎可能已经输出静止车辆208是阻塞车辆的指示。响应于接收到该指示,自动驾驶车辆204的规划器可以生成轨迹222,轨迹222使自动驾驶车辆204并入到另一个车道中。在一些示例中,感知引擎可以向规划器附加地提供阻塞车辆的分类(例如,警车,抄表车辆,运送车辆)。在一些示例中,分类可以是语义标签。该语义标签可以被包括为特征值之一。
在示例场景220中,感知引擎可能已经输出静止车辆208不是阻塞车辆(即,静止车辆208是非阻塞静止车辆)的指示。响应于接收到该指示,自动驾驶车辆204的规划器可以生成轨迹224,轨迹224使自动驾驶车辆204在相同车道中慢慢向前。
在一些示例中,感知引擎和/或规划器可以确定将信号传输到远程计算装置以接收远程协助。例如,自动驾驶车辆204可以将信号传输到远程计算装置,该远程计算装置可以具有更大的计算能力,使得远程计算装置可以确定概率或者供人类远程操作员输入静止车辆208是或者不是阻塞车辆的指示。如果该概率不满足阈值负概率或正概率,则规划器可以将信号传输到远程计算装置,这可以指示静止车辆208是或者不是阻塞车辆的低置信度(例如,阈值可以是0.25,以限定概率可能太低而无法依赖它来生成轨迹)。在一些示例中,自动驾驶车辆204还可以将传感器数据和/或特征值传输到远程计算装置。
示例特征
图3A-3F描绘各种特征,BV ML模型可以被配置成用于生成静止车辆是或者不是阻塞车辆的概率。下面讨论的特征值可以由感知引擎从传感器数据确定。而且,下面讨论的操作可以作为图2的操作212的一部分来实现。
图3A描绘示例场景300,其中自动驾驶车辆302接近静止车辆304和包括交通信号308(在该示例中为交通信号灯)的路口306。自动驾驶车辆302可以对应于自动驾驶车辆204及其相关的讨论。根据本文讨论的任何技术,自动驾驶车辆302可以通过感知引擎检测到车辆304是静止车辆。响应于被检测的车辆304是静止车辆,自动驾驶车辆302可以通过感知引擎从传感器数据确定特征值。例如,自动驾驶车辆302可以确定:静止车辆304的灯的状况(例如,危险警告灯开/关,刹车灯开/关),如在310处所示;静止车辆304(和/或自动驾驶车辆)与路口306的距离312和/或从静止车辆304到静止车辆前方的下一车辆的距离(例如,可以在道路拐弯的情况下确定的,可以获得传感器残差的情况下,该传感器残差可以指示在静止车辆304前方车辆的存在(例如,雷达反射)等);和/或交通信号308的状态,在某些示例中,可以包括交通信号灯和/或交通标志的存在或缺失(例如,绿灯,黄灯,红灯,停车标志的存在,让路标志的存在,没有检测到的标志,没有检测到的停车标志)。在一些示例中,自动驾驶车辆302可以确定静止车辆304的高度和/或尺寸。在一些情况下,可以通过BV ML模型找到自动驾驶车辆的高度,以指示静止车辆304是阻塞车辆的可能性(例如,半卡车和运送卡车倾向于更高并且倾向于以阻碍道路的一部分的方式停下来更长的时间)。
在一些示例中,感知引擎可以附加地或替代地将与静止车辆304相关联的徽标和/或文本确定为特征值之一。例如,规划器的机器学习算法可以确定静止车辆304与披萨运送标志(例如,在车辆顶部上)、出租车服务标志、文本和/或徽标(例如,UPS文本和/或徽标,Uber文本和/或徽标)相关联。在一些示例中,文本和/或徽标可以被分类或用于增强静止车辆304(例如,运送车辆,公共运输车辆)的类型的分类的置信度。
在一些示例中,感知引擎可以附加地或替代地从传感器数据确定交通流数据。交通流数据可以包括用于由感知引擎被检测的、被分类为车辆的附加物体的数据(即,车辆314、316和318)。该数据可以包括车辆的速率320,车辆与下一和/或先前的车辆之间的距离322,等等。
例如,图3B示出交通流数据的示例分布324。在一些示例中,这样的分布可以反映与其他物体有关的各种检测到的特征值的频率(例如,作为分布直方图)。这可以包括由感知引擎确定的其他车辆的速率分布。示例分布324示出感知引擎已经确定大多数被检测的车辆正在以大约55公里每小时和110公里每小时之间的速率移动。尽管在图3B中描绘速率并在此讨论,但是应当理解,对于每辆车辆而言唯一的任何其他特征值也可以在分布中表示。例如,车辆之间的距离、门的开/关、近人车辆、交通信号灯指示等对于每辆车辆(或车辆的车道)可能是唯一的,而某些交通信号灯指示等可能不是唯一的。为了清楚起见,当提及其他车辆的特征值的频率分布时,这些特征值在本文中被称为“交通流数据”。
感知引擎可以使用与被检测的车辆相关联的交通流数据的频率分布来输出特征值,该特征值包括以下至少之一:与静止车辆304相关联的交通流数据的百分位数;分布特性(例如,分布是否包括长尾部;是否通过将分布中反映的交通流数据减少到特定车道(一个或多个)的车辆,长尾被消除;分布的宽度,分布的高度);与静止车辆304相关联的交通流数据是否位于尾部内;等等。例如,图3B描绘阈值326和328,其可以指示四分位数位置和/或百分位数(例如,分别为第5个百分数和第95个百分位数)。感知引擎可以使用这些阈值326和/或328来指示与静止车辆304相关联的速率和/或另一个特征值是在(其他被观察的车辆的特征值的)分布的主体之内,还是在由阈值326和/或328限定的尾部中。例如,感知引擎可以确定与静止车辆304相关联的速率和/或另一个特征值是在高斯分布的平均值的两个标准偏差之内还是之外。无论使用哪种方法,如果感知引擎确定速率和/或其他特征值在正常范围之外(如上所述),则感知引擎可以确定静止车辆的速率和/或其他特征值304是异常的。
应当理解,感知引擎可以另外使用交通流数据来将静止车辆304的相应数据识别为异常的。注意,尽管静止车辆304更有可能掉入更低的尾部中,但是在一些示例中,更高的尾部可以用于其他目的,诸如识别不稳定的车辆。
在一些示例中,感知数据可以生成与静止车辆具有相同类型或一般分类的车辆的交通流数据。例如,在静止车辆304已被分类为自行车的情况下,感知引擎可以生成感知引擎已经检测到的其他自行车的交通流数据。在另一示例中,在静止车辆304已经被分类为乘用车的情况下,感知引擎可以生成用于被分类为车辆、乘用车和/或机动车辆的物体的交通流数据。
图3C描绘了感知引擎可以为其确定特征值的附加或替代特征330。自动驾驶车辆302的感知引擎可以生成指示其他物体相对于静止车辆304的行为的特征值。例如,感知引擎可以存储诸如车辆332的另一车辆的行迹334,并且可以输出所述行迹作为特征值。
在附加或替代示例中,感知引擎可以输出将行迹分类为特征值的指示。例如,该指示可以包括车辆332正在改变车道、保持静止等的指示。与交通流数据一样,感知引擎可以转达其他物体重复行为的频率。在一些示例中,该频率可以被限制针对与自动驾驶车辆302相同的车道中的物体,或者可以对于表现出源自自动驾驶车辆302的车道的行为的物体被更重地加权。例如,车辆336和338可能是停放的车辆。由于车辆336和338在不同的车道中,因此将对其他车辆表现出的行为的频率的确定约束到自动驾驶车辆302的相同车道上可以提高规划器响应于接收到的确定频率而生成的轨迹的准确性。例如,如果确定不限于自动驾驶车辆302的相同车道,则特征值可以指示2辆车辆(表现出的车辆行为的66%)保持静止并且1辆车辆(表现出的车辆行为的33%)已经通过了静止车辆。然而,通过将确定约束到在自动驾驶车辆302的相同车道中的行为频率,该特征值可以指示1辆车辆(表现出的车辆行为的100%)已经通过了静止车辆。
在附加或替代示例中,自动驾驶车辆302可以检测在自动驾驶车辆302的传感器的范围内或在自动驾驶车辆302的预设阈值距离内(例如,50米,100米)的所有静止车辆(即,不仅是被约束在同一车道上的那些车辆)。在这样的示例中,关于在其他车道中的静止车辆的信息可以用于规划其他车辆如何反应(例如,规划进入自动驾驶车的车道并且在并排停放的车辆周围的路线)。特征值可以反映与这些其他被检测的静止车辆相关联的位置和/或其他特征值。
图3D描绘附加或替代特征340。图3D的阴影部分指示环境区域342,环境区域342被自动驾驶车辆302的传感器中的至少之一遮挡(例如,被静止车辆304的表面遮挡)。自动驾驶车辆302的感知引擎可以生成特征值,该特征值指示在静止车辆304的前方或以其他方式在遮挡区域342中存在遮挡物体344的概率。
在一些示例中,感知引擎可以确定传感器数据包括可以指示遮挡物体344存在的残差。例如,该残差可以包括图像/视频的一部分,该部分指示存在遮挡物体但是无法分类的、声纳(SONAR)和/或雷达(RADAR)异常等。以雷达为例,感知引擎可以基于下述内容确定遮挡物体344存在的概率:确定可归因于车辆/或其他被识别的环境物体(例如,道路)的雷达数据的一部分,且确定雷达数据的残差可以指示遮挡物体344的存在。例如,RADAR数据可以包括的反射噪声地指示物体的存在,所述物体与自动驾驶车辆302的距离超过从自动驾驶车辆302到静止车辆304的距离。这些噪声反射可能在某些情况下从静止车辆304的底盘下方和/或经由附近的物体(例如,壁)从遮挡物体折射到自动驾驶车辆的雷达传感器。
在一些示例中,特征值可以包括从静止车辆304到物体344的距离。这可以包括从直接传感器“视野”被遮挡的物体344的示例、或者物体344至少部分地在传感器的“视野”内的示例。
图3E描绘附加或替代特征346,感知引擎可以为附加或替代特征346确定特征值。自动驾驶车辆302的感知引擎可以生成指示在静止车辆304附近存在人348的特征值。在一些示例中,该特征值可以指示:在人346和静止车辆304之间的距离,人348是否离开并返回到静止车辆304,静止车辆304附近的许多人,和/或静止车辆304的门或其他孔是否打开。在一些示例中,特征值可以附加地或替代地指示静止车辆304的偏航350。可以相对于自动驾驶车辆302的姿态和/或相对于车道的方向来确定偏航。图3E描绘这样的示例,其中,由于在所描绘的示例中航向和车道平行,因此相对于自动驾驶车辆302的航向和车道确定偏航350。
图3F描绘附加或替代特征352,感知引擎可以为附加或替代特征352确定特征值。自动驾驶车辆302的感知引擎可以生成特征值,该特征值指示检测到的物体的分类(例如,运送卡车,锥体,标志,火炬)和/或描述一组分类的元分类(例如,运送,建筑区域,丧失能力的车辆)。
总之,感知引擎可以确定一个或多个特征值(例如,从静止车辆到路口的15米;“运送卡车”;绿灯;交通流数据,其包括其他被检测的车辆的速率、和/或与所有其他车辆、同一车道的车辆或被检测的车辆的另一子集相比静止车辆的速率是否异常的指示),所述一个或多个特征值对应于特征(一个或多个),BV ML模型已针对所述特征进行训练。BV ML模型可以通过BV ML模型的节点推送这些以及任何其他特征值,以确定静止车辆是阻塞车辆的概率。
示例架构
图4是根据本文讨论的任何技术的示例架构400的框图,该示例架构包括用于控制至少一辆车辆(诸如自动驾驶车辆)的操作的示例车辆系统402。在一些示例中,车辆系统402可以表示自动驾驶车辆204和/或302的至少一部分。在一些示例中,该架构可以用于控制遇到静止车辆的自动驾驶车辆。
在一些示例中,车辆系统402可以包括处理器(一个或多个)404和/或存储器406。这些元件在图4中以组合方式示出,但是可以理解的是,在某些示例中,这些元件可以是车辆系统402的单独元件,并且该系统的部件可以被实施为硬件和/或软件。
处理器(一个或多个)404可以包括单处理器系统或多处理器系统,所述单处理器系统包括一个处理器,或所述多处理器系统包括多个处理器(例如,两个,四个,八个或另一个合适数量)。处理器(一个或多个)404可以是能够执行指令的任何合适的处理器。例如,在各种实施方式中,处理器可以是实施诸如x86、PowerPC、SPARC或MIPS ISA之类的各种指令集的架构(ISA)或任何其他合适ISA的通用或嵌入式处理器。在多处理器系统中,每个处理器404可以共同但不一定实施相同的ISA。在一些示例中,处理器(一个或多个)404可以包括中央处理单元(CPU)、图形处理单元(GPU)、现场可编程门阵列(FPGA)、专用集成电路(ASIC)或其组合。
示例车辆系统402可以包括存储器406。在一些示例中,存储器406可以包括被配置为存储可执行指令/模块、数据和/或处理器(一个或多个)404可访问的数据项的非瞬态计算机可读介质。在各种实施方式中,可以使用任何合适的存储技术来实施非瞬态计算机可读介质,诸如静态随机存取存储器(SRAM)、同步动态RAM(SDRAM)、非易失性/闪存类型的存储器、或任何其他类型的存储器。在所示的示例中,示出实施例如上述那些的期望操作的程序指令和数据被显示为存储在非瞬态计算机可读存储器内。在其他实施方式中,程序指令和/或数据可以在不同类型的计算机可访问介质(例如,非瞬态计算机可读介质)上或在与非瞬态计算机可读介质分开的类似介质上接收、发送或存储。一般而言,非瞬态计算机可读存储器可以包括存储介质或存储器介质,诸如经由输入/输出(“I/O”)接口408耦合到示例车辆系统402的闪存(例如,固态存储器)、磁性或光学介质(例如,磁盘)。可以经由非瞬态计算机可读介质存储的程序指令和数据可以通过传输介质或诸如电、电磁或数字信号之类的信号来传输,这些信号可以经由诸如网络和/或无线链路之类的通信介质来传输,诸如可以经由网络接口410来实施。
此外,尽管在图4中被示为单个单元,应当理解,处理器(一个或多个)404和存储器406可以分布在车辆的多个计算装置之间和/或多个车辆、数据中心、远程操作中心等之间。
在一些示例中,输入/输出(“I/O”)接口408可以被配置为协调处理器(一个或多个)404、存储器406、网络接口410、传感器(一个或多个)412、I/O装置414、驱动系统416、和/或车辆系统402的任何其他硬件之间的I/O通信量。在一些示例中,I/O装置414可以包括外部和/或内部扬声器(一个或多个)、显示器(一个或多个)、乘员输入装置(一个或多个)等。在一些示例中,I/O接口408可以执行协议、时机或其他数据转换,以将来自一个部件(例如,非瞬态计算机可读介质)的数据信号转换成适用于另一部件(例如,处理器(一个或多个))的格式。在一些示例中,I/O接口408可以包括对通过各种类型的外围总线(例如,外围部件互连(PCI)总线标准、通用串行总线(USB)标准或其变体)连接的装置的支持。例如,在一些实施方式中,I/O接口408的功能可以被分成两个或更多个单独的部件,例如,北桥和南桥。而且,在一些示例中,I/O接口408的一些或全部功能性,例如到存储器406的接口,可以直接合并到处理器(一个或多个)404和/或车辆系统402的一个或多个其他部件中。
示例车辆系统402可以包括网络接口410,该网络接口410被配置为在车辆系统402和一个或多个其他装置之间建立通信链路(即“网络”)。例如,网络接口410可以被配置为允许数据经由第一网络420在车辆系统402和另一车辆418(例如,车辆(一个或多个)104(2)和(3))之间交换,和/或经由第二网络424在车辆系统402和远程计算系统422之间交换。例如,网络接口410可以启用另一车辆418和/或远程计算装置422之间的无线通信。在各种实施方式中,网络接口410可经由诸如Wi-Fi网络和/或诸如蜂窝通信网络、卫星网络等等的无线通用数据网络来支持通信。
在一些示例中,本文讨论的传感器数据可以在第一车辆处被接收并且被传输到第二车辆。在一些示例中,从不同车辆接收的传感器数据可以被合并到由感知引擎确定的特征值中。例如,从第一车辆接收的传感器数据可以用于填充第二车辆不可获得的特征值和/或加权由第二车辆从在第二车辆处接收的传感器数据确定的特征值。
示例车辆系统402可以包括传感器(一个或多个)412,例如,其被配置为将车辆系统402定位在环境中,以检测环境中的一个或多个物体,以感测示例车辆系统402穿过其环境的移动、感测环境数据(例如,环境温度,压力和湿度)、和/或感测示例车辆系统402内部的条件(例如,乘客人数,内部温度,噪声水平)。传感器412(一个或多个)可以包括例如一个或多个激光雷达传感器、一个或多个摄像机(例如RGB摄像机,强度(灰度)摄像机,红外摄像机,深度摄像机,立体摄像机)、一个或多个磁力计、一个或多个雷达传感器、一个或多个声纳传感器、用于感测声音的一个或多个麦克风、一个或多个IMU传感器(例如,包括加速度计和陀螺仪)、一个或多个GPS传感器、一个或多个盖革(Geiger)计数传感器,一个或多个轮编码器、一个或多个驱动系统传感器、速度传感器、和/或其他与示例车辆系统402的操作有关的传感器。
示例车辆系统402可以包括感知引擎426、BV ML模型428和规划器430。
感知引擎426可以包括存储在存储器406上的指令,该指令在由处理器404执行时配置处理器(一个或多个)404,以从传感器(一个或多个)412接收传感器数据作为输入,并输出数据,所述数据表示例如示例车辆系统402周围环境中的物体的一个或多个姿态(例如,位置和方位)、与该物体关联的物体行迹(例如,物体在一段时间(例如5秒)内的历史位置、速率、加速度和/或前进方向,和/或与物体相关联的物体分类(例如,行人,车辆,骑自行车的人等)。在一些示例中,感知引擎426可以被配置为预测多于一个或多个物体的物体轨迹。例如,感知引擎426可以被配置为基于例如与物体相关联的预测位置、轨迹和/或速率的概率确定或多模态分布,预测多个物体轨迹。
感知引擎426可以包括存储在存储器406上的指令,该指令在由处理器404执行时配置处理器404,以从传感器(一个或多个)412接收传感器数据作为输入,并输出感知引擎从传感器数据检测到静止车辆且可以输出一个或多个特征值的指示。这些特征值也可以存储在存储器406中。例如,这可以包括指令,该指令配置处理器404以从图像和/或激光雷达点的云确定静止车辆与交通信号灯之间的距离。感知引擎426可以将特征值传输到BV ML模型428。
BV ML模型428可以包括存储在存储器406中的指令,该指令在由处理器404执行时配置处理器(一个或多个)404以接收与车辆系统402所在的环境的元素相关联的特征值,并确定静止车辆是阻塞车辆的概率。BV ML模型428可以包括具有节点的决策树(一个或多个)和/或深度学习算法(一个或多个),可以推动特征值穿过节点以确定和输出。
感知引擎426可以将静止车辆是阻塞车辆的概率连同规划器430可以用来生成轨迹的任何其他附加信息(例如,物体分类,物体行迹,车辆姿态)一起传输到规划器430。在一些示例中,感知引擎426和/或规划器430可以至少部分地基于由感知引擎426确定的概率,附加地或替代地通过网络接口410经由网络424将阻塞车辆指示传输到远程计算装置422,和/或经由网络420将阻塞车辆指示传输到另一车辆418。在一些示例中,如果车辆418在与由车辆系统402的感知引擎426指示的相同位置处遇到静止车辆,则该指示可以被另一车辆418用作特征值。在某些示例中,这可以包括临时修改全球地图以包括阻塞车辆指示,其中该全球地图可以经由网络被车队获得。
在一些示例中,感知引擎和/或BV ML模型428可以位于另一车辆418和/或远程计算装置422处。在一些示例中,位于另一车辆418处的感知引擎和/或远程计算装置422可将确定与感知引擎426协调。例如,另一车辆418和/或远程计算装置422可确定一个或多个特征值和/或概率。在另一车辆418和/或远程计算装置422确定一个或多个特征值的示例中,另一车辆418和/或远程计算装置422可以分别经由网络420和/或424将一个或多个特征值传输到车辆系统402。感知引擎426可以在感知引擎426推动穿过BV ML模型428的特征值中包括从另一车辆418和/或远程计算装置422接收的一个或多个特征值。在BV ML模型428位于另一车辆418和/或远程计算装置422处的一些示例中,另一车辆418和/或远程计算装置422可以分别经由网络420和424从车辆系统402接收一个或多个特征值,并且可以确定静止车辆是阻塞车辆的概率。然后,另一车辆418和/或远程计算装置422可以将该概率传输回车辆系统402的规划器430。
在一些示例中,远程计算装置422可以包括远程操作装置。远程操作装置可以是被配置为响应于传感器数据和/或一个或多个特征值以指示静止车辆是否是阻塞车辆的装置。在附加的或替代的示例中,远程操作装置可以显示与传感器数据和/或所述一个或多个特征值有关的信息,该信息用于从远距离操作员(“远程操作员”)接收证实或识别静止车辆是/不是阻塞车辆的输入。在这样的示例中,远程操作装置可以包括用于从远程操作员接收输入的接口,诸如为静止车辆为阻塞车辆是正确肯定还是错误肯定的指示。在一些示例中,远程操作装置可以响应于自动驾驶车辆和/或其他自动驾驶车辆证实该指示或将该指示识别为错误肯定。
在一些示例中,远程操作员可以将特征值输入到远程计算装置422中,该特征值可以被传输到车辆系统402以供BV ML模型428使用;和/或将特征值输入到位于远程计算装置422处的BV ML模型中。
规划器430可以包括存储在存储器406上的指令,该指令在由处理器(一个或多个)404执行时配置处理器(一个或多个)404,以例如使用表示示例性车辆系统402在其环境中的位置的数据和其他数据(诸如,本地姿态数据)、以及静止车辆是阻塞车辆的概率,来生成表示示例车辆系统402的轨迹的数据。在一些示例中,规划器430可以基本连续地(例如,每1或2毫秒,尽管构想到任何滚动时域时间)生成控制示例车辆系统402的多个潜在轨迹,并选择控制车辆的所述轨迹之一。该选择可以至少部分地基于当前路线、静止车辆是阻塞车辆的概率、当前车辆轨迹、和/或被检测的物体轨迹数据。在选择轨迹时,规划器430可以将轨迹传输至驱动系统416,以根据所选择的轨迹来控制示例车辆系统402。
在一些示例中,感知引擎426、BV ML模型428、和/或规划器430可以还包括专用硬件,比如适合于运行感知引擎的处理器(例如,图形处理器,FPGA)。
示例过程
图5示出根据本文讨论的技术的用于训练BV ML模型的示例过程500的流程图。
在操作502处,根据本文讨论的任何技术,示例过程500可以包括接收样本,该样本包括与标签相关联的传感器数据,该标签指示静止的非阻塞车辆或静止的阻塞车辆。例如,可以接收成千上万的样本,每个样本包括用于离散场景的传感器数据和与传感器数据相关联的标签(例如,阻塞或非阻塞)。
在操作504处,根据本文讨论的任何技术,示例过程500可以包括至少部分地基于样本传感器数据来确定样本的特征值。在一些示例中,从传感器数据确定特征值可以包括:接收特征,针对该特征训练BV ML模型,该特征可以对应于感知引擎可以分类或以其他方式确定的特征(例如,交通信号灯的情况、物体轨迹和/或分类、与路口的距离);且从样本数据确定特征值(例如,对于包括传感器数据的样本,传感器数据包括交通灯为绿色的视频,感知引擎可以生成与绿灯相对应的特征值,例如单词“绿”或象征绿灯的数字值)。可以针对在操作502处接收到的所有样本重复特征值确定。
在操作506处,根据本文讨论的任何技术,示例过程500可以包括生成BV ML模型,该BV ML模型被配置为至少部分地基于与样本相关联的一个或多个特征值和标签来输出静止车辆是阻塞车辆的概率。例如,并且根据生成的BV ML模型的类型(例如,决策树(一个或多个),深度学习模型),训练BV ML模型可以包括生成将输入特征值映射到标签的节点、连接权重、节点层、和/或层类型。由此,所得的BV ML模型可以在运行时从感知引擎接收一组特征值,并输出静止车辆是或者不是阻塞车辆的指示。在一些示例中,指示可以包括规划器可以用来生成用于控制自动驾驶车辆的轨迹的概率(例如,实值的数)。
例如,对于静止车辆是阻塞车辆的较高值的肯定指示,例如等于或超过1的概率,规划器可能会生成使自动驾驶车辆并到不同车道中的轨迹。对于静止车辆为阻塞车辆的较低值的肯定指示,例如小于1的概率,规划器可以确定在重新评估之前保持原位再几秒钟的轨迹,或将远程操作协助的请求传输到远程计算装置。对于静止车辆是阻塞车辆的较高值(大于或等于1)或较低值(小于1)的否定指示,规划器可以确定保持在原位的轨迹。可以构想的是,规划器所采用以采取不同行动的实际值将依据规划器的配置。
图6示出用于检测阻塞车辆的示例过程600的流程图。例如,示例过程600的操作可以由自动驾驶车辆的一个或多个处理器或自动驾驶车辆的其他部件来执行,并且如下所述。
在操作602处,根据本文讨论的任何技术,示例过程600可以包括从至少一个传感器412接收传感器数据604。例如,可以在感知引擎426处接收传感器数据604。
在操作606处,根据本文讨论的任何技术,示例过程600可以包括至少部分地基于传感器数据604检测在自动驾驶车辆的环境中的静止车辆。例如,这可以包括:检测在自动驾驶车辆的环境中的物体的存在,将物体分类为车辆,确定车辆的速度,以及确定车辆的速度不满足预设阈值速度。在附加或替代示例中,这可以包括确定车辆正在阻碍自动驾驶车辆的先前生成的轨迹和/或确定该车辆阻碍也在自动驾驶车辆的环境中的另一车辆。这些操作中的一个或多个可以包括将传感器数据604输入到静止车辆检测器608中,该车辆可以包括感知引擎426或该车辆的其他部件的一种或多种机器学习算法。在一些示例中,可以生成静止车辆指示610(例如,改变寄存器或标志值,将命令传输到感知引擎426的另一部件)。
在操作612处,根据本文讨论的任何技术,示例过程600可以包括确定一个或多个特征值614。例如,确定一个或多个特征值614可以包括(1)检测道路上除静止车辆和自动驾驶车辆以外的一辆或多辆其他车辆,以及(2)确定指示静止车辆的速度和一辆或多辆其他车辆的速度的特征值。在一些示例中,该特征值可以包括与一辆或多辆其他车辆相比静止车辆的速度是否异常的指示,和/或指示静止车辆的速度和一辆或多辆其他车辆的速度的交通数据的分布。在一些示例中,在图6中通常被称为特征值生成器616的感知引擎426的各种部件的集合(例如,执行自然语言处理、物体检测、物体分类、物体跟踪的各种机器学习算法)可以至少部分地基于传感器数据604和/或静止车辆指示610来确定特征值614。
在一些示例中,根据本文讨论的任何技术,操作612可附加地包括提供一个或多个特征值614,作为对ML模型(例如,BV ML模型428)的输入。
在操作618处,根据本文讨论的任何技术,示例过程600可以包括从ML模型接收静止车辆是阻塞车辆或非阻塞车辆的指示620(即,图6中的BV指示620)。例如,指示616可以包括标签(例如,“阻塞车辆”,“非阻塞车辆”)和/或概率。在一些示例中,根据本文讨论的任何技术,感知引擎426可以接收指示620和/或BV ML模型428,或者感知引擎426可以将指示620传输到规划器430。在一些示例中,规划器430可以附加地接收传感器数据604、来自感知引擎426的数据(例如,物体分类,物体行迹)等中的至少之一。
在操作622处,根据本文讨论的任何技术,示例过程600可以包括生成用于控制自动驾驶车辆的运动的轨迹624。例如,规划器430可以至少部分地基于指示616生成候选轨迹,并且选择候选轨迹之一以控制自动驾驶车辆。规划器430可以将所选的轨迹传输到自动驾驶车辆的驱动系统416。
图7示出用于检测阻塞车辆的示例过程700的流程图。例如,示例过程700的操作可以由自动驾驶车辆的一个或多个处理器或自动驾驶车辆的其他部件来进行,并且如下所述,和/或操作可以由诸如另一自动驾驶车辆和/或远程操作装置的远程计算系统来进行。
在操作702处,根据本文讨论的任何技术,示例过程700可以包括接收传感器数据。
在操作704处,根据本文讨论的任何技术,示例过程700可以识别静止车辆(即,流程图中的“是”分支)。在一些示例中,如果未识别到静止车辆,则过程700可以返回至操作702。
在操作706处,根据本文讨论的任何技术,示例过程700可以包括至少部分地基于传感器数据来确定一个或多个特征值。可以包括本文讨论的任何特征值。例如,所述一个或多个特征值中的一个特征值可以包括确定(706(A))交通流数据,该交通数据指示从传感器数据检测的一个或多个车辆的速度。这可以包括静止车辆的速度和/或其他被检测的车辆的速度。
在操作708处,根据本文讨论的任何技术,示例过程700可以包括将一个或多个特征值提供给机器学习模型。
在操作710处,根据本文讨论的任何技术,示例过程700可以包括通过机器学习模型输出静止车辆是阻塞车辆的概率。
在操作712处,根据本文讨论的任何技术,示例过程700可以包括至少部分地基于概率来控制车辆。例如,这可以包括控制车辆经过阻塞车辆(712(A))或控制车辆等待非阻塞车辆(712(B))。
示例条款一
A.一种自动驾驶车辆,包括:至少一个传感器;用于控制自动驾驶车辆的物理操作的驱动系统;以及感知引擎,其被配置为执行操作,所述操作包括:从所述至少一个传感器接收传感器数据;以及至少部分地基于传感器数据来检测自动驾驶车辆的环境中的静止车辆;至少部分地基于传感器数据确定一个或多个特征值,确定所述一个或多个特征值包括至少部分地基于传感器数据来检测一辆或多辆其他车辆、和与所述一辆或多辆其他车辆和静止车辆相关联的速度,其中,所述一个或多个特征值包括指示静止车辆的速度和所述一辆或多辆其他车辆的速度的交通流数据的分布;作为给机器学习模型的输入,提供所述一个或多个特征值;从机器学习模型接收静止车辆是阻塞车辆或非阻塞车辆的指示;将指示传输到规划器,其中,规划器被配置为执行操作,所述操作包括:接收指示;以及产生用于控制自动驾驶车辆运动的轨迹。
B.根据段落A的自动驾驶车辆,其中,检测静止车辆包括:检测在自动驾驶车辆的环境中物体的存在;将物体分类为车辆;确定车辆的速度;以及确定车辆的速度不满足预设阈值速度。
C.根据段落A或B的自动驾驶车辆,其中,检测静止车辆还包括:检测在自动驾驶车辆的预设阈值距离内的一辆或多辆其他静止车辆。
D.根据段落A-C中的任一段的自动驾驶车辆,其中,所述一个或多个特征值还至少包括静止车辆的速度和交通信号状态。
E.根据段落A-D中的任一段的自动驾驶车辆,其中,阻塞车辆是由感知引擎检测到的物体,该物体阻碍自动驾驶车辆或另一车辆中的至少之一前进。
F.一种控制车辆的计算机实现的方法,包括:从车辆的一个或多个传感器接收传感器数据;以及至少部分地基于传感器数据来识别静止车辆;至少部分地基于传感器数据确定一个或多个特征值,所述一个或多个特征值之一包括交通流数据,所述交通流数据指示从传感器数据检测到的一辆或多辆车辆的速度;向机器学习模型提供所述一个或多个特征值;通过机器学习模型,输出静止车辆是阻塞车辆的概率;以及至少部分地基于概率来控制车辆,其中,控制车辆包括控制车辆通过阻塞车辆,或者控制车辆等待非阻塞车辆。
G.根据段落F的自动驾驶车辆,其中,所述一个或多个特征值包括以下至少之一:静止车辆的速度,车道标识,交通信号状态,从静止车辆到静止车辆前方的下一物体的距离,从静止车辆到下一路口的距离,交通流数据,指示另一辆车辆相对于静止车辆移动的车辆行迹,指示存在遮挡物体的传感器残差,静止车辆或环境中物体中的至少之一的分类,与静止车辆相关联的边界框,静止车辆的灯光状态,有人在车辆附近的指示,静止车辆的门或孔的状态,静止车辆的尺寸,或静止车辆的偏航。
H.根据段落F或段落G的自动驾驶车辆,其中,机器学习模型包括多个决策树,所述多个决策树被配置为:接收所述一个或多个特征值;以及推动所述一个或多个特征值穿过决策树的节点,以到达与加权值相关联的输出节点;并对加权值求和以确定概率。
I.根据段落F-H中的任一段的计算机实现的方法,其中,所述方法还包括至少部分地基于传感器数据检测在车辆的环境中的静止车辆。
J.根据段落F-I中的任一段的计算机实现的方法,其中,检测静止车辆包括:检测车辆的环境中物体的存在;以及将物体分类为基于车辆的物体;确定车辆的速度;以及确定车辆的速度不满足预设阈值速度。
K.根据段落F-J中的任一段的计算机实现的方法,其中,所述一个或多个特征值指示车辆的环境、静止车辆、或环境中物体中的至少之一的一个或多个特性。
L.根据段落F-K中的任一段的计算机实现的方法,其中:至少部分地基于检测到静止车辆而输出概率;以及该概率指示静止车辆阻碍车辆的概率。
M.根据段落F-L中的任一段的计算机实现的方法,其中,所述一个或多个特征值包括以下至少之一:静止车辆的速度,与静止车辆相关联的信号指示器的灯光的状态,与下一路口的距离,至少一辆其他车辆的速度,静止车辆与静止车辆前方的下一车辆之间的距离,或交通信号状态。
N.根据段落F-M中的任一段的计算机实现的方法,其中,所述方法还包括:至少部分地基于交通流数据,确定由感知引擎检测到的静止车辆的速度与两辆或多于两辆其他车辆的速度相比是异常的;作为所述一个或多个特征值之一,指示静止车辆的速度是异常的。
O.一种具有一组指令的非瞬态计算机可读介质,所述一组指令在被执行时使一个或多个处理器执行操作,所述操作包括:一个或多个处理器;以及在其上存储一组指令的存储器,所述一组指令被执行时使所述一个或多个处理器执行操作,所述操作包括:从至少一个传感器接收传感器数据;以及检测静止车辆;接收一个或多个特征值;将所述一个或多个特征值传输到机器学习模型;从机器学习模型接收静止车辆是阻塞车辆的概率;以及将所述概率传输到自动驾驶车辆的规划器,所述规划器被配置为至少部分地基于所述概率来控制自动驾驶车辆的运动。
P.根据段落P的非瞬态计算机可读介质,其中,检测静止车辆包括:检测在自动驾驶车辆附近的环境中物体的存在;以及将物体分类为车辆;确定车辆的速度;以及确定车辆的速度不满足预设阈值速度。
Q.根据段落O或P的非瞬态计算机可读介质,其中,检测静止车辆还包括确定车辆阻碍先前由自动驾驶车辆确定的轨迹。
R.根据段落O-Q中的任一段的非瞬态计算机可读介质,其中,所述操作还包括:接收多对样本特征值和样本指示,单独的样本指示指示阻塞车辆或非阻塞车辆,并且从样本传感器数据得出所述对;以及通过以下方式由所述多对训练机器学习模型:生成被配置为接收样本特征值的节点的输入层;生成一个或多个隐藏层,节点的输入层被配置为激活所述一个或多个隐藏层的节点;以及生成输出层,所述输出层被配置为从所述一个或多个隐藏层的节点接收刺激并输出概率。
S.根据段落O-R中的任一段的非瞬态计算机可读介质,其中,所述一个或多个特征值包括以下至少之一:静止车辆的速度,交通信号状态,从静止车辆到下一物体的距离;从静止车辆到下一路口的距离,车道标识,静止物体的边界框,交通流数据,指示另一车辆相对于静止车辆移动的车辆行迹,指示存在遮挡物体的传感器残差,静止车辆或环境中物体中的至少之一的分类,静止车辆的灯光状态,人在车辆附近的指示,静止车辆的门或孔的状态,静止车辆的高度、或静止车辆的偏航。
T.根据段落O-S中的任一段的非瞬态计算机可读介质,其中,机器学习模型是一个或多个决策树或深度学习模型。
示例条款二
1.一种系统,包括:一个或多个处理器;和存储处理器可执行指令的存储器,所述指令在由所述一个或多个处理器执行时使所述一个或多个处理器执行操作,所述操作包括:从车辆的一个或多个传感器接收传感器数据;至少部分地基于传感器数据检测静止车辆;至少部分地基于传感器数据确定一个或多个特征,所述一个或多个特征之一指示交通流数据;给机器学习模型提供所述一个或多个特征;通过机器学习模型输出静止车辆是阻塞车辆的概率;以及至少部分地基于所述概率来控制车辆,其中,控制车辆包括:控制车辆经过阻塞车辆,或控制车辆等待非阻塞车辆。
2.根据条款1的系统,其中,识别静止车辆包括:检测车辆的环境中物体的存在;将所述物体分类为车辆类别;确定所述物体的速度;以及确定所述物体的速度不满足预设阈值速度。
3.根据条款1的系统,其中,所述一个或多个特征指示以下至少之一:静止车辆的速度,车道标识,交通信号状态,从静止车辆到静止车辆前方的下一物体的距离,从静止车辆到下一路口的距离,交通流数据,指示另一车辆相对于静止车辆移动的车辆行迹,指示存在遮挡物体的传感器残差,静止车辆或环境中物体中的至少之一的分类,与静止车辆相关联的边界框,静止车辆的灯光状态,有人在车辆附近的指示,静止车辆的门或孔的状态,静止车辆的尺寸,或静止车辆的偏航。
4.根据条款1的系统,其中,识别静止车辆还包括检测在自动驾驶车辆的预设阈值距离内的一个或多个其他静止车辆。
5.根据条款1的系统,其中,机器学习模型包括多个决策树,所述多个决策树被配置为:接收所述一个或多个特征;推动所述一个或多个特征穿过决策树的节点,以到达与加权值相关联的输出节点;以及对加权值求和以确定所述概率。
6.根据条款1的系统,其中,所述一个或多个特征指示车辆的环境、静止车辆、或环境中物体中的至少之一的一个或多个特性。
7.根据条款1的系统,其中:至少部分地基于检测静止车辆来输出所述概率;以及所述概率指示静止车辆阻碍车辆的可能性。
8.根据条款1的系统,其中,所述操作还包括:至少部分地基于交通流数据,确定静止车辆的速度与由感知引擎检测到的两辆或多于两辆的其他车辆的速度相比是异常的;以及作为所述一个或多个特征之一,指示静止车辆的速度是异常的指示。
9.一种方法,包括:从至少一个传感器接收传感器数据;检测静止车辆;接收一个或多个特征;将所述一个或多个特征传输到机器学习模型;从机器学习模型接收静止车辆是阻塞车辆的概率;以及将所述概率传输到自动驾驶车辆的规划器,所述规划器被配置为至少部分地基于所述概率来控制自动驾驶车辆的运动。
10.根据条款9所述的方法,其中,检测静止车辆包括:检测在自动驾驶车辆附近的环境中物体的存在;将所述物体分类为车辆类别;确定所述物体的速度;以及确定所述物体的速度不满足预设阈值速度。
11.根据条款10所述的方法,还包括:接收多对样本特征和样本指示,单独的样本指示指示阻塞车辆或非阻塞车辆,并且从样本传感器数据得出所述对;以及通过以下方式由所述多对训练机器学习模型:将样本特征输入节点的输入层中;从输出层接收输出概率;确定输出概率与样本指示之间的差异;以及更改机器学习模型的一个或多个参数以最小化差异。
12.根据条款9所述的方法,其中,所述一个或多个特征指示以下至少之一:静止车辆的速度,交通信号状态,从静止车辆到下一物体的距离,从静止车辆到下一路口的距离,车道标识,静止物体的边界框,交通流数据,指示另一个车辆相对于静止车辆移动的车辆行迹,指示存在遮挡物体的传感器残差,静止车辆或环境中物体中的至少之一的分类,静止车辆的灯光状态,有人在车辆附近的指示,静止车辆的门或孔的状态,静止车辆的高度,或静止车辆的偏航。
13.根据条款9的方法,还包括:至少部分地基于交通流数据,确定静止车辆的速度与两辆或多于两辆其他被检测的车辆的速度相比是异常的;以及作为所述一个或多个特征之一,指示静止车辆的速度是异常的指示。
14.根据条款9的方法,其中,所述一个或多个特征指示车辆的环境、静止车辆、或环境中物体中的至少之一的一个或多个特性。
15.一种存储计算机可执行指令的非瞬态计算机可读介质,所述指令在由一个或多个处理器执行时使所述一个或多个处理器完成根据条款9至14中任一项的方法。
尽管已经用特定于结构特征和/或方法动作的语言描述主题,但是应该理解,所附权利要求书中限定的主题不必限于所描述的特定特征或动作。相反,特定特征和动作被公开为实现权利要求的示例形式。
本文描述的模块表示可以存储在任何类型的计算机可读介质中并且可以以软件和/或硬件来实现的指令。上面描述的所有方法和过程可以通过由一个或多个计算机或处理器、硬件或它们的某种组合执行的软件代码模块和/或计算机可执行指令来体现并完全自动化。这些方法中的一些或全部可以替代地体现在专用计算机硬件中。
除非另有明确说明,否则条件语言(例如“可”,“可以”,“可能”或“会”)在上下文中应理解为表示某些示例包括而其他示例不包括某些功能、元素和/或步骤。因此,这种条件性语言通常并非旨在暗示一个或多个示例在任何情况下都需要某些功能、元素和/或步骤,或者一个或多个示例必须包括逻辑,以用于在有或没有用户输入或提示的情况下决定在任何特定示例中是否包括或将要执行某些特征、元素和/或步骤。
除非另外特别说明,否则诸如短语“X、Y或Z中的至少之一”之类的短语应被理解为表示项目、术语等可以是X、Y或Z、或其任何组合,包括每个元素的倍数。除非明确描述为单数,否则“一”表示单数和复数。
在此描述的和/或在附图中描绘的流程图中的任何常规说明、元素或方框应该被理解为潜在地表示模块、区段或代码的一部分,代码的该部分包括用于在例程中实施特定逻辑功能或元素的一个或多个计算机可执行指令。替代实施方案包含在本文描述的实例的范围内,其中元件或功能可从所展示或论述的元素或功能中删除或以无序执行,包括基本上同步、以相反的顺序、具有附加操作或省略操作,这取决于本领域技术人员将理解的所涉及的功能性。
应该强调的是,可以对上述示例进行许多变型和修改,这些示例和示例的要素应被理解为在其他可接受的示例之中。所有这些修改和变型旨在被包括在本公开的范围内,并由所附权利要求书保护。

Claims (20)

1.一种方法,包括:
接收与关联于车辆的环境相关联的传感器数据;
至少部分地基于传感器数据,确定与在环境的一部分内的物体相关联的交通流的指示,其中,物体不同于静止物体;
将指示作为输入提供给机器学习模型;
从机器学习模型接收静止物体阻塞车辆的路径或与车辆相关联的道路的一部分的概率;以及
至少部分地基于概率控制车辆。
2.根据权利要求1所述的方法,其中,交通流的指示包括以下至少一项:
在环境的所述一部分中的物体的动作、前进方向或速率中的至少一个的第一分布;
在环境的所述一部分中的同一分类的物体的动作、前进方向或速率中的至少一个的第二分布;
第一分布或第二分布的尾部特征;
与静止物体相关联的前进方向或速率中的至少一个是否位于第一分布或第二分布的尾部中的指示;
至少部分地基于第一分布或第二分布与静止物体具有相同前进方向或速率的物体的百分比;
至少部分地基于第一分布或第二分布与静止物体的速率相关联的百分位数;或
在环境的所述一部分中的另一物体完成某类型动作的频率。
3.根据权利要求1所述的方法,还包括:
至少部分地基于传感器数据,确定与物体相关联的物体轨迹,其中,物体轨迹包括物体的当前或历史前进方向和速率中的至少一个;以及
至少部分地基于物体轨迹,确定物体当前或已经前进的方向与车辆的行驶方向相同,其中:
确定交通流的指示至少部分地基于物体轨迹,并确定物体当前或已经前进的方向与行驶方向相同。
4.根据权利要求1所述的方法,还包括:
至少部分地基于传感器数据,确定与物体相关联的物体检测,其中,物体检测包括与物体相关联的分类;以及
至少部分地基于指示分类的两个或更多个物体检测,确定与所述两个或更多个物体检测相关联的物体轨迹特征的分布,其中,物体轨迹特征包括与所述两个或更多个物体检测相关联的物体轨迹所指示的当前、历史或预测的位置、前进方向或速率中的至少一个,
其中,分布是交通流的指示的一部分。
5.根据权利要求1所述的方法,还包括至少部分地基于物体与车辆的接近程度,确定与交通流的指示相关联的权重,其中,权重被包括在交通流的指示中。
6.根据权利要求1所述的方法,还包括:
至少部分地基于确定概率达到或超过阈值概率,控制车辆通过静止物体,否则
控制车辆保持当前动作或停止。
7.一种系统,包括:
一个或多个处理器;以及
存储处理器可执行指令的存储器,处理器可执行指令在被所述一个或多个处理器执行时,引起系统执行以下操作,包括:
接收指示与车辆相关联的环境的传感器数据;
至少部分地基于传感器数据,确定在环境的一部分内的物体移动的指示,其中,物体不同于静止物体;
将指示作为输入提供给机器学习模型;
从机器学习模型接收静止物体阻塞车辆的路径或与车辆相关联的道路的至少一部分的概率;以及
至少部分地基于概率控制车辆。
8.根据权利要求7所述的系统,其中,环境的所述一部分包括第一车道或第二车道中的至少一个,车辆位于第一车道中,且第二车道位于第一车道旁边、与指示第二物体在第二车道中以与车辆的行驶方向相同的方向移动的物体轨迹相关联。
9.根据权利要求7所述的系统,其中,移动的指示包括以下至少一项:
在环境的所述一部分中的物体的动作、前进方向或速率中的至少一个的第一分布;
在环境的所述一部分中的同一分类物体的动作、前进方向或速率中的至少一个的第二分布;
第一分布或第二分布的尾部特征;
与静止物体相关联的前进方向或速率中的至少一个是否位于第一分布或第二分布的尾部中的指示;
至少部分地基于第一分布或第二分布与静止物体具有相同前进方向或速率的物体的百分比。
10.根据权利要求7所述的系统,其中,操作还包括:
至少部分地基于传感器数据,确定与物体相关联的物体轨迹,其中,物体轨迹包括物体的当前或历史前进方向和速率中的至少一个;以及
至少部分地基于物体轨迹,确定物体当前或已经前进的方向与车辆的行驶方向相同,其中:
确定移动的指示至少部分地基于物体轨迹,并确定物体当前或已经前进的方向与行驶方向相同。
11.根据权利要求7所述的系统,其中,操作还包括:
至少部分地基于传感器数据,确定与物体相关联的物体检测,其中,物体检测包括与物体相关联的分类;以及
至少部分地基于指示分类的两个或更多个物体检测,确定与所述两个或更多个物体检测相关联的物体轨迹特征的分布,其中,物体轨迹特征包括与所述两个或更多个物体检测相关联的物体轨迹所指示的当前、历史或预测的位置、前进方向或速率中的至少一个,
其中,分布是移动的指示的一部分。
12.根据权利要求7所述的系统,其中,操作还包括至少部分地基于物体与车辆的接近程度,确定与交通流的指示相关联的权重,其中,权重被包括在交通流的指示中。
13.根据权利要求7所述的系统,其中,操作还包括:
至少部分地基于确定概率达到或超过阈值概率,控制车辆通过静止物体,否则
控制车辆保持当前动作或停止。
14.一种存储处理器可执行指令的非瞬态计算机可读介质,存储处理器可执行指令当其被一个或多个处理器执行时,引起所述一个或多个处理器执行以下操作,包括:
接收指示与车辆相关联的环境的传感器数据;
至少部分地基于传感器数据,确定在环境的一部分内的物体移动的指示,其中,物体不同于静止物体;
将指示作为输入提供给机器学习模型;
从机器学习模型接收静止物体阻塞车辆的路径或与车辆相关联的道路的至少一部分的概率;以及
至少部分地基于概率控制车辆。
15.根据权利要求14所述的非瞬态计算机可读介质,其中,环境的所述一部分包括第一车道或第二车道中的至少一个,车辆位于第一车道中,且第二车道位于第一车道旁边、与指示第二物体在第二车道中以与车辆的行驶方向相同的方向移动的物体轨迹相关联。
16.根据权利要求14所述的非瞬态计算机可读介质,其中,移动的指示包括以下至少一项:
在环境的所述一部分中的物体的动作、前进方向或速率中的至少一个的第一分布;
在环境的所述一部分中的同一分类物体的动作、前进方向或速率中的至少一个第二分布;
第一分布或第二分布的尾部特征;
与静止物体相关联的前进方向或速率中的至少一个是否位于第一分布或第二分布的尾部中的指示;
至少部分地基于第一分布或第二分布与静止物体具有相同前进方向或速率的物体的百分比。
17.根据权利要求14所述的非瞬态计算机可读介质,其中,操作还包括:
至少部分地根据传感器数据,确定与物体相关联的物体轨迹,其中,物体轨迹包括物体的当前或历史前进方向和速率中的至少一个;以及
至少部分地基于物体轨迹,确定物体当前或已经前进的方向与车辆的行驶方向相同,其中:
确定移动的指示至少部分地基于物体轨迹,并确定物体当前或已经前进的方向与行驶方向相同。
18.根据权利要求14所述的非瞬态计算机可读介质,其中,操作还包括:
至少部分地基于传感器数据,确定与物体相关联的物体检测,其中,物体检测包括与物体相关联的分类;以及
至少部分地基于指示分类的两个或更多个物体检测,确定与所述两个或更多个物体检测相关联的物体轨迹特征的分布,其中,物体轨迹特征包括与所述两个或更多个物体检测相关联的物体轨迹所指示的当前、历史或预测的位置、前进方向或速率中的至少一个,
其中,分布是移动的指示的一部分。
19.根据权利要求14所述的非瞬态计算机可读介质,其中,操作还包括至少部分地基于物体与车辆的接近程度,确定与交通流的指示相关联的权重,其中,权重被包括在交通流的指示中。
20.根据权利要求14所述的非瞬态计算机可读介质,其中,操作还包括:
至少部分地基于确定概率达到或超过阈值概率,控制车辆通过静止物体,否则
控制车辆保持当前动作或停止。
CN202311504016.1A 2018-02-14 2019-02-01 检测阻塞静止车辆 Pending CN117315628A (zh)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US15/897,028 2018-02-14
US15/897,028 US10955851B2 (en) 2018-02-14 2018-02-14 Detecting blocking objects
PCT/US2019/016407 WO2019160700A1 (en) 2018-02-14 2019-02-01 Detecting blocking stationary vehicles
CN201980013149.4A CN111712829B (zh) 2018-02-14 2019-02-01 检测阻塞静止车辆

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
CN201980013149.4A Division CN111712829B (zh) 2018-02-14 2019-02-01 检测阻塞静止车辆

Publications (1)

Publication Number Publication Date
CN117315628A true CN117315628A (zh) 2023-12-29

Family

ID=65494538

Family Applications (2)

Application Number Title Priority Date Filing Date
CN201980013149.4A Active CN111712829B (zh) 2018-02-14 2019-02-01 检测阻塞静止车辆
CN202311504016.1A Pending CN117315628A (zh) 2018-02-14 2019-02-01 检测阻塞静止车辆

Family Applications Before (1)

Application Number Title Priority Date Filing Date
CN201980013149.4A Active CN111712829B (zh) 2018-02-14 2019-02-01 检测阻塞静止车辆

Country Status (5)

Country Link
US (3) US10955851B2 (zh)
EP (1) EP3752953A1 (zh)
JP (1) JP7333782B2 (zh)
CN (2) CN111712829B (zh)
WO (1) WO2019160700A1 (zh)

Families Citing this family (55)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10133275B1 (en) 2017-03-01 2018-11-20 Zoox, Inc. Trajectory generation using temporal logic and tree search
US10671076B1 (en) 2017-03-01 2020-06-02 Zoox, Inc. Trajectory prediction of third-party objects using temporal logic and tree search
WO2018176000A1 (en) 2017-03-23 2018-09-27 DeepScale, Inc. Data synthesis for autonomous control systems
US11409692B2 (en) 2017-07-24 2022-08-09 Tesla, Inc. Vector computational unit
US10671349B2 (en) 2017-07-24 2020-06-02 Tesla, Inc. Accelerated mathematical engine
US11893393B2 (en) 2017-07-24 2024-02-06 Tesla, Inc. Computational array microprocessor system with hardware arbiter managing memory requests
US11157441B2 (en) 2017-07-24 2021-10-26 Tesla, Inc. Computational array microprocessor system using non-consecutive data formatting
US11561791B2 (en) 2018-02-01 2023-01-24 Tesla, Inc. Vector computational unit receiving data elements in parallel from a last row of a computational array
US10955851B2 (en) * 2018-02-14 2021-03-23 Zoox, Inc. Detecting blocking objects
TWI688502B (zh) * 2018-02-14 2020-03-21 先進光電科技股份有限公司 用於警告車輛障礙物的設備
US10628686B2 (en) 2018-03-12 2020-04-21 Waymo Llc Neural networks for object detection and characterization
CN110298663B (zh) * 2018-03-22 2023-04-28 中国银联股份有限公司 基于序列宽深学习的欺诈交易检测方法
US10414395B1 (en) 2018-04-06 2019-09-17 Zoox, Inc. Feature-based prediction
US11126873B2 (en) 2018-05-17 2021-09-21 Zoox, Inc. Vehicle lighting state determination
US11215999B2 (en) 2018-06-20 2022-01-04 Tesla, Inc. Data pipeline and deep learning system for autonomous driving
US11361457B2 (en) 2018-07-20 2022-06-14 Tesla, Inc. Annotation cross-labeling for autonomous control systems
US11636333B2 (en) 2018-07-26 2023-04-25 Tesla, Inc. Optimizing neural network structures for embedded systems
US11214265B2 (en) 2018-08-22 2022-01-04 Phantom Auto Inc. Vehicle teleoperator ranking and selection
US11562231B2 (en) 2018-09-03 2023-01-24 Tesla, Inc. Neural networks for embedded devices
US11543824B2 (en) * 2018-10-09 2023-01-03 Waymo Llc Queueing into pickup and drop-off locations
KR20210072048A (ko) 2018-10-11 2021-06-16 테슬라, 인크. 증강 데이터로 기계 모델을 훈련하기 위한 시스템 및 방법
US11196678B2 (en) 2018-10-25 2021-12-07 Tesla, Inc. QOS manager for system on a chip communications
US11295615B2 (en) 2018-10-29 2022-04-05 Here Global B.V. Slowdown events
US11349903B2 (en) * 2018-10-30 2022-05-31 Toyota Motor North America, Inc. Vehicle data offloading systems and methods
US10823855B2 (en) * 2018-11-19 2020-11-03 Fca Us Llc Traffic recognition and adaptive ground removal based on LIDAR point cloud statistics
WO2020113187A1 (en) * 2018-11-30 2020-06-04 Sanjay Rao Motion and object predictability system for autonomous vehicles
US11816585B2 (en) 2018-12-03 2023-11-14 Tesla, Inc. Machine learning models operating at different frequencies for autonomous vehicles
US11537811B2 (en) 2018-12-04 2022-12-27 Tesla, Inc. Enhanced object detection for autonomous vehicles based on field view
US11225222B2 (en) * 2018-12-20 2022-01-18 Continental Automotive Systems, Inc. Vehicle access and power management systems and methods via machine learning
US11514310B2 (en) * 2018-12-21 2022-11-29 Waymo Llc Training a classifier to detect open vehicle doors
US11610117B2 (en) 2018-12-27 2023-03-21 Tesla, Inc. System and method for adapting a neural network model on a hardware platform
US11435751B2 (en) 2018-12-28 2022-09-06 Beijing Voyager Technology Co., Ltd. Vehicle-based road obstacle identification system
US10990105B2 (en) 2018-12-28 2021-04-27 Beijing Voyager Technology Co., Ltd. Vehicle-based virtual stop and yield line detection
US10991244B2 (en) * 2018-12-28 2021-04-27 Beijing Voyager Technology Co., Ltd. On-board vehicle stop cause determination system
US10817777B2 (en) * 2019-01-31 2020-10-27 StradVision, Inc. Learning method and learning device for integrating object detection information acquired through V2V communication from other autonomous vehicle with object detection information generated by present autonomous vehicle, and testing method and testing device using the same
US10997461B2 (en) 2019-02-01 2021-05-04 Tesla, Inc. Generating ground truth for machine learning from time series elements
US11567514B2 (en) 2019-02-11 2023-01-31 Tesla, Inc. Autonomous and user controlled vehicle summon to a target
US10956755B2 (en) 2019-02-19 2021-03-23 Tesla, Inc. Estimating object properties using visual image data
US11526816B2 (en) * 2019-02-27 2022-12-13 Uber Technologies, Inc. Context-based remote autonomous vehicle assistance
US11420621B2 (en) 2019-03-31 2022-08-23 Gm Cruise Holdings Llc Autonomous vehicle maneuvering based upon risk associated with occluded regions
US11100794B2 (en) * 2019-04-15 2021-08-24 Here Global B.V. Autonomous driving and slowdown patterns
US11741719B2 (en) * 2019-08-27 2023-08-29 GM Global Technology Operations LLC Approach to maneuver planning for navigating around parked vehicles for autonomous driving
US11354913B1 (en) * 2019-11-27 2022-06-07 Woven Planet North America, Inc. Systems and methods for improving vehicle predictions using point representations of scene
US11605290B2 (en) * 2020-01-28 2023-03-14 GM Cruise Holdings LLC. Updating maps based on traffic object detection
WO2022046321A1 (en) * 2020-08-25 2022-03-03 Gm Cruise Holdings Llc Method, system, and storage medium for autonomous vehicle route blockage detection
JP6970479B1 (ja) * 2020-09-07 2021-11-24 株式会社エアロネクスト 飛行体
CN112650243B (zh) * 2020-12-22 2023-10-10 北京百度网讯科技有限公司 车辆控制方法、装置、电子设备和自动驾驶车辆
CN112735163B (zh) * 2020-12-25 2022-08-02 阿波罗智联(北京)科技有限公司 确定目标物体静止状态的方法、路侧设备、云控平台
CN112345272A (zh) * 2021-01-11 2021-02-09 北京赛目科技有限公司 一种场景库的自动驾驶仿真测试方法及装置
US11697429B2 (en) * 2021-02-10 2023-07-11 Argo AI, LLC System, method, and computer program product for topological planning in autonomous driving using bounds representations
US11884269B2 (en) * 2021-02-19 2024-01-30 Argo AI, LLC Systems and methods for determining future intentions of objects
US11912274B2 (en) * 2021-05-04 2024-02-27 Ford Global Technologies, Llc Adaptive cruise control with non-visual confirmation of obstacles
KR20230045391A (ko) * 2021-09-28 2023-04-04 현대자동차주식회사 교통 흐름 방해 타겟 검출 장치 및 그 방법
CN115230722A (zh) * 2022-09-23 2022-10-25 北京小马易行科技有限公司 车辆控制方法、装置、计算机可读存储介质与处理器
CN117387649A (zh) * 2023-10-26 2024-01-12 苏州大学 概率自更新的不确定环境机器人自适应导航方法及系统

Family Cites Families (79)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5177685A (en) 1990-08-09 1993-01-05 Massachusetts Institute Of Technology Automobile navigation system using real time spoken driving instructions
US6707421B1 (en) 1997-08-19 2004-03-16 Siemens Vdo Automotive Corporation Driver information system
US6272072B1 (en) 1998-08-14 2001-08-07 Wulich Wave Ltd. Underwater communication method, device, and system utilizing a doppler frequency shift
EP1332910B1 (en) 2002-02-01 2009-11-04 Nissan Motor Co., Ltd. Method and system for vehicle operator assistance improvement
CA2474443A1 (en) 2002-02-05 2003-08-14 Handshake Interactive Technologies Inc. Method and system for thin client based intelligent transportation
US20050049785A1 (en) 2003-09-02 2005-03-03 Vergin William E. Off-board navigation system
US7698055B2 (en) * 2004-11-16 2010-04-13 Microsoft Corporation Traffic forecasting employing modeling and analysis of probabilistic interdependencies and contextual data
US20080065328A1 (en) 2006-09-08 2008-03-13 Andreas Eidehall Method and system for collision avoidance
JP4525670B2 (ja) 2006-11-20 2010-08-18 トヨタ自動車株式会社 走行制御計画生成システム
JP4338145B2 (ja) * 2007-03-08 2009-10-07 インターナショナル・ビジネス・マシーンズ・コーポレーション 事象の発生を決定付けるキーワードを検索する技術
US8121749B1 (en) 2008-09-25 2012-02-21 Honeywell International Inc. System for integrating dynamically observed and static information for route planning in a graph based planner
EP2346014B1 (en) 2008-10-02 2018-04-11 Hitachi Automotive Systems, Ltd. Information processing device associated with vehicle traveling
KR101291067B1 (ko) 2009-11-26 2013-08-07 한국전자통신연구원 차량 제어 장치 및 그 자율 주행 방법, 지역 서버 장치 및 그 자율 주행 서비스 방법, 전역 서버 장치 및 그 자율 주행 서비스 방법
US8473447B2 (en) 2010-03-29 2013-06-25 Palo Alto Research Center Incorporated AI planning based quasi-montecarlo simulation method for probabilistic planning
US8296030B2 (en) * 2010-07-07 2012-10-23 Robert Bosch Gmbh System and method for controlling the engine of a vehicle
US8509982B2 (en) 2010-10-05 2013-08-13 Google Inc. Zone driving
US8645310B2 (en) 2011-03-22 2014-02-04 GM Global Technology Operations LLC Efficient source of infeasibility identification in timed automata traces
US9381916B1 (en) 2012-02-06 2016-07-05 Google Inc. System and method for predicting behaviors of detected objects through environment representation
US8620517B2 (en) 2012-02-21 2013-12-31 Toyota Mototr Engineering & Manufacturing North America, Inc. Vehicular platooning using distributed receding horizon control
US8457827B1 (en) * 2012-03-15 2013-06-04 Google Inc. Modifying behavior of autonomous vehicle based on predicted behavior of other vehicles
US8880272B1 (en) 2012-03-16 2014-11-04 Google Inc. Approach for estimating the geometry of roads and lanes by using vehicle trajectories
US9495874B1 (en) 2012-04-13 2016-11-15 Google Inc. Automated system and method for modeling the behavior of vehicles and other agents
CN203032675U (zh) 2013-01-21 2013-07-03 霍州煤电集团吕梁山煤电有限公司方山木瓜煤矿 矿用猴车检测控制系统
US8996224B1 (en) * 2013-03-15 2015-03-31 Google Inc. Detecting that an autonomous vehicle is in a stuck condition
US9008890B1 (en) * 2013-03-15 2015-04-14 Google Inc. Augmented trajectories for autonomous vehicles
US8849494B1 (en) * 2013-03-15 2014-09-30 Google Inc. Data selection by an autonomous vehicle for trajectory modification
US9305223B1 (en) 2013-06-26 2016-04-05 Google Inc. Vision-based indicator signal detection using spatiotemporal filtering
US20150147936A1 (en) 2013-11-22 2015-05-28 Cepia Llc Autonomous Toy Capable of Tracking and Interacting With a Source
US9558659B1 (en) 2014-08-29 2017-01-31 Google Inc. Determining the stationary state of detected vehicles
DE102014221682A1 (de) 2014-10-24 2016-04-28 Robert Bosch Gmbh Verfahren und Vorrichtung zum Betreiben eines Fahrzeugs
US9869484B2 (en) 2015-01-14 2018-01-16 Google Inc. Predictively controlling an environmental control system
EP3885217A1 (en) 2015-02-10 2021-09-29 Mobileye Vision Technologies Ltd. Sparse map for autonomous vehicle navigation
JP6543066B2 (ja) * 2015-03-30 2019-07-10 株式会社メガチップス 機械学習装置
JP6350383B2 (ja) 2015-05-01 2018-07-04 トヨタ自動車株式会社 車両走行制御装置
US9368026B1 (en) 2015-05-26 2016-06-14 Google Inc. Fallback requests for autonomous vehicles
DE102015213078A1 (de) 2015-07-13 2017-01-19 Conti Temic Microelectronic Gmbh Bremslichterkennung bei vorausfahrenden Fahrzeugen zur Anpassung einer Auslösung aktiver Sicherheitsmechanismen
US9934688B2 (en) 2015-07-31 2018-04-03 Ford Global Technologies, Llc Vehicle trajectory determination
JP6547575B2 (ja) 2015-10-15 2019-07-24 富士通株式会社 経路探索装置及び経路探索方法
US10229363B2 (en) * 2015-10-19 2019-03-12 Ford Global Technologies, Llc Probabilistic inference using weighted-integrals-and-sums-by-hashing for object tracking
US9630619B1 (en) 2015-11-04 2017-04-25 Zoox, Inc. Robotic vehicle active safety systems and methods
US9983591B2 (en) 2015-11-05 2018-05-29 Ford Global Technologies, Llc Autonomous driving at intersections based on perception data
WO2017091690A1 (en) 2015-11-26 2017-06-01 Gideon Stein Automatic prediction and altruistic response to a vehicel cutting in a lane
US10800455B2 (en) 2015-12-17 2020-10-13 Ford Global Technologies, Llc Vehicle turn signal detection
US10386835B2 (en) * 2016-01-04 2019-08-20 GM Global Technology Operations LLC System and method for externally interfacing with an autonomous vehicle
US10322717B2 (en) * 2016-01-04 2019-06-18 GM Global Technology Operations LLC Expert mode for vehicles
JP7052174B2 (ja) 2016-01-05 2022-04-12 モービルアイ ビジョン テクノロジーズ リミテッド 将来経路を推定するシステム及び方法
US20170213459A1 (en) 2016-01-22 2017-07-27 Flex Ltd. System and method of identifying a vehicle and determining the location and the velocity of the vehicle by sound
US9568915B1 (en) 2016-02-11 2017-02-14 Mitsubishi Electric Research Laboratories, Inc. System and method for controlling autonomous or semi-autonomous vehicle
CN107180220B (zh) 2016-03-11 2023-10-31 松下电器(美国)知识产权公司 危险预测方法
US9645577B1 (en) 2016-03-23 2017-05-09 nuTonomy Inc. Facilitating vehicle driving and self-driving
SG11201808494TA (en) 2016-03-31 2018-10-30 Agency Science Tech & Res Signal light detection
JP2018018389A (ja) 2016-07-29 2018-02-01 パナソニックIpマネジメント株式会社 自動運転車輌の制御装置、及び制御プログラム
CN106382942B (zh) 2016-08-16 2019-10-29 曹蕊 一种车载导航系统及导航方法
US10380439B2 (en) 2016-09-06 2019-08-13 Magna Electronics Inc. Vehicle sensing system for detecting turn signal indicators
EP3485337B1 (en) 2016-09-23 2020-10-21 Apple Inc. Decision making for autonomous vehicle motion control
US10699305B2 (en) 2016-11-21 2020-06-30 Nio Usa, Inc. Smart refill assistant for electric vehicles
US10248874B2 (en) 2016-11-22 2019-04-02 Ford Global Technologies, Llc Brake light detection
JP6536554B2 (ja) 2016-12-13 2019-07-03 トヨタ自動車株式会社 ウィンカ判定装置及び自動運転システム
WO2018132608A2 (en) 2017-01-12 2018-07-19 Mobileye Vision Technologies Ltd. Navigation based on occlusion zones
JP2018135069A (ja) 2017-02-23 2018-08-30 パナソニックIpマネジメント株式会社 情報処理システム、情報処理方法及びプログラム
US10133275B1 (en) 2017-03-01 2018-11-20 Zoox, Inc. Trajectory generation using temporal logic and tree search
US10061322B1 (en) 2017-04-06 2018-08-28 GM Global Technology Operations LLC Systems and methods for determining the lighting state of a vehicle
DE102017211331A1 (de) 2017-07-04 2019-01-10 Robert Bosch Gmbh Bildauswertung mit zielgerichteter Vorverarbeitung
US10579063B2 (en) * 2017-07-21 2020-03-03 Uatc, Llc Machine learning for predicting locations of objects perceived by autonomous vehicles
US10395457B2 (en) 2017-08-10 2019-08-27 GM Global Technology Operations LLC User recognition system and methods for autonomous vehicles
US20190061765A1 (en) * 2017-08-23 2019-02-28 Uber Technologies, Inc. Systems and Methods for Performing Lane Changes Around Obstacles
US10163017B2 (en) 2017-09-01 2018-12-25 GM Global Technology Operations LLC Systems and methods for vehicle signal light detection
US10514697B2 (en) * 2017-09-15 2019-12-24 GM Global Technology Operations LLC Vehicle remote assistance mode
US10387736B2 (en) 2017-09-20 2019-08-20 TuSimple System and method for detecting taillight signals of a vehicle
US10691962B2 (en) 2017-09-22 2020-06-23 Toyota Motor Engineering & Manufacturing North America, Inc. Systems and methods for rear signal identification using machine learning
US10331135B2 (en) * 2017-11-22 2019-06-25 GM Global Technology Operations LLC Systems and methods for maneuvering around obstacles in autonomous vehicles
US10688991B2 (en) * 2018-01-24 2020-06-23 GM Global Technology Operations LLC Systems and methods for unprotected maneuver mitigation in autonomous vehicles
US11769042B2 (en) 2018-02-08 2023-09-26 Western Digital Technologies, Inc. Reconfigurable systolic neural network engine
US10955851B2 (en) * 2018-02-14 2021-03-23 Zoox, Inc. Detecting blocking objects
US20180224860A1 (en) * 2018-04-02 2018-08-09 GM Global Technology Operations LLC Autonomous vehicle movement around stationary vehicles
US10414395B1 (en) 2018-04-06 2019-09-17 Zoox, Inc. Feature-based prediction
US11126873B2 (en) 2018-05-17 2021-09-21 Zoox, Inc. Vehicle lighting state determination
US11001256B2 (en) * 2018-09-19 2021-05-11 Zoox, Inc. Collision prediction and avoidance for vehicles
US11169531B2 (en) * 2018-10-04 2021-11-09 Zoox, Inc. Trajectory prediction on top-down scenes

Also Published As

Publication number Publication date
US20230368660A1 (en) 2023-11-16
US10955851B2 (en) 2021-03-23
JP7333782B2 (ja) 2023-08-25
US20210208598A1 (en) 2021-07-08
WO2019160700A1 (en) 2019-08-22
JP2021513484A (ja) 2021-05-27
CN111712829A (zh) 2020-09-25
US11763668B2 (en) 2023-09-19
EP3752953A1 (en) 2020-12-23
CN111712829B (zh) 2023-12-05
US20190250626A1 (en) 2019-08-15

Similar Documents

Publication Publication Date Title
CN111712829B (zh) 检测阻塞静止车辆
US11840239B2 (en) Multiple exposure event determination
CN112752988B (zh) 雷达空间估计
WO2020264010A1 (en) Low variance region detection for improved detection
CN114901534A (zh) 对象检测以及跟踪
US11280630B2 (en) Updating map data
CN111094095B (zh) 自动地感知行驶信号的方法、装置及运载工具
CN116529783A (zh) 用于构建机器学习模型的数据的智能选择的系统和方法
CN114929543A (zh) 预测周围因素的加塞概率
US11727690B2 (en) Behavior prediction of surrounding agents
Zhang et al. A framework for turning behavior classification at intersections using 3D LIDAR
US11645775B1 (en) Methods and apparatus for depth estimation on a non-flat road with stereo-assisted monocular camera in a vehicle
US11645832B1 (en) Sensor fusion for precipitation detection and control of vehicles
CN115546756A (zh) 提高车辆内的情境感知能力
Li et al. Composition and application of current advanced driving assistance system: A review
US11527156B2 (en) Light emitting component-wise traffic light state, signal, and transition estimator
Zyner Naturalistic driver intention and path prediction using machine learning
Sharma et al. Prediction of vehicle’s movement using convolutional neural network (cnn)
US11648962B1 (en) Safety metric prediction
US20220382284A1 (en) Perception system for assessing relevance of objects in an environment of an autonomous vehicle
US20230084623A1 (en) Attentional sampling for long range detection in autonomous vehicles
US20220379911A1 (en) Using relevance of objects to assess performance of an autonomous vehicle perception system

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination