CN116529141A - 自主车辆曲线坐标系下的运动规划 - Google Patents
自主车辆曲线坐标系下的运动规划 Download PDFInfo
- Publication number
- CN116529141A CN116529141A CN202180079406.1A CN202180079406A CN116529141A CN 116529141 A CN116529141 A CN 116529141A CN 202180079406 A CN202180079406 A CN 202180079406A CN 116529141 A CN116529141 A CN 116529141A
- Authority
- CN
- China
- Prior art keywords
- autonomous vehicle
- actor
- distance
- boundary geometry
- lateral offset
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000033001 locomotion Effects 0.000 title claims abstract description 42
- 238000000034 method Methods 0.000 claims abstract description 45
- 238000001514 detection method Methods 0.000 claims description 15
- 238000004364 calculation method Methods 0.000 claims description 13
- 230000008447 perception Effects 0.000 claims description 12
- 238000005070 sampling Methods 0.000 claims description 10
- 238000013459 approach Methods 0.000 claims description 5
- 230000008859 change Effects 0.000 abstract description 4
- 230000008569 process Effects 0.000 description 13
- 238000012545 processing Methods 0.000 description 11
- 230000006870 function Effects 0.000 description 10
- 238000004891 communication Methods 0.000 description 9
- 238000004422 calculation algorithm Methods 0.000 description 6
- 230000001953 sensory effect Effects 0.000 description 5
- 230000001133 acceleration Effects 0.000 description 3
- 230000007613 environmental effect Effects 0.000 description 3
- 238000005259 measurement Methods 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 238000013500 data storage Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 230000007704 transition Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 239000002775 capsule Substances 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000001556 precipitation Methods 0.000 description 1
- 238000012552 review Methods 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
- B60W30/08—Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
- B60W30/095—Predicting travel path or likelihood of collision
- B60W30/0956—Predicting travel path or likelihood of collision the prediction being responsive to traffic or environmental parameters
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W60/00—Drive control systems specially adapted for autonomous road vehicles
- B60W60/001—Planning or execution of driving tasks
- B60W60/0027—Planning or execution of driving tasks using trajectory prediction for other traffic participants
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
- B60W30/18—Propelling the vehicle
- B60W30/18009—Propelling the vehicle related to particular drive situations
- B60W30/18145—Cornering
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/10—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W2050/0001—Details of the control system
- B60W2050/0019—Control system elements or transfer functions
- B60W2050/0026—Lookup tables or parameter maps
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo or light sensitive means, e.g. infrared sensors
- B60W2420/403—Image sensing, e.g. optical camera
-
- B60W2420/408—
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/54—Audio sensitive means, e.g. ultrasound
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2552/00—Input parameters relating to infrastructure
- B60W2552/30—Road curve radius
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/40—Dynamic objects, e.g. animals, windblown objects
- B60W2554/404—Characteristics
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/80—Spatial relation or speed relative to objects
- B60W2554/801—Lateral distance
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2556/00—Input parameters relating to data
- B60W2556/10—Historical data
Abstract
本文公开了用于规划自主车辆的轨迹的方法。车辆运动规划系统将确定代表车辆可以行驶的路径的参考曲线。系统将检测正在环境中移动的行动者。系统将根据时间区间对参考曲线进行分段。对于每个时间区间,系统将识别行动者的边界几何图形,预测参考曲线与行动者之间的横向偏移距离,并且使用预测的横向偏移距离来确定是否改变自主车辆的规划轨迹。
Description
交叉引用和优先权要求
本专利文件要求2020年11月25日提交的申请号为17/104,937的美国专利申请的优先权,该申请通过引用并入本文。
背景技术
自主车辆(AV)必须有运动规划系统来规划AV执行的轨迹。每个轨迹会包括一个路径和一个时间解(即,时间与沿着路径的点的相关性,表示AV将穿过路径上的点的时间)。规划的轨迹应该是:(i)AV执行的动态可行性;(ii)安全性(即,轨迹将与其他道路使用者和障碍物保持足够的距离);(iii)遵守道路规则,如速度限制、车道标线等;以及(iv)使车辆内的乘客感到舒适(例如,通过避免极端加速和/或颠簸)。
AV的运动规划在计算上具有挑战性,因为它是高维的。至少,AV的状态空间将包括车辆在每个时间点由地图定义的流形上的姿态(其包括x、y和横摆(yaw)分量)。为了规划可行且舒适的轨迹,状态空间还可以包括高阶项,例如速度、加速度和曲率。
为了降低AV运动规划计算的维数,AV可以在曲线坐标系下执行运动规划,有时也称为在“Frenet坐标系”下规划。在Frenet坐标系中,AV在笛卡尔坐标系中的三种基本状态{x,y,yaw}被替换为两种状态{s,l},其中s是沿着参考曲线的距离,l是车辆与参考曲线的横向偏差。参考曲线通常是通过车道中心的连续路径,尽管曲线坐标系不一定局限于参考曲线的这种精确定位。此类过程的例子在以下论文中公开:例如,Hery等,“基于地图的自主车辆曲线坐标系(Map-based Curvilinear Coordinates for Autonomous Vehicles)”,IEEE智能交通系统会议(2017)。
虽然在曲线坐标系下规划AV的运动确实有助于降低状态空间的维数,但该过程在数学上仍然具有挑战性,并且需要大量的处理资源。数学挑战包括:从笛卡尔坐标系到曲线坐标系的转换不是1:1映射,并且映射在每个参考曲线的曲率中心附近可能是不明确的。例如,图1示出了笛卡尔坐标系下的参考曲线101,其中对象103位于参考曲线101的曲率中心附近。因为对象103在该位置处与沿着参考曲线的多个点等距,所以对象103在曲线坐标系中的位置将是不明确的。由于大多数其他道路使用者也在移动,因此必须将到正在移动的行动者的距离作为时间的函数进行计算,并且每当另一个行动者的投影运动发生变化时,必须重新计算这些距离,由此出现计算挑战。当参考曲线发生变化时,也必须重新计算距离,当AV驶入另一条车道或以其他方式改变其规划路径时,可能会发生参考曲线发生变化的情况。
本文描述了旨在解决上述问题和/或其他问题的方法和系统。
发明内容
在各种实施例中,为了规划自主车辆的轨迹,车辆的运动规划系统将确定一条参考曲线,该参考曲线代表自主车辆在一时间范围内在环境中可以行驶的路径。运动规划系统将从自主车辆的感知系统接收表示正在环境中移动的行动者的数据。运动规划系统将时间范围分割成多个时间区间。对于每个时间区间,运动规划系统将识别行动者的边界几何图形,其中边界几何图形表示围绕行动者的关注区域。运动规划系统将预测参考曲线与行动者之间的横向偏移距离,并且将使用预测的横向偏移距离来确定自主车辆的轨迹。
在一些实施例中,运动规划系统可以将预测的横向偏移距离存储在查找表中。在这样的情况下,当使用预测的横向偏移距离来确定自主车辆的轨迹时,正在移动的行动者接近自主车辆时,系统可以从查找表中提取预测的横向偏移距离。
在一些实施例中,使用预测的横向偏移距离来确定自主车辆的轨迹可以包括:根据预测的横向偏移距离,确定自主车辆的配置空间中被行动者占用的一个或多个区域以及自主车辆的配置空间中没有被行动者占用的一个或多个区域。该系统可以确定自主车辆的规划轨迹是否会与配置空间中任何一个被占用区域冲突。当自主车辆的规划轨迹会与配置空间中任何一个被占用区域冲突时,系统可以改变规划轨迹以使其完全处于自主车辆的没有被占用的配置空间之内并且处于自主车辆的被占用的配置空间之外。
在一些实施例中,使用预测的横向偏移距离来确定自主车辆的轨迹包括:确定自主车辆的配置空间中被占用的一个或多个区域;确定自主车辆的配置空间中没有被占用的一个或多个区域;以及确定完全处于自主车辆的配置空间中没有被占用的区域之内并且处于自主车辆的配置空间中被占用的所有区域之外的规划轨迹。
在一些实施例中,识别行动者的边界框并且预测参考曲线与行动者之间的横向偏移距离包括:对于每个时间区间:(i)确定行动者在该时间区间内的粗略边界几何图形;以及(ii)确定行动者的粗略边界几何图形是否会与自主车辆在参考曲线上的距离区间内的粗略边界几何图形相交。如果行动者的粗略边界几何图形不会与自主车辆的粗略边界几何图形相交,则系统可以移动到下一时间区间或下一距离区间,而不预测该时间区间或距离区间的横向偏移距离。如果行动者的粗略边界几何图形会与自主车辆的粗略边界几何图形相交,则系统可以确定行动者在时间子区间内的多个精细边界几何图形和自主车辆在距离子区间内的精细边界几何图形,然后系统可以确定在行动者和自主车辆的精细边界几何图形相交的每个位置的横向偏移距离。在一些实施例中,运动规划系统可以通过确定自主车辆的边界框并且通过将自主车辆的边界框横向扩展阈值来确定自主车辆的粗略边界几何图形。
在一些实施例中,识别行动者的边界几何图形并且预测参考曲线与行动者之间的横向偏移距离包括:对于每个时间区间:(i)将时间区间细分为时间子区间;(ii)对于每个时间子区间,确定行动者的精细边界几何图形;(iii)确定与时间区间相对应的距离区间,并且将参考曲线上的距离区间细分为多个距离子区间;(iv)对于每个距离子区间,确定自主车辆的精细边界几何图形;(v)识别时间区间和对应的距离子区间对,并且对于每个时间子区间和距离子区间对;以及(vi)确定行动者的精细边界几何图形是否与自主车辆的精细边界几何图形相交。如果行动者的精细边界几何图形不与自主车辆的精细边界几何图形相交,则系统可以继续到下一时间子区间。如果行动者的精细边界几何图形与自主车辆的精细边界几何图形相交,则系统可以预测在距离子区间内在参考曲线上的采样位置处到行动者在时间子区间内的边界几何图形的横向偏移。
在一些实施例中,预测自主车辆和正在移动的行动者之间的横向偏移距离可以包括:确定自主车辆的边界框和正在移动的行动者的凸包(convex hull)之间的距离。
在一些实施例中,其中识别行动者的边界框并且预测参考曲线与行动者之间的横向偏移距离包括:对于每个时间区间:(i)将时间区间细分为时间子区间;(ii)对于每个时间子区间,确定行动者的精细边界几何图形;以及(iii)确定与时间区间相对应的距离区间,确定最大距离区间长度以保证相对于参考曲线上的参考点的检测范围。确定距离区间可以使用算法δdetect=p-rturn,这将在下文更详细地描述。
附图说明
图1示出了笛卡尔坐标系下的参考曲线的示例。
图2是示出使用曲线坐标系下的配置空间计算来确定自主车辆的轨迹的过程的流程图。
图3示出了自主车辆的车载计算系统如何预测正在移动的行动者相对于参考曲线随时间的运动的示例。
图4A-4F示出了如何计算在一系列时间区间内参考曲线上的多个采样位置到正在移动的行动者的横向偏移。
图5示出了从粗略到精细的接近度检查过程的示例。
图6A和6B示出了正在移动的行动者的示例粗略边界几何图形。
图7A和7B示出了自主车辆的示例精细边界几何图形。
图8示出了可用于计算正在移动的行动者的保证检测采样范围的示例几何图形。
图9示出了自主车辆的示例系统和组件。
图10是说明AV和/或外部电子设备的可能电子子系统的各种元件的框图。
具体实施方式
本文中使用的单数形式“一”、“一个”和“该”包括复数形式,除非上下文另有明确规定。除非另有定义,否则本文中使用的所有技术和科学术语与本领域普通技术人员通常理解的含义相同。在本文中使用的术语“包含”是指“包括但不限于”。与本文相关的附加术语的定义包含在具体实施方式的末尾。
本文描述了一种方法,通过该方法,自主车辆(AV)的运动规划系统可以通过在曲线坐标系下确定AV的被占用的和没有被占用的配置空间来确定AV的轨迹。机器人设备的“配置空间”是设备随着时间的推移可能获得的位置的空间。在笛卡尔坐标系中,位置包括地点和方向,因此可以被认为是车辆随着时间的推移可以达到的可能{x,y,yaw}姿态。然而,在曲线坐标系中,配置空间考虑了随着时间的推移车辆相对于参考曲线可以达到的可能的{纵向、横向}位置。本文的系统使用曲线坐标系来计算配置空间。配置空间中AV将接触另一个对象的部分是“被占用的”,而没有这种接触的部分则是“没有被占用的”。“AV的运动规划系统然后可以在没有被占用的配置空间中计算轨迹——并且避免将轨迹置于被占用的配置空间中——以避免与其他对象发生冲突。
图2示出了AV的运动规划系统可以实现这一点的示例过程。在201,系统可以识别参考曲线,该参考曲线代表AV在一时间范围内在环境中可以行进的路径。例如,系统可以将AV正在行驶和/或将要行驶的车道的中心线或在AV正在行驶和/或将要行驶的多个车道的中心线之间转换的曲线识别为参考曲线。该系统可以将在感知数据中检测到的和/或存储在AV所在位置的地图中的车道标线之间的中点识别为中心。
图2示出了AV的运动规划系统可以实现这一点的示例过程。在201,系统可以识别参考曲线,该参考曲线代表AV在一时间范围内在环境中可以行进的路径。例如,系统可以将AV正在行驶和/或将要行驶的车道的中心线或在AV正在行驶和/或将要行驶的多个车道的中心线之间转换的曲线识别为参考曲线。该系统可以将在感知数据中检测到的和/或存储在AV所在位置的地图中的车道标线之间的中点识别为中心。在202,系统将从自主车辆的感知系统接收表示正在环境中移动的行动者的数据。下文描述了该系统可以实现这一点的方法。行动者可以是另一车辆(如轿车、卡车、自行车或公共汽车)、行人、动物或被检测到的并且正在移动的任何其他行动者。
在203,系统将时间范围中的关注时段(其中关注时段可以包括时间范围的全部或一部分)划分为离散的时间区间,并且将参考曲线上的关注区域(其中关注区域可以包括参考曲线的全部或部分)划分成离散的距离区间。为此,系统可以识别沿着参考曲线的一组离散点,然后将两个相邻点之间的区间确定为每个距离区间。
在205,AV的运动规划系统将接收行动者的预测轨迹(通过AV的预测系统确定),并且在206,运动规划系统然后将确定行动者在每个时间区间的起点和终点的预期位置。例如,图3示出了相对于参考曲线301行动者(表示为凸包303)在时间t0、t1、t2和t3的相对位置。
返回图2,在207,系统将针对每个时间区间执行行动者的接近度检查,这意味着系统将确定行动者在时间区间所接近的沿着参考曲线的距离区间。如果行动者足够靠近参考曲线以使其与轨迹规划具有相关性,则系统将认为行动者接近参考曲线,这意味着AV可以响应于行动者的位置而采取制动或转向动作。相关性可以被确定为距参考曲线的简单阈值距离,或者被确定为行动者的其他特性的函数。下文将描述系统可以实现这一点的示例方法。
在208,系统将计算在时间区间所接近的每个距离区间内的每个采样点到行动者的横向偏移。这在图4A-4D中示出。对于每个时间区间,系统将计算围绕行动者在该时间区间的起点和终点处的预期位置的凸包303。图4A和4B示出了在时间区间[t0,t1]期间,可以分别从采样位置s1和s2计算从采样位置s1和s2到AV的边界框309上的参考点的横向偏移305a、305b(其中横向偏移AV边界框309的位置接触行动者的凸包303)。在图4C中,在时间区间[t0,t1]期间,在采样位置s3处,行动者(表示为凸包303)不横向于参考曲线,因此在该时间区间内不从参考点s3计算偏移。
图4D-4F示出了在时间区间[t1,t2]期间的计算。与图4C和第一时间区间一样,图4D示出了在时间区间[t1,t2]期间,行动者303不是从采样位置s1横向的,因此对于该时间区间,不从s1计算偏移。然而,如图4E和4F所示,在时间区间[t1,t2]期间,可以从采样点s2和s3计算横向偏移305e、305f。因此,仅当行动者实际上接近参考曲线时,系统可以计算横向偏移距离。这有助于优化运行时的计算资源分配,也有助于系统选择离散的交互区间并分别进行推理。
在208计算的横向偏移可以是如图4A-4F所示AV的边界框309必须行进以接触行动者303的凸包的边缘的离曲线的距离,或者是由系统的偏移计算规则确定的另一距离测量。该系统可以使用多种这样的算法来确定横向偏移距离,并且可以将这些距离保存到查找表中。例如,对于每个时间区间,查找表可以包括在沿着参考曲线的每个位置处从参考曲线到对象的每一侧的横向距离。将距离保存到查找表使系统能够统一距离计算,以提高运动规划计算的效率。可选地,一旦确定了距离表,只要AV的候选轨迹和参考曲线之间的最大偏差低于指定阈值,就可以使用该距离表。如果偏差大于阈值,则表相对于该轨迹的可靠性可能是有问题的,并且系统将基于AV的候选轨迹,通过重新进行本文和附图中描述的计算,重新计算相对于新的参考曲线的新查找表。可选地,系统可以仅在参考曲线上的关注时间段或关注区域上执行重新计算。
当在207执行接近度检查时,系统最初可以使用相对粗略的边界几何图形来定义AV和行动者所占用的空间。粗略边界几何图形将包括AV或行动者的全部,并且还可以包括AV或行动者周围相对较大量的空间。然而,对于接近度检查确定AV和行动者的粗略边界几何图形相交的任何时间区间,系统可以确定一个或多个更精细的边界几何图形,更精细的边界几何图形更精确地定义关注区域,以包括AV或行动者周围相对较少的额外空间。下文将更详细地描述这种粗略到精细的定位以及每个步骤的边界几何图形确定。
如图4A-4D所示,在计算到行动者的横向偏移之前,系统可以使用接近度检查算法来确定在每个时间区间内行动者接近的沿着参考曲线的距离区间。可以使用任何合适的接近度检查算法。图5示出了示例分层的粗略到精细的接近度检查过程。一开始,在501,系统将在距离参考曲线的横向距离上横向扩展AV的边界框所需的阈值,以应对接近的行动者。在距离参考曲线的横向距离上处于该阈值内的行动者足够靠近参考曲线以使其与轨迹规划具有相关性,这意味着AV可以响应于行动者的位置而采取制动或转向动作。横向距离阈值可以基于参考曲线通过的车道或可行驶区域的宽度。图6A示出了一个示例,其中分别在参考曲线601上的采样点s1和s3处示出了AV的扩展边界框609a、609b。之后,在502,该过程通过确定正在移动的行动者在时间区间内的粗略边界框开始。合适的粗略几何图形可以是“跑道”或“胶囊”几何图形,由行动者在时间区间的起点和终点的边界框周围的边界圆构成。“跑道”包括行动者在整个时间区间内可以行进通过的所有地点。图6B中示出了一个示例,其示出了正在移动的行动者在时间区间[t0,t2]内的边界跑道603。
返回图5,在503,对于包括AV的边界框的参考曲线上的距离区间,系统将确定AV的边界框的粗略边界几何图形。图6B中示出了一个示例,其示出了在沿着参考曲线601的[s1,s3]之间的距离区间内扩展的AV边界框的边界跑道609。在504,系统将确定正在移动的行动者和AV的粗略边界几何图形是否相交。如果正在移动的行动者和AV的粗略边界几何图形不相交(504:否),则接近度检查可以继续到沿着参考曲线的下一距离区间或者下一时间区间(步骤505)。
另一方面,如果正在移动的行动者和AV的粗略边界几何图形确实相交(504:是),则在506,系统可以将宽的时间和距离区间分割成多个较小的子区间。然后,在507,系统可以在每个时间子区间上为行动者确定相对更精细的边界几何图形,并且在508,在每个距离子区间上为AV确定相对更精细的边界几何图形。合适的精细几何图形可以是“定向边界框”
在509,系统然后将针对每个子区间确定正在移动的行动者和AV的精细边界几何图形是否相交。如果正在移动的行动者和AV的精细边界几何图形不相交(509:否),则接近度检查可以继续到沿着参考曲线的下一距离子区间或者下一时间子区间(步骤510)。如果精细边界几何图形相交(509:是),则在511,系统然后将在距离子区间内的每个位置处,确定从参考曲线到正在移动的行动者在时间子区间内的凸包的横向偏移距离。该过程的示例结果如图7A所示,其中分别在采样点s1和s2处沿着参考曲线701示出了扩展的AV边界框703a、703b。图7B示出了在参考曲线上的采样点[s1,s2]之间的距离区间内AV的精细边界几何图形709。可以应用其他接近度检查算法,例如其他分层相交检查方法或者空间索引方法,例如R树。
在一些实施例中,当将时间范围离散为时间区间时(或者甚至在计算过程开始时的初始时间区间时),系统可以采取预防措施,以避免在关键时间点忽略行动者的位置。例如,如果正在移动的行动者正朝着与参考曲线交叉的方向前进,那么行动者在时间t0可能在曲线的一侧,在时间tl在曲线的另一侧。这两个采样时间不会捕捉到行动者实际穿过参考曲线的时间。为了解决这个问题,系统可能需要最小化采样次数。该系统还可以计算行动者的边界框在采样时间之间的凸包。在上面的例子中,即使t0和t1处的各个边界框不相交,行动者在t0和t1的边界框的凸包也会与参考曲线相交。
在一些实施例中,当将参考曲线离散为距离区间时,系统可以确定最大距离区间长度,以保证相对于参考曲线的检测范围。这可以参考图8来理解,图8中参考曲线801被描绘为分别在采样点s1和s2中的每一个处具有AV 809a、809b的边界框。合适的算法可以将δdetect视为保证的检测范围(即,保证检测到任何对象的参考曲线的距离范围)。对于沿着参考曲线801的给定的位置采样s1和s2对,保证的检测范围δdetect=p-rturn,其中:
p是平行四边形的对角线
其中a和b是平行四边形的边:
a=dfront/sin(Δθ)
b=drear/sin(Δθ)
其中dfront和drear分别是从参考点到AV的前部和后部的距离。
rturn是参考曲线的转弯半径,计算公式为rturn=Δs/Δθ。
如果航向的变化Δθ为零,在Δθ>dfront+drear的情况下,保证检测范围=0,否则检测范围为无穷大。
返回图2,一旦确定了行动者与参考曲线的横向偏移,系统可以使用该信息来识别AV的配置空间中被占用的区域(210)。如前所述,在208,对于每个时间区间,并且对于沿着参考曲线的每个采样点,系统可以确定行动者所占用的横向偏移。在209,系统可以将这些计算存储在查找表中。在210,系统随后可以从查找表中提取横向偏移并且使用它们来识别AV的配置空间中被占用的区域,如上所述。
在211,系统可以识别剩余的(没有被占用的配置空间作为空闲的配置空间211,用于其运动规划。具体而言,在212,运动规划系统可以计算避免与被占用的配置空间相交并且只包括没有被占用的配置空间的轨迹。或者,如果已经计算出轨迹并且该轨迹将穿过被占用的配置空间(即,与被占用的配置空间相交),则在213,系统可以通过改变冲突部分和/或通过计算或选择新的轨迹来改变该轨迹。修改或改变可能导致AV:(a)在到达被占用的配置空间之前减速,从而允许正在移动的行动者通过;(b)在空间将被占用之前的时间区间内加速通过被占用的配置空间;或(c)移动到另一车道或以其他方式改变方向以避开被占用的配置空间。
图9示出了用于车辆(例如AV)的示例系统体系结构999。车辆包括发动机或马达902以及用于测量车辆和/或其环境的各种参数的各种传感器。两种类型的车辆通用的操作参数传感器包括,例如:位置传感器936,例如加速度计、陀螺仪和/或惯性测量单元;速度传感器938;以及里程计传感器940。车辆还可以具有时钟942,系统使用该时钟942来确定操作期间的车辆时间。时钟942可以被编码到车辆车载计算设备中,时钟942可以是单独的设备,或者可以有多个时钟。
车辆还将包括用于收集有关车辆行驶环境的信息的各种传感器。这些传感器可以包括例如定位传感器960,例如全球定位系统(GPS)设备;对象检测传感器,例如一个或多个摄像机962;LiDAR(光探测和测距)传感器系统964;和/或雷达和/或声纳系统966。传感器还可以包括环境传感器968,例如降水传感器和/或环境温度传感器。对象检测传感器可以使车辆能够检测在任何方向上在车辆999的给定距离范围内的正在移动的行动者和静止对象,同时环境传感器收集关于车辆行驶区域内的环境条件的数据。该系统还将包括一个或多个摄像机962,用于捕捉环境的图像。这些传感器中的任何一个或全部,连同车辆的车载计算设备920的一个或多个处理器以及当由处理器执行时使计算系统能够对感知数据中的对象进行分类的编程指令,可以被认为是车辆的感知系统。
在车辆部署期间,车辆将从车辆的感知系统的一个或多个传感器接收感知数据。感知数据可以包括表示环境中的一个或多个对象的数据。感知系统将处理数据以识别对象,并且为场景中检测到的每个对象分配分类标签和唯一标识符。分类标签可以包括车辆、骑自行车人、行人、建筑物等类别。识别对象和为对象分配分类标签的方法在本领域是众所周知的,并且可以使用任何合适的分类过程,例如对场景中检测到的对象进行边界框预测并使用卷积神经网络或其他计算机视觉模型的分类过程。下列文件中描述了一些这样的过程:Yurtsever等,“自主驾驶调查:常见做法和新兴技术(A Survey of AutonomousDriving:Common Practices and Emerging Technologies)”(arXiv,2020年4月2日)。
在车辆行驶过程中,信息从传感器传递到车载计算设备920。车载计算设备920分析由感知系统传感器捕获的数据,并且充当运动规划系统,执行指令以确定车辆的轨迹。各种运动规划技术是众所周知的,例如下列文件中所描述的:Gonzalez等,“自动化车辆运动规划技术综述(A Review of Motion Planning Techniques for Automated Vehicles)”,发表在IEEE智能交通系统汇刊上,第17卷第4期(2016年4月)。轨迹将包括姿态和时间参数,车辆的车载计算设备将控制各种车辆部件的操作以使车辆沿着轨迹移动。例如,车载计算设备920可以经由制动控制器922来控制制动;经由转向控制器924来控制方向;通过节气门控制器926(在燃气动力车辆中)或马达速度控制器928(例如电动车辆中的电流水平控制器)来控制速度和加速度;控制差速齿轮控制器930(在具有变速器的车辆中)和/或控制其他控制器954。
地理位置信息可以从定位传感器960传送到车载计算设备920,然后车载计算设备920可以访问与位置信息相对应的环境地图,以确定环境的已知固定特征,例如街道、建筑物、停车标志和/或停/走信号。从摄像机962捕获的图像和/或从诸如LiDAR系统964之类的传感器捕获的对象检测信息从这些传感器传送到车载计算设备920。对象检测信息和/或捕获的图像可以由车载计算设备920处理,以检测车辆999附近的对象。附加地或可替换地,AV可以将任何数据发送到外部服务器以进行处理。用于基于传感器数据和/或捕获的图像进行对象检测的任何已知或将要已知的技术都可以用于本文公开的实施例中。
在本文讨论的各种实施例中,描述可以说明车辆或车辆的车载计算设备可以实现编程指令,该编程指令使车辆的车载计算机设备做出决策,并且使用这些决策来控制一个或多个车辆系统的操作。然而,实施例不限于这种布置,因为在各种实施例中,分析、决策和/或操作控制可以全部或部分地由与车辆的车载计算设备进行电子通信的其他计算设备来处理。这样的其他计算设备的示例包括与乘坐车辆的人相关联的电子设备(例如智能手机),以及通过无线通信网络与车辆电子通信的远程服务器。任何这样的设备的处理器都可以执行上面讨论的操作。
图10描述了可以包括在系统的任何电子组件中的内部硬件的示例,例如AV的内部处理系统、外部监控和报告系统或远程服务器。电气总线1000用作互连硬件的其它所示组件的信息高速公用通道。处理器1005是系统的中央处理设备,被配置为执行执行编程指令所需的计算和逻辑操作。本文和权利要求中所使用的术语“处理器”和“处理设备”可以指单个处理器或处理器集中的任意数量的处理器,这些处理器共同执行一组操作,例如中央处理单元(CPU)、图形处理单元(GPU)、远程服务器或这些的组合。只读存储器(ROM)、随机存取存储器(RAM)、闪存、硬盘驱动器和能够存储电子数据的其他设备构成存储器设备1025的示例。存储器设备可以包括单个设备或存储数据和/或指令的设备集。本发明的各种实施例可以包括包含编程指令的计算机可读介质,编程指令被配置为使一个或多个处理器执行在先前附图的情景中描述的功能。
可选的显示接口1030可以允许来自总线1000的信息以视觉、图形或字母数字格式显示在显示设备1035上,例如车辆的仪表板内部显示系统上。还可以提供音频接口和音频输出(例如扬声器)。与外部设备的通信可以使用各种通信设备1040来进行,例如无线天线、射频识别(RFID)标签和/或短程或近场通信收发器,其中的每一个可以可选地经由一个或多个通信系统与设备的其他组件通信连接。通信设备1040可以被配置为通信连接到通信网络,例如因特网、局域网或蜂窝电话数据网络。
硬件还可以包括用户接口传感器1045,该传感器允许从键盘或小键盘、操纵杆、触摸屏、触摸板、遥控器、指示设备和/或麦克风之类的输入设备1050接收数据。还可以从可以捕获视频和/或静止图像的摄像机1020接收数字图像帧。该系统还可以从加速度计、陀螺仪或惯性测量单元之类的运动和/或位置传感器1070接收数据。该系统还可以接收来自LiDAR系统1060的数据,例如本文中先前描述的数据。
上述公开的特征和功能以及替代方案可以组合到许多其他不同的系统或应用中。各种组件可以用硬件或软件或嵌入式软件来实现。本领域技术人员可以做出各种目前不可预见或不可预期的替代方案、修改、变化或改进,其中的每一个也旨在被公开的实施例所涵盖。
与上述公开内容相关的术语包括:
“自动化设备”或“机器人设备”是指包括处理器、编程指令和一个或多个物理硬件组件的电子设备,这些物理硬件组件可以响应于处理器的命令在最少人工干预或无需人工干预的情况下移动。通过这样的移动,机器人设备可以执行一个或多个自动功能或功能集。这样的操作、功能或任务的示例可以包括但不限于,操作车轮或螺旋桨以实现驾驶、飞行或其他运输动作、操作机器人升降机用于装载、卸载、医疗相关过程、建筑相关过程和/或诸如此类。示例自动化设备可以包括但不限于自主车辆、无人机和其他自主机器人设备。
术语“车辆”是指能够承载一名或多名乘客和/或货物并由任何形式的能量提供动力的任何移动形式的运输工具。术语“车辆”包括但不限于轿车、卡车、货车、火车、自主车辆、飞机、无人机等。“自主车辆”是指具有处理器、编程指令和传动系部件的车辆,传动系部件可由处理器控制,无需人工操作。自主车辆可以是完全自主的,对于大多数或所有的驾驶条件和功能,不需要人工操作。或者,自主车辆可以是半自主的,在某些条件下或对于某些操作,可能需要人工操作,或者人工操作可以超驰车辆的自主系统并且可以承担车辆的控制。自主车辆还包括自主系统增强车辆的人工操作的车辆,例如具有驾驶员辅助转向、速度控制、制动、停车和其他高级驾驶员辅助系统的车辆。
车辆的“行驶”是指操作车辆并且使车辆在现实世界中移动的行为。行驶可能发生在公共的不受控制的环境中,如城市或郊区街道、高速公路或开放道路。行驶也可能发生在诸如测试跑道之类的受控环境中。
术语“对象”指的是由车辆感知系统检测到或由模拟系统模拟的对象,旨在包括静止对象和正在移动(或潜在移动)的行动者,除非术语“行为者”或“静止对象”另有明确说明。
术语“边界框”是指代表对象位置的矩形框。边界框可以在数据中由对应于框的第一个角(例如右上角)的x轴和y轴坐标[xmax,ymax]以及对应于矩形的与第一个角相对的角(例如左下角)的x轴和y轴坐标[xmin,ymin]来表示。它可以被计算为包含对象的所有点的最小矩形,可选地加上额外的空间以允许误差幅度。对象的点可以是由一个或多个传感器检测到的点,例如由摄像机捕获的图像的像素,或者由LiDAR传感器捕获的点云的点。“边界几何图形”是提供上述边界框功能的形状,但不一定具有矩形形状。示例边界几何图形包括圆形、圆柱体、三角形、矩形和其他形状。
在本文中,术语“街道”、“车道”和“道路”以在一条或多条道路上行驶的车辆为例进行了说明。然而,实施例旨在包括其他位置的车道和交叉口,例如停车区。此外,对于设计用于室内的自主车辆(例如仓库中的自动分拣设备),车道可以是仓库的走廊,或者街道可以是走廊,车道也可以是走廊的一部分。如果自主车辆是无人机或其他飞行器,则术语“街道”或“道路”可以代表空中航线,车道可以是空中航线的一部分。如果自主车辆是船只,那么术语“街道”或“道路”可以表示水道,车道可以是水道的一部分。
“电子设备”或“计算设备”是指包括处理器和存储器的设备。每个设备可以具有其自己的处理器和/或存储器,或者处理器和/或者存储器可以与如虚拟机或容器布置中的其他设备共享。
存储器将包含或接收编程指令,该编程指令在由处理器执行时使电子设备根据编程指令执行一个或多个操作。
术语“存储器”、“存储器设备”、“数据存储”、“数字存储设备”等均指存储计算机可读数据、编程指令或两者的非暂时性设备。除非另有特别说明,否则术语“存储器”、“存储器设备”、“数据存储”、“数字存储设备”等旨在包括单个设备实施例、多个存储器设备一起或共同存储一组数据或指令的实施例、以及这些设备内的单个扇区。
术语“处理器”和“处理设备”是指被配置为执行编程指令的电子设备的硬件组件,如微处理器或其他逻辑电路。处理器和存储器可以是微控制器、定制可配置集成电路、可编程片上系统或被编程以执行各种功能的其他电子设备的元件。除非另有特别说明,否则单数术语“处理器”或“处理设备”旨在包括单个处理设备实施例和多个处理设备一起或共同执行过程的实施例。
在本文中,当使用“第一”和“第二”等相对顺序术语来修饰名词时,这种使用只是为了区分一个物品和另一个物品,除非特别说明,否则不旨在要求顺序。
Claims (21)
1.一种规划自主车辆的轨迹的方法,所述方法包括:
通过自主车辆的运动规划系统执行编程指令,所述编程指令使得所述运动规划系统的处理器:
确定代表所述自主车辆在一时间范围内在环境中可以行驶的路径的参考曲线,
从所述自主车辆的感知系统接收表示正在所述环境中移动的行动者的数据,
将所述时间范围分割成多个时间区间,以及
对于每个时间区间:
识别所述行动者的边界几何图形,其中所述边界几何图形表示围绕所述行动者的关注区域,
预测所述参考曲线与所述行动者之间的横向偏移距离,以及
使用预测的横向偏移距离来确定所述自主车辆的轨迹。
2.根据权利要求1所述的方法,还包括,通过所述运动规划系统:
将所述预测的横向偏移距离存储在查找表中,
其中使用所述预测的横向偏移距离来确定所述自主车辆的轨迹包括:当所述正在移动的行动者接近所述自主车辆时,从所述查找表中提取所述预测的横向偏移距离。
3.根据权利要求1所述的方法,其中:
使用所述预测的横向偏移距离来确定所述自主车辆的轨迹包括:根据所述预测的横向偏移距离,确定所述自主车辆的配置空间中被所述行动者占用的一个或多个区域,以及所述自主车辆的配置空间中没有被所述行动者占用的一个或多个区域;
所述方法还包括确定所述自主车辆的规划轨迹是否会与配置空间中被占用区域中的任何一个冲突;并且
所述方法还包括,当所述自主车辆的所述规划轨迹会与所述配置空间中被占用区域中的任何一个冲突时,改变所述规划轨迹以使其完全处于所述自主车辆的没有被占用的配置空间之内并且处于所述自主车辆的被占用的配置空间之外。
4.根据权利要求1所述的方法,其中使用所述预测的横向偏移距离来确定所述自主车辆的轨迹包括:
确定所述自主车辆的配置空间中被占用的一个或多个区域和所述自主车辆的配置空间中没有被占用的一个或多个区域;以及
确定完全处于所述自主车辆的配置空间中没有被占用的区域之内并且处于所述自主车辆的配置空间中被占用的所有区域之外的规划轨迹。
5.根据权利要求1所述的方法,其中识别所述行动者的边界几何图形并且预测所述参考曲线与所述行动者之间的横向偏移距离包括,对于每个时间区间:
确定所述行动者在所述时间区间内的粗略边界几何图形;
确定所述行动者的所述粗略边界几何图形是否会与所述自主车辆在所述参考曲线上的一距离区间内的粗略边界几何图形相交;
如果所述行动者的所述粗略边界几何图形不会与所述自主车辆的所述粗略边界几何图形相交,则移动到下一时间区间或下一距离区间,而不预测该时间区间或距离区间的横向偏移距离;以及
如果所述行动者的所述粗略边界几何图形会与所述自主车辆的所述粗略边界几何图形相交,则:
确定所述行动者在时间子区间内的多个精细边界几何图形和所述自主车辆在距离子区间内的多个精细边界几何图形,以及
确定在所述行动者和所述自主车辆的所述精细边界几何图形相交的每个位置的横向偏移距离。
6.根据权利要求1所述的方法,其中识别所述行动者的所述边界几何图形并且预测所述参考曲线与所述行动者之间的所述横向偏移距离包括:对于每个时间区间:
将所述时间区间细分为多个时间子区间;
对于每个时间子区间,确定所述行动者的精细边界几何图形;
确定与所述时间区间相对应的距离区间,并且将所述参考曲线上的所述距离区间细分为多个距离子区间;
对于每个距离子区间,确定所述自主车辆的精细边界几何图形;
识别多个时间区间和对应的距离子区间对,并且对于每个时间子区间和距离子区间对:
确定所述行动者的所述精细边界几何图形是否与所述自主车辆的所述精细边界几何图形相交,
如果所述行动者的所述精细边界几何图形不与所述自主车辆的所述精细边界几何图形相交,则继续到下一时间子区间,以及
如果所述行动者的所述精细边界几何图形与所述自主车辆的所述精细边界几何图形相交,则预测在所述距离子区间内在所述参考曲线上的采样位置处到所述行动者在所述时间子区间内的边界几何图形的横向偏移。
7.根据权利要求5所述的方法,还包括:通过所述运动规划系统利用以下方式确定所述自主车辆的所述粗略边界几何图形:
确定所述自主车辆的边界框;并且
将所述自主车辆的所述边界框横向扩展阈值。
8.根据权利要求1所述的方法,其中预测所述自主车辆与所述正在移动的行动者之间的所述横向偏移距离包括:确定所述自主车辆的边界框与所述正在移动的行动者的凸包之间的距离。
9.根据权利要求1所述的方法,其中识别所述行动者的所述边界框并且预测所述参考曲线与所述行动者之间的横向偏移距离包括:对于每个时间区间:
将所述时间区间细分为多个时间子区间;
对于每个时间子区间,确定所述行动者的精细边界几何图形;
确定最大距离区间长度以保证相对于所述参考曲线上的参考点的检测范围,确定距离区间δdetect=p-rturn,其中:
p是平行四边形的对角线其中
a和b是所述平行四边形的边:
a=dfront/sin(Δθ)
b=drear/sin(Δθ)
dfront和drear分别是从所述参考点到所述自主车辆的前部和后部的距离,以及
rturn是所述参考曲线的转弯半径,计算公式为rturn=Δs/Δθ;
对于每个距离子区间,确定所述自主车辆的精细边界几何图形;并且
确定所述行动者的所述精细边界几何图形在任何时间子区间和距离子区间对中是否与所述自主车辆的所述精细边界几何图形相交。
10.一种自主车辆,包括:
感知系统,所述感知系统包括一个或多个传感器,所述传感器被配置为识别和收集关于所述车辆的环境中的行动者的数据;和
计算设备,所述计算设备包括处理器和包含编程指令的存储器,所述编程指令被配置为使所述计算设备通过以下方式充当运动规划系统:
确定代表所述自主车辆在一时间范围内在环境中可以行驶的路径的参考曲线,
从所述感知系统接收表示正在所述环境中移动的行动者的数据,
将所述时间范围分割成多个时间区间,并且
对于每个时间区间:
识别所述行动者的边界几何图形,其中所述边界几何图形表示围绕所述行动者的关注区域,并且
预测所述参考曲线与所述行动者之间的横向偏移距离;以及
使用预测的横向偏移距离来确定所述自主车辆的轨迹。
11.根据权利要求10所述的自主车辆,还包括附加指令,所述附加指令配置为使得所述运动规划系统将所述预测的横向偏移距离存储在查找表中,
其中使用所述预测的横向偏移距离来确定所述自主车辆的轨迹的指令包括当所述正在移动的行动者接近所述自主车辆时从所述查找表中提取所述预测的横向偏移距离的指令。
12.根据权利要求10所述的自主车辆,其中:
使用所述预测的横向偏移距离来确定所述自主车辆的轨迹的指令包括根据所述预测的横向偏移距离确定所述自主车辆的配置空间中被所述行动者占用的一个或多个区域以及所述自主车辆的配置空间中没有被所述行动者占用的一个或多个区域;和
所述存储器还包括以下指令:
确定所述自主车辆的规划轨迹是否会与所述配置空间中被占用的区域中的任何一个冲突,以及
当所述自主车辆的所述规划轨迹会与所述配置空间中被占用的区域中的任何一个冲突时,改变所述规划轨迹以使其完全处于所述自主车辆的没有被占用的配置空间之内并且处于所述自主车辆的被占用的配置空间之外。
13.根据权利要求10所述的自主车辆,其中使用所述预测的横向偏移距离来确定所述自主车辆的轨迹的指令包括以下指令:
确定所述自主车辆的配置空间中被占用的一个或多个区域和所述自主车辆的配置空间中没有被占用的一个或者多个区域;以及
确定完全处于所述自主车辆的配置空间中没有被占用的区域之内并且处于所述自主车辆的配置空间中被占用的所有区域之外的规划轨迹。
14.根据权利要求1所述的自主车辆,其中识别所述行动者的所述边界几何图形并且预测所述参考曲线与所述行动者之间的所述横向偏移距离的指令包括以下指令,对于每个时间区间:
确定所述行动者在所述时间区间内的粗略边界几何图形;
确定所述行动者的所述粗略边界几何图形是否会与所述自主车辆在所述参考曲线上的距离区间内的粗略边界几何图形相交;
如果所述行动者的所述粗略边界几何图形不会与所述自主车辆的所述粗略边界几何图形相交,则移动到下一时间区间或下一距离区间,而不预测该时间区间或距离区间的横向偏移距离;并且
如果所述行动者的所述粗略边界几何图形会与所述自主车辆的所述粗略边界几何图形相交,则:
确定所述行动者在时间子区间内的多个精细边界几何图形和所述自主车辆在距离子区间内的多个精细边界几何图形,以及
确定在所述行动者与所述自主车辆的所述精细边界几何图形相交的每个位置的横向偏移距离。
15.根据权利要求10所述的自主车辆,其中识别所述行动者的所述边界几何图形并且预测所述参考曲线和所述行动者之间的所述横向偏移距离的指令包括以下指令,对于每个时间区间:
将所述时间区间细分为多个时间子区间;
对于每个时间子区间,确定所述行动者的精细边界几何图形;
确定与所述时间区间相对应的距离区间,并且将所述参考曲线上的所述距离区间细分为多个距离子区间;
对于每个距离子区间,确定所述自主车辆的精细边界几何图形;
识别多个时间区间和对应的距离子区间对,并且对于每个时间子区间和距离子区间对:
确定所述行动者的所述精细边界几何图形是否与所述自主车辆的所述精细边界几何图形相交,
如果所述行动者的所述精细边界几何图形不与所述自主车辆的所述精细边界几何图形相交,则继续下一时间子区间,并且
如果所述行动者的所述精确边界几何图形与所述自主车辆的所述精细边界几何学相交,则预测在所述距离子区间内在所述参考曲线上的采样位置处到所述行动者在所述时间子区间内的边界几何图形的横向偏移。
16.根据权利要求14所述的自主车辆,还包括使所述运动规划系统通过以下方式来确定所述自主车辆的所述粗略边界几何图形的指令:
确定所述自主车辆的边界框;并且
将所述自主车辆的所述边界框横向扩展阈值。
17.根据权利要求10所述的自主车辆,其中预测所述自主车辆与所述正在移动的行动者之间的所述横向偏移距离的指令包括确定所述自主车辆的边界框与所述正在移动的行动者的凸包之间的距离的指令。
18.根据权利要求10所述的自主车辆,其中识别所述行动者的所述边界框并且预测所述参考曲线与所述行动者之间的所述横向偏移距离的指令包括以下指令,对于每个时间区间:
将所述时间区间细分为多个时间子区间;
对于每个时间子区间,确定所述行动者的精细边界几何图形;
确定最大距离区间长度以保证相对于所述参考曲线上的参考点的检测范围,确定距离区间δdetect=p-rturn,其中:
p是平行四边形的对角线其中
a和b是所述平行四边形的边:
a=dfront/sin(Δθ)
b=drear/sin(Δθ)
dfront和drear分别是从所述参考点到所述自主车辆的前部和后部的距离,以及
rturn是所述参考曲线的转弯半径,计算公式为rturn=Δs/Δθ;
对于每个距离子区间,确定所述自主车辆的精细边界几何图形;并且
确定所述行动者的所述精细边界几何图形在任何时间子区间和距离子区间对中是否与所述自主车辆的所述精细边界几何图形相交。
19.一种规划自主车辆的轨迹的方法,所述方法包括:
通过自主车辆的运动规划系统执行编程指令,所述编程指令使得所述运动规划系统的处理器:
确定代表所述自主车辆在一时间范围内在环境中可以行驶的路径的参考曲线,
从所述自主车辆的感知系统接收表示正在所述环境中移动的行动者的数据,
将所述时间范围分割成多个时间区间,以及
对于每个时间区间:
识别所述行动者的边界几何图形,其中所述边界几何图形表示围绕所述行动者的关注区域,
通过确定所述自主车辆的边界框与所述正在移动的行动者的凸包之间的距离来预测所述参考曲线与所述行动者之间的横向偏移距离;以及
使用预测的横向偏移距离通过以下方式来确定所述自主车辆的轨迹:
确定所述自主车辆的配置空间中被占用的一个或多个区域以及所述自主车辆的配置空间中没有被占用的一个或多个区域;和
确定完全处于所述自主车辆的配置空间中没有被占用的区域之内并且处于所述自主车辆的配置空间中被占用的所有区域之外的规划轨迹。
20.根据权利要求19所述的方法,还包括:通过所述运动规划系统:
将所述预测的横向偏移距离存储在查找表中,
其中使用所述预测的横向偏移距离来确定所述自主车辆的轨迹包括:当所述正在移动的行动者接近所述自主车辆时,从所述查找表中提取所述预测的横向偏移距离。
21.一种包含编程指令的计算机可读介质,所述编程指令被配置为使自主车辆的处理器通过以下方式充当运动规划系统:
确定代表所述自主车辆在一时间范围内在环境中可以行驶的路径的参考曲线,
从所述车辆的感知系统接收表示正在所述环境中移动的行动者的数据,
将所述时间范围分割成多个时间区间,并且对于每个时间区间:
识别所述行动者的边界几何图形,其中所述边界几何图形表示围绕所述行动者的关注区域,以及
预测所述参考曲线与所述行动者之间的横向偏移距离,以及
使用预测的横向偏移距离来确定所述自主车辆的轨迹。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US17/104,937 US11884268B2 (en) | 2020-11-25 | 2020-11-25 | Motion planning in curvilinear coordinates for autonomous vehicles |
US17/104,937 | 2020-11-25 | ||
PCT/US2021/057753 WO2022115213A1 (en) | 2020-11-25 | 2021-11-02 | Motion planning in curvilinear coordinates for autonomous vehicles |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116529141A true CN116529141A (zh) | 2023-08-01 |
Family
ID=81657931
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202180079406.1A Pending CN116529141A (zh) | 2020-11-25 | 2021-11-02 | 自主车辆曲线坐标系下的运动规划 |
Country Status (4)
Country | Link |
---|---|
US (1) | US11884268B2 (zh) |
CN (1) | CN116529141A (zh) |
DE (1) | DE112021006154T5 (zh) |
WO (1) | WO2022115213A1 (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20230012905A1 (en) * | 2021-07-02 | 2023-01-19 | Canoo Technologies Inc. | Proximity detection for automotive vehicles and other systems based on probabilistic computing techniques |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9174672B2 (en) | 2013-10-28 | 2015-11-03 | GM Global Technology Operations LLC | Path planning for evasive steering maneuver in presence of target vehicle and surrounding objects |
JP6532786B2 (ja) * | 2015-08-07 | 2019-06-19 | 株式会社日立製作所 | 車両走行制御装置及び速度制御方法 |
DE102015220360A1 (de) | 2015-10-20 | 2017-04-20 | Robert Bosch Gmbh | Verfahren zur Auswahl einer optimierten Trajektorie |
US9830822B2 (en) * | 2015-11-11 | 2017-11-28 | Denso Corporation | Driving assistance apparatus |
US10144474B2 (en) * | 2016-07-01 | 2018-12-04 | Regents Of The University Of Minnesota | Collision detection |
US10096251B2 (en) | 2016-12-16 | 2018-10-09 | Insitu, Inc. | Systems and methods for establishing a flight pattern adjacent to a target for a vehicle to follow |
US11004000B1 (en) * | 2017-01-30 | 2021-05-11 | Waymo Llc | Predicting trajectory intersection by another road user |
US10379538B1 (en) | 2017-03-20 | 2019-08-13 | Zoox, Inc. | Trajectory generation using motion primitives |
US10816990B2 (en) * | 2017-12-21 | 2020-10-27 | Baidu Usa Llc | Non-blocking boundary for autonomous vehicle planning |
US10829113B2 (en) * | 2018-09-17 | 2020-11-10 | Ford Global Technologies, Llc | Vehicle collision avoidance |
DE102018008599A1 (de) | 2018-10-31 | 2020-04-30 | Trw Automotive Gmbh | Steuerungssystem und Steuerungsverfahren zum Bestimmen einer Trajektorie für ein Kraftfahrzeug |
US11518381B2 (en) * | 2019-08-14 | 2022-12-06 | Ford Global Technologies, Llc | Enhanced threat selection |
US11225247B2 (en) * | 2019-08-21 | 2022-01-18 | Zoox, Inc. | Collision prediction and avoidance for vehicles |
RU2757038C2 (ru) * | 2019-12-30 | 2021-10-11 | Общество с ограниченной ответственностью "Яндекс Беспилотные Технологии" | Способ и система для предсказания будущего события в беспилотном автомобиле (sdc) |
US11498554B2 (en) * | 2020-02-25 | 2022-11-15 | Ford Global Technologies, Llc | Enhanced object detection and response |
-
2020
- 2020-11-25 US US17/104,937 patent/US11884268B2/en active Active
-
2021
- 2021-11-02 DE DE112021006154.2T patent/DE112021006154T5/de active Pending
- 2021-11-02 CN CN202180079406.1A patent/CN116529141A/zh active Pending
- 2021-11-02 WO PCT/US2021/057753 patent/WO2022115213A1/en active Application Filing
Also Published As
Publication number | Publication date |
---|---|
WO2022115213A1 (en) | 2022-06-02 |
DE112021006154T5 (de) | 2023-10-12 |
US20220161791A1 (en) | 2022-05-26 |
US11884268B2 (en) | 2024-01-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11726477B2 (en) | Methods and systems for trajectory forecasting with recurrent neural networks using inertial behavioral rollout | |
CN114127655B (zh) | 封闭车道检测 | |
CN112752950A (zh) | 修改与地图数据相关联的地图元素 | |
US20220105959A1 (en) | Methods and systems for predicting actions of an object by an autonomous vehicle to determine feasible paths through a conflicted area | |
US20220188695A1 (en) | Autonomous vehicle system for intelligent on-board selection of data for training a remote machine learning model | |
CN116710977B (zh) | 用于构建远程机器学习模型的数据的智能车载选择的自主车辆系统 | |
US11643105B2 (en) | Systems and methods for generating simulation scenario definitions for an autonomous vehicle system | |
WO2022251766A1 (en) | Trajectory consistency measurement for autonomous vehicle operation | |
US11718290B2 (en) | Methods and systems for safe out-of-lane driving | |
US20220146277A1 (en) | Architecture for map change detection in autonomous vehicles | |
CN116529141A (zh) | 自主车辆曲线坐标系下的运动规划 | |
US20230056589A1 (en) | Systems and methods for generating multilevel occupancy and occlusion grids for controlling navigation of vehicles | |
CN117916682A (zh) | 使用时空凸形走廊的运动规划 | |
EP4148600A1 (en) | Attentional sampling for long range detection in autonomous vehicles | |
EP4163755B1 (en) | Systems and methods for controlling speed of an autonomous vehicle | |
US20220379911A1 (en) | Using relevance of objects to assess performance of an autonomous vehicle perception system | |
US11881031B2 (en) | Hierarchical processing of traffic signal face states | |
US20220382284A1 (en) | Perception system for assessing relevance of objects in an environment of an autonomous vehicle | |
US20230252638A1 (en) | Systems and methods for panoptic segmentation of images for autonomous driving | |
EP4140844A2 (en) | Persisting predicted objects for robustness to perception issues in autonomous driving | |
US20230410469A1 (en) | Systems and methods for image classification using a neural network combined with a correlation structure | |
WO2022251769A1 (en) | Using relevance of objects to assess performance of an autonomous vehicle perception system | |
CN117416344A (zh) | 自主驾驶系统中校车的状态估计 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |