CN115461258A - 用于自主导航期间对象避让的方法 - Google Patents
用于自主导航期间对象避让的方法 Download PDFInfo
- Publication number
- CN115461258A CN115461258A CN202180030320.XA CN202180030320A CN115461258A CN 115461258 A CN115461258 A CN 115461258A CN 202180030320 A CN202180030320 A CN 202180030320A CN 115461258 A CN115461258 A CN 115461258A
- Authority
- CN
- China
- Prior art keywords
- time
- autonomous vehicle
- velocity
- calculating
- points
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 257
- 230000033001 locomotion Effects 0.000 claims abstract description 431
- 230000009471 action Effects 0.000 claims abstract description 86
- 230000001133 acceleration Effects 0.000 claims description 46
- 230000004044 response Effects 0.000 claims description 32
- 238000001514 detection method Methods 0.000 claims description 10
- 238000012886 linear function Methods 0.000 claims description 5
- 230000010354 integration Effects 0.000 claims description 2
- 230000003213 activating effect Effects 0.000 claims 1
- 230000006870 function Effects 0.000 description 149
- 239000002131 composite material Substances 0.000 description 30
- 230000008569 process Effects 0.000 description 25
- 230000008859 change Effects 0.000 description 22
- 230000006872 improvement Effects 0.000 description 12
- 239000013598 vector Substances 0.000 description 12
- 230000003042 antagnostic effect Effects 0.000 description 9
- 238000010801 machine learning Methods 0.000 description 6
- 238000005259 measurement Methods 0.000 description 6
- 230000007423 decrease Effects 0.000 description 4
- 230000002123 temporal effect Effects 0.000 description 4
- 241001417527 Pempheridae Species 0.000 description 3
- 230000001186 cumulative effect Effects 0.000 description 3
- 230000001934 delay Effects 0.000 description 3
- 230000003111 delayed effect Effects 0.000 description 3
- 238000009795 derivation Methods 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 238000007670 refining Methods 0.000 description 3
- 230000004931 aggregating effect Effects 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 2
- 239000010426 asphalt Substances 0.000 description 2
- 238000012512 characterization method Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 230000001747 exhibiting effect Effects 0.000 description 2
- 230000002441 reversible effect Effects 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 230000001131 transforming effect Effects 0.000 description 2
- HRANPRDGABOKNQ-ORGXEYTDSA-N (1r,3r,3as,3br,7ar,8as,8bs,8cs,10as)-1-acetyl-5-chloro-3-hydroxy-8b,10a-dimethyl-7-oxo-1,2,3,3a,3b,7,7a,8,8a,8b,8c,9,10,10a-tetradecahydrocyclopenta[a]cyclopropa[g]phenanthren-1-yl acetate Chemical group C1=C(Cl)C2=CC(=O)[C@@H]3C[C@@H]3[C@]2(C)[C@@H]2[C@@H]1[C@@H]1[C@H](O)C[C@@](C(C)=O)(OC(=O)C)[C@@]1(C)CC2 HRANPRDGABOKNQ-ORGXEYTDSA-N 0.000 description 1
- 238000012935 Averaging Methods 0.000 description 1
- 244000025254 Cannabis sativa Species 0.000 description 1
- 238000009825 accumulation Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000001276 controlling effect Effects 0.000 description 1
- 230000002996 emotional effect Effects 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000036316 preload Effects 0.000 description 1
- 230000001105 regulatory effect Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
- 230000008719 thickening Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W10/00—Conjoint control of vehicle sub-units of different type or different function
- B60W10/18—Conjoint control of vehicle sub-units of different type or different function including control of braking systems
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/08—Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
- B60W30/09—Taking automatic action to avoid collision, e.g. braking and steering
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/08—Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
- B60W30/095—Predicting travel path or likelihood of collision
- B60W30/0956—Predicting travel path or likelihood of collision the prediction being responsive to traffic or environmental parameters
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/14—Adaptive cruise control
- B60W30/143—Speed control
- B60W30/146—Speed limiting
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/18—Propelling the vehicle
- B60W30/18009—Propelling the vehicle related to particular drive situations
- B60W30/181—Preparing for stopping
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/02—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
- B60W40/06—Road conditions
- B60W40/068—Road friction coefficient
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/10—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
- B60W40/105—Speed
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W60/00—Drive control systems specially adapted for autonomous road vehicles
- B60W60/001—Planning or execution of driving tasks
- B60W60/0011—Planning or execution of driving tasks involving control alternatives for a single driving scenario, e.g. planning several paths to avoid obstacles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/50—Systems of measurement based on relative movement of target
- G01S17/58—Velocity or trajectory determination systems; Sense-of-movement determination systems
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/93—Lidar systems specially adapted for specific applications for anti-collision purposes
- G01S17/931—Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/04—Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
- G08G1/165—Anti-collision systems for passive traffic, e.g. including static obstacles, trees
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
- G08G1/166—Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/408—Radar; Laser, e.g. lidar
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2552/00—Input parameters relating to infrastructure
- B60W2552/40—Coefficient of friction
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/40—Dynamic objects, e.g. animals, windblown objects
- B60W2554/404—Characteristics
- B60W2554/4041—Position
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/40—Dynamic objects, e.g. animals, windblown objects
- B60W2554/404—Characteristics
- B60W2554/4042—Longitudinal speed
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/40—Dynamic objects, e.g. animals, windblown objects
- B60W2554/404—Characteristics
- B60W2554/4043—Lateral speed
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/80—Spatial relation or speed relative to objects
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60Y—INDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
- B60Y2300/00—Purposes or special features of road vehicle drive control systems
- B60Y2300/08—Predicting or avoiding probable or impending collision
- B60Y2300/095—Predicting travel path or likelihood of collision
- B60Y2300/0954—Predicting travel path or likelihood of collision the prediction being responsive to traffic or environmental parameters
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/12—Acquisition of 3D measurements of objects
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Electromagnetism (AREA)
- Automation & Control Theory (AREA)
- Remote Sensing (AREA)
- Computer Networks & Wireless Communication (AREA)
- Radar, Positioning & Navigation (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Mathematical Physics (AREA)
- Chemical & Material Sciences (AREA)
- Combustion & Propulsion (AREA)
- Traffic Control Systems (AREA)
- Navigation (AREA)
- Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
一种用于自主交通工具的自主导航的方法,包括:基于自主交通工具的当前速度,估计使自主交通工具达到完全停止的停止持续时间;从当前时间经过停止持续时间计算临界时间;在自主交通工具附近的场的扫描图像中检测对象,该扫描图像由自主交通工具上的传感器在当前时间捕获;基于扫描图像,导出对象的当前位置和运动;基于对象的当前位置和运动以及用于公共道路附近的通用对象的预定义运动限制假设的集合,计算未来状态边界,该未来状态边界表示到临界时间为止对象可进入的地面区域;以及选择导航动作,以避免在临界时间之前进入未来状态边界。
Description
相关申请的交叉引用
本申请要求于2020年2月21日提交的美国临时专利申请第62/980,131号、于2020年2月21日提交的美国临时专利申请第62/980,132号和于2020年8月11日提交的美国临时专利申请第63/064,316号的优先权,其中每一个美国临时专利申请都通过此引用以其整体并入。
技术领域
本发明总体上涉及自主交通工具(autonomous vehicle)领域,更具体地说,涉及用于自主交通工具领域中的自主导航期间对象避让(object avoidance)的新的和有用的方法。
附图简述
图1是方法的流程图表示;
图2是该方法的一个变型的流程图表示;
图3A、图3B、图3C是该方法的一个变型的流程图表示;
图4是该方法的一个变型的流程图表示;
图5是该方法的一个变型的流程图表示;
图6是该方法的一个变型的流程图表示;以及
图7是该方法的一个变型的流程图表示。
具体实施方式
本发明的实施例的以下描述并非旨在将本发明限制于这些实施例,而是使本领域技术人员能够制造和使用本发明。本文描述的变型、配置、实施方式、示例实施方式和示例是可选的,并且不排除它们描述的变型、配置、实施方式、示例实施方式和示例。本文描述的发明可以包括这些变型、配置、实施方式、示例实施方式和示例的任何组合和所有组合。
1.方法
如图1所示,一种用于自主导航期间对象避让的方法S100包括:在块S110中,在第一时间在自主交通工具处,基于自主交通工具在第一时间的速度估计使该自主交通工具达到完全停止的停止持续时间;在块S112中,存储从第一时间偏移停止持续时间的临界时间;在块S120中,检测在大约第一时间捕获的、自主交通工具周围的场(field)的第一扫描图像中的对象;以及在块S122中,基于第一扫描图像,导出对象沿着从自主交通工具到对象的第一射线的第一位置和第一径向速度。方法S100还包括在块S130中基于以下项来计算表示对象从第一时间到临界时间可进入的地面区域的第一未来状态边界:对象在第一时间的第一位置;对象的第一径向速度;以及为自主交通工具的运行而定义的通用对象的最大假设角速度和最大假设加速度。方法S100还包括,在块S142中,响应于处于第一时间的自主交通工具与未来状态边界的周界之间的第一距离超过阈值距离,使对象消隐(mute)而不将其纳入自主交通工具处的下一个路径规划考虑中;以及在块S144中,响应于阈值距离超过第一距离,计算在自主交通工具周围的不包括对象的未来状态边界的进入区(access zone),并在块S140中执行导航动作以从第一时间到临界时间保持在进入区中。
方法S100的一个变型包括:在块S110中,在第一时间在自主交通工具处,基于自主交通工具在第一时间的速度估计使自主交通工具达到完全停止的停止持续时间;在块S112中,计算从第一时间偏移停止持续时间的临界时间;在块S120中,检测在由自主交通工具上的传感器在大约第一时间捕获的、自主交通工具附近的场的第一扫描图像中的对象;在块S122中,基于第一扫描图像,导出第一对象的第一位置和第一运动;在块S130中,基于第一对象在第一时间的第一位置、第一对象的第一运动和针对公共道路附近的通用对象的预定义运动限制假设的集合,计算第一未来状态边界,该第一未来状态边界表示第一对象从第一时间到第一临界时间可进入的第一地面区域;以及在块S140中,选择第一导航动作以避免在第一临界时间之前进入第一未来状态边界。
方法S100的另一个变型包括:在块S102中,访问用于公共道路附近的通用对象的预定义运动限制假设的集合;在块S104中,访问包含由自主交通工具上的传感器在第一时间捕获的数据的扫描图像;在块S120中,识别扫描图像中表示自主交通工具附近的场中的对象的一组点,该组点中的每个点包括对象上的表面相对于自主交通工具的位置和对象的该表面相对于自主交通工具的径向速度;在块S122中,计算该组点中的点的径向速度和位置之间的相关性;在块S122中,基于该相关性,计算将在第一时间的对象的可能的切向速度和对象的可能的角速度关联起来的函数;在块S122中,基于该组点中的点的径向速度计算对象在第一时间的径向速度;在块S130中,基于由该函数定义的—在第一时间—对象的可能的切向速度和对象的可能的角速度、对象的径向速度和预定义运动限制假设的集合,计算未来状态边界,该未来状态边界表示对象在未来时间可进入的地面区域;以及在块S140中,选择导航动作以在未来临界时间之前避开未来状态边界。
方法S100的又一个变型包括在块S102中,访问针对公共道路附近的通用对象的预定义运动限制假设的集合。方法S100的该变型还包括,对于第一扫描周期:在块S104中,访问包含由自主交通工具上的传感器在第一时间捕获的数据的第一扫描图像;在块S120中,识别在第一扫描图像中表示自主交通工具附近的场中的第一对象的第一组点,该第一组点中的每个点包括从传感器到第一对象上的表面的第一测距值、第一对象上的表面相对于传感器的第一方位角位置和第一对象的表面相对于传感器的第一径向速度;在块S122中,计算第一点组中的点的第一径向速度和第一方位角位置之间的第一相关性;在块S122中,基于该第一相关性,计算将在第一时间的第一对象的可能的切向速度和第一对象的可能的角速度关联起来的第一函数;以及在块S122中,基于第一点组中的点的第一径向速度计算第一对象在第一时间的第一径向速度。方法S100的该变型还包括:在块S110中,基于自主交通工具在第一时间的第一速度,估计使自主交通工具达到完全停止的第一停止持续时间;在块S112中,计算从第一时间偏移停止持续时间的第一临界时间;在块S130中,基于由第一函数定义的——在第一时间——第一对象的可能的切向速度和第一对象的可能的角速度、第一径向速度和预定义运动限制假设的集合,计算表示第一对象在第一临界时间可进入的第一地面区域的第一未来状态边界;以及在块S140中,选择第一导航动作以避免在第一临界时间之前进入第一未来状态边界中。
2.应用
通常,方法S100可由自主交通工具(例如,自主公共汽车、自主客运交通工具)执行,以:检测其环境中的对象;基于预加载的通用对象的最大运动假设(或预加载的针对通用对抗性对象的对抗性运动限制),向对象分配最坏情况的速度和加速度值;估计对象从当前时间到自主交通工具在给定其当前速度的情况下可以制动到完全停止的时间可进入的最大地面区域;以及如果自主交通工具足够远离该最大可进入地面区域,则选择性地使该对象消隐,而不将其纳入路径规划考虑,或者考虑该对象并执行速度和/或转向角调整以避免未来进入到该最大可进入地面区域中。
更具体地说,在整个操作中,自主交通工具可以维持对其停止持续时间的估计,在给定自主交通工具的当前速度的情况下,自主交通工具可以在该停止持续时间内达到完全停止。当自主交通工具首次在其场中检测到对象时,自主交通工具可以:向该对象分配对抗性主体的预定义的、最坏情况的速度和加速度假设;并且计算在给定对象的当前位置的情况下,在自主交通工具的当前停止持续时间内,该对象在这些最坏情况的速度和加速度假设下可以进入的最大地面区域(下文中称为“未来状态边界”)。如果自主交通工具的当前位置充分偏离对象的该未来状态边界或以其他方式在对象的该未来状态边界之外,则自主交通工具:即使在对象的最坏情况的对抗性动作下,也可以预测自主交通工具在与该对象碰撞之前达到完全停止的能力;并且因此可以忽略对象或使对象消隐,而不将其纳入当前路径规划决策,并且代替地,等到稍后当自主交通工具接近对象的未来状态边界时,执行导航操作以避让对象。相反,如果自主交通工具的当前位置在对象的该未来状态边界附近,则自主交通工具可以减小它的速度(例如,减小与从自主交通工具到未来状态边界的周界的距离成反比的幅度),从而:减少自主交通工具的停止持续时间;缩小对象的未来状态边界(表示对象在自主交通工具的当前停止持续时间内可进入的最大地面区域);并使自主交通工具能够随着时间的推移保持在对象的该未来状态边界之外。因此,自主交通工具可以执行方法S100的块来通知所预测的导航动作(例如,速度和/或转向角调整),以维持与对象的空间和时间距离,以便即使在自主交通工具首次检测到其环境中的对象之后,对象立即在自主交通工具的方向上发起或继续对抗性动作,也能使自主交通工具在与对象碰撞之前达到完全停止。
此外,自主交通工具可以:在后续扫描图像上检测和跟踪该对象;从这些扫描图像导出对象的实际速度(例如,对象的绝对速度基于对象的位置在多个连续扫描图像上的变化和连续的径向速度测量值);并用对象的实际速度代替用于对象的速度的最坏情况的假设。然后,自主交通工具可以重复方法S100的块,以:基于对象的实际速度和用于通用对象的最坏情况的加速度假设,重新计算对象的未来状态边界;并基于自主交通工具相对于该修订的未来状态边界的位置,选择性地使对象消隐,而不将其纳入当前路径规划考虑。
例如,自主交通工具可以:存储高性能客运交通工具或高性能摩托车的最坏情况的速度和加速度(例如,50米/秒的最大速度,每秒9米/秒的最大加速度);并实现这些最坏情况的速度和加速度,以计算所有检测到的对象的未来状态边界,而不管这些对象的实际类型或类别如何。因此,自主交通工具可以减少或消除对用于识别对象的类型和将自主交通工具周围的场中的不可变对象(例如,路标、电线杆)与可变对象(例如,行人、交通工具)区分开来的对象识别和其他机器学习技术的依赖。更具体地说,不是基于根据所预测的对象类型而选择的动态模型来预测对象的未来状态,而是自主交通工具可以:基于对象的有限运动数据、对象相对于自主交通工具的当前位置以及用于通用对象(例如,通用高性能客运交通工具)的最大速度和加速度假设来预测和界定对象的未来状态;并且随着时间的推移,当自主交通工具为该对象收集到额外的速度数据时,细化(例如,缩小)该对象的这些未来状态边界。
因此,通过执行方法S100的块来通知路径规划决策,自主交通工具可以:减少或消除精确识别其环境中的对象的类型或类别的需要;减少或消除在自主交通工具的自主操作中的这种可能的误差来源;以及增加自主交通工具的自主操作的鲁棒性,诸如对抗对抗性计算机视觉攻击、对抗性神经网络攻击的鲁棒性,或者在先验训练数据有限或没有先验训练数据的情况下的鲁棒性。
此外,自主交通工具可以针对可变和不可变的对象实现相同的检测、跟踪和运动规划决策路径,从而减少或消除在自主交通工具的环境中识别对象的类别(或将对象分类为可变或不可变)的需要,并减少在自主交通工具上执行的独特的计算机视觉、机器学习和路径规划流水线的数量。例如,自主交通工具可以执行相同的检测、跟踪和运动规划决策路径,以预测和处理:在自主交通工具的环境中但被其他检测到的对象遮挡的可能无法检测到的对象(例如,站在电线杆后面的行人;占据在自主交通工具的视场(field of view)中被拖拉机拖车遮挡的车道的客运交通工具);首次进入自主交通工具的视场的对象;以及在自主交通工具的视场中现存的对象。
3.自主交通工具
自主交通工具可以包括:一套传感器,该套传感器被配置成收集表示自主交通工具周围的场中的对象的数据;本地存储器,该本地存储器存储定义供自主交通工具执行的路线的导航地图,以及表示沿道路的不可变表面的位置的定位地图;以及控制器。该控制器可以:基于从该套传感器收集到的传感器数据和定位地图,计算自主交通工具在现实空间中的位置;根据方法S100的块计算在这些传感器数据中检测到的对象的未来状态边界;基于这些未来状态边界、自主交通工具的现实位置和导航地图选择未来导航动作;以及根据这些导航决策来控制交通工具内的致动器(例如,加速器、制动器和转向致动器)。
在一个实现中,自主交通工具包括布置在自主交通工具上的一组360°LIDAR传感器,诸如布置在自主交通工具前部处的一个LIDAR传感器和布置在自主交通工具后部处的第二LIDAR传感器,或者布置在自主交通工具顶部上的LIDAR传感器集群。每个LIDAR传感器可以在LIDAR传感器每旋转一次(即,每扫描周期旋转一次)时输出一个诸如以3D点云形式的三维距离图(或深度图像),该3D点云表示LIDAR传感器与LIDAR传感器视场内的外部表面之间距离。自主交通工具可以附加地或替代地包括:一组红外发射器,该组红外发射器被配置成将结构光投射到自主交通工具附近的场中;一组红外探测器(例如,红外相机);以及处理器,该处理器被配置成将红外探测器输出的图像变换为场的深度图。
自主交通工具可以附加地或替代地包括从自主交通工具的前部、后部和/或侧部面向外的一组彩色相机。例如,该组中的每个相机都可以以20Hz的速率输出数字摄影图像(或“帧”)的视频馈送。自主交通工具还可以包括一组RADAR传感器,该组RADAR传感器从自主交通工具面向外,并被配置成检测自主交通工具附近的对象的存在和速度。因此,自主交通工具中的控制器可以每个扫描周期将来自LIDAR传感器、彩色相机和RADAR传感器等的数据流融合为一个扫描图像,该扫描图像诸如以3D彩色地图或3D点云的形式,该3D彩色地图或3D点云包含表示自主交通工具周围的场中的道路、人行道、交通工具、行人等的点群(constellations of points)。
然而,自主交通工具可以包括任何其他传感器,并且可以实现任何其他扫描、信号处理和自主导航技术或模型,以确定其地理空间位置和取向,感知其附近的对象,并基于通过这些传感器收集的传感器数据来选择导航动作。
3.1对象位置+运动数据
在一个实现中,自主交通工具包括传感器,该传感器输出包含一群点(aconstellation of points)的扫描图像,其中该扫描图像中的每个点:表示环境中的表面相对于传感器(或更一般地相对于自主交通工具)的位置;并指定该表面沿从传感器(或更一般地自主交通工具)延伸到该表面的射线的速度。
在一个示例中,自主交通工具包括3D扫描LIDAR传感器,该LIDAR传感器被配置成检测自主交通工具周围的场中的表面——沿从传感器(或更一般地自主交通工具)延伸到这些表面的射线——的距离和相对速度。在该示例中,3D扫描LIDAR传感器可以:在极坐标系中以球坐标表示场中的表面的位置,该极坐标系在3D扫描LIDAR传感器处(或在自主交通工具上的参考位置处)定义原点;并且在传感器的每个扫描周期(例如,每次旋转)将这些极坐标存储在一个扫描图像中。因此,在该示例中,自主交通工具可以访问包含由四维光检测和测距传感器捕获的数据的扫描图像,该四维光检测和测距传感器:被安装在自主交通工具上;并且被配置成生成表示位于场内的表面相对于传感器的位置和速度的扫描图像。
在该示例中,自主交通工具可以包括多个这样的3D扫描LIDAR传感器,每个LIDAR传感器被配置成每个扫描周期输出一个扫描图像。然后,自主交通工具可以将这些传感器输出的并发扫描图像融合为一个复合扫描图像用于该扫描周期。
替代地,自主交通工具可包括一套传感器,该套传感器捕获不同类型的数据,并可将这些传感器的输出融合为扫描图像,该扫描图像包含位于场中表面的位置处的点,并且这些点用这些表面沿在自主交通工具和这些表面之间延伸的射线的速度进行注释。例如,自主交通工具可以包括3D扫描LIDAR传感器,该3D扫描LIDAR传感器:定义LIDAR视场:并且被配置成在扫描周期期间生成包含一群点的3D点云,其中每个点定义表面上的区域在自主交通工具周围的环境中的位置。在该示例中,自主交通工具还可以包括固定或扫描RADAR传感器,该固定或扫描RADAR传感器:定义与LIDAR视场相交的RADAR视场;并且在扫描周期期间生成RADAR视场中的对象或表面的列表,其中用相对于RADAR传感器的速度来注释该列表中的每个对象或表面。然后,自主交通工具合并在扫描周期期间LIDAR和RADAR传感器的并发输出,以用RADAR传感器检测到的对应的对象或表面的速度注释3D点云中的点。
然而,自主交通工具可以包括任何其他类型或配置的传感器,并且可以访问或构建表示在扫描周期期间自主交通工具周围的场中的对象或表面的相对位置和相对速度的扫描图像。
4.预加载的规则/假设
自主交通工具还可以存储针对通用对象的预定义的最坏情况的运动假设。特别地,自主交通工具可以存储关于自主交通工具在运行过程中可能遇到的任何对象的最具侵略性的(或“最坏情况”的)运动和运动变化的假设,并应用这些最坏情况的运动假设来预测它在整个运行过程中遇到的所有对象(例如,行人、客运交通工具、卡车、拖车、RV、摩托车、街道标志、灯柱、交通信号、电线杆、建筑物)的未来状态。
例如,自主交通工具可以存储:通用对象的最大可能速度(例如,每小时100英里;每秒55米);以及通用对象在任何方向上的最大可能线加速度(例如每秒9米/秒)。自主交通工具还可以存储通用对象在任何方向上的最大可能角速度,诸如作为对象的速度的反函数。例如,自主交通工具可以存储最大可能角速度函数,该函数输出通用对象—围绕其中心—的最大可能角速度,该最大可能角速度随着通用对象的线速度的增加而减小。因此,在该示例中,最大可能角速度函数可以预测当通用对象静止时通用对象的最大可能角速度。(例如,站着不动的行人可能比以每秒30米的速度行驶的跑车表现出更大的最大可能角速度。)
自主交通工具还可以存储对象避让规则,诸如在自主交通工具与自主交通工具附近的任何对象的未来状态边界之间的最小时间或空间裕度。
然而,自主交通工具可以存储和实现针对通用对象的任何其他预定义的最坏情况的运动假设和/或对象避让规则。
此外,自主交通工具可以检索这些预定义的最坏情况的运动假设和/或由附属于自主交通工具或自主交通工具运行地点的操作者或利益相关者设定的对象避让规则。例如,车队管理者或政府官员可以将这些值分配给自主交通工具车队,或者为直辖市、市、县、区、州、地区或国家等内的所有自主交通工具的运行指定这些值。
5.停止距离和停止持续时间
方法S100的块S110和S112叙述:在第一时间在自主交通工具处,基于自主交通工具在第一时间的速度,估计使自主交通工具达到完全停止的停止持续时间;以及存储从第一时间偏移停止持续时间的临界时间。通常,在块S110和S112中,自主交通工具基于其当前速度估计—如果自主交通工具立即启动紧急停止过程—自主交通工具可以达到完全停止的未来的时间和/或距离。例如,自主交通工具可以实现将交通工具速度直接转换为停止持续时间和/或停止距离的预加载功能。
在另一实现中,自主交通工具基于由自主交通工具中的各种传感器收集的数据来估计道路表面质量。例如,自主交通工具:实现计算机视觉和机器学习技术,以检测彩色图像中水坑或积水的存在;并基于这些水坑或积水的存在和分布来估计道路表面的潮湿度。在另一个示例中,自主交通工具:实现计算机视觉和机器学习技术,以从由自主交通工具上的相机捕获的彩色图像中提取颜色数据和纹理信息;并解释自主交通工具周围的道路表面的类型,诸如:养护沥青;年久失修的沥青(例如坑坑洼洼的)、光滑的混凝土;带有纹理的混凝土;砾石;污垢;草;或者积水。在该实现中,自主交通工具然后可以基于该估计的道路的潮湿度和表面类型来计算或检索用于道路表面的摩擦系数。自主交通工具可以附加地或替代地实现用于自主交通工具的制动效率模型,以基于以下项来计算制动效率系数:自自主交通工具上次的制动服务以来的里程;和/或自自主交通工具上次的轮胎更换以来的里程。自主交通工具然后可以实现制动模型,以基于以下项来估计停止距离和/或停止持续时间:当前交通工具速度;摩擦系数;和/或制动效率系数。
然而,自主交通工具可以实现任何其他方法或技术来估计自主交通工具的当前停止距离和/或当前停止持续时间。
自主交通工具还可以向这些停车距离和/或停止持续时间值添加安全裕度,诸如:通过向停止距离添加三米;通过向停止持续时间增加两秒;或者通过将这些值乘以安全裕度(例如“1.2”)。
然后,自主交通工具可以通过将当前时间和停止持续时间相加来计算—表示自主交通工具可以制动到完全停止的最快时间的—临界时间。
6.扫描图像、对象检测和对象运动
方法S100的块S120和S122叙述:在大约第一时间捕获的自主交通工具周围的场的第一扫描图像中检测对象;并且基于第一扫描图像,导出对象的第一位置和沿着从自主交通工具到该对象的第一射线的第一径向速度。通常,在块S120和S122中,自主交通工具可以:如上所述访问由LIDAR传感器输出的新的扫描图像;在该新的扫描图像中检测在前面扫描图像中未检测到的对象;并从该新的扫描图像中提取该对象的高确定性运动特性的有限集合(例如,相对于自主交通工具的径向速度)。
在一个实现中,在接收(或生成)用于当前扫描周期的扫描图像之后,自主交通工具执行对象检测技术,以将扫描图像中的点组与自主交通工具周围的场中的离散对象相关联。例如,自主交通工具可以:聚合一组点,这些点聚集在距离自主交通工具的相似深度处,并且被标记有对于邻近的对象来说自洽(self-consistent)的速度(例如,距离变化率(range rate)、方位角速度);并将该组点与场中的一个对象相关联。
然后,自主交通工具可以从该扫描图像中提取对象沿着从自主交通工具延伸到对象的射线(在下文中称为“径向方向”)的径向速度(或“距离变化率”)和对象相对于自主交通工具的角速度。例如,自主交通工具可以:基于当前时间自主交通工具在绝对参考系中的位置和速度,将定义该对象的点的径向速度变换为绝对参考系中的绝对速度;并且基于包含在与该对象相关联的点组中的最左侧点和最右侧点的绝对径向速度之间的差,计算在当前扫描周期期间在绝对参考系中该对象围绕其中心的角速度(或“偏航”)。在该示例中,自主交通工具还可以:对在限定该对象的该点组的质心附近的点的子集中存储的径向速度进行平均;并将该平均径向速度存储为对象在沿从自主交通工具的中心到该点组的质心的射线的径向方向上—相对于自主交通工具—的径向速度。(自主交通工具还可以基于自主交通工具在该扫描周期期间的速度和角速度,将对象相对于自主交通工具的该径向速度变换为对象在径向方向上的绝对速度。)
自主交通工具可以—在该扫描图像中—对表示自主交通工具周围的场中的其他对象的其他点组重复该过程。
6.1对象跟踪
自主交通工具还可以实现对象跟踪技术以:将—表示当前扫描图像中的特定对象的—点组链接到在前面扫描图像中检测到的类似点组;并且跨这两个扫描图像将这些点组—以及它们所表示的对象—链接起来。然而,如果自主交通工具未能将在当前扫描图像中检测到的点组与前面扫描图像中—处于相似的位置和速度—的点组匹配,则自主交通工具可以将当前扫描图像中的该点组标记为新的对象(即,在当前扫描周期期间首次进入自主交通工具的视场的对象)。
7.有界未来状态:新对象
方法S100的块S130叙述基于以下项来计算表示对象从第一时间到临界时间可进入的地面区域的第一未来状态边界:对象在第一时间的第一位置;对象的第一径向速度;以及为自主交通工具的运行而定义的通用对象的最大假设加速度、最大假设角速度和最大假设加速度。通常,在块S130中,自主交通工具可以将由此从其中首次检测到对象的当前扫描图像导出的对象的有限运动数据和对于对象做出对抗性动作的最坏情况假设进行合并,以计算从当前时间到临界时间(即,在随后的停止持续时间内)对象可进入的地面区域的范围,并将该可进入的地面区域存储为对象的未来状态边界。
更具体地说,当自主交通工具在扫描图像中首次检测到对象时,自主交通工具可以:估计对象的中心(在该扫描图像中的与该对象相关联的点的质心附近)相对于自主交通工具的位置;基于在扫描图像中与对象相关联的该点组中存储的速度值,导出该对象相对于自主交通工具的偏航率;并且如上所述导出对象在径向方向上(即,沿着从自主交通工具延伸到对象的射线)的速度。然而,自主交通工具在其中首次检测到对象的扫描图像可能没有包含充足的数据,以使自主交通工具能够导出对象的绝对速度或对象垂直于径向方向(在下文中称为方位角方向)的速度。因此,自主交通工具可以为对象的当前速度和对象的未来加速度实现最坏情况假设,以计算未来状态边界,该未来状态边界表示在最坏情况的场景中对象从当前时间到临界时间可进入的地面区域。
在一个实现中,计算机系统基于以下项来计算对象在围绕对象的中心径向偏移的许多方向(例如,径向偏移3.6°的一百个方向)中的每个方向上的最大可能速度:通用对象的假设的最大可能速度;以及对象在径向方向上的速度。对于该集合中的第一方向,计算机系统然后计算从当前时间到临界时间对象在该第一方向上的最大可能速度和对象的测量到的角速度随时间的第一积分。对于该第一方向,自主交通工具还:实现将角速度和径向方向上的速度与通用对象在该第一方向上的加速度的最大可能速率链接起来的加速度规则函数,以估计对象在该第一方向上的加速度的最大可能速率;并且计算从当前时间到临界时间对象在第一方向上的加速度的最大可能速率(受到通用对象的最大可能速度的限制)随时间的第二(二重)积分。然后,自主交通工具对第一积分和第二积分求和,以计算对象在第一方向上穿越的最大可能距离,并定位未来状态边界的第一顶点,该第一顶点在从对象的中心沿着第一方向延伸的射线上并偏离对象的中心该最大可能的穿越距离。自主交通工具:对集合中的每个其他方向重复该过程,以在这些方向中的每个方向上限定未来状态边界的顶点;计算穿过这些顶点中的每一个的样条;并将该样条所包含的区域存储为该对象的未来状态边界。
因此,因为自主交通工具具有在对象可见的该第一扫描周期期间与对象的速度相关的有限信息,所以自主交通工具可以:为对象的当前速度和未来加速度实现最坏情况假设,以便预测对象从当前时间到临界时间(即,自主交通工具可以制动到完全停止的最快时间)可进入的最坏情况的地面区域。然后,自主交通工具可以定义在对象的该未来状态边界之外的安全地面区域,并执行导航动作以保持在安全地面区域内,使得自主交通工具和对象之间的任何碰撞只可能发生在自主交通工具达到完全停止之后(并且使得与对象的碰撞可以完全是对象的责任而不是自主交通工具的责任)。特别地,如果自主交通工具的当前位置落在未来状态边界附近(例如,在未来状态边界的阈值距离内),则自主交通工具可以启动避让机动以避开对象的未来状态边界。以其他方式来说,自主交通工具可以:验证非常高的置信度,即,如果自主交通工具继续沿着其当前轨迹和以其当前速度运行,直到至少下一个扫描周期,那么—即使假定对象做出最具对抗性的动作—自主交通工具也将避免与对象碰撞;并因此针对当前扫描周期使对象消隐,而不纳入路径规划决策。
例如,如果自主交通工具的当前位置离对象的未来状态边界非常远,自主交通工具可以针对当前扫描周期使对象消隐,而不纳入路径规划决策。然而,如果自主交通工具的当前位置位于距离对象的未来状态边界的阈值距离(例如,10米、4秒)内,则自主交通工具可以将对象包括在针对当前扫描周期的路径规划决策中,诸如通过:使自主交通工具以与自主交通工具到对象的未来状态边界的周界的接近度成反比的幅度和/或速率减速;和/或调整自主交通工具的转向角以将自主交通工具的轨迹移离对象的未来状态边界。
8.有界未来状态:现存对象
通常,自主交通工具可以在距离自主交通工具相对远的距离处捕获具有相对高的分辨率的图像,使得当自主交通工具首次在扫描图像中检测到对象时,自主交通工具通常落在明显超出由此为该对象计算的未来状态边界的距离处。因此,自主交通工具通常可以在自主交通工具首次检测到对象的扫描周期期间使对象消隐,而不纳入路径规划决策。然而,自主交通工具还可以在后续扫描图像上跟踪该对象,从这些扫描图像中导出该对象的附加运动特性,相应地更新该对象的未来状态边界,以及基于自主交通工具的并发位置和该对象的这些细化的未来状态边界,在这些后续扫描周期期间选择性地使该对象消隐或考虑该对象。
在一个实现中,自主交通工具在继自主交通工具首次检测到对象的第一扫描周期之后的第二扫描周期期间捕获第二扫描图像,如上所述。自主交通工具然后实现上述方法和技术以:从该第二扫描图像和第一扫描图像与第二扫描图像之间的差异导出对象的附加运动特性(例如,在方位角方向上的速度、角速度和绝对速度);用这些导出的运动数据来代替针对对对象的速度的最坏情况假设;并相应地为该对象重新计算未来状态边界。
在一个实现中,自主交通工具:访问在上述的第一扫描周期之后的第二扫描周期期间捕获的第二扫描图像;实现对象跟踪技术,以将第二扫描周期中的点组与在第一扫描图像中检测到的对象相关联;估计第一图像和第二图像中的对象的中心;从第一扫描图像中提取对象在第一扫描周期的第一时间的第一位置;从第二扫描图像中提取对象在第二扫描周期的第二时间的第二位置;计算第一和第二位置之间的空间距离;通过将空间距离除以第一和第二扫描周期之间的时间间隔来估计对象相对于自主交通工具的当前速度。
(然而,因为由第一图像和第二图像中的点组表示的对象的范围可能不同,并且因为第一和第二扫描周期之间的时间间隔可能很短(例如,10毫秒),所以从第一扫描周期到第二扫描周期的对象的位置的变化可能容易产生显著的误差。更具体地说,与从当前扫描图像中提取的对象的径向速度相比,该导出的对象速度的不确定性可能相对较高。因此,自主交通工具可以将该计算出的对象—相对于自主交通工具—的速度乘以误差裕度,诸如“1.5”。此外,随着自主交通工具在多个连续的扫描周期上跟踪该对象,自主交通工具可以计算这些导出的对象的速度的组合(例如,加权平均),以便减少该计算中的一些误差。)
在该实现中,自主交通工具还可以:基于在该时间间隔期间自主交通工具的速度,将对象相对于自主交通工具的当前速度(按误差裕度进行了调整)变换为对象的绝对速度;实现上述方法和技术,以基于在该组中的点中包含的速度值来计算对象在径向方向上的速度和对象的角速度;并基于对象的绝对速度和对象在径向方向上的速度,导出对象在—垂直于径向方向的—方位角方向上的速度。
因此,自主交通工具可以基于从第二扫描图像和前面扫描图像中提取的数据,导出对象在该第二扫描周期期间的更完整的运动简档(诸如包括真实的绝对速度)。
然后,自主交通工具可以实现上述方法和技术以:基于自主交通工具在该第二扫描周期期间的速度重新计算自主交通工具的临界时间;并且基于从当前时间到修订的临界时间的对象的真实(绝对或相对)速度(而不是通用对象的最坏情况速度)、对象的角速度和通用对象的最大可能加速度(受到通用对象的最大可能速度的限制),重新计算从当前时间到该修订的临界时间的对象的未来状态边界。
因此,因为对象的真实速度可能常常(显著)小于通用对象的最大假设速度,所以基于在该第二扫描周期期间收集的附加运动数据而由此重新计算的对象的该修订的未来状态边界可能显著小于由自主交通工具在首次检测到对象后计算出的对象的初始未来状态边界。
然后,自主交通工具可以实现上述方法和技术,以基于对象距该对象的该修订的未来状态边界的周界的距离,在该第二扫描周期期间选择性地使该对象消隐,而不纳入路径规划考虑。
自主交通工具可以对自主交通工具由此捕获的每个后续扫描图像重复该过程,以便细化和更新该对象的未来状态边界,诸如直到自主交通工具驶过该对象或者直到该对象移动到自主交通工具的视场之外。
9.有界未来状态:被遮挡的对象
在一个变型中,自主交通工具可以:在被检测到的对象(例如,客运交通工具、卡车、建筑物)遮挡的自主交通工具周围的场的区域中定义虚拟对象;实现类似于上述那些方法和技术的方法和技术,以将最坏情况的运动特性分配给该虚拟对象,并基于该最坏情况的运动特性为该虚拟对象定义虚拟未来状态边界;以及基于虚拟对象的可能的运动特性随时间的收缩范围和相应地重新计算的虚拟对象的虚拟未来状态边界来细化虚拟对象的这些最坏情况的运动特性。更具体地说,在该变型中,自主交通工具可以预料在检测到的对象后面存在未检测到的对象,并实现类似于上述那些方法和技术的方法和技术,以界定未检测到的对象的可能的未来状态,并且基于保持在该未检测到的对象无法进入的空间中的距离导航动作,选择性地使未检测到的对象在检测到的对象后面的可能性消隐。
在一个实现中,自主交通工具首先在第一扫描图像中检测跨越方位角距离的第一对象。然后,自主交通工具实现上述方法和技术,以基于从第一扫描图像中提取的运动数据来计算第一对象的未来状态边界,并基于从后续扫描图像中提取的运动数据来修订第一对象的该未来状态边界。
并发地,自主交通工具:定义紧跟在第一对象后面的虚拟对象(例如,在第一对象后面两米);向虚拟对象分配所有方向上的最坏情况的速度和所有方向上的—达到通用对象的最大可能速度的—最坏情况的加速度;并根据这些最坏情况的运动值为虚拟对象计算虚拟未来状态边界。例如,自主交通工具可以:假设虚拟对象在当前时间以通用对象的最大可能速度在所有方向(除了当前被第一对象遮挡的方向之外)上移动;以及基于所有方向(除了当前被第一对象遮挡的方向之外)上的该最大可能速度在自主交通工具的当前停止时间内的积分来为虚拟对象计算虚拟未来状态边界。自主交通工具然后可以实现上述方法和技术,以验证自主交通工具的当前位置在该虚拟未来状态边界之外,并相应地在当前扫描周期期间选择性地使该虚拟对象的考虑消隐,而不纳入路径规划考虑。
在下一个扫描周期期间,自主交通工具可以类似地:访问下一个扫描图像;实现对象跟踪技术,以在该下一个扫描图像中检测第一对象,并将该下一个扫描图像中的该第一对象链接到在前面扫描图像中检测到的第一对象。然后,如果自主交通工具未能在该下一个扫描图像中检测到从第一对象后面出现的新的对象,则自主交通工具可以确认虚拟对象相对于第一对象的方位角速度不足以在从前面扫描周期到该下一个扫描周期的时间间隔内通过第一对象在自主交通工具的视场中的方位角长度。更具体地说,因为自主交通工具未能在该下一个扫描图像中检测到出现在第一对象后面的新的对象,所以自主交通工具可以预测虚拟对象—相对于第一对象以及沿着由自主交通工具定义的方位角方向—的速度没有超过第一对象的宽度除以前面扫描周期和当前扫描周期之间的时间间隔。因此,在该实现中,自主交通工具可以:从当前扫描图像中提取第一对象的方位角长度(或从前面扫描图像和当前扫描图像中提取的第一对象的平均长度);基于第一对象的位置在第一扫描图像和第二图像之间的变化,导出第一对象—相对于自主交通工具的—方位角速度;以及基于第一对象的方位角长度和第一扫描周期与第二扫描周期之间的时间间隔,假设虚拟对象是无限窄的,计算在第一扫描周期与第二扫描周期之间虚拟对象—相对于第一对象并沿着由自主交通工具定义的方位角方向—的最大可能方位角速度。然后,自主交通工具可以:通过对第一对象相对于自主交通工具的方位角速度和虚拟对象相对于第一对象的方位角速度进行求和来计算虚拟对象相对于自主交通工具的最大可能方位角速度;然后实现上述方法和技术(用于新的对象),以基于由此为虚拟对象估计的最大方位角速度来为虚拟对象计算虚拟未来状态边界。
自主交通工具可以对后续的扫描周期重复该过程,包括:基于第一对象的长度和在自主交通工具于其中检测到第一对象的一组扫描图像上的时间间隔,进一步修订虚拟对象—沿着相对于自主交通工具的方位角方向—的最大可能方位角速度;基于虚拟对象的该最大可能方位角速度,重新计算虚拟对象在各个方向上的最大可能速度和加速度;以及基于虚拟对象的这些最大可能速度、最大可能加速度和最大可能方位角速度来细化虚拟对象的虚拟未来状态边界。
自主交通工具还可以定义在第一对象后面的多个虚拟对象,并实现类似的方法和技术来为这些虚拟对象中的每一个(诸如:紧跟在第一对象后面的第一虚拟对象;在第一对象后面两米处的第二虚拟对象;在第一对象后面十米处的第三虚拟对象;以及在第一对象后面20米处的第四虚拟对象;等等)定义虚拟未来状态边界。
例如,在第一扫描图像中检测到电线杆时,自主交通工具可以执行前述方法和技术来为这些虚拟对象中的每一个计算虚拟未来状态边界。在该示例中,如果自主交通工具在多个连续扫描图像(例如,在一秒内被捕获)上跟踪该电线杆,并且未能检测到在电线杆后面进入视野的新的对象,则自主交通工具可以定义一组虚拟未来状态边界,这些虚拟未来状态边界指示:不存在紧跟在电线杆后面的、在方位角方向上以快于0.2米/秒的速度行走的行人(即,第一虚拟对象);不存在位于电线杆后面大约两米的区域中的、在方位角方向上以快于0.2米/秒的速度移动的摩托车(即第二虚拟对象);不存在位于电线杆后面大约十米的区域中的、在方位角方向上以快于1米/秒的速度移动的客运交通工具(即第三虚拟对象);以及不存在位于电线杆后面大约20米的区域中的、在方位角方向上以快于1米/秒的速度移动的卡车交通工具(即,第三虚拟对象)。
此外,在该变型中,在检测到第二对象出现在第一对象后面并且位于距自主交通工具的特定径向距离处时,自主交通工具可以:将由此为在距自主交通工具的该特定径向距离附近的虚拟对象导出的运动特性转移到该第二对象上;然后实现从虚拟对象转移的这些运动特性,以计算该第二对象的未来状态边界。
10.其他对象
通常,自主交通工具可以并发执行前述过程的多个实例,来为在当前扫描图像中检测到的许多离散对象计算未来状态边界、定义在这些检测到的对象中的每一个后面的一个或更多个虚拟对象、为这些对象中的每一个定义虚拟未来状态边界、以及随着时间的推移细化未来状态边界。
11.进入区
然后,自主交通工具可以根据自主交通工具到这些检测到的对象和虚拟对象的未来状态边界的接近度,选择基于这些检测到的对象和虚拟对象的子集的下一导航动作。
在一个实现中,自主交通工具:聚合在当前扫描周期期间所计算的用于检测到的对象和虚拟对象的未来状态边界;并—基于这些未来状态边界的检测到的对象和虚拟对象在当前扫描周期期间相对于自主交通工具的位置—将这些未来状态边界组装成一个复合未来状态边界,该复合未来状态边界基于这些对象的最坏情况的对抗性运动特性,定义这些检测到的对象和虚拟对象从当前时间到临界时间可进入的所有位置。(在该变型中,为了减少该复合未来状态边界的复杂性,自主交通工具还可以:选择未来状态边界的子集,该子集定义落在自主交通工具当前位置的预设的最小时间或空间裕度内的周界。然后,自主交通工具可以将未来状态边界的该子集组装成一个复合未来状态边界。)
然后,自主交通工具可以将该复合未来状态边界的反面(converse)存储为用于自主交通工具的进入区。更具体地说,该进入区可以定义这样的地面区域:自主交通工具可以至少在从当前扫描周期到下一次扫描的时间间隔内在该地面区域内运行,同时维持非常高的置信度,即,自主交通工具可以在与任何检测到的对象碰撞之前制动到完全停止,即使这些对象中的一个(或许多个)在当前扫描周期期间发起对抗性动作(例如,快速加速到通用对象的最大可能速度)。自主交通工具还可以将地理参考的道路网络与该进入区对齐,并进一步移除进入区中的延伸到该道路网络中所定义的道路区域之外的区域。
然后,自主交通工具可以计算导航动作,当该导航动作由自主交通工具执行时,该导航动作将自主交通工具维持在进入区内,诸如:如果自主交通工具在进入区的边缘的时间或空间裕度内,则使自主交通工具减速以降低接近该边缘的速率;和/或通过调整自主交通工具的转向角,以便将自主交通工具重新引导向进入区中的从自主交通工具延伸得更远的区段。(自主交通工具还可以对这些导航动作进行权衡,以将自主交通工具维持在指定路线上或附近。)
因此,自主交通工具可以:利用用于新检测到的对象、现存检测到的对象和虚拟对象的未来状态边界来计算这样的地面区域——在有限的时间段(例如,两个连续扫描周期之间的时间间隔)内自主交通工具可以在该地面区域内运行,同时维持自主交通工具可以在与这些对象中的任何一个碰撞之前制动到完全停止的高置信度;然后定义并执行导航操作,以将自主交通工具维持在该进入区内。自主交通工具然后可以在运行期间对每个后续扫描周期重复该过程。
12.改变对象和点
此外,因为自主交通工具可能不依赖于对象分类或识别来预测对象的类型并相应地预测对象的运动,所以自主交通工具可以定义跨越场中的多个真实对象(诸如,如果这些对象沿着相似的轨迹并以相似的速度移动)的点组。然而,自主交通工具可以实现前述方法和技术以计算、细化和避开针对该“分组对象”的未来状态边界,直到这些真实对象不再沿着相似的轨迹和/或以相似的速度移动,此时自主交通工具可以:在当前扫描周期中区分这些对象;从前面的分组对象将运动特性转移到这些不同对象中的每一个上;然后如上所述,为这些对象中的每一个计算未来状态边界。
类似地,自主交通工具可以区分表示单个真实对象的两个点集群,并实现上述方法和技术以计算、细化和避开针对这两个集群的未来状态边界,诸如直到自主交通工具确定这两个集群中的点的接近度和径向速度(或距离变化率)的自洽性指示单一对象的时间。
附加地或替代地,自主交通工具可以实现前述方法和技术,以计算、细化和避开针对表示自主交通工具周围的场中的对象的子区域的单独的点和较小的点集群的未来状态边界。
13.运动消歧
对于第一扫描周期,图2所示的方法S100的一个变型包括:在块S104中,访问包含由自主交通工具上的传感器在第一时间捕获的数据的第一扫描图像;在块S120中,在第一扫描图像中识别表示自主交通工具附近的场中的对象的第一点组,该第一点组中的每个点包括从传感器到对象上的表面的第一测距值、对象上的表面相对于传感器的第一方位角位置和对象的表面相对于传感器的第一径向速度;在块S122中,计算第一点组中的点的第一径向速度和第一方位角位置之间的第一相关性;以及在块S122中,基于第一相关性,计算将在第一时间处的对象的可能的切向速度和对象的可能的角速度关联起来的第一函数。对于第二扫描周期,方法S100的该变型类似地包括:在块S104中访问包含由传感器在第二时间捕获的数据的第二扫描图像;在块S120中,在第二扫描图像中识别表示场中的对象的第二点组;在块S122中,计算第二点组中的点的第二径向速度和第二方位角位置之间的第二相关性;以及在块S122中,基于第二相关性,计算将在第二时间处的对象的可能的切向速度和对象的可能的角速度关联起来的第二函数。方法S100的该变型还包括在块S124中,基于第一函数和第二函数的交集,估计在第二时间相对于自主交通工具的对象的第二切向速度和对象的第二角速度。
在该变型中,对于第一扫描周期,方法S100可以类似地包括:在块S104中,访问包含由自主交通工具上的传感器在第一时间捕获的数据的第一扫描图像;在块S120中,在第一扫描图像中识别表示自主交通工具附近的场中的对象的第一点组,该第一点组中的每个点包括从传感器到对象上的表面的第一测距值、对象上的表面相对于自主交通工具的第一位置和对象的表面相对于自主交通工具的第一径向速度;在块S122中,计算第一点组中的点的第一径向速度和第一位置之间的第一相关性;以及在块S122中,基于第一相关性,计算将在第一时间处的对象的可能的线性运动和对象的可能的角运动关联起来的第一函数。对于第二扫描周期,方法S100的该变型还可以包括:在块S104中访问包含由传感器在第二时间捕获的数据的第二扫描图像;在块S120中,在第二扫描图像中识别表示对象的第二点组;在块S122中,计算第二点组中的点的第二径向速度和第二位置之间的第二相关性;以及在块S122中,基于第二相关性,计算将在第二时间处的对象的可能的线性运动和对象的可能的角运动关联起来的第二函数。方法S100的该变型还可以包括在块S126中,基于第一函数和第二函数的交集,估计在第二时间对象相对于自主交通工具的线性运动和对象相对于自主交通工具的角运动。
附加地或替代地,在该变型中,对于自主交通工具处的扫描周期序列中的每个扫描周期,方法S100可以包括:在块S104中,访问包含由自主交通工具上的传感器在扫描时间捕获的数据的扫描图像;在块S120中,在扫描图像中识别表示在自主交通工具附近的场中的对象的点组,该点组中的每个点包括对象上的表面相对于自主交通工具的位置和对象的表面相对于自主交通工具的径向速度;以及在块S122中,基于点组中的点的径向速度和位置之间的相关性来计算函数,该函数将在扫描时间的对象的可能的线性运动和对象的可能的角运动关联起来。方法S100的该变型还可以包括在块S126中,基于当前的函数和前面的函数的交集,估计在当前时间对象相对于自主交通工具的当前线性运动和对象相对于自主交通工具的当前角运动,当前的函数是从包含在当前时间捕获的数据的第一扫描图像中导出的,前面的函数是从包含在当前时间之前捕获的数据的第二扫描图像中导出的。
13.1三个自由度
通常,在该变型中,自主交通工具:基于在由自主交通工具上的传感器输出的扫描图像中表示对象的点组的特性,导出该对象在自主交通工具的场中的切向速度和角速度之间的关系;基于所测量的该对象的径向速度和所导出的该对象的切向速度和角速度之间的这种关系,进一步界定该对象的可能的当前运动;并基于该对象的可能的当前运动和基于地面的对象的运动限制假设,进一步细化为该对象所计算的未来状态边界。
特别地,在该变型中,自主交通工具可以利用对象的径向距离、径向速度、切向速度和角速度与限制数量(例如,少至两个)的距离、角度和距离变化率测量值之间的关系,计算对象的可能的切向速度和角速度的窄范围,并且因此计算对象在单一扫描周期期间的可能的总速度的窄范围。自主交通工具还可以:在传感器于下一个扫描周期期间输出的扫描图像中跟踪对象;基于该下一个扫描图像重复前述处理;以及合并当前和前面的扫描周期的结果以将对象的运动估计缩小到切向速度值、角速度值和总速度值的奇异集(singularset)(或其非常窄的范围)。然后,不是基于最大加速度假设以及对象的最大速度和可能速度的范围来计算对象的未来状态边界,而是基于最大加速度假设和由自主交通工具利用两次独立测量导出的对象的单一总速度来计算对象的更窄的未来状态边界。更具体地说,自主交通工具可以执行方法S100的块以将附近对象的二维运动可能性的集合压缩为针对该对象的一维运动可能性的集合。
通常,基于地面的对象(例如,交通工具、行人)的运动可以大致在水平面内(即,平行于地平面)发生,该运动包括沿x轴的线性运动、沿y轴的线性运动和绕垂直于水平面的z轴的旋转,其可以表示为水平面内的线速度和绕垂直于水平面的轴的角速度。因此,方法S100的该变型在下面被描述为由自主交通工具执行,以在给定对象上的点在水平面中的径向速度和位置(例如,测距值和角度)的情况下,导出对象在水平面内的切向速度、角速度和总速度。然而,自主交通工具可以实现类似的方法和技术来导出对象在3D空间中的线速度和角速度(即三个线速度和三个角速度)以及相应地导出对象在3D空间中的绝对或相对总速度。
更具体地说,传感器可以被配置成在扫描周期期间,对于落在传感器视场内的场中的每个表面,返回沿着从场中的表面回到传感器的射线的测距值(即,距离)、方位角和速度(即,径向速度或“多普勒”)。表示扫描图像中的对象的一组表面的切向速度(例如,在垂直于径向速度的方向上并且在水平面中的线性运动)和角速度(例如,围绕自主交通工具的偏航轴的角运动)被包含在该扫描图像中的点的测距值、方位角和速度数据中。然而,从包含在该点组中的测距值、方位角和径向速度来看,对象的具体切向速度和角速度是不确定的。此外,在多个扫描图像上跟踪对象并从在多个扫描图像上描绘的对象的位置变化导出对象的切向速度引入了显著的误差:特别是如果对象在自主交通工具的视场中的视角从一个扫描周期到下一个扫描周期发生变化,因为对象在连续的扫描周期内在尺寸上将看起来有所变化,这将在所计算的对象的切向速度中被错误地表示;特别是如果对象的被遮挡而对传感器不可见的区域在连续的扫描周期内发生变化,因为在对象的可见区域上的可感知窗口的速度将在所计算的对象的切向速度中被错误地表示;以及特别是在如果对象在连续的扫描周期内相对于自主交通工具移动,两个连续扫描图像上的点不太可能表示对象上的相同表面的情况下。
然而,自主交通工具可以执行方法S100的块,以基于包含在第一扫描图像中表示对象的点组中的测距值、方位角和径向速度数据,导出在第一扫描周期期间对象的切向速度和角速度之间的第一关系(或“相关性”)。然后,自主交通工具可以:在第二扫描周期期间重复该过程,以基于包含在第二扫描图像中表示该对象的点组中的测距值、方位角和径向速度数据,计算在第二扫描周期期间该对象的切向速度和角速度之间的第二关系;并导出与第一关系和第二关系相一致的对象的具体切向速度和具体角速度(或其窄范围)。
13.2第一扫描周期
在图2所示的一个实现中,自主交通工具上的传感器在第一时间T0执行第一扫描周期并且返回第一扫描图像,该第一扫描图像包含在自主交通工具周围的整个场中的一群点(例如,小的表面、区域)的径向速度、距离和角位置。然后,自主交通工具:实现上述方法和技术以识别与场中的离散对象相对应的点组(或“点集群”);并基于该组中的点的径向速度的集中趋势的度量来计算对象在T0的径向速度Vrad,0。例如,自主交通工具可以将该集中趋势的度量计算为该组中的点的径向速度的算数平均值。类似地,自主交通工具可以基于(例如,等于)该组中的点的最大和最小方位角位置之间的差(即该点组的径向长度)计算对象在T0的第一半径R0。
然后,自主交通工具:基于在T0的这些点的测距值和角位置,计算该组中的点相对于自主交通工具(例如,在极坐标系内)的位置;并计算出这些点的角位置和径向速度之间的相关性。在一个示例中,自主交通工具将这种相关性计算为通过这些径向速度除以点和该点组的平均位置之间的角度的余弦、以及除以点和该点组的平均位置之间的角度的正弦的最佳拟合(或“趋势”)线的斜率。
自主交通工具然后计算该最佳拟合线的第一斜率S0,其表示对象在T0的切向速度Vtan,0和角速度ω0之间的关系。特别地,该斜率S0可以表示在时间T0,在传感器的视场中,Vtan,0与ω0乘以对象的第一半径R0的乘积之间的差。因此,自主交通工具可以基于在时间T0的斜率S0和半径R0生成将对象的Vtan,0和ω0关联起来的第一函数(例如,线性函数)F0。
基于函数F0,自主交通工具然后可以计算线L0,其表示在给定对象在T0的当前径向速度Vrad,0的情况下,对象在时间T0的可能的Vtan,0和ω0运动组合。
在类似的实现中,自主交通工具求解对象在三个自由度中的运动,其包括:沿着传感器和对象之间的射线在径向方向(即径向速度)上的线性运动;在与径向方向正交的切线方向上并且在水平面内的线性运动;以及围绕与径向和切向方向正交的轴在偏航方向上的角运动。在该实现中,自主交通工具可以:将表示对象的第一点组中的点的第一径向速度与第一方位角位置投射到水平面(即,大致平行于道路表面的2D空间)上;基于第一点组中的点的第一方位角位置的范围,计算对象在第一时间的第一半径;基于第一点组中的点的第一径向速度的集中趋势的第一度量(例如,平均值),计算对象在第一时间相对于自主交通工具的第一径向速度;计算通过第一点组中的点的第一径向速度与第一方位角位置的第一线性趋势线;以及基于第一线性趋势线的第一斜率计算第一相关性,该第一斜率表示在第一时间对象的第一切向速度和对象的第一角速度之间的关系。特别地,第一斜率可以表示以下两项之差:对象在第一时间的第一切向速度;和对象在第一时间的第一半径与对象在第一时间的第一角速度的乘积。然后,自主交通工具可以基于第一时间的第一斜率和第一半径计算第一线性函数,该第一线性函数将相对于自主交通工具的对象在第一时间的可能的切向速度和对象在第一时间的可能的角速度关联起来(例如,可能的切向速度和角速度满足关系式:S0=Vtan,0-R0ω0)。更具体地说,该第一函数可以将在大致平行于道路表面的水平面内的在第一时间的对象的可能的切向速度和对象的可能的角速度关联起来。
因此,自主交通工具可以将对象的可能的Vtan,0和ω0运动组合的2D表面(先前仅由上述基于地面的对象的最大速度假设界定)压缩为对象在时间T0的可能的Vtan,0和ω0运动组合的1D线。更具体地说,自主交通工具因此可以将在2D空间中移动的对象的三个未知特性(即Vrad,0、Vtan,0、ω0)减少到单一的未知特性——也就是说,由于L0上的Vtan,0和ω0的所有组合解析在T0的所测量的对象的径向速度,所以沿着线L0的点表示对象在T0的真正的Vtan,0和ω0。
13.3 界定
在该实现中,自主交通工具还可以:计算Vtan,0和ω0值的范围,该范围与Vrad,0组合产生等于或小于上述的最大对象速度假设的最大总速度;以及将线L0界定到Vtan,0和ω0值的该范围。自主交通工具可以附加地或替代地将线L0界定到上述的基于地面的对象的最大切向速度和角速度假设,如图2所示。
然后,在给定对象在时间T0的Vrad,0和在所界定的线L0上表示的Vtan,0和ω0运动组合的范围的情况下,自主交通工具可以计算对象在T0处相对于自主交通工具的可能的总速度的范围。附加地或替代地,自主交通工具可以将其在T0的绝对速度与对象的Vrad,0和在该所限定的线L0上表示的Vtan,0和ω0运动组合的范围合并,以计算对象在T0的可能的绝对速度的范围。
13.4第一扫描周期后的未来状态边界
自主交通工具然后可以:实现上述方法和技术,以基于对象的这些可能的相对或绝对速度和最大对象加速度假设来计算对象的未来状态边界;并如上所述相应地选择性地修改其轨迹。
例如,在块S110和S112中,自主交通工具可以实现上述方法和技术,以:访问由布置在自主交通工具上的第二传感器在大约第一时间捕获的场的第二图像;基于从第二图像中提取的特征集合来解释在第一时间由自主交通工具占用的道路表面的类型;基于该特征集合预测道路表面的质量;基于道路表面的类型和道路表面的质量,估计自主交通工具的轮胎在道路表面上作用的摩擦系数;基于自主交通工具在第一时间的自主交通工具速度、摩擦系数和所存储的用于自主交通工具的制动模型,估计自主交通工具在第一时间的停止持续时间;并计算从第一时间偏移停止持续时间的临界时间。
在该示例中,在块S102中,自主交通工具还可以访问预定义的运动限制假设的集合,诸如包括:通用的基于地面的对象的最大线加速度;通用的基于地面的对象的最大线速度;和/或通用的基于地面的对象的最大角速度。
此外,在块S122中,自主交通工具可以:基于第一点组中的点的第一测距值和第一方位角位置,导出对象在第一时间的第一位置;然后基于a)由第一函数定义的在第一时间对象的可能的切向速度和对象的可能的角速度;第一径向速度,b)第一位置,和c)预定义的运动限制假设的集合,来计算自主交通工具的第一未来状态边界。更具体地说,自主交通工具可以通过以下方式计算对象从第一时间到临界未来时间可进入的第一地面区域:从对象的第一位置在停止持续时间内将对象在第一时间的径向速度以及可能的切向速度和角速度对(或“第一运动”)进行积分——对象以高达最大角速度移动并根据由预定义的运动限制假设定义的最大线加速度而加速到最大线速度。自主交通工具然后可以将该第一地面区域存储为该对象针对第一时间的未来状态边界。
13.5第二扫描周期
然后,自主交通工具可以基于由传感器在下一扫描周期期间输出的点的径向速度、距离和角位置的下一集合来重复前述过程。
特别地,在第二时间T1,传感器执行第二扫描周期并返回第二扫描图像,该第二扫描图像包含在自主交通工具周围的整个场中的一群点的径向速度、距离和角位置。然后,自主交通工具实现上述方法和技术,以:识别与场中的离散对象相对应的点组;以及从第一扫描周期跟踪表示对象的点组到在该第二扫描周期中表示对象的对应的点组。
自主交通工具然后重复上述过程,以:计算该组中的点的径向速度的中心度量(central measure);将该中心度量存储为对象在时间T1的径向速度Vrad,1;针对这些数据计算第二斜率S1,其表示对象在时间T1处的切向速度Vtan,1和角速度ω1之间的关系。例如,该斜率S1可以表示以下两项之差:Vtan,1;和对象在T1处的ω1乘以在时间T1处相对于自主交通工具的对象位置的第一半径R1的乘积。因此,自主交通工具可以计算在T1处表示对象的点组的位置的集中趋势的度量的半径R1,并且基于时间T1处的斜率S1和半径R1生成将Vtan,1和ω1关联起来的第二函数(例如,线性函数)F1。
基于函数F1,然后自主交通工具可以计算线L1,其表示在给定对象在T1处的当前径向速度Vrad,1的情况下,对象在时间T1处的可能的Vtan,1和ω1运动组合。
随后,自主交通工具可以计算线L0和L1(或函数F0和F1)的交集,其表示对象在T1处的实际Vtan,1和ω1(或其非常接近的值),如图2所示。因此,从T0处的第一扫描周期到随后的T1处的扫描周期,自主交通工具可以求出对象在T1处的所有三个未知运动特性——包括Vtan,1、ω1和Vrad,1。
然后,在给定在线L0和L1的交集处表示的Vrad,1、Vtan,1和w1的情况下,自主交通工具可以计算对象在T1处相对于自主交通工具的总速度Vtot,rel,1。附加地或替代地,自主交通工具可以将其在T1处的绝对速度与对象的Vrad,1、Vtan,1和w1合并,以计算对象在T1处的总绝对速度Vtot,abs,1。
因此,在前述实现中,自主交通工具可以:将表示对象的第二点组中点的第二径向速度与第二方位角位置投射到水平面(即,大致平行于道路表面的2D空间)上;基于第二点组中的点的第二方位角位置的范围,计算对象在第二时间处的第二半径;基于第二点组中的点的第二径向速度的集中趋势的第二度量(例如,平均值),计算对象在第二时间相对于自主交通工具的第二径向速度;计算通过第二点组中的点的第二径向速度与第二方位角位置的第二线性趋势线;以及基于第二线性趋势线的第二斜率计算第二相关性,该第二斜率表示在第二时间对象的第二切向速度和对象的第二角速度之间的关系。特别地,第二斜率可以表示以下项之差:对象在第二时间处的第二切向速度;和对象在第二时间处的第二半径与对象在第二时间处的第二角速度的乘积。然后,自主交通工具可以基于第二时间处的第二斜率和第二半径计算第二线性函数,该第二线性函数将相对于自主交通工具的对象在第二时间处的可能的切向速度和对象在第二时间处的可能的角速度关联起来(例如,可能的切向速度和角速度满足关系式:S1=Vtan,1-R1ω1)。更具体地说,该第二函数可以将在大致平行于道路表面的水平面内的第二时间处的对象的可能的切向速度和对象的可能的角速度关联起来。
然后,自主交通工具可以基于在三个自由度的状态空间中的第一函数和第二函数的交集,估计第二时间处相对于自主交通工具的对象的具体第二切向速度和对象的具体第二角速度(或对象的可能的切向运动和角运动的窄的范围,如下所述)。此外,自主交通工具可以执行上述方法和技术,以在块S126中,基于第二时间处的对象的第二切向速度、对象的第二角速度、对象的第二径向速度和对象的绝对速度来计算对象在第二时间处相对于自主交通工具的总绝对速度。
自主交通工具然后可以:实现上述方法和技术,以基于对象的这些可能的相对或绝对速度和最大对象加速度假设来计算对象的未来状态边界;并如上所述相应地选择性地修改其轨迹。
13.6累积误差
在该变型中,对象相对于自主交通工具的切向速度Vtan和角速度ω可以在T0处的第一扫描周期和T1处的第二扫描周期之间改变,到时间T1时,这可能会在线L0中产生(额外的)误差。该误差的大小可能与T0和T1之间的时间偏移有关,并且因此可以是传感器的采样率的函数。
因此,自主交通工具可以诸如基于上述对象的运动限制假设,在从T0到T1的时间偏移内将对象的切向速度Vtan和角速度ω的最大和最小变化进行积分,以计算在线L0的每一侧的误差棒(例如,误差棒L0,error,low和L0,error,high)。然后,如图2所示,自主交通工具可以计算L1与误差棒L0,error,low和L0,error,high之间的区域的交集,从而缩小对象在T1处的可能的Vtan,1和ω1值的范围,同时考虑由于从时间T0到时间T1对象相对于自主交通工具的运动而导致的可能的累积误差。
然后,在给定Vrad,1以及被表示在由线L0的误差棒所界定的线L1上的Vtan,1和ω1运动组合的范围的情况下,自主交通工具可以计算对象在T1处相对于自主交通工具的可能的总速度的范围。附加地或替代地,自主交通工具可以将其在T1处的绝对速度与Vrad,1和在该被界定的线L1上表示的Vtan,1和ω1运动组合的范围合并,以计算对象在T1处的可能的绝对速度的范围。
例如,在块S126中,自主交通工具可以基于上述预定义的运动限制假设的集合在第一时间和第二时间之间的时间差上的积分来表征第一函数的第一误差——即,对象从第一时间到第二时间的最坏情况的运动变化。如上所述,自主交通工具可以:基于第一相关性计算第一线,该第一线将在第一时间处相对于自主交通工具的对象的可能的切向速度与对象的可能的角速度关联起来;基于第一误差计算第一线的第一宽度;并且在第一扫描周期期间的第一函数中表示第一线和第一线的第一宽度。因此,第一函数可以表示包含在第一时间处的对象的第一切向速度和对象的第一角速度的可能的组合的二维椭圆。
在第二扫描周期期间,自主交通工具可类似地基于第二相关性计算第二线,该第二线将在第二时间处相对于自主交通工具的对象的可能的切向速度和对象的可能的角速度关联起来。然后,自主交通工具可以基于第一宽度的第一线和第二线的交集,估计在第二时间相对于自主交通工具的对象的切向速度的第二范围和对象的角速度的第二范围。
13.7最佳拟合误差
在图5所示的类似实现中,自主交通工具可以:计算通过从第一扫描图像导出的第一点组中的点的第一径向速度与第一方位角位置的第一线性趋势线;基于该第一线性趋势线的第一斜率,计算第一时间处的对象的第一切向速度与对象的第一角速度之间的第一相关性;在块S126中,基于第一点组中的点的第一径向速度与第一线性趋势线的偏差来表征第一线性趋势线的第一误差;基于第一相关性计算第一线,该第一线将在第一时间处相对于自主交通工具的对象的可能切向速度和对象的可能角速度关联起来;基于第一误差计算第一线的第一宽度;以及在第一函数中表示第一线和第一线的第一宽度。例如,自主交通工具可以计算第一误差(以及因此计算第一线的宽度),该第一误差与从组中的每个点到第一线性趋势线的最小距离的平方和的平方根成比例。因此,第一函数可以表示包含在第一时间处的对象的第一切向速度和第一角速度的可能的组合的二维椭圆。
自主交通工具可以类似地:计算通过第二点组中的点的第二径向速度与第二方位角位置的第二线性趋势线;并基于该第二线性趋势线的第二斜率,计算第二时间处的对象的第二切向速度与对象的第二角速度之间的第二相关性;基于第二点组中的点的第二径向速度与第二线性趋势线的偏差来表征第二线性趋势线的第二误差;基于第二相关性计算第二线,该第二线将第二时间处相对于自主交通工具的对象的可能切向速度和对象的可能角速度关联起来;基于第一误差计算第一线的第一宽度;以及在第二函数中表示第二线和第二线的第二宽度。因此,第二函数可以表示包含在第二时间处的对象的第二切向速度和第二角速度的可能的组合的二维椭圆。
相应地,自主交通工具可以基于第一宽度的第一线与第二宽度的第二线的交集,估计在第二时间相对于自主交通工具的对象的切向速度的第二范围和对象的角速度的第二范围。尽管自主交通工具可能无法解析对象在第二时间处的具体切向速度和角速度,但自主交通工具可以基于第一函数和第二函数的交集计算对象在第二时间处的可能的切向速度和角速度的范围,该范围比从描述对象的单个扫描图像中导出的对象的可能的切向速度和角速度的范围窄得多。
13.8第二扫描周期后的未来状态边界
自主交通工具然后可以:实现上述方法和技术,以基于对象的这些可能的相对或绝对速度和预定义的运动限制假设来计算对象的未来状态边界;并如上所述相应地选择性地修改其轨迹。
例如,在块S112中计算临界时间之后,自主交通工具可以在停止持续时间内从对象的第二位置,对对象在第二时间处的第二运动——以高达最大角速度移动并根据预定义的运动限制假设规定的最大线加速度而加速到最大线速度——进行积分,以计算从第二时间到临界时间对象可进入的第二地面区域;并且将该第二地面区域存储为针对对象在第二时间处的第二未来状态边界,该第二未来状态边界的尺寸(例如,在大致平行于道路表面的水平面中的面积)(显著)小于对象的第一未来状态边界的尺寸。
特别地,因为自主交通工具将由第一函数表示的对象的宽范围的可能的切向速度和角速度组合(仅由预定义的运动限制假设界定)压缩为在第一函数和第二函数的交集处的对象的一个或小范围的可能的切向速度和角速度组合,所以自主交通工具还可以计算对象从第一扫描周期到第二扫描周期的较小的未来状态边界,并因此预测较大的进入区,自主交通工具可以在该进入区中操作直到临界时间,而不会牺牲在与附近的其他对象碰撞之前达到完全停止的能力。
13.9对象运动处理
然后,如上所述,在块S140中,自主交通工具可以选择第二导航动作以避免在临界时间之前进入到第二未来状态边界中。
例如,自主交通工具可以实现上述方法和技术,以:在块S144中,计算在自主交通工具周围的不包括对象的第一未来状态边界的进入区;然后响应于自主交通工具在第二时间处的位置落在对象的当前未来状态边界的周界的阈值距离(例如,两米;以自主交通工具的当前速度在500毫秒内穿越的距离)内,执行第一导航动作以朝向进入区导航(例如,以改变自主交通工具的轨迹)。附加地或替代地,自主交通工具可以响应于自主交通工具在第二时间处的位置落在对象的当前未来状态边界的周界的阈值内,自动执行制动动作以使自主交通工具减速。相反,如果自主交通工具的当前位置落在对象的第二未来状态边界之外,则自主交通工具可以维持其当前轨迹(例如,速度(velocity);速度(speed)和转向角),或者在第二扫描周期期间以其他方式使对象消隐而不纳入路径规划考虑。
13.10后续扫描周期
自主交通工具然后可以重复上述方法和技术以:基于在由传感器在第三时间T2输出的第三扫描图像中跟踪的点组(与同一对象相关联)的平均径向速度Vrad,2、斜率S2和半径R2,计算第三函数F2;基于函数F2,计算第三线L2;然后计算第一线L0(具有基于从T0到T2的时间偏移的误差棒)、第二线L1(具有基于从T1到T2的时间偏移的误差棒)以及第三线L2的交集,其表示对象在T2处可能的Vtan,2和ω2值。
替代地,在该第三扫描周期期间,自主交通工具可以:丢弃线L0;并计算第二线L1(具有基于从T1到T2的时间偏移的误差棒)与第三线L2的交集,其表示对象在T2处可能的Vtan,2和ω2值。
如上所述,自主交通工具然后可以:基于该多路交集(例如双路、三路等交集)计算对象在T2处的可能的Vtan,2和ω2值的范围;计算对象在T2处可能的相对或绝对速度;相应地更新对象的未来状态边界;并如上所述相应地选择性地修改其轨迹。
13.11按对象进行点分组和解组(ungroup)
如上所述,自主交通工具可以按接近度对扫描图像中的点进行分组,诸如包括相似的测距值、方位角、仰角值以及相似的径向速度。对于在第一扫描图像中检测到的每一个点组,自主交通工具可以计算表示该点组所代表的对象的线性运动和角运动的函数。然后,自主交通工具可以:针对后续扫描图像重复该过程;实现对象跟踪技术,以将第一扫描图像中的点组与第二扫描图像中的点组链接起来;以及基于针对从第一和第二扫描图像导出的这些点组的第一函数和第二函数对的交集来细化针对每个对象的运动预测。
如果在第二扫描图像中检测到的两个对象的所导出的运动是一致的(例如,如果它们的径向速度、切向速度和角速度非常相似或相同),诸如如果它们的运动落在预定义的速度判别(discrimination)阈值内,则自主交通工具还可以将它们聚类成一个“复合对象”(或“刚体”)。然后,自主交通工具可以计算针对该复合对象的一个未来状态边界,并相应地相对于该复合对象进行选择性地导航。因此,自主交通工具可以将在一致运动内的多个点组解释并处理为单一对象,从而减少自主交通工具正在跟踪的离散对象的数量,并因此减少自主交通工具在运行期间的计算负荷。
类似地,所述自主交通工具可以:将第一扫描图像中被预测为表示在第一时间处的一个对象的第一点组的分离解释为第二扫描图像中被预测为表示在第二时间处的两个不同对象的第二点组和第三点组;为第二对象和第三对象生成唯一函数;以及基于在第一和第二扫描周期内所导出的函数来估计第二对象和第三对象的运动。
在一个示例实现中,自主交通工具实现上述方法和技术,以在第一时间捕获的第一扫描图像中识别第一点组,并导出表示对象在第一扫描周期期间的运动的第一函数。在第二扫描周期期间,自主交通工具可以:访问第二扫描图像,该第二扫描图像包含传感器在继第一时间之后的第二时间处捕获的数据;在第二扫描图像中识别表示场中的所述对象的第二点组;在第二扫描图像中识别表示场中的第二对象的第三点组,第二对象从第一时间到第二时间与所述对象分离;计算第二点组中的点的第二径向速度和第二方位角位置之间的第二相关性;计算第三点组中的点的第三径向速度和第三方位角位置之间的第三相关性;基于第二相关性,计算第二函数,该第二函数将第二时间处的对象的可能的切向速度和对象的可能的角速度关联起来;并且,基于第三相关性,计算第三函数,该第三函数将第二时间处的第二对象的可能的切向速度和第二对象的可能的角速度关联起来。因此,如上所述,自主交通工具可以基于第一函数和第二函数的交集估计在第二时间相对于自主交通工具的对象的第二切向速度和对象的第二角速度。然而,自主交通工具还可以:基于表示对象在第一时间处的运动的第一函数与表示第二对象在第二时间处的运动的第三函数的交集,估计在第二时间相对于自主交通工具的第二对象的第三切向速度和第二对象的第三角速度。
例如,自主交通工具可以实现前述过程以:在第一时间检测表示在与自主交通工具相邻的两条车道上以相同方向和速度行驶的两辆车的两个点组;表征这些对象的运动;并将这两个对象作为一个复合组进行跟踪和响应,该复合组反映这些对象在第一时间的一致运动。然后,自主交通工具可以:在第二时间检测相对于彼此移动的两个对象,诸如,如果这些交通工具中的一个相对于另一个制动并减速;将复合对象分离为两个对象;然后独立地跟踪和响应这两个对象——它们现在呈现超过速度判别阈值的不同运动。
13.12来自多个传感器的并发数据
在一个变型中,自主交通工具包括多个偏移传感器,该多个偏移传感器在扫描周期期间输出并发点云,其以不同的视角表示在自主交通工具周围的场中的表面。在该变型中,自主交通工具可以执行前述方法和技术以:对于表示在一个扫描周期间由这些传感器输出的并发点云中的单一对象的同空间的对象组,计算一对函数和线;计算这些线的交集;并基于该交集估计对象的切向速度和角速度。
例如,自主交通工具可以:在由自主交通工具上的第一传感器在第一时间T0处输出的第一点云中识别表示离散对象的第一点组;计算该第一组中点的径向速度的平均值;将该平均值存储为对象在第一时间处的第一径向速度Vrad,1,0;基于该第一点组在第一时间的径向速度Vrad,1,0、斜率slope S1,0和半径R1,0,计算第一函数F1,0;以及基于函数F1,0,计算第一线L1,0。自主交通工具可以类似地:在由自主交通工具上的第二传感器在第一时间T0输出的第二点云中识别表示该相同对象的第二点组;计算该第二组中的点的径向速度的平均值;将该平均值存储为对象在第一时间的第二径向速度Vrad,2,0;基于该第二点组在第一时间的径向速度Vrad,2,0、斜率S2,0以及半径R2,0,计算第二函数F2,0;以及基于函数F2,0,计算第二线L2,0。
然后,自主交通工具可以计算第一线L1,0与第二线L2,0的交集,其表示对象在时间T0处的实际Vtan,0和ω0(或其非常接近的值)。因此,自主交通工具可以基于由这两个传感器在单个扫描周期期间输出的数据求出对象在T0处的所有三个未知运动特性——包括Vtan,0、ω0和Vrad,0。
然后,在给定在线L1,0和L2,0的交集处表示的Vrad,0、Vtan,0和ω0的情况下,自主交通工具可以计算对象在T0处相对于自主交通工具的总速度Vtot,rel,0。附加地或替代地,自主交通工具可以将其在T0处的绝对速度与对象的Vrad,0、Vtan,0和ω0合并,以计算对象在T0处的总绝对速度Vtot,abs,0。
自主交通工具然后可以:实现上述方法和技术,以基于对象的这些可能的相对或绝对速度和最大对象加速度假设来计算对象的未来状态边界;并如上所述相应地选择性地修改其轨迹。
此外,所述自主交通工具可以:检测在由自主交通工具上的两个传感器在第一扫描周期期间捕获的两个并发扫描图像中所描绘的对象;从两个扫描图像中导出描述该对象的运动的第一函数和第二函数;以及将这些第一函数和第二函数融合成对象在该第一扫描周期期间的一个运动估计。并发地,自主交通工具可以:检测仅在这两个扫描图像中的第一扫描图像中描绘(例如,由于遮挡而对这些传感器中的一个的视场不可见;或者由于两个传感器的视场不同)的第二对象;以及从第一扫描图像导出描述该第二对象在第一扫描周期期间的运动的第三函数。然后,如上所述,在下一扫描周期期间,自主交通工具可以:检测仅在第三扫描图像中描绘的第二对象;从第三扫描图像导出描述该第二对象的运动的第四函数;以及将这些第三函数和第四函数融合成第二对象在第二扫描周期期间的一个运动估计。
因此,自主交通工具可以实现方法S100的前述块,以基于在单一扫描周期期间捕获的并发扫描图像和在多个扫描周期内捕获的扫描图像序列两者来表征一群对象的运动。
14.6DOF
图3A、图3B和图3C所示的方法S100的一个变型包括:通过在第一时间捕获的第一扫描图像中表示对象的第一点组中的点的第一径向速度、第一方位角位置和第一仰角位置来计算第一最佳拟合平面;通过在第二时间捕获的第二扫描图像中表示该对象的第二点组中的点的第二径向速度、第二方位角位置和第二仰角位置来计算第二最佳拟合平面;以及通过在第三时间捕获的第三扫描图像中表示该对象的第三点组中的点的第三径向速度、第三方位角位置和第三仰角位置来计算第三最佳配合平面。
特别地,第一最佳拟合平面表示在第一时间对象的第一切向速度(例如,切向方位角速度和切向仰角速度的复合切向速度)、对象的第一偏航速度和对象的第一俯仰速度之间的关系。相应地,自主交通工具可以基于第一最佳拟合平面生成第一函数,该第一函数表示在第一时间可能的切向方位角速度与偏航速度之间的第一关系(例如,相关性)和可能的切向仰角速度与俯仰速度之间的第二关系。
类似地,第二最佳拟合平面表示在第二时间对象的第二切向速度、对象的第二偏航速度和对象的第二俯仰速度之间的关系。相应地,自主交通工具可以基于第二最佳拟合平面生成第二函数,该第二函数表示在第二时间可能的切向方位角速度与偏航速度之间的第一关系(例如,相关性)和可能的切向仰角速度与俯仰速度之间的第二关系。
类似地,第三最佳拟合平面表示在第一时间对象的第三切向速度、对象的第三偏航速度和对象的第三俯仰速度之间的关系。相应地,自主交通工具可以基于第一最佳拟合平面生成第三函数,该第三函数表示在第三时间可能的切向方位角速度与偏航速度之间的第一关系和可能的切向仰角速度与俯仰速度之间的第三关系。
在该变型中,方法S100还包括在块S124中基于第一函数、第二函数和第三函数的交集,计算在第三时间对象的第三切向速度(或单独的切向方位角速度和切向仰角速度)、对象的第三偏航速度和对象的第三俯仰速度。
14.1 3DOF相对6DOF
通常,上述方法S100可由自主交通工具执行,以表征对象在三个自由度(或“3DOF”)中的运动。然而,在这种变型中,自主交通工具可以实现类似的方法和技术来表征对象在六个自由度(或“6DOF”)中的运动。
特别地,当如上所述地表征对象在三个自由度中的运动时,自主交通工具可以解释:对象在水平平面内的径向方向和切向方向上的线性运动;以及仅围绕垂直于该水平面的偏航轴的旋转运动。相反,当如上所述地表征对象在六个自由度中的运动时,自主交通工具可以解释:对象在径向方向、切向方位角方向(例如,平行于传感器的扫描方向)和切向仰角方向(例如,正交于径向方向和切向方位角方向)上的线性运动;以及围绕沿切向方位角方向的俯仰轴的旋转运动和围绕沿切向仰角方向的偏航轴的旋转运动。
此外,对象围绕从传感器延伸到对象的射线的旋转(即,“横滚”运动)在单个扫描图像内可能不被传感器观察到。然而,如果对象的对象的横滚运动与该射线不是同轴的,则存储在由传感器捕获的连续扫描图像(或由两个偏移传感器捕获的并发扫描图像)中的点中的径向速度可以包含与对象的横滚速度相关的信息,并且自主交通工具因此可以融合多个扫描图像中表示图像的点组,以进一步对对象相对于自主交通工具的横滚速度进行消歧。
此外,许多(例如,大多数)基于地面的移动对象(诸如道路交通工具和行人的主体)可以呈现最小俯仰速度或没有俯仰速度,并且没有切向仰角速度(例如,可能不在水平道路表面上以外的任何方向上移动)。因此,对象的切向仰角速度和俯仰速度可以是(或可以接近)空(null)。因此,通过三维空间中的点组的最佳拟合平面坍缩为二维空间中的最佳拟合线,并且根据方法S100的这种变型对此类对象在六个自由度中的运动的推导坍缩为如上所述对对象在三个自由度中的运动的推导。
然而,在道路表面上和靠近道路表面的一些对象可能相对于自主交通工具呈现非零的切向仰角速度和俯仰速度,诸如车轮、混凝土搅拌机和街道清扫机。类似地,沿斜坡移动的交通工具可能相对于自主交通工具呈现非零的切向仰角速度和俯仰速度。这样的对象的切向仰角速度和俯仰速度被包含在扫描图像中表示该对象的点的径向速度数据中,但从被包含在单个扫描图像中的径向速度数据来看,它们是不确定的。因此,自主交通工具可以融合从以不同视角描绘对象的多个扫描图像(即,当自主交通工具和对象相对于彼此移动时)中导出的对象的切向方位角速度、切向仰角速度、偏航速度和俯仰速度之间的关系,以计算对象的可能的切向方位角速度、切向仰角速度、偏航速度和俯仰速度的特定范围或窄的范围。
14.2示例
例如,自主交通工具可以:实现上述方法和技术以在第一扫描图像中分离出表示对象的点组;并且基于在这些点中包含的速度(即径向速度)范围、方位角和仰角值,将这些点投射到三维空间(即径向速度、方位角和仰角空间)中。然后,自主交通工具可以:基于第一点组中的点的第一径向速度的集中趋势的第一度量(例如,平均值),计算在第一时间对象相对于自主交通工具的第一径向速度;基于第一点组中的点的第一方位角和仰角位置的集中趋势的第一度量(例如,平均值),计算在第一时间对象相对于自主交通工具的第一位置;以及计算从对象的第一位置返回到自主交通工具的第一径向矢量。
此外,自主交通工具可以:计算通过第一点组中的点的第一径向速度与第一方位角位置的第一线性方位角趋势线;以及基于该第一线性方位角趋势线的第一斜率计算第一相关性,该第一相关性表示在第一时间处对象的第一切向方位角速度与对象的第一偏航速度之间的关系。特别地,第一斜率可以表示以下项之间的第一差:对象在第一切向方向(例如,切向方位角方向)上的切向速度;以及对象的径向矢量和对象的偏航速度(例如,俯仰速度)之间的交叉乘积(cross product)在第一切向方向上的投影。
自主交通工具可以类似地计算通过第一点组中的点的第一径向速度与第一仰角位置的第一线性仰角趋势线;基于第二线性趋势线的第二斜率计算第二相关性,该第二相关性表示在第一时间处对象的第一切向仰角速度和对象的第一俯仰速度之间的关系。特别地,第二斜率可以表示以下项之间的第二差:对象在第二切向方向(例如,切向仰角方向)上的切向速度;以及对象的径向矢量和对象的偏航速度之间的交叉乘积在第一切向方向上的投影。
因此,第一线性方位角和仰角趋势线可以表示针对第一组中的点在三维径向速度、方位角和仰角空间中绘制的第一最佳拟合平面,如图3A所示。
自主交通工具然后可以基于第一斜率、第二斜率和表示对象在第一时间的相对位置的第一径向矢量来计算第一函数,该第一函数将对象在第一时间的可能的切向方位角速度、切向仰角速度、偏航速度和俯仰速度关联起来。更具体地说,该第一函数可以在第一时间将对象的可能的切向方位角速度与对象的可能的偏航速度关联,并且将对象的可能的切向仰角速度与对象的可能的俯仰速度关联。
替代地,自主交通工具可以:直接计算针对第一组中的点的第一最佳拟合平面,而不是独立计算第一线性方位角和仰角趋势线;和/或基于任何其他方向上的切向速度导出第一函数。例如,自主交通工具可以执行图7所示的过程,以导出将对象的观测值(即,表示对象的点的方位角、仰角和测距值位置以及径向速度)与对象在六个自由度中的运动状态关联起来的函数。
然后,自主交通工具可以对随后的扫描图像重复该过程,以生成表示对象的切向运动和角运动的可能的组合的函数序列,如图3A所示。然后,自主交通工具可以计算从三个连续的扫描图像导出的三个函数在六个自由度状态空间中的交集,以计算对象的可能的径向速度、切向方位角速度、切向仰角速度、偏航速度、俯仰速度和横滚速度的特定范围或窄的范围。
因此,自主交通工具可以将对象的这些切向方位角速度、切向仰角速度、偏航速度和俯仰速度与从当前扫描图像导出的对象的径向速度融合,以计算对象相对于自主交通工具在所有六个自由度中的总速度,如图3C所示。
14.3最佳拟合误差
在该变型中,自主交通工具可以实现与上述的那些方法和技术类似的方法和技术,以计算最佳拟合平面的宽度(或“厚度”)。例如,自主交通工具可以针对扫描图像计算每个最佳拟合平面的误差,该误差与从组中的每个点到最佳拟合平面的最小距离(在三维中)的平方和的平方根成比例。自主交通工具然后可以基于该误差计算该平面的厚度,或者以其他方式在为该对象所计算的相应函数中表示该误差。因此,该函数可以表示三维椭圆体,该椭圆体包含对象在扫描周期期间的切向速度、偏航速度和俯仰速度的可能的组合。
在这个示例中,自主交通工具然后可以计算三个连续(加厚的)函数的交集,以计算对象在当前时间的可能的径向速度、切向方位角速度、切向仰角速度、偏航速度、俯仰速度和横滚速度的窄的范围。然后,自主交通工具可以实现上述方法和技术以:基于对象在六个自由度中的运动,计算对象的未来状态边界并选择性地对其做出反应——对象在六个自由度中的运动包括:该窄的范围的可能的切向方位角速度、切向仰角速度、偏航速度、俯仰速度和横滚速度;所测量的对象的径向速度。
14.4累积误差
附加地或替代地,在三个连续扫描周期上计算出第一函数、第二函数和第三函数之后,自主交通工具可以:计算在第一函数和第二函数的交集处表示的对象的可能的切向方位角速度、切向仰角速度、偏航速度、俯仰速度和横滚速度的第一集合;计算与这些可能的切向方位角速度、切向仰角速度、偏航速度、俯仰速度和横滚速度以及预定义的运动限制假设的集合相一致的对象的最坏情况的运动;在从第一扫描周期到第三扫描周期的一段时间内对对象的该最坏情况的运动进行积分;并将该值存储为第一最佳拟合平面的厚度以及由此作为由第一函数表示的误差。因此,第一函数可以表示三维椭圆体,该椭圆体包含对象在第一扫描周期期间的切向速度、偏航速度和俯仰速度的可能的组合。
类似地,自主交通工具可以:计算由第二函数表示的对象的可能的切向方位角速度、切向仰角速度、偏航速度和俯仰速度的第二集合;计算与这些可能的切向方位角速度、切向仰角速度、偏航速度和俯仰速度以及预定义的运动限制假设的集合相一致的对象的最坏情况的运动;在从第二扫描周期到第三扫描周期的一段时间内对对象的该最坏情况的运动进行积分;并将该值存储为第二最佳拟合平面的厚度以及由此作为由第二函数表示的误差。因此,第二函数可以表示三维椭圆体,该椭圆体包含对象在第二扫描周期期间的切向速度、偏航速度和俯仰速度的可能的组合。
在该示例中,自主交通工具然后可以计算(厚度、最大误差的)第一函数、(加厚的)第二函数和第三函数的交集,以计算对象在第三时间的可能的切向方位角速度、切向仰角速度、偏航速度、俯仰速度和横滚速度的窄的范围,如图3C所示。然后,自主交通工具可以实现上述方法和技术以:基于对象在六个自由度中的运动,计算对象的未来状态边界并选择性地对其做出反应——对象在六个自由度中的运动包括:该窄的范围的可能的切向方位角速度、切向仰角速度、偏航速度、俯仰速度和横滚速度;所测量的对象的径向速度。
14.5多个传感器
如上所述,在包括输出并发扫描图像的多个偏移传感器的自主交通工具的变型中,自主交通工具可以执行前述方法和技术以:根据描绘对象的多个并发扫描图像,计算表示该对象在六个自由度中的运动的多个函数;然后基于这些函数的交集,导出对象在六个自由度中的运动。
例如,自主交通工具可以针对一个对象被描绘在由自主交通工具上的三个传感器捕获的三个并发扫描图像中,生成并融合三个函数。在另一示例中,自主交通工具可以针对一个对象被描绘在由自主交通工具上的两个传感器中的每一个在两个连续扫描周期内捕获的两对扫描图像中,生成并融合两对连续的两个函数。
因此,自主交通工具可以实现方法S100的前述块,以基于在单一扫描周期期间捕获的并发扫描图像和在多个扫描周期内捕获的扫描图像序列两者来表征一群对象的运动。
14.6多个对象
此外,自主交通工具可以并发地执行方法的该变型的多个实例,以根据由自主交通工具捕获的多个并发或连续的扫描图像,导出多个对象在六个自由度中的运动。
14.7对象分割
在该变型的一个示例中,自主交通工具捕获描绘道路交通工具(例如,客运交通工具、卡车)的一侧的扫描图像。自主交通工具实现上述方法和技术,以基于接近度,对扫描图像中描绘该道路交通工具的点进行分组。然而,如果道路交通工具正在移动(即,如果其车轮速度非零),则道路交通工具的主体可以相对于自主交通工具呈现最小或空的切向仰角速度和俯仰速度,但是道路交通工具的车轮可能呈现非零的切向仰角速度和俯仰速度。因此,由该组中对应于道路交通工具的主体的点的第一子集所描述的径向速度可能与由该组中对应于道路交通工具的车轮的点的第二子集所描述的径向速度不一致。
因此,在一个实现中,自主交通工具可以基于点组上的径向速度趋势的差异来区分和分隔开点的第一子组和第二子组,如图3B所示。例如,自主交通工具可以:实现上述方法和技术,以计算通过由点组表示的径向速度、方位角位置和仰角位置的初始最佳拟合平面;并表征初始最佳拟合平面与组中的点之间的误差(例如,离初始最佳拟合平面的距离)。如果该误差高(例如,超过预定义阈值),则自主交通工具可以:检测以最大误差(例如,离最佳拟合平面的最大距离)为特征的组中的点的第一集群;将该组点分离成包含点的第一集群的第一子组和包含剩余点的第二子组;计算通过由点的第一子组表示的径向速度、方位角位置和仰角位置的第一最佳拟合平面;表征第一最佳拟合平面与第一子组中的点之间的第一误差;类似地,计算通过由点的第二子组表示的径向速度、方位角位置和仰角位置的第二最佳拟合平面;以及表征第二最佳拟合平面与第二子组中的点之间的第二误差。自主交通工具可以重复该过程以迭代地细化第一子组和第二子组,直到点的每个子组与其对应的最佳拟合平面之间的误差小于最大误差(例如,小于预定义阈值)。
在该实现中,自主交通工具还可以将初始点组分割成最大数量的子组,诸如最多四个子组,该四个子组可以共同表示:客运交通工具的主体和两个车轮;铰接式客车的两个车轮和前后主体部分;街道清扫车的两个车轮、主体和清扫机元件;或者水泥车的两个车轮、主体和混凝土搅拌机元件。附加地或替代地,自主交通工具可以将初始点组分割成子组,每个子组具有至少预定义的最小数量的点(例如,100个点)。
更一般地,一个道路交通工具的不同元件相对于自主交通工具的切向仰角速度和俯仰速度的差(其被表示在初始组中的点的径向速度中),将在这些点与针对整个组的最佳拟合平面之间产生误差,因为该最佳拟合平面描述了道路交通工具的所有这些元件在六个自由度中的一致的运动。因此,自主交通工具可以执行前述过程以:检测并分离出表示一个道路交通工具上的不同元件的点的子组,这些不同元件相对于自主交通工具呈现不同的运动;以及计算将道路交通工具的这些不同元件在扫描周期的时间处的切向方位角速度、切向仰角速度、偏航速度和俯仰速度关联起来的函数(例如,最佳拟合平面)的集合。
如上所述,然后,自主交通工具可以对多个扫描图像(诸如由多个传感器捕获的并发图像的集合或由一个传感器捕获的连续扫描图像)重复该过程以:分离出表示道路交通工具上的不同元件的点的子组;导出将道路交通工具的这些元件的切向方位角速度、切向仰角速度、偏航速度和俯仰速度关联起来的附加函数集合;然后,基于针对道路交通工具的每个元件的三个函数集合的交集,导出道路交通工具的每个元件相对于自主交通工具在六个自由度中的运动。如上所述,自主交通工具还可以基于这些相对运动和自主交通工具的并发运动来计算道路交通工具的每个元件的总绝对运动。
14.8链接对象
此外,一旦自主交通工具由此导出道路交通工具的多个元件在六个自由度中的相对或绝对运动,则如果这些不同元件的线性运动是一致的,诸如如果它们的绝对或相对总线性速度落在上述的预定义速度判别阈值内,自主交通工具就可以实现类似于上述那些方法和技术的方法和技术,以将这些不同元件重新组合成一个复合对象(例如,一个“刚体”)。
例如,在块S126中,自主交通工具可以基于从表示由传感器捕获的三个连续扫描图像中所描绘的第一对象的点的三个子组导出的(例如,三个)函数的集合的交集,估计在当前时间相对于自主交通工具的第一对象的第一线性运动和第一对象的第一角运动。并发地,在块S126中,自主交通工具可以基于从表示这三个连续扫描图像中所描绘的第二对象的点的三个子组导出的(例如,三个)函数的集合的交集,估计在当前时间相对于自主交通工具的第二对象的第二线性运动和第二对象的第二角运动。然后,在块S160中,自主交通工具可以响应于第一对象的第一线性运动和第二对象的第二线性运动之间的对准,诸如如果第一线性运动和第二线性运动之间的差落在上述的预定义速度判别阈值内,将第一对象和第二对象识别为对应于公共刚体,如图3B所示。
更具体地说,由自主交通工具在多个扫描周期上检测和跟踪的、对应于同一道路交通工具的不同元件的两个对象可能相对于自主交通工具呈现不相似的俯仰和偏航速度,但将沿着相同的路径一起移动,并因此将呈现相同(或非常相似)的线性速度。因此,自主交通工具对非常接近并呈现相同(或非常相似)的线性速度——以及可能呈现不同的偏航速度和俯仰速度——的对象进行分组,以形成表示完整的道路交通工具的一个复合对象(或一个“刚体”)。
14.9对象分类
此外,自主交通工具可以基于单独的对象的运动特性,对对象的类型进行分类。
在图3B所示的一个示例中,自主交通工具可以通过以下方式将对象识别为车轮:基于在表示该对象的(子)组中的点所包含的方位角位置、仰角位置和测距值,将这些点投射到三维空间中;计算对象的绝对线速度的方向;计算通过点组并平行于(即包含)对象的运动方向的垂直平面;以及计算组中的点的径向速度在垂直平面内的线速度分量。然后,在块S162中,自主交通工具可以将对象识别为车轮:如果这些点(即,表示车轮或轮胎的当前顶部的点)在垂直平面内的最大线速度大约是对象的绝对线速度的两倍(并且平行于对象的绝对线速度的方向和/或在与对象的绝对线速度的方向相同的取向上);和/或如果这些点(即,表示车轮或轮胎的当前底部的点)在垂直平面内的最小线速度大约为空。
在类似的示例中,自主交通工具可以通过以下方式将对象识别为车轮:计算对象的绝对线速度的方向;以及计算组中的点的径向速度的与对象的绝对运动方向平行的线速度分量。然后,在块S162中,自主交通工具可以将对象识别为车轮:如果这些点(即,表示车轮或轮胎的当前顶部的点)的——平行于对象的绝对运动方向的——最大线速度大约是对象的绝对线速度的两倍(并且平行于对象的绝对线速度的方向和/或在与对象的绝对线速度的方向相同的取向上);如果这些点(即表示车轮或轮胎的当前底部的点)的——平行于对象的绝对运动方向的——最小线速度大约为空;和/或如果组中的点的平行于对象的绝对运动方向的线速度的梯度从接近地平面的近似空增加到在对象顶部处(例如,在对象上的一点处,该点在地平面上方的高度是点组的垂直中心在地平面上方的高度的两倍)的对象的绝对线速度的大约两倍。
然后,响应于将复合对象内的对象识别为车轮,自主交通工具可以将该复合对象分类为轮式交通工具,如图3B所示。更具体地说,自主交通工具可以——诸如,不是实现人工智能和计算机视觉技术以基于在彩色图像中检测到的复合对象的视觉特性或从复合对象的深度图像中导出的对象的几何特性来将复合对象分类而是、或除了所述操作之外还——基于包含在复合对象中的对象的运动特性和/或相对位置,将复合对象分类为轮式交通工具。因此,通过基于简单的、预定义的、规定性的规则根据包含在复合对象中的对象的运动,而不是基于复杂的人工智能和计算机视觉技术来将复合对象分类为轮式交通工具,自主交通工具可以在更少的时间内和/或利用更少的计算负荷准确地将复合对象分类。
此外,在将复合对象分类为轮式交通工具后,自主交通工具可以针对轮式交通工具——而不是针对通用对象(即,针对所有可能的对象类型)——检索预定义运动限制假设,并将这些细化的预定义运动限制假设分配或标记给复合对象,如图3B所示。例如,自主交通工具可以针对轮式交通工具检索预定义运动限制假设,这些假设指定:小于摩托车和行人的最大角速度的最大角速度,并且该最大角速度随着交通工具的地面速度而变化且与地面速度成比例地减小;以及小于摩托车的最大线加速度的最大线加速度。
此外,在该变型中,如果在该复合对象内被识别为车轮的对象呈现平行于该对象的线性运动方向的最大线速度,该最大线速度(远远地)大于该对象的总的绝对线速度的两倍,则自主交通工具可以检测到该复合对象的敌对运动,因为这种特性可以指示轮式交通工具正在“剥落”、“烧毁”或以其他方式失去牵引力。因此,自主交通工具可以针对呈现失去牵引力的轮式交通工具检索预定义运动限制假设,并将这些细化的预定义运动限制假设分配或标记给复合对象。例如,自主交通工具可以针对呈现失去牵引力的轮式交通工具检索预定义运动限制假设,这些运动限制假设指定了比具有牵引力的轮式交通工具更低的最大线速度和更大的最大角速度。
15.对象运动的不确定性的方向
图4所示的方法S100的一个变型包括,对于第一扫描周期:在块S104中,访问包含由自主交通工具上的传感器在第一时间捕获的数据的第一扫描图像;在块S120中,识别第一扫描图像中表示自主交通工具附近的场中的对象的第一点组,该第一点组中的每个点包括对象上的表面相对于自主交通工具的第一位置和对象的表面相对于传感器的第一径向速度;在块S122中,基于第一点组中的点的第一径向速度的集中趋势的第一度量,计算在第一时间对象相对于自主交通工具的第一径向速度;以及在块S170中,沿垂直于对象的第一径向速度的第一切线方向表征在第一时间的对象运动的不确定性的第一方向。方法S100的该变型还包括:在块S172中,基于自主交通工具在第一时间的运动,计算对象在继第一时间之后的第二时间处的运动的不确定性的所预测的第二方向;并且响应于不确定性的第二方向不同于不确定性的第一方向,在块S142中,在第二时间使对象消隐,而不纳入用于使自主交通工具避让对象的制动考虑。
15.1基于未来数据质量延迟碰撞避免动作
通常,在前述变型中,自主交通工具可能需要多个扫描周期以导出对象的特定的绝对或相对总运动,诸如两个扫描周期以导出对象在三个自由度中的总运动,或者三个扫描周期以导出对象在六个自由度中的总运动。此外,如果对象相对于自主交通工具的径向位置在这些扫描周期内保持相对一致,则由自主交通工具计算的对象在这些扫描周期内的可能的绝对或相对运动的范围可能较高,从而产生对象的真实运动的较少确定性;反之亦然。
因此,在该变型中,自主交通工具可以:表征对象在当前扫描周期期间的运动的不确定性的当前方向(例如,在切向方位角方向和/或切向仰角方向上);预测对象在未来(例如,下一个)扫描周期期间的运动不确定性的未来方向(例如,基于自主交通工具与对象的相对运动和通用对象的预定义运动限制假设);并比较对象的运动不确定性的当前方向和预测的未来方向,以预测自主交通工具是否将在未来改善它对对象的运动的确定性——诸如,如果对象的运动不确定性的当前方向和未来方向不平行——这可以通知用于在未来避免与对象碰撞的更准确的响应(例如,制动、转向或不采取动作)。因此,如果自主交通工具验证其当前位于如上所述的对象的未来状态边界之外,则自主交通工具可以选择在当前扫描周期期间延迟对对象的响应,因为自主交通工具预测在未来对象的运动确定性更大。
更具体地说,尽管当对象首次进入自主交通工具上的传感器的视野时,自主交通工具可能具有对象的不完整运动信息,但自主交通工具可以选择延迟用于避免与对象碰撞的动作(例如,制动、改变方向),因为自主交通工具预测在未来能访问更多或更好的信息,这将减少对象的运动的不确定性。因此,自主交通工具可以执行方法S100的该变型,以改善乘坐质量并避免不必要的制动和转向动作,否则这些不必要的制动和转向动作:可能给乘坐者带来身体和情感上的不适;并且可能增加自主交通工具针对对附近的人类驾驶员和行人的动作的不确定性。
15.2对象运动的不确定性
通常,在当前扫描周期期间被对象首次检测到的对象可以以满足由自主交通工具在当前扫描周期期间计算出的函数的切向速度和角速度的任何组合移动,并且该切向速度和角速度的任何组合落在由预定义运动限制假设规定的最大切向速度和角速度假设内。例如,诸如当自主交通工具和对象都接近交集时,对象可以非常快速地移动到自主交通工具的路径中,或者可以制动以避让自主交通工具。在当前扫描图像中表示该对象的点中包含的径向速度近似于单一的测量方向(例如,大约由于角度小),并且因此可能包含不充分的信息来解析对象的具体切向速度和角速度。
然而,在下一个扫描周期期间,自主交通工具可以访问表示对象运动的更多数据,然后自主交通工具可以将这些数据与对象在前面的扫描周期期间的运动描述(例如,第一径向速度和将对象的切向速度与角速度关联起来的第一函数)融合,以计算对象的可能切向速度和角速度组合的窄的(更窄的)范围。
利用在下一扫描周期期间捕获的数据对对象运动的这种细化可以与将对象在当前扫描周期期间的切向速度和角速度关联起来的函数的正交性成比例。特别地,如果这两个函数呈现低正交性(即,高平行性),则这两个函数的交集可以是相对较大的区域,并因此可以通知对象的可能的切向速度和角速度的宽的范围;反之亦然。更具体地说,如果这两个函数呈现低正交性,则第一函数和第二函数的交集除以第一函数和第二函数的并集可能相对较大,这可以对应于对象的运动的低确定性。
15.3不确定性方向推导
在一个实现中,自主交通工具实现上述方法和技术以:访问第一扫描图像;在第一扫描图像中检测第一时间的对象;计算在第一扫描周期期间的第一径向速度和将对象的切向速度和角速度关联起来的第一函数;以及计算对象的第一未来状态边界。
然后,如果自主交通工具离未来状态边界很远,则自主交通工具可以使对象消隐,而不纳入路径规划考虑。例如,如果自主交通工具在当前时间的位置落在对象的第一未来状态边界之外大于阈值距离(诸如,50米的阈值距离,或在给定自主交通工具的当前速度的情况下自主交通工具在5秒的阈值时间内穿越的距离)处,则自主交通工具可以从当前时间直到至少下一个扫描周期使对象消隐,而不纳入为避让对象进行的制动考虑。
相反,如果自主交通工具位于该未来状态边界内,则自主交通工具可以自动执行制动动作,从而使自主交通工具减速,以便在未来(例如,下一个)扫描周期期间将自主交通工具的位置移动到未来状态边界之外。
然而,如果自主交通工具靠近对象的未来状态边界(例如,在未来状态边界之外但与其相距在阈值距离内),则自主交通工具可以执行方法S100的该变型的块,以表征对象的运动的不确定性方向。如果对象的运动的不确定性方向与自主交通工具的轨迹之间的角度大于阈值角度(例如,如果对象正在穿过十字路口并接近与自主交通工具相同的路口),则自主交通工具当前可以访问不充分的信息来辨别对象是正在非常快速地朝向自主交通工具移动还是处于要与自主交通工具碰撞的过程中。然而,因为自主交通工具的当前位置落在自主交通工具的未来状态边界之外,所以即使自主交通工具将动作延迟至少再一个扫描周期,并且即使对象正以预定义的运动限制假设内的最坏情况的切向速度和角速度移动,自主交通工具也可以确认在自主交通工具能够制动到完全停止之前对象不会与自主交通工具碰撞。因此,自主交通工具可以暂缓(withhold)执行避让对象的动作,直到(至少)下一个扫描周期当关于对象的附加运动数据对自主交通工具变得可用的时候。
此外,如果自主交通工具非常靠近对象(例如,与对象相距在两米或200毫秒内)和/或非常靠近对象的未来状态边界(例如,与对象的未来状态边界相距在十米或一秒内),则自主交通工具可以执行方法S100的该变型以预测对象的下一个不确定性方向。例如,自主交通工具可以:为当前时间的对象选择标称角速度假设(例如,0弧度/秒);以及基于第一函数和标称角速度计算对象的第一切向速度。替代地,自主交通工具可以:计算对象朝向自主交通工具的最大切向速度,该最大切向速度与预定义的运动限制假设的集合和第一函数相一致(并且因此基于当前扫描图像中表示对象的点的径向速度和对象的径向长度);将该最大切向速度存储为对象的所预测的第一切向速度;以及基于第一函数和对象的所预测的第一切向速度计算对象的对应的所预测的第一角速度。自主交通工具然后可以基于第一径向速度、该预测的第一切向速度和所预测的标称角速度来预测对象的总相对运动;通过在从当前扫描周期到下一扫描周期的时间内(例如,传感器的采样间隔)对对象的总相对运动进行积分,计算对象在下一扫描周期期间相对于自主交通工具的下一个相对位置;然后计算对象在下一个扫描周期期间的运动的不确定性的所预测的第二方向,该第二方向垂直于对象在下一个扫描周期期间相对于自主交通工具的径向位置,并且落在水平面内。(更具体地说,自主交通工具可以计算对象运动的不确定性的所预测的第二方向,该第二方向落在沿针对下一个扫描周期所预测的切向方位角方向。)
因此,自主交通工具可以基于自主交通工具在当前时间的运动以及对象在当前时间的第一径向速度、所预测的第一切向速度和所预测的第一角速度,计算对象在下一扫描周期期间的运动的不确定性的所预测的第二方向。
15.4确定性改善预测
然后,如果所预测的第二不确定性方向与用于当前扫描周期的第一不确定性方向不同,则自主交通工具可以预测对象在下一扫描周期期间的运动的不确定性降低,并且确认自主交通工具的运动没有改变。自主交通工具还可以基于对象的运动的不确定性的第一方向和所预测的第二方向之间的角度(或与该角度成比例地),表征在对象在下一扫描周期时的运动的确定性上的所预测的改善的幅度。
然而,如果所预测的第二不确定性方向平行于或几乎平行于(例如,相差在5°内)用于当前扫描周期的第一不确定性方向,则在给定自主交通工具在当前扫描周期和下一个扫描周期之间的运动变化(诸如转向角变化、制动输入或加速度输入)的情况下,自主交通工具可以重复前述过程来为对象重新计算所预测的第二不确定性方向(同时保持在为场中的许多或所有对象计算的进入区中,并满足预定义的平稳自主导航要求)。例如,自主交通工具可以通过自主交通工具对可以在下一个扫描周期在对象的不确定性方向上产生变化的导航动作进行建模,从而改善对象的运动的确定性。
然后,如果这些导航动作中的一个在不确定性方向上产生所预测的变化(即,不确定性方向增加所预测的第二不确定性方向和第一不确定性方向之间的角度),则自主交通工具可以执行该导航动作以修改在下一扫描周期期间自主交通工具相对于对象的运动。特别地,自主交通工具可以专门执行该导航动作,以改善获取信息的机会,该信息可以更好地通知对象的真实运动,而不是必须避免与对象碰撞,因为自主交通工具已经确认,即使在给定对象的最坏情况的运动的情况下,自主交通工具也有时间在与对象碰撞之前达到完全停止。
15.5侧翼(flanking)对象
如果第一不确定性方向与自主交通工具的当前轨迹相交,诸如在自主交通工具的当前位置前方阈值距离(例如,30米、3秒或自主交通工具的停止持续时间)内相交,则自主交通工具可以附加地或替代地执行该过程以计算对象在下一扫描周期期间的运动的所预测的第二不确定性方向。
然而,如果对象在下一扫描周期期间的运动的所预测的第二不确定性方向与自主交通工具的当前轨迹在该阈值距离之外相交,或者如果对象在下一扫描周期期间的运动的所预测的第二不确定性方向大致平行于自主交通工具的当前轨迹(例如与自主交通工具的当前轨迹相差20°),则自主交通工具可以对于对象朝向自主交通工具的运动具有高确定性。
例如,如果对象和自主交通工具在两个紧邻且平行的车道上彼此位于侧翼,则由自主交通工具从第一扫描图像导出的对象的第一径向速度可以以非常高的确定性指示对象朝向自主交通工具的运动(即,最高风险方向),即使对象的真实切向速度从该第一扫描图像来看是未知的。在该示例中,对象的运动的不确定性的方向(例如,在对象的切向速度的方向上)大致平行于自主交通工具和对象的运动的方向,因此不通知对象朝向自主交通工具的运动。此外,自主交通工具的轨迹与对象的运动的不确定性的方向之间的角度近似为0°。相应地,自主交通工具可以基于对象的未来状态边界来选择避免与对象碰撞的导航动作;而不是基于对象的运动的不确定性来选择避免与对象碰撞的导航动作,因为(主要地)影响与对象碰撞的风险的运动分量是已知的。
15.6未来扫描周期
自主交通工具还可以执行前述过程,以预测对象在多个未来扫描周期内(诸如在后续的十个扫描周期内或在自主交通工具操作的后续两秒钟内)的运动的不确定性的方向,并因此预测对象的运动的确定性的改善。相应地,自主交通工具可以选择在多个后续扫描周期内使对象消隐而不纳入对象避让考虑,因为自主交通工具预测对象在这些多个后续扫描周期内的运动的不确定性的方向的变化,并因此预测对象的运动的确定性的改善。附加地或替代地,自主交通工具可以:预测(或“建模”)由自主交通工具执行的导航动作,这些导航动作将在多个后续扫描周期内产生对象的运动的不确定性的方向的变化,并因此产生对象的运动的确定性的改善;然后在这些扫描周期内执行这样的导航动作,以改善它对对象的运动的确定性。
16.对象运动的不确定性
对于自主交通工具处的第一扫描周期,图5所示的方法S100的类似变型包括:在块S104中,访问包含由自主交通工具上的传感器在第一时间捕获的数据的第一扫描图像;在块S120中,在第一扫描图像中识别第一点组,该第一点组表示在自主交通工具附近的场中的对象;以及在块S126中基于第一点组来表征对象在第一时间的第一运动。对于自主交通工具处的第二扫描周期,方法S100的该变型还包括:在块S104中访问包含由传感器在继第一时间之后的第二时间处捕获的数据的第二扫描图像;在块S120中在第二扫描图像中识别表示对象的第二点组;以及在块S126中基于第二点组和第一运动来表征对象在第二时间的第二运动。方法S100的该变型还包括:在块S180中,表征对象在第二时间的第二运动的第二不确定性;在块S182中,基于对象在第二时间的第二运动和自主交通工具在第二时间的运动,计算对象在继第二时间之后的第三时间处的第三运动的所预测的第三不确定性;并且在块S142中,响应于所预测的第三不确定性低于第二不确定性,在第二时间使对象消隐,而不纳入用于使自主交通工具避让对象的制动考虑。
类似地,对于自主交通工具处的第一扫描周期,方法S100的该变型可包括:在块S104中,访问包含由自主交通工具上的传感器在第一时间捕获的数据的第一扫描图像;在块S120中,在第一扫描图像中识别第一点组,该第一点组表示在自主交通工具附近的场中的对象;以及在块S126中基于第一点组来表征对象在第一时间处的第一运动。方法S100的该变型还可以包括:在块S180中,表征对象在第二时间的第一运动的第一不确定性;在块S182中,基于对象在第一时间的第一运动和自主交通工具在第一时间的运动,计算对象在继第一时间之后的第二时间处的第二运动的所预测的第二不确定性;并且在块S142中,响应于所预测的第二不确定性低于第一不确定性,在第二时间处使对象消隐,而不纳入用于使自主交通工具避让对象的制动考虑。
16.1对象运动的不确定性
通常,在该变型中,自主交通工具可以实现类似于上述的那些方法和技术的方法和技术,以:计算对象在下一扫描周期期间的运动的不确定性的所预测的下一方向;比较对象的运动的不确定性的当前方向和所预测的下一个方向,以预测在未来对象的运动的确定性的改善幅度(例如,与对象的运动的不确定性的当前方向和所预测的下一个方向的正交性成比例);然后,如果自主交通工具预测在未来对象的运动的确定性的(有意义的、显著的)改善,则响应于对象的运动的确定性低,在当前时间选择性地延迟避让对象的导航动作,从而减少自主交通工具的运动变化并改善乘客的乘坐质量,如上所述。
16.2不确定性表征:3DOF
更具体地说,在上面描述的自主交通工具以三个自由度表征对象的运动的变型中,自主交通工具可以实现上面描述的方法和技术以:基于在第一扫描图像中表示对象的点的径向速度来计算表示该对象的运动的第一函数;在第一扫描周期期间捕获的第一扫描图像中首次检测到对象时,计算对象的第一未来状态边界;并验证自主交通工具当前位于对象的第一未来状态边界之外。自主交通工具然后可以实现上述方法和技术,以预测表示对象在下一扫描周期期间的运动的第二函数。例如,自主交通工具可以基于以下项来预测对象在第二扫描周期期间的(绝对或相对)运动:第一径向速度和描述对象在第一扫描周期期间的运动的第一函数;通用对象的预定义运动限制假设;以及在从第一扫描周期到下一扫描周期的时间差上进行积分。然后,自主交通工具可以:预测在下一个扫描图像中表示对象的点的径向速度和方位角位置的梯度;基于径向速度在这些方位角位置上的该梯度,计算表示对象在下一扫描周期期间的可能的切向速度和角速度的所预测的第二函数;并计算第一函数和所预测的第二函数的交集除以并集。然后,自主交通工具可以预测信息增益——并因此预测对象的运动的确定性的改善——该信息增益与该第一函数和所预测的第二函数的交集除以并集成反比。
因此,在上面描述的自主交通工具以三个自由度表征对象的运动的变型中,在块S180中,自主交通工具可以表征对象在第二时间处的运动的第二不确定性,该第二不确定性正比于第一函数和第二函数的交集与第一函数和第二函数的并集之比。
16.2不确定性表征:6DOF
在上面描述的自主交通工具以六个自由度表征对象的运动的变型中,自主交通工具可以实现类似的方法和技术来表征对象在下一扫描周期期间的运动的不确定性。
例如,自主交通工具可以:计算表示对象在当前(即,第一)扫描周期期间的可能的切向运动、角运动和俯仰运动的第一函数;实现上述方法和技术以预测在第二扫描周期期间对象在六个自由度中的(绝对或相对)运动;预测在下一(即,第二)扫描图像中表示对象的点的径向速度、方位角位置和仰角位置的第一梯度;以及基于径向速度在这些方位角位置和仰角位置上的该第一梯度,计算所预测的第二函数,该第二函数表示对象在第二扫描周期期间的可能的切向速度、角速度和俯仰速度。自主交通工具然后可以计算第一函数(例如,三维椭圆体)和所预测的第二函数(例如,三维椭圆体)的交集除以并集。
然后,自主交通工具可以预测信息增益——并因此预测对象在第二扫描周期期间的运动的确定性的改善——该信息增益与第一函数和所预测的第二函数的该交集除以并集成反比。
然后,在第二扫描周期期间,自主交通工具可以:计算表示对象在第二扫描周期期间的可能的切向运动、角运动和俯仰运动的第二函数;以及表征该第二函数与所预测的第二函数之间的差。然后,自主交通工具可以实现上述方法和技术,以基于在第一函数和第二函数的交集处表示的、在从第二扫描周期到下一个(即,第三)扫描周期的时间差上进行积分并根据第二函数和所预测的第二函数之间的差进行校正(或“调整”)的运动,来预测在第三扫描周期期间对象在六个自由度中的(绝对或相对)运动。然后,所述自主交通工具可以:预测在第三扫描图像中表示对象的点的径向速度、方位角位置和仰角位置的第二梯度;并且基于在这些方位角位置和仰角位置上的径向速度的该第二梯度,计算表示对象在下一个(即,第三)扫描周期期间的可能的切向速度、角速度和俯仰速度的所预测的第三函数。然后,自主交通工具可以计算第一函数、第二函数和所预测的第三函数的交集除以并集。
因此,自主交通工具可以预测信息增益——并因此预测对象在第三扫描周期期间的运动的确定性的改善——该信息增益与第一函数、第二函数和所预测的第三函数的该交集除以并集成反比。
16.3对象消隐
然后,如上所述,如果自主交通工具的当前位置落在为对象计算的当前未来状态边界之外的大于阈值距离处,以及如果自主交通工具预测对象的运动不确定性的改善(诸如具体在自主交通工具的当前轨迹的方向上),则自主交通工具可以使对象消隐至少直到下一个扫描周期,而不纳入用于使自主交通工具避让对象的制动考虑(或更一般地,而没有反应性导航动作)。
16.4减少不确定性的动作
替代地,在该变型中,自主交通工具可以选择导航动作来改变其轨迹,以便捕获对象的运动数据,这可以改进(即,减少)对象在未来扫描周期期间的运动的不确定性,如上所述。
16.5未来扫描周期
自主交通工具还可以执行前述过程,以预测对象在多个未来扫描周期内(诸如,在后续十个扫描周期内,或在自主交通工具操作的后续两秒钟内)的运动的不确定性。相应地,自主交通工具可以选择在多个后续扫描周期内使对象消隐而不纳入对象避让考虑,因为自主交通工具预测在这些多个后续扫描周期内对象的运动的不确定性的改善不充分。附加地或替代地,自主交通工具可以:预测(或“建模”)由自主交通工具执行的导航动作,这些导航动作将在多个后续扫描周期内产生对象的运动不确定性的改善;然后在这些扫描周期内执行这样的导航动作,以改善它对对象的运动的确定性。
17.不确定性边界
在图6所示的类似的变型中,自主交通工具执行方法S100的块,以:在自主交通工具周围的场的扫描图像(例如,3D速度注释的点云)中检测对象;从该扫描图像中提取针对该对象的低不确定性的运动数据(例如,相对于自主交通工具的径向速度);识别对象的临界运动数据,该临界运动数据当前对自主交通工具不可用,但可以使自主交通工具能够验证可能产生自主交通工具与对象之间的未来碰撞的最坏情况的对象运动;并在给定自主交通工具的当前速度和对象的这种最坏情况的运动的情况下,预测自主交通工具会在何时访问这些临界运动数据。然后,自主交通工具可以响应于预测到自主交通工具会在未来时间访问对象的这些临界运动数据,选择性地延迟执行针对该对象的碰撞避免动作(例如,减速、停止),这仍然使自主交通工具能够在与该对象碰撞之前制动到完全停止(例如,使得任何这样的碰撞可以完全是对象的责任而不是自主交通工具的责任)。
例如,当自主交通工具在它附近检测到对象时,自主交通工具可以执行方法S100的块,以估计对象相对于自主交通工具的位置将充分改变为使得自主交通工具能够捕获附加的对象运动数据的临界未来时间,该附加的对象运动数据减少对象运动的不确定性,并因此使得自主交通工具能够验证与对象碰撞的可能性。然后,自主交通工具可以确认,即使在给定对象的最坏情况的运动(诸如由针对通用对象的最大速度的预定义假设界定)的情况下,如果自主交通工具将紧急停止延迟到该临界未来时间之后,自主交通工具仍然可以在与对象碰撞之前制动到完全停止;如果是这样,则自主交通工具可以延迟对对象执行抢先的碰撞避免动作,这可以改善自主交通工具的运动对于附近其他交通工具、驾驶员和行人而言的可预测性,并使自主交通工具在操作期间的运动平滑。因此,自主交通工具可以延迟对对象执行抢先的碰撞避免动作,这可以改善自主交通工具的运动对于附近其他交通工具、驾驶员和行人而言的可预测性,并使自主交通工具在操作期间的运动平滑。
类似地,在给定对象的最坏情况的运动的情况下,则自主交通工具可以计算自主交通工具在临界未来时间的最大临界速度,该最大临界速度使得如果自主交通工具将紧急停止延迟到该临界未来时间之后,自主交通工具能够在与对象碰撞之前制动到完全停止。然后,如果自主交通工具的当前速度小于该最大临界速度,自主交通工具可以将其最大速度限定到该最大临界速度,直至临界未来时间;或者如果自主交通工具的当前速度大于该最大临界速度,自主交通工具可以自动滑行或制动,以便到临界未来时间时将其速度降低到该最大临界速度。
例如,自主交通工具可以:存储高性能客运交通工具或高性能摩托车的最坏情况的速度和加速度(例如,最大速度50米/秒,最大加速度每秒9米/秒);基于这些最坏情况的速度和加速度,界定对象在自主交通工具无法测量的方向上的可能运动;并验证在给定该界限内的速度的情况下,对象是否可能到达并与自主交通工具碰撞;然后执行方法S100的后续块,以选择性地延迟对该对象的避让,以便收集附加运动数据并进一步验证对象的运动。因此,自主交通工具可以减少或消除对对象识别和其他机器学习技术的依赖,来:识别对象的类型;将自主交通工具周围的场中的不可变对象(例如路标、电线杆)和可变对象(例如行人、交通工具)区分开;并基于他们的类型选择动力学模型或预测对象的未来运动。更具体地说,不是基于根据对象的所预测的类型所选择的动力学模型来预测对象的未来运动,而是自主交通工具可以:基于在当前扫描周期期间收集的有限运动数据、对象相对于自主交通工具的当前位置以及针对通用对象(例如,通用的高性能客运交通工具)的最大速度和加速度假设来预测和界定对象的当前和未来运动;并验证该对象在界限内的运动是否能使对象与自主交通工具发生碰撞。
因此,通过执行方法S100的块来通知路径规划决策,自主交通工具可以:减少或消除对在其环境中准确识别对象的类型或类别的需要;减少或消除在自主交通工具的自主操作中的这种可能的误差来源;以及增加自主交通工具的自主操作的鲁棒性,诸如对抗对抗性计算机视觉攻击、对抗性神经网络攻击的鲁棒性,或者在先验训练数据有限或没有先验训练数据的情况下的鲁棒性。
此外,自主交通工具可以对可变和不可变的对象实现相同的检测、跟踪和运动规划决策路径,从而减少或消除对在自主交通工具的环境中识别对象的类别(或将对象分类为可变的或不可变的)的需要,并减少在自主交通工具上执行唯一的计算机视觉、机器学习和路径规划流水线的数量。例如,自主交通工具可以执行相同的检测、跟踪和运动规划决策路径,以预测和处理:在自主交通工具的环境中、但被其他检测到的对象遮挡的可能无法检测到的对象(例如,站在电线杆后面的行人;占据在自主交通工具的视场中被拖拉机拖车遮挡的车道的客运交通工具);首次进入自主交通工具的视场的对象;以及在自主交通工具的视场中现存的对象。
17.1对象运动测量限制和不确定性
通常,自主交通工具能够表征在其场中检测到的对象在三个自由度中的运动,该三个自由度诸如为:在从自主交通工具延伸到对象的径向方向上的平移;在垂直于径向方向的水平切线方向上平移;以及围绕对象的偏航轴旋转。然而,上述扫描图像中的点可以包含场中的对象的1D运动观测值(即,沿径向轴的距离变化率)。如上所述,自主交通工具可以:分离出在扫描图像中距自主交通工具相似距离处表示的点的集群;内插2D运动(例如,相对于自主交通工具的径向速度和关于对象的偏航速率),该2D运动与在该扫描图像中的点上的1D运动观测值一致;以及因此将该点的集群与场中的一个对象相关联。因此,自主交通工具可以从扫描图像导出对象的径向速度(即,沿着从自主交通工具延伸通过对象的射线的对象的速度)和对象的偏航速率。
然而,扫描图像可能不包含与对象的切向速度(即,垂直于从自主交通工具延伸到对象的射线的运动)相关的信息。因此,与由自主交通工具中的传感器直接测量并被存储在当前扫描图像中的对象的径向速度的不确定性相比,对象在当前扫描周期期间的切向速度的不确定性可能相对较高。
然而,如果自主交通工具正相对于对象移动,则自主交通工具对对象的视角可以从当前扫描周期到稍后的扫描周期发生改变,使得对象在该稍后的扫描周期期间落在自主交通工具的视场中的不同方位角位置处。因此,从自主交通工具在该稍后的扫描周期期间捕获的稍后扫描图像中由此导出的对象的径向速度可以对应于对象在绝对参考系中的方向上的速度,该方向与在当前扫描周期期间捕获的扫描图像中所表示的对象的径向方向不同。
因此,随着自主交通工具和对象在后续扫描周期内继续相对于彼此移动,自主交通工具:可以预期访问对象在切向方向范围内的径向速度的集合;可以选择性地选择延迟碰撞避免动作,以便访问对象在这些切向方向上的径向速度,并且减少对象运动的不确定性;以及可以将未来的路径规划决策建立对象运动的更高确定性的知识上,从而提高自主交通工具的效率并使自主交通工具的运动平滑。
17.2速度不确定性边界
通常,自主交通工具可以实现上述方法和技术,以将对象的所测量的径向速度和由预定义的运动限制假设规定的通用对象的最大速度融合成速度不确定性边界,该速度不确定性边界表示对象在当前时间的许多(或所有)可能的速度的集合。
例如,自主交通工具可以:在以自主交通工具的中心为原点的(极)坐标系中初始化矢量集合,其中每个矢量表示在当前扫描周期期间在该坐标系中对象相对于自主交通工具的可能的速度;将每个矢量在径向方向上的分量长度设置为等于对象的当前所测量的径向速度;将跨越通用对象的负最大速度至通用对象的正最大速度的总长度的范围分配给矢量集合;在坐标系中定位从对象的中心延伸的矢量集合;并计算包含这些矢量的椭圆或椭圆体,以定义在当前扫描周期期间对象的速度不确定性边界。
在该示例中,自主交通工具可以类似地计算在径向方向上具有分量长度的矢量的范围,该分量长度跨越当前扫描图像中与对象相关联的点的径向速度的范围和/或跨越生成扫描图像的传感器的径向速度测量值的误差范围。然后,自主交通工具可以计算通过这些矢量的椭圆或椭圆体,以定义在当前扫描周期期间对象的速度不确定性边界。
然而,自主交通工具可以以任何其他方式为对象计算速度不确定性边界。
17.3碰撞速度、碰撞持续时间和临界时间
通常,如果自主交通工具沿其当前轨迹继续行驶,自主交通工具可以预测在对象的速度不确定性边界中所包含的对象的特定速度将导致与自主交通工具发生碰撞的未来时间。
更具体地说,自主交通工具可以:基于自主交通工具的当前速度、其规划路线和/或自主交通工具周围的已知车道网络来预测自主交通工具的即将到来的路径;扫描对象的速度不确定性边界以获取特定速度,该特定速度可以使对象在与自主交通工具大致相同的时间到达沿自主交通工具的即将到来的路径(诸如根据已知车道网络或不管已知车道网络如何)的特定位置;估计以该特定速度移动的对象和沿该路径移动的自主交通工具将到达该特定位置的碰撞时间;并通过自主交通工具的当前停止持续时间计算在碰撞时间之前的临界时间。
17.4临界时间处的对象运动不确定性预测
通常,自主交通工具可以:预测自主交通工具在当前时间和临界时间之间可访问的对象运动数据;并预测这些附加的对象运动数据可以如何减少对象运动的不确定性。
17.4.1在临界时间的第二径向方向
在一个实现中,自主交通工具:基于自主交通工具的当前路径和速度估计自主交通工具在临界时间处的位置;基于对象的当前位置和因此计算出的在当前扫描周期期间自主交通工具的最坏情况的速度,估计对象在临界时间处的位置;以及基于自主交通工具和对象在临界时间处的这些所估计的位置,计算在临界时间处从自主交通工具到对象的第二径向方向(或方位角)。自主交通工具可以实现类似的方法和技术,以基于自主交通工具的当前路径和速度、基于对象的当前位置并假设对象在该时间段内的最坏情况的速度,来估计从当前时间到临界时间从自主交通工具到对象的径向方向的范围。
17.4.2在临界时间的未来速度不确定性边界
然后,自主交通工具:实现上述方法和技术,以基于自主交通工具到临界时间时可以收集到的对象运动数据(假设自主交通工具和对象在临界时间到达这些所估计的位置)来计算对象的未来速度不确定性边界。
17.4.3在临界时间的不确定性
然后,自主交通工具可以表征在临界时间处对象运动的不确定性,诸如与临界时间处对象在相对于自主交通工具的切线方向(即,垂直于径向方向)上的可能速度的范围成比例。然后,如果在临界时间对象的速度的该所预测的不确定性低于阈值不确定性(例如,如果对象的可能切向速度的范围小于4米/秒),则在块S142中,自主交通工具可以在当前扫描周期期间使对象消隐而不纳入路径规划决策,或者以其他方式选择将响应于对象的任何碰撞避免动作延迟到未来时间。
相反,如果对象在临界时间的速度的所预测的不确定性超过该阈值不确定性(例如,如果对象的可能切向速度的范围大于4米/秒),则自主交通工具可以降低其速度,诸如与该不确定性成比例地降低,以便将临界时间进一步延长到未来,从而使得自主交通工具能够在可能与对象碰撞之前捕获对象的附加运动数据,并因此在该延迟后的临界时间之前减少对象的运动不确定性。
17.5改变对象和点
此外,因为自主交通工具可以不依赖于对象分类或识别来预测对象的类型并相应地预测对象的运动,所以自主交通工具可以定义跨越场中的多个真实对象的点组,诸如,如果这些对象沿着相似的轨迹并以相似的速度移动。然而,自主交通工具可以实现前述方法和技术以计算、细化和避开针对该“分组对象”的未来状态边界,直到这些真实对象不再沿着相似的轨迹和/或以相似的速度移动的时间,此时自主交通工具可以:在当前扫描周期中区分这些对象;从前面的分组对象将运动特性转移到这些不同对象中的每一个上;然后如上所述,为这些对象中的每一个计算未来状态边界。
类似地,自主交通工具可以区分表示单个真实对象的两个点集群,并实现上述方法和技术以计算、细化和避开针对这两个集群的未来状态边界,诸如直到自主交通工具确定这两个集群中的点的径向速度(或距离变化率)的接近度和自一致性指示单一对象的时间。
附加地或替代地,自主交通工具可以实现前述方法和技术,以计算、细化和避开针对表示自主交通工具周围的场中的对象的子区域的单独的点和较小的点集群的未来状态边界。
本文描述的系统和方法可以至少部分地体现和/或实施为被配置成接收存储计算机可读指令的计算机可读介质的机器。指令可以由与应用、小程序、主机、服务器、网络、网站、通信服务、通信接口、用户计算机或移动设备的硬件/固件/软件元素、腕带、智能电话或它们的任何合适的组合集成的计算机可执行部件来执行。实施例的其他系统和方法可以至少部分地体现和/或实施为被配置成接收存储计算机可读指令的计算机可读介质的机器。指令可以由通过与上述类型的装置和网络集成的计算机可执行部件集成的计算机可执行部件执行。可以将计算机可读介质存储在任何合适的计算机可读介质上,诸如存储在RAM、ROM、闪存、EEPROM、光学装置(CD或DVD)、硬盘驱动器、软盘驱动器或任何合适的设备上。计算机可执行部件可以是处理器,但是任何合适的专用硬件设备都可以(替代地或另外)执行指令。
如本领域技术人员将从先前的详细描述以及从附图和权利要求书中认识到的,可以在不脱离如所附权利要求书中限定的本发明的范围的情况下,对本发明的实施例进行修改和改变。
Claims (60)
1.一种用于自主交通工具的自主导航的方法,包括:
●访问针对接近公共道路的通用对象的预定义运动限制假设的集合;
●对于第一扫描周期:
○访问第一扫描图像,所述第一扫描图像包含由所述自主交通工具上的传感器在第一时间捕获的数据;
○在所述第一扫描图像中识别第一点组,所述第一点组表示在所述自主交通工具附近的场中的第一对象,所述第一点组中的每个点包括:
从所述传感器到所述第一对象上的表面的第一测距值;
所述第一对象上的所述表面相对于所述传感器的第一方位角位置;以及
所述第一对象的所述表面相对于所述传感器的第一径向速度;
○计算所述第一点组中的点的第一径向速度和第一方位角位置之间的第一相关性;
○基于所述第一相关性,计算第一函数,所述第一函数将在所述第一时间所述第一对象的可能的切向速度与所述第一对象的可能的角速度关联起来;以及
○基于所述第一点组中的点的第一径向速度计算所述第一对象在所述第一时间的第一径向速度;
●基于所述自主交通工具在所述第一时间的第一速度,估计使所述自主交通工具达到完全停止的第一停止持续时间;
●计算从所述第一时间偏移了所述停止持续时间的第一临界时间;
●基于以下项计算第一未来状态边界,所述第一未来状态边界表示所述第一对象在所述第一临界时间可进入的第一地面区域:
○由所述第一函数限定的在所述第一时间的所述第一对象的可能的切向速度和所述第一对象的可能的角速度;
○所述第一径向速度;以及
○所述预定义运动限制假设的集合;以及
●选择第一导航动作以避免在所述第一临界时间之前进入所述第一未来状态边界。
2.根据权利要求1所述的方法:
●还包括计算在所述自主交通工具周围的不包括所述第一对象的所述第一未来状态边界的进入区;以及
●其中,选择所述第一导航动作包括响应于所述自主交通工具在所述第一时间的第一位置落在所述第一未来状态边界的周界的阈值距离以内,执行朝向所述进入区导航的所述第一导航动作。
3.根据权利要求1所述的方法,其中,选择所述第一导航动作包括响应于所述自主交通工具在所述第一时间的第一位置落在所述第一未来状态边界内,执行使所述自主交通工具减速的制动动作。
4.根据权利要求1所述的方法,其中,选择所述第一导航动作包括响应于所述自主交通工具在所述第一时间的第一位置落在所述第一未来状态边界之外,维持所述自主交通工具的速度。
5.根据权利要求1所述的方法,还包括:
●对于继所述第一扫描周期之后的第二扫描周期:
○访问包含由所述传感器在第二时间捕获的数据的第二扫描图像;
○在所述第二扫描图像中识别表示所述场中的所述第一对象的第二点组;
○计算所述第二点组中的点的第二径向速度和第二方位角位置之间的第二相关性;
○基于所述第二相关性,计算第二函数,所述第二函数将在所述第二时间的所述第一对象的可能的切向速度与所述第一对象的可能的角速度关联起来;以及
○基于所述第二点组中的点的第二径向速度计算所述第一对象在所述第二时间的第二径向速度;
●基于所述第一函数和所述第二函数的交集,估计在所述第二时间的所述第一对象的第二切向速度和所述第一对象的第二角速度;
●基于所述自主交通工具在所述第二时间的第二速度,估计使所述自主交通工具达到完全停止的第二停止持续时间;
●计算从所述第二时间偏移所述停止持续时间的第二临界时间;
●基于以下项计算第二未来状态边界,所述第二未来状态边界表示所述第一对象在所述第二临界时间可进入的第二地面区域:
○所述第一对象的第二切向速度;
○所述第一对象的所述第二角速度;
○所述第一径向速度;以及
○所述预定义运动限制假设的集合;以及
●选择第二导航动作以避免在所述第一临界时间之前进入所述第二未来状态边界。
6.根据权利要求5所述的方法:
●其中,计算所述第一未来状态边界包括计算满足以下项的所述第一未来状态边界:
○在大致平行于道路表面的平面内;和
○由第一区域维度表征;以及
●其中,计算所述第二未来状态边界包括计算满足以下项的所述第二未来状态边界:
○在所述平面内;以及
○由小于所述第一区域维度的第二区域维度表征。
7.根据权利要求1所述的方法,其中,计算所述第一相关性包括:
●计算通过所述第一点组中的点的第一径向速度与第一方位角位置的第一线性趋势线;以及
●基于所述第一线性趋势线的第一斜率来计算所述第一相关性,所述斜率表示在所述第一时间的所述第一对象的第一切向速度和所述第一对象的第一角速度之间的关系。
8.根据权利要求7所述的方法:
●还包括基于所述第一点组中的点的第一径向速度与所述第一线性趋势线的偏差来表征所述第一线性趋势线的第一误差;
●其中,计算所述第一函数包括:
○基于所述第一相关性计算第一线,所述第一线将在所述第一时间的所述第一对象的可能的切向速度和所述第一对象的可能的角速度关联起来;以及
○基于所述第一误差计算所述第一线的第一宽度;以及
●其中,计算所述第一未来状态边界包括基于由所述第一宽度的第一线表示的在所述第一时间的所述第一对象的可能的切向速度和所述第一对象的可能的角速度来计算所述第一未来状态边界。
9.根据权利要求1所述的方法,其中,访问所述第一扫描图像包括访问包含由所述传感器捕获的数据的所述第一扫描图像,所述传感器包括四维光检测和测距传感器,所述四维光检测和测距传感器:
●被安装在所述自主交通工具上;以及
●被配置成生成表示所述场内的表面相对于所述传感器的位置和速度的扫描图像。
10.一种用于自主交通工具的自主导航的方法,包括:
●在第一时间,在所述自主交通工具处,基于所述自主交通工具在所述第一时间的速度,估计使所述自主交通工具达到完全停止的停止持续时间;
●计算从所述第一时间偏移了所述停止持续时间的临界时间;
●在所述自主交通工具附近的场的第一扫描图像中检测对象,所述第一扫描图像由所述自主交通工具上的传感器在大约所述第一时间捕获;
●基于所述第一扫描图像,导出所述第一对象的第一位置和第一运动;
●基于以下项计算第一未来状态边界,所述第一未来状态边界表示所述第一对象从所述第一时间到所述第一临界时间可进入的第一地面区域:
○所述第一对象在所述第一时间的所述第一位置;
○所述第一对象的所述第一运动;以及
○针对接近公共道路的通用对象的预定义运动限制假设的集合;以及
●选择第一导航动作以避免在所述第一临界时间之前进入所述第一未来状态边界。
11.根据权利要求10所述的方法:
●还包括访问包括以下项的所述预定义运动限制假设的集合:
○通用的基于地面的交通工具的最大线加速度;
○通用的基于地面的交通工具的最大线速度;以及
○通用的基于地面的交通工具的最大角速度;以及
●其中,计算所述第一未来状态边界包括:
○在所述停止持续时间内,对所述第一对象的从所述第一对象的所述第一位置以高达所述最大角速度移动并根据所述最大线加速度加速到所述最大线速度的所述第一运动进行积分,以计算所述第一对象从所述第一时间到所述第一临界时间可进入的所述第一地面区域;以及
○将所述第一地面区域存储为所述第一未来状态边界。
12.根据权利要求11所述的方法:
●还包括:
○在所述第一扫描图像中检测第二对象;
○基于所述第一扫描图像,导出所述第二对象的第二位置和第二运动;
○在所述停止持续时间内,对所述第二对象的从所述第二对象的所述第二位置以高达所述最大角速度移动并根据所述最大线加速度加速到所述最大线速度的所述第二运动进行积分,以计算所述第二对象从所述第一时间到所述第一临界时间可进入的第二地面区域;以及
○将所述第二地面区域存储为第二未来状态边界;以及
●其中,选择所述第一导航动作包括选择所述第一导航动作以避免在所述第一临界时间之前进入到所述第一未来状态边界和所述第二未来状态边界中。
13.根据权利要求12所述的方法:
●还包括计算在所述自主交通工具周围的不包括所述第一对象的所述第一未来状态边界和所述第二对象的所述第二未来状态边界的进入区;以及
●其中,选择所述第一导航动作包括执行朝向所述进入区导航的所述第一导航动作。
14.根据权利要求10所述的方法:
●还包括计算在所述自主交通工具周围的不包括所述第一对象的所述第一未来状态边界的进入区;以及
●其中,选择所述第一导航动作包括响应于所述自主交通工具在所述第一时间的第一位置落在所述第一未来状态边界的周界的阈值距离以内,执行朝向所述进入区导航的所述第一导航动作。
15.根据权利要求10所述的方法:
●其中,在所述第一扫描图像中检测所述对象包括在所述第一扫描图像中识别表示在所述自主交通工具附近的场中的第一对象的第一点组,所述第一点组中的每个点包括:
○从所述传感器到所述第一对象上的表面的第一测距值;
○所述第一对象上的所述表面相对于所述自主交通工具的第一方位角位置;以及
○所述第一对象的所述表面相对于所述自主交通工具的第一径向速度;
●其中,导出所述第一对象的所述第一位置和所述第一运动包括:
○计算所述第一点组中的点的第一径向速度和第一方位角位置之间的第一相关性;
○基于所述第一相关性,计算第一函数,所述第一函数将在所述第一时间的所述第一对象的可能的切向速度与所述第一对象的可能的角速度关联起来;
○基于所述第一点组中的点的第一径向速度计算所述第一对象在所述第一时间的第一径向速度;以及
○基于所述第一点组中的点的第一测距值和第一方位角位置,导出所述第一对象的所述第一位置;以及
●其中,计算所述第一未来状态边界包括基于以下项计算所述第一未来状态边界:
○由所述第一函数限定的在所述第一时间的所述第一对象的可能的切向速度和所述第一对象的可能的角速度;
○所述第一径向速度;
○所述第一位置,以及
○所述预定义运动限制假设的集合。
16.根据权利要求15所述的方法,还包括:
●对于继所述第一扫描周期之后的第二扫描周期:
○访问包含由所述传感器在第二时间捕获的数据的第二扫描图像;
○在所述第二扫描图像中识别表示所述场中的所述第一对象的第二点组;
○计算所述第二点组中的点的第二径向速度和第二方位角位置之间的第二相关性;
○基于所述第二相关性,计算第二函数,所述第二函数将在所述第二时间的所述第一对象的可能的切向速度与所述第一对象的可能的角速度关联起来;以及
○基于所述第二点组中的点的第二径向速度计算所述第一对象在所述第二时间的第二径向速度;
●基于所述第一函数和所述第二函数的交集,估计在所述第二时间的所述第一对象的第二切向速度和所述第一对象的第二角速度;
●基于所述自主交通工具在所述第二时间的第二速度,估计使所述自主交通工具达到完全停止的第二停止持续时间;
●计算从所述第二时间偏移所述停止持续时间的第二临界时间;
●基于以下项计算第二未来状态边界,所述第二未来状态边界表示所述第一对象在所述第二临界时间可进入的第二地面区域:
○所述第一对象的所述第二切向速度;
○所述第一对象的所述第二角速度;
○所述第二径向速度;以及
○所述预定义运动限制假设的集合;以及
●选择第二导航动作以避免在所述第一临界时间之前进入所述第二未来状态边界。
17.根据权利要求16所述的方法,其中,计算所述第二未来状态边界包括计算表示小于所述第一地面区域的所述第二地面区域的第二未来状态边界。
18.根据权利要求10所述的方法:
●还包括:
○在所述第一扫描图像中检测第二对象;
○基于所述第一扫描图像,导出所述第二对象的第二位置和第二运动;
○基于以下项计算第二未来状态边界,所述第二未来状态边界表示所述第二对象从所述第一时间到所述第一临界时间可进入的第二地面区域:
■所述第二对象在所述第一时间的所述第二位置;
■所述第二对象的所述第二运动;以及
■针对接近公共道路的通用对象的所述预定义运动限制假设的集合;以及
○响应于在所述第一时间从所述自主交通工具到所述第二未来状态边界的第二周界的第二距离超过阈值距离,使所述第二对象消隐,而不纳入所述自主交通工具处的下一路径规划考虑;以及
●其中,选择所述第一导航动作包括响应于在所述第一时间从所述自主交通工具到所述第一未来状态边界的第一周界的第一距离落在所述阈值距离内,在所述自主交通工具处的所述下一路径规划考虑中激活所述第一对象。
19.根据权利要求10所述的方法,其中,估计所述停止持续时间包括:
●访问由布置在所述自主交通工具上的第二传感器在大约所述第一时间捕获的所述场的第二图像;
●基于从所述第二图像中提取的特征的集合来解释在所述第一时间被所述自主交通工具占据的道路表面的类型;
●基于所述特征的集合预测所述道路表面的质量;
●基于所述道路表面的所述类型和所述道路表面的所述质量,估计用于所述自主交通工具的轮胎在所述道路表面上作用的摩擦系数;以及
●基于以下项估计所述停止持续时间:
○所述自主交通工具在所述第一时间的交通工具速度;
○所述摩擦系数;以及
○用于所述自主交通工具的制动模型。
20.一种用于自主交通工具的自主导航的方法,包括:
●访问针对接近公共道路的通用对象的预定义运动限制假设的集合;
●访问扫描图像,所述扫描图像包含由所述自主交通工具上的传感器在第一时间捕获的数据;
●在所述扫描图像中识别点组,所述点组表示在所述自主交通工具附近的场中的对象,所述点组中的每个点包括:
○所述对象上的表面相对于所述自主交通工具的位置;
○所述对象的所述表面相对于所述自主交通工具的径向速度;
●计算所述点组中的点的径向速度与位置之间的相关性;
●基于所述相关性,计算函数,所述函数将在所述第一时间的所述对象的可能的切向速度与所述对象的可能的角速度关联起来;
●基于所述点组中的点的径向速度计算所述对象在所述第一时间的径向速度;
●基于以下项计算未来状态边界,所述未来状态边界表示所述对象在未来时间可进入的地面区域:
○由所述函数限定的在所述第一时间的所述对象的可能的切向速度和所述对象的可能的角速度;
○所述对象的所述径向速度;以及
○所述预定义运动限制假设的集合;以及
●选择导航动作以在所述未来临界时间之前避开所述未来状态边界。
21.一种用于自主交通工具的自主导航的方法,包括:
●对于第一扫描周期:
○访问第一扫描图像,所述第一扫描图像包含由所述自主交通工具上的传感器在第一时间捕获的数据;
○在所述第一扫描图像中识别第一点组,所述第一点组表示在所述自主交通工具附近的场中的第一对象,所述第一点组中的每个点包括:
■从所述传感器到所述第一对象上的表面的第一测距值;
■所述第一对象上的所述表面相对于所述传感器的第一方位角位置;以及
■所述第一对象的所述表面相对于所述传感器的第一径向速度;
○计算所述第一点组中的点的第一径向速度和第一方位角位置之间的第一相关性;以及
○基于所述第一相关性,计算第一函数,所述第一函数将在所述第一时间的所述第一对象的可能的切向速度与所述第一对象的可能的角速度关联起来;
●对于第二扫描周期:
○访问包含由所述传感器在第二时间捕获的数据的第二扫描图像;
○在所述第二扫描图像中识别表示所述场中的所述第一对象的第二点组;
○计算所述第二点组中的点的第二径向速度和第二方位角位置之间的第二相关性;以及
○基于所述第二相关性,计算第二函数,所述第二函数将在所述第二时间的所述第一对象的可能的切向速度与所述第一对象的可能的角速度关联起来;
●基于所述第一函数和所述第二函数的交集,估计在所述第二时间相对于所述自主交通工具的所述第一对象的第二切向速度和所述第一对象的第二角速度;以及
●基于所述第一对象的所述第二切向速度和所述第一对象的所述第二角速度选择导航动作。
22.根据权利要求21所述的方法:
●还包括:
○基于所述第二点组中的点的第二径向速度的集中趋势的第二度量,计算所述第一对象在所述第二时间相对于所述自主交通工具的第二径向速度;以及
○基于所述第一对象的所述第二切向速度、所述第一对象的所述第二角速度和所述第一对象的所述第二径向速度来表征所述第一对象在所述第二时间相对于所述自主交通工具的总速度;以及
●其中,选择所述导航动作包括基于所述第一对象在所述第二时间的所述总速度选择避让所述第一对象的所述导航动作。
23.根据权利要求21所述的方法,其中,计算所述第一相关性包括:
●计算通过所述第一点组中的点的第一径向速度与第一方位角位置的第一线性趋势线;以及
●基于所述第一线性趋势线的第一斜率来计算所述第一相关性,所述第一斜率表示在所述第一时间的所述第一对象的第一切向速度和所述第一对象的第一角速度之间的关系。
24.根据权利要求23所述的方法:
●还包括基于所述第一点组中的点的第一方位角位置的范围,计算所述第一对象在所述第一时间相对于所述自主交通工具的第一半径;
●其中,计算所述第一线性趋势线的所述第一斜率包括计算表示以下项的第一差的所述第一斜率:
○所述第一对象在所述第一时间的所述第一切向速度;以及
○所述第一对象在所述第一时间的所述第一半径与所述第一对象在所述第一时间的所述第一角速度的乘积;以及
●其中,计算所述第一线性趋势线的所述第一斜率包括计算表示以下项的第一乘积的所述第一斜率:
○所述第一对象在所述第一时间的所述第一半径;以及
○所述第一对象在所述第一时间的所述第一切向速度与所述第一对象在所述第一时间的所述第一角速度之间的差;以及
●其中,计算所述第一函数包括基于在所述第一时间的所述第一斜率和所述第一半径,计算第一线性函数,所述第一线性函数将所述第一对象在所述第一时间的可能的切向速度与所述第一对象在所述第一时间相对于所述自主交通工具的可能的角速度关联起来。
25.根据权利要求23所述的方法:
●其中,计算所述第二相关性包括:
○计算通过所述第二点组中的点的第二径向速度与第二方位角位置的第二线性趋势线;以及
○基于所述第二线性趋势线的第二斜率来计算所述第二相关性,所述第二斜率表示在所述第二时间的所述第一对象的第二切向速度和所述第一对象的第二角速度之间的关系;以及
●还包括:
○基于所述第一点组中的点的第一径向速度与所述第一线性趋势线的偏差来表征所述第一线性趋势线的第一误差;以及
○基于所述第二点组中的点的第二径向速度与所述第二线性趋势线的偏差来表征所述第二线性趋势线的第二误差;
●其中,计算所述第一函数包括:
○基于所述第一相关性计算第一线,所述第一线将在所述第一时间相对于所述自主交通工具的所述第一对象的可能的切向速度与所述第一对象的可能角速度关联起来;以及
○基于所述第一误差计算所述第一线的第一宽度;以及
●其中,计算所述第二函数包括:
○基于所述第二相关性计算第二线,所述第二线将在所述第二时间相对于所述自主交通工具的所述第一对象的可能的切向速度与所述第一对象的可能的角速度关联起来;以及
○基于所述第一误差计算所述第一线的第一宽度;
●其中,估计在所述第二时间的所述第一对象的所述第二切向速度和所述第一对象的所述第二角速度包括基于所述第一宽度的所述第一线和所述第二宽度的所述第二线的交集,估计在所述第二时间相对于所述自主交通工具的所述第一对象的切向速度的第二范围和所述第一对象的角速度的第二范围;以及
●其中,选择所述导航动作包括基于在所述第二时间的所述第一对象的所述切向速度的第二范围和所述第一对象的所述角速度的第二范围来选择避让所述第一对象的所述导航动作。
26.根据权利要求23所述的方法:
●还包括:
○访问针对接近公共道路的通用对象的预定义运动限制假设的集合;以及
○基于所述预定义运动限制假设的集合在所述第一时间和所述第二时间之间的时间差上的积分来表征所述第一函数的第一误差;
●其中,计算所述第一函数包括:
○基于所述第一相关性计算第一线,所述第一线将在所述第一时间相对于所述自主交通工具的所述第一对象的可能的切向速度与所述第一对象的可能的角速度关联起来;以及
○基于所述第一误差计算所述第一线的第一宽度;以及
●其中,计算所述第二函数包括:
基于所述第二相关性计算第二线,所述第二线将在所述第二时间相对于所述自主交通工具的所述第一对象的可能的切向速度与所述第一对象的可能的角速度关联起来;
●其中,估计在所述第二时间的所述第一对象的所述第二切向速度和所述第一对象的所述第二角速度包括基于所述第一宽度的所述第一线和所述第二线的交集,估计在所述第二时间相对于所述自主交通工具的所述第一对象的切向速度的第二范围和所述第一对象的角速度的第二范围;以及
●其中,选择所述导航动作包括基于在所述第二时间的所述第一对象的所述切向速度的第二范围和所述第一对象的所述角速度的第二范围来选择避让所述第一对象的所述导航动作。
27.根据权利要求21所述的方法:
●其中,计算所述第一函数包括计算将在所述第一时间位于与道路表面大致平行的水平面内的所述第一对象的可能的切向速度与所述第一对象的可能的角速度关联起来的所述第一函数;
●其中,计算所述第二函数包括计算将在所述第二时间位于与道路表面大致平行的所述水平面内的所述第一对象的可能的切向速度与所述第一对象的可能的角速度关联起来的所述第二函数;以及
●其中,估计在所述第二时间的所述第一对象的所述第二切向速度和所述第一对象的所述第二角速度包括基于所述第一函数和所述第二函数在三个自由度的状态空间中的交集,估计在所述第二时间相对于所述自主交通工具的所述第一对象的所述第二切向速度和所述第一对象的所述第二角速度。
28.根据权利要求21所述的方法:
●还包括:
○访问针对接近公共道路的通用对象的最大对象速度假设;
○基于所述第二点组中的点的第二径向速度,计算所述第一对象在所述第二时间相对于所述自主交通工具的第二径向速度;
○在目标持续时间内对所述第一对象的所述第二径向速度、所述第一对象的所述第二切向速度和所述第一对象的所述第二角速度进行积分,以计算所述第一对象的未来状态边界;以及
●其中,选择所述导航动作包括选择所述导航动作以避免未来进入到所述第一对象的所述未来状态边界中。
29.根据权利要求28所述的方法:
●还包括:
○基于所述自主交通工具在所述第一时间的速度,估计使所述自主交通工具达到完全停止的停止持续时间;以及
○基于所述停止持续时间计算所述目标持续时间;以及
●其中,选择所述导航动作以避免未来进入到所述第一对象的所述未来状态边界中包括响应于所述自主交通工具在所述第二时间的位置落在所述第一对象的所述未来状态边界的阈值距离内,执行使所述自主交通工具减速的制动动作。
30.根据权利要求21所述的方法,还包括:
●对于第三扫描周期:
○访问包含由所述传感器在继所述第二时间之后的第三时间捕获的数据的第三扫描图像;
○在所述第三扫描图像中识别表示所述场中的所述第一对象的第三点组;
○在所述第三扫描图像中识别第四点组,所述第四点组表示所述场中的第二对象,所述第二对象从所述第二时间到所述第三时间与所述第一对象分离;
○计算所述第三点组中的点的第三径向速度和第三方位角位置之间的第三相关性;
○计算所述第四点组中的点的第四径向速度和第四方位角位置之间的第四相关性;
○基于所述第三相关性,计算第三函数,所述第三函数将在所述第三时间的所述第一对象的可能的切向速度与所述第一对象的可能的角速度关联起来;以及
○基于所述第四相关性,计算第四函数,所述第四函数将在所述第三时间的所述第二对象的可能的切向速度与所述第二对象的可能的角速度关联起来;
●基于所述第二函数和所述第三函数的交集,估计在所述第三时间相对于所述自主交通工具的所述第一对象的第三切向速度和所述第一对象的第三角速度;以及
●基于所述第二函数和所述第四函数的交集,估计在所述第三时间相对于所述自主交通工具的所述第二对象的第四切向速度和所述第二对象的第四角速度;以及
●基于所述第一对象的所述第三切向速度、所述第一对象的所述第三角速度、所述第二对象的所述第四切向速度和所述第二对象的所述第四角速度,选择第二导航动作以避让所述第一对象和所述第二对象。
31.根据权利要求21所述的方法,其中,访问所述第一扫描图像包括访问包含由所述传感器捕获的数据的所述第一扫描图像,所述传感器包括四维光检测和测距传感器,所述四维光检测和测距传感器:
●被安装在所述自主交通工具上;以及
●被配置成生成表示位于所述场内的表面相对于所述传感器的位置和速度的扫描图像。
32.根据权利要求21所述的方法:
●还包括,在第三扫描周期期间,基于第三相关性生成第三函数,所述第三相关性将第三点组中表示的所述第一对象的可能的切向速度与所述第一对象的可能的角速度关联起来,在第三图像中检测到所述第三点组,所述第三图像包含由所述传感器在继所述第一时间和所述第二时间之后的第三时间捕获的数据;
●其中,计算所述第一相关性包括计算通过所述第一点组中的点的第一径向速度、第一方位角位置和第一仰角位置的第一最佳拟合平面,所述第一最佳拟合平面表示在所述第一时间的所述第一对象的第一切向速度、所述第一对象的第一角速度和所述第一对象的第一俯仰速度之间的关系;
●其中,计算所述第一函数包括基于所述第一最佳拟合平面计算所述第一函数;
●其中,计算所述第二相关性包括计算通过所述第二点组中的点的第二径向速度、第二方位角位置和第二仰角位置的第二最佳拟合平面,所述第二最佳拟合平面表示在所述第二时间的所述第一对象的第二切向速度、所述第一对象的第二角速度和所述第一对象的第二俯仰速度之间的关系;
●其中,计算所述第二函数包括基于所述第二最佳拟合平面计算所述第二函数;
●其中,估计在所述第二时间的所述第一对象的所述第二切向速度和所述第一对象的所述第二角速度包括基于所述第一函数、所述第二函数和所述第三函数的交集计算在所述第二时间的所述第一对象的所述第二切向速度、所述第一对象的所述第二角速度和所述第一对象的第二俯仰速度。
33.一种用于自主交通工具的自主导航的方法,包括:
●对于第一扫描周期:
○访问第一扫描图像,所述第一扫描图像包含由所述自主交通工具上的传感器在第一时间捕获的数据;
○在所述第一扫描图像中识别第一点组,所述第一点组表示在所述自主交通工具附近的场中的第一对象,所述第一点组中的每个点包括:
■从所述传感器到所述第一对象上的表面的第一测距值;
■所述第一对象上的所述表面相对于所述自主交通工具的第一位置;以及
■所述第一对象的所述表面相对于所述自主交通工具的第一径向速度;
○计算所述第一点组中的点的第一径向速度和第一位置之间的第一相关性;以及
○基于所述第一相关性,计算第一函数,所述第一函数将在所述第一时间的所述第一对象的可能的线性运动与所述第一对象的可能的角运动关联起来;
●对于第二扫描周期:
○访问包含由所述传感器在第二时间捕获的数据的第二扫描图像;
○在所述第二扫描图像中识别表示所述第一对象的第二点组;
○计算所述第二点组中的点的第二径向速度和第二位置之间的第二相关性;以及
○基于所述第二相关性,计算第二函数,所述第二函数将在所述第二时间的所述第一对象的可能的线性运动与所述第一对象的可能的角运动关联起来;
●基于所述第一函数和所述第二函数的交集,估计在所述第二时间相对于所述自主交通工具的所述第一对象的线性运动和所述第一对象的角运动;以及
●基于在所述第二时间的所述第一对象的所述线性运动和所述第一对象的所述角运动,选择导航动作。
34.根据权利要求33所述的方法:
●其中,计算所述第一相关性包括:
○计算通过投射到大致平行于道路表面的平面上的所述第一点组中的点的第一径向速度与第一方位角位置的第一线性趋势线;以及
○基于所述第一线性趋势线的第一斜率来计算所述第一相关性,所述第一斜率表示在所述第一时间的所述第一对象的第一切向速度和所述第一对象的第一角速度之间的关系;
●其中,计算所述第二相关性包括:
○计算通过投射到所述平面上的所述第二点组中的点的第二径向速度与第二方位角位置的第二线性趋势线;以及
○基于所述第二线性趋势线的第二斜率来计算所述第二相关性,所述第二斜率表示在所述第二时间的所述第一对象的第二切向速度和所述第一对象的第二角速度之间的关系;以及
●其中,估计在所述第二时间的所述第一对象的所述线性运动和所述第一对象的所述角运动包括基于所述第一函数和所述第二函数的交集,估计在所述第二时间相对于所述自主交通工具的所述第一对象的第二切向速度和所述第一对象的第二角速度。
35.根据权利要求33所述的方法:
●其中,计算所述第一相关性包括计算通过所述第一点组中的点的第一径向速度和第一位置的第一最佳拟合平面,所述第一最佳拟合平面表示在所述第一时间相对于所述自主交通工具的所述第一对象的第一切向速度、所述第一对象的第一角速度和所述第一对象的第一俯仰速度之间的关系;
●其中,计算所述第一函数包括基于所述第一最佳拟合平面计算所述第一函数;
●其中,计算所述第二相关性包括计算通过所述第二点组中的点的第二径向速度和第二位置的第二最佳拟合平面,所述第二最佳拟合平面表示在所述第二时间相对于所述自主交通工具的所述第一对象的第二切向速度、所述第一对象的第二角速度和所述第一对象的第二俯仰速度之间的关系;
●其中,计算所述第二函数包括基于所述第二最佳拟合平面计算所述第二函数。
36.根据权利要求35所述的方法:
●还包括,在第三扫描周期期间,基于第三相关性生成第三函数,所述第三相关性将在第三点组中表示的所述第一对象的可能的切向速度与所述第一对象的可能的角速度关联起来,在第三图像中检测到所述第三点组,所述第三图像包含由所述传感器在继所述第一时间和所述第二时间之后的第三时间捕获的数据;以及
●其中,估计在所述第二时间的相对于所述自主交通工具的所述第一对象的线性运动和所述第一对象的角运动包括基于所述第一函数、所述第二函数和所述第三函数的交集,估计在所述第二时间相对于所述自主交通工具的所述第一对象的线性运动和所述第一对象的角运动。
37.根据权利要求35所述的方法,还包括:
●对于所述第一扫描周期:
○在所述第一扫描图像中识别接近所述第一点组的第三点组;
○计算通过所述第三点组中的点的第三径向速度和第三位置的第三最佳拟合平面,所述第三最佳拟合平面表示在所述第一时间相对于所述自主交通工具的第二对象的第三切向速度、所述第二对象的第三角速度和所述第二对象的第三俯仰速度之间的关系;以及
○基于所述第三最佳拟合平面计算第三函数;
●对于所述第二扫描周期:
○在所述第二扫描图像中识别接近所述第二点组的第四点组;
○计算通过所述第四点组中的点的第四径向速度和第四位置的第四最佳拟合平面,所述第四最佳拟合平面表示在所述第二时间相对于所述自主交通工具的所述第二对象的第四切向速度、所述第二对象的第四角速度和所述第二对象的第四俯仰速度之间的关系;以及
○基于所述第四最佳拟合平面计算第四函数;
●基于所述第三函数和所述第四函数的交集,估计在所述第二时间相对于所述自主交通工具的所述第二对象的第二线性运动和所述第二对象的第二角运动;以及
●响应于所述第一对象的所述线性运动与所述第二对象的所述第二线性运动之间的对齐,将所述第一对象和所述第二对象识别为对应于公共刚体。
38.根据权利要求37所述的方法:
●其中,估计所述第二对象在所述第二时间的所述第二角运动包括基于所述第三函数和所述第四函数的交集,估计在所述第二时间相对于所述自主交通工具的所述第二对象的所述第二角速度和所述第二俯仰速度;以及
●还包括:
○基于所述第四点组中的点的第四径向速度的集中趋势的第二度量,计算所述第二对象在所述第二时间相对于所述自主交通工具的第二径向速度;
○基于所述第二对象在所述第二时间的所述第二径向速度、所述第二切向速度、所述第二角速度和所述第二俯仰速度,计算所述第二对象在所述第二时间的总的绝对速度;
○计算所述第四点组中的点的第四径向速度在所述第二对象在所述第二时间的总的绝对速度的方向上的第四速度分量的集合;
○基于所述第四速度分量的集合的最大速度近似于所述第二对象的所述总的绝对速度的两倍,将所述第二对象识别为车轮;以及
○响应于将所述第二对象识别为所述车轮,将所述公共刚体标记为轮式交通工具。
39.一种用于自主交通工具的自主导航的方法,包括:
●对于所述自主交通工具处的扫描周期序列中的每个扫描周期:
○访问扫描图像,所述扫描图像包含由所述自主交通工具上的传感器在扫描时间捕获的数据;
○在所述扫描图像中识别点组,所述点组表示在所述自主交通工具附近的场中的第一对象,所述点组中的每个点包括:
■所述第一对象上的表面相对于所述自主交通工具的位置;以及
■所述第一对象的所述表面相对于所述自主交通工具的径向速度;以及
○基于所述点组中的点的径向速度和位置之间的相关性,计算函数,所述函数将在所述扫描时间的所述第一对象的可能的线性运动和所述第一对象的可能的角运动关联起来;
●基于当前的函数和前面的函数的交集,估计在当前时间相对于所述自主交通工具的所述第一对象的当前线性运动和所述第一对象的当前角运动,所述当前的函数是从包含在所述当前时间捕获的数据的第一扫描图像中导出的,所述前面的函数是从包含在所述当前时间之前捕获的数据的第二扫描图像中导出的;以及
●基于所述第一对象的所述当前线性运动和所述第一对象的所述当前角运动选择导航动作。
40.根据权利要求39所述的方法:
●还包括:
○基于所述自主交通工具在所述第一时间的速度,估计使所述自主交通工具达到完全停止的停止持续时间;
○基于在当前时间的所述第一对象的当前的线性运动、所述第一对象的当前的角运动和所述自主交通工具的运动,计算在所述当前时间的所述第一对象的当前的绝对线性运动和所述第一对象的当前的绝对角运动;
○访问针对接近公共道路的通用对象的最大对象加速度假设;
○基于所述自主交通工具在所述第一时间的运动、所述第一对象在所述第一时间的切向速度和径向速度对的第一范围、以及所述第一对象在所述第一时间的第一径向速度,计算所述第一对象在所述第一时间相对于所述自主交通工具的可能的绝对速度的范围;以及
○在所述停止持续时间内,根据所述最大对象加速度假设进行加速,对所述第一对象的当前的绝对线性运动与所述第一对象的当前的绝对角运动进行积分,以计算所述第一对象从所述第一时间到第一临界时间可进入的地面区域;以及
●其中,选择所述导航动作包括选择第一导航动作以避免在所述第一临界时间之前进入到所述地面区域中。
41.一种用于自主交通工具的自主导航的方法,包括:
●对于第一扫描周期:
○访问第一扫描图像,所述第一扫描图像包含由所述自主交通工具上的传感器在第一时间捕获的数据;
○在所述第一扫描图像中识别第一点组,所述第一点组表示在所述自主交通工具附近的场中的第一对象,所述第一点组中的每个点包括:
■所述第一对象上的表面相对于所述自主交通工具的第一位置;以及
■所述第一对象的所述表面相对于所述传感器的第一径向速度;
○基于所述第一点组中的点的第一径向速度的集中趋势的第一度量,计算所述第一对象在所述第一时间相对于所述自主交通工具的第一径向速度;以及
○表征所述第一对象在所述第一时间沿垂直于所述第一对象的所述第一径向速度的第一切线方向的运动的第一不确定性的方向;
●基于所述自主交通工具在所述第一时间的运动,计算所述第一对象在继所述第一时间之后的第二时间的运动的所预测的第二不确定性的方向;以及
●响应于所述第二不确定性的方向不同于所述第一不确定性的方向,在所述第二时间使所述第一对象消隐,而不纳入用于使所述自主交通工具避让对象的制动考虑。
42.根据权利要求41所述的方法:
●还包括访问针对接近公共道路的通用对象的预定义运动限制假设的集合;以及
●其中,计算所述第一对象在所述第二时间的运动的所预测的第二不确定性的方向包括:
○计算所述第一对象朝向所述自主交通工具的最大切向速度,所述最大切向速度与所述预定义运动限制假设的集合和所述第一点组中的点的第一径向速度一致;以及
○基于所述自主交通工具在所述第一时间的运动和所述第一对象在所述第一时间的所述最大切向速度,计算所述第一对象在所述第二时间的运动的所预测的第二不确定性的方向。
43.根据权利要求41所述的方法:
●还包括:
○计算偏移所述第一时间的临界时间;
○基于所述第一扫描图像,导出所述第一对象的第一位置;
○计算所述第一点组中的点的第一径向速度和第一位置之间的第一相关性;以及
○基于所述第一相关性,计算第一函数,所述第一函数将在所述第一时间的所述第一对象的可能的切向速度与所述第一对象的可能的角速度关联起来;以及
○基于以下项计算第一未来状态边界,所述第一未来状态边界表示所述第一对象从所述第一时间到所述临界时间可进入的第一地面区域:
■所述第一对象在所述第一时间的所述第一位置;
■所述第一对象的第一径向速度;
■由所述第一函数限定的在所述第一时间的所述第一对象的可能的切向速度和所述第一对象的可能的角速度;以及
■针对接近公共道路的通用对象的预定义运动限制假设的集合;以及
●其中,在所述第二时间使所述第一对象消隐而不纳入用于使所述自主交通工具避让对象的制动考虑包括进一步响应于所述自主交通工具在所述第一时间的位置落在所述第一未来状态边界之外大于阈值距离处,在所述第二时间使第一对象消隐,而不纳入用于使所述自主交通工具避让对象的制动考虑。
44.根据权利要求43所述的方法,其中,计算所述临界时间包括:
●基于所述自主交通工具在所述第一时间的速度,估计使所述自主交通工具达到完全停止的停止持续时间;以及
●计算从所述第一时间偏移所述停止持续时间的所述临界时间。
45.根据权利要求41所述的方法,还包括:
●对于第一扫描周期:
○在所述第一扫描图像中识别第二点组,所述第二点组表示所述场中的第二对象,所述第二点组中的每个点包括:
■所述第二对象上的表面相对于所述自主交通工具的第二位置;以及
■所述第二对象的所述表面相对于所述传感器的第二径向速度;
○基于所述第二点组中的点的第二径向速度的集中趋势的第二度量,计算所述第二对象在所述第一时间相对于所述自主交通工具的第二径向速度;以及
○表征所述第二对象在所述第一时间沿垂直于所述第二对象的所述第二径向速度的第二切线方向的运动的第三不确定性的方向;
●基于所述自主交通工具在所述第一时间的运动,计算所述第二对象在所述第二时间的运动的所预测的第四不确定性的方向;以及
●响应于所预测的第四不确定性的方向与所述第三不确定性的方向的差小于阈值差,选择导航动作以在所述第二时间修改所述自主交通工具相对于所述第二对象的运动。
46.根据权利要求45所述的方法,其中,选择所述导航动作包括识别在所述第二时间将所述自主交通工具定位在相对于所述第二对象的替代位置处的所述导航动作,以产生与所述第一不确定性的方向相差大于所述阈值差的所述第二对象的运动的替代的第四不确定性的方向,所述导航动作选自由以下项组成的一组导航动作:制动输入、加速度输入和转向输入。
47.根据权利要求45所述的方法,其中,选择所述导航动作包括进一步响应于所述第三不确定性的方向与所述自主交通工具在所述第一时间的第一轨迹相交在所述自主交通工具在所述第一时间的位置前方的阈值距离以内,选择所述导航动作。
48.一种用于自主交通工具的自主导航的方法,包括:
●对于所述自主交通工具处的第一扫描周期:
○访问第一扫描图像,所述第一扫描图像包含由所述自主交通工具上的传感器在第一时间捕获的数据;
○在所述第一扫描图像中识别第一点组,所述第一点组表示在所述自主交通工具附近的场中的第一对象;以及
○基于所述第一点组来表征所述第一对象在所述第一时间的第一运动;
●对于所述自主交通工具处的第二扫描周期:
○访问第二扫描图像,所述第二扫描图像包含由所述传感器在继所述第一时间之后的第二时间捕获的数据;
○在所述第二扫描图像中识别表示所述第一对象的第二点组;以及
○基于所述第二点组和所述第一运动来表征所述第一对象在所述第二时间的第二运动;
●表征所述第一对象在所述第二时间的所述第二运动的第二不确定性;
●基于所述第一对象在所述第二时间的所述第二运动和所述自主交通工具在所述第二时间的运动,计算所述第一对象在继所述第二时间之后的第三时间的第三运动的所预测的第三不确定性;以及
●响应于所预测的第三不确定性低于所述第二不确定性,在所述第二时间使所述第一对象消隐,而不纳入针对自主交通工具避让对象的制动考虑。
49.根据权利要求48所述的方法:
●其中,表征所述第一对象在所述第一时间的所述第一运动包括:
○计算所述第一点组中的点的第一径向速度和第一方位角位置之间的第一相关性;
○基于所述第一相关性,计算第一函数,所述第一函数将在所述第一时间的所述第一对象的可能的切向速度与所述第一对象的可能的角速度关联起来;
●其中,表征所述第一对象在所述第二时间的所述第二运动包括:
○计算所述第二点组中的点的第二径向速度和第二方位角位置之间的第二相关性;
○基于所述第二相关性,计算第二函数,所述第二函数将在所述第二时间的所述第一对象的可能的切向速度与所述第一对象的可能的角速度关联起来;以及
○基于所述第一函数和所述第二函数的交集,估计在所述第二时间相对于所述自主交通工具的所述第一对象的切向速度的第二范围和所述第一对象的角速度的第二范围;以及
●其中,表征所述第一对象在所述第二时间的所述第二运动的所述第二不确定性包括将所述第一对象在所述第二时间的所述第二运动的所述第二不确定性表征为与所述第一函数和所述第二函数的交集与所述第一函数和所述第二函数的并集之比成比例。
50.根据权利要求49所述的方法,其中,计算所述第一相关性包括:
●计算通过所述第一点组中的点的第一径向速度与第一方位角位置的第一线性趋势线;以及
●基于所述第一线性趋势线的第一斜率来计算所述第一相关性,所述第一斜率表示在所述第一时间的所述第一对象的第一切向速度和所述第一对象的第一角速度之间的关系。
51.根据权利要求50所述的方法:
●其中,计算所述第二相关性包括:
○计算通过所述第二点组中的点的第二径向速度与第二方位角位置的第二线性趋势线;
○基于所述第二线性趋势线的第二斜率来计算所述第二相关性,所述第二斜率表示在所述第二时间的所述第一对象的第二切向速度和所述第一对象的第二角速度之间的关系;以及
●还包括:
○基于所述第一点组中的点的第一径向速度与所述第一线性趋势线的偏差来表征所述第一线性趋势线的第一误差;
○基于所述第二点组中的点的第二径向速度与所述第二线性趋势线的偏差来表征所述第二线性趋势线的第二误差;
●其中,计算所述第一函数包括:
○基于所述第一相关性计算第一线,所述第一线将在所述第一时间相对于所述自主交通工具的所述第一对象的可能的切向速度与所述第一对象的可能的角速度关联起来;以及
○基于所述第一误差计算所述第一线的第一宽度;以及
●其中,计算所述第二函数包括:
○基于所述第二相关性计算第二线,所述第二线将在所述第二时间相对于所述自主交通工具的所述第一对象的可能的切向速度与所述第一对象的可能的角速度关联起来;以及
○基于所述第一误差计算所述第一线的第一宽度;
●其中,表征所述第一对象在所述第二时间的所述第二运动的所述第二不确定性包括将所述第一对象在所述第二时间的所述第二运动的所述第二不确定性表征为与所述第一宽度的所述第一线和所述第二宽度的所述第二线的交集的面积成比例。
52.根据权利要求49的所述的方法,其中,计算所述第一对象在所述第三时间的所述第三运动的所预测的第三不确定性包括:
●基于所述第一对象在所述第二时间的所述第二运动和所述自主交通工具在所述第二时间的运动,计算所述第一对象在所述第三时间相对于所述自主交通工具的所预测的第三位置;
●基于所述第一对象在所述第三时间相对于所述自主交通工具的所预测的第三位置,计算所述第一对象在所述第三时间的运动的所预测的第三不确定性的方向;以及
●基于所述第三不确定性的方向与所述第二函数的交集,计算所述第一对象在所述第三时间的所述第三运动的所预测的第三不确定性。
53.根据权利要求52所述的方法,其中,计算所述第一对象在所述第三时间相对于所述自主交通工具的所预测的第三位置包括:
●基于所述第二点组中的点的第二径向速度的集中趋势的第一度量,计算所述第一对象在所述第二时间相对于所述自主交通工具的第二径向速度;
●基于所述切向速度的第二范围的集中趋势的第二度量,估计所述第一对象在所述第二时间相对于所述自主交通工具的第二切向速度;以及
●基于所述角速度的第二范围的集中趋势的第三度量,估计所述第一对象在所述第二时间相对于所述自主交通工具的第二角速度;以及
●基于所述第一对象的所述第二径向速度、所述第一对象的所述第二切向速度、所述第一对象的所述第二角速度和所述自主交通工具在所述第二时间的运动,计算所述第一对象在所述第三时间相对于所述自主交通工具的所预测的第三位置。
54.根据权利要求48所述的方法:
●还包括:
○计算偏移所述第二时间的临界时间;
○基于所述第二扫描图像,导出所述第一对象的第二位置;以及
○基于以下项计算第一未来状态边界,所述第一未来状态边界表示所述第二对象从所述第二时间到所述临界时间可进入的第二地面区域:
■所述第一对象在所述第二时间的所述第二位置;
■所述第一对象在所述第二时间的第二运动;以及
■针对接近公共道路的通用对象的预定义运动限制假设的集合;以及
●其中,在所述第三时间使所述第一对象消隐,而不纳入针对所述自主交通工具避让对象的制动考虑包括进一步响应于所述自主交通工具在所述第二时间的位置落在所述第二未来状态边界之外大于阈值距离处,在所述第三时间使所述第一对象消隐,而不纳入针对所述自主交通工具避让对象的制动考虑。
55.根据权利要求54所述的方法,其中,计算所述临界时间包括:
●基于所述自主交通工具在所述第一时间的速度,估计使所述自主交通工具达到完全停止的停止持续时间;以及
●计算从所述第一时间偏移所述停止持续时间的所述临界时间。
56.根据权利要求48所述的方法,还包括:
●对于第一扫描周期:
○在所述第一扫描图像中识别表示所述场中的第二对象的第三点组;
○基于所述第三点组来表征所述第二对象在所述第一时间的第三运动;
●对于所述第二扫描周期:
○在所述第二扫描图像中识别表示所述场中的所述第二对象的第四点组;
○基于所述第二点组和所述第三运动来表征所述第二对象在所述第二时间的第四运动;
●表征所述第二对象在所述第二时间的所述第四运动的第四不确定性;
●基于所述第二对象在所述第二时间的所述第四运动和所述自主交通工具在所述第二时间的运动,计算所述第二对象在所述第三时间的第五运动的所预测的第五不确定性;以及
●响应于所预测的第五不确定性与所述第四不确定性的差小于阈值差,选择导航动作以在所述第三时间修改所述自主交通工具相对于所述第二对象的运动。
57.根据权利要求56所述的方法,其中,选择所述导航动作包括识别在所述第二时间将所述自主交通工具定位在相对于所述第二对象的替代位置处的所述导航动作,以减少所述第二对象在所述第三时间的运动的不确定性,所述导航动作选自由以下项组成的一组导航动作:制动输入、加速度输入和转向输入。
58.根据权利要求56所述的方法,其中,选择所述导航动作包括进一步响应于所述第二对象在所述第二时间的所述第四运动与所述自主交通工具在所述第二时间的第二轨迹相交,选择所述导航动作。
59.一种用于自主交通工具的自主导航的方法,包括:
●对于所述自主交通工具处的第一扫描周期:
○访问第一扫描图像,所述第一扫描图像包含由所述自主交通工具上的传感器在第一时间捕获的数据;
○在所述第一扫描图像中识别第一点组,所述第一点组表示在所述自主交通工具附近的场中的第一对象;以及
○基于所述第一点组来表征所述第一对象在所述第一时间的第一运动;
●表征所述第一对象在所述第一时间的所述第一运动的第一不确定性;
●基于所述第一对象在所述第一时间的所述第一运动和所述自主交通工具在所述第一时间的运动,计算所述第一对象在继所述第一时间之后的第二时间的第二运动的所预测的第二不确定性;以及
●响应于所预测的第二不确定性低于所述第一不确定性,在所述第二时间使所述第一对象消隐,而不纳入针对自主交通工具避让对象的制动考虑。
60.根据权利要求59所述的方法,还包括:
●对于继所述第一扫描周期之后的第二扫描周期:
○访问第二扫描图像,所述第二扫描图像包含由所述传感器在第二时间捕获的数据;
○在所述第二扫描图像中识别表示所述第一对象的第二点组;以及
○基于所述第二点组和所述第二对象在所述第一时间的所述第一运动来表征所述第二对象在所述第二时间的第二运动;
●表征所述第一对象在所述第二时间的所述第二运动的第二不确定性;以及
●响应于所述第二不确定性超过所预测的第二不确定性,选择导航动作以修改所述自主交通工具在继所述第二时间之后的第三时间相对于所述第二对象的运动。
Applications Claiming Priority (7)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US202062980131P | 2020-02-21 | 2020-02-21 | |
US202062980132P | 2020-02-21 | 2020-02-21 | |
US62/980,131 | 2020-02-21 | ||
US62/980,132 | 2020-02-21 | ||
US202063064316P | 2020-08-11 | 2020-08-11 | |
US63/064,316 | 2020-08-11 | ||
PCT/US2021/019122 WO2021168452A2 (en) | 2020-02-21 | 2021-02-22 | Method for object avoidance during autonomous navigation |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115461258A true CN115461258A (zh) | 2022-12-09 |
CN115461258B CN115461258B (zh) | 2023-09-05 |
Family
ID=77366637
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202180030320.XA Active CN115461258B (zh) | 2020-02-21 | 2021-02-22 | 用于自主导航期间对象避让的方法 |
Country Status (9)
Country | Link |
---|---|
US (4) | US20210261158A1 (zh) |
EP (1) | EP4096978A4 (zh) |
JP (1) | JP7336604B2 (zh) |
KR (1) | KR102503388B1 (zh) |
CN (1) | CN115461258B (zh) |
AU (1) | AU2021222055B2 (zh) |
CA (1) | CA3168740C (zh) |
MX (1) | MX2022010293A (zh) |
WO (1) | WO2021168452A2 (zh) |
Families Citing this family (31)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11256932B2 (en) * | 2018-02-02 | 2022-02-22 | Mitsubishi Electric Corporation | Falling object detection apparatus, in-vehicle system, vehicle, and computer readable medium |
DE102018211240A1 (de) * | 2018-07-07 | 2020-01-09 | Robert Bosch Gmbh | Verfahren zum Klassifizieren einer Relevanz eines Objekts |
US11592832B2 (en) * | 2018-08-20 | 2023-02-28 | Uatc, Llc | Automatic robotically steered camera for targeted high performance perception and vehicle control |
US11360480B2 (en) | 2019-08-21 | 2022-06-14 | Zoox, Inc. | Collision zone detection for vehicles |
RU2745804C1 (ru) * | 2019-11-06 | 2021-04-01 | Общество с ограниченной ответственностью "Яндекс Беспилотные Технологии" | Способ и процессор для управления перемещением в полосе движения автономного транспортного средства |
FR3103303B1 (fr) * | 2019-11-14 | 2022-07-22 | Continental Automotive | Détermination d’un coefficient de friction pour un véhicule sur une route |
US11684005B2 (en) * | 2020-03-06 | 2023-06-27 | Deere & Company | Method and system for estimating surface roughness of ground for an off-road vehicle to control an implement |
US11718304B2 (en) | 2020-03-06 | 2023-08-08 | Deere & Comoanv | Method and system for estimating surface roughness of ground for an off-road vehicle to control an implement |
JP7431623B2 (ja) * | 2020-03-11 | 2024-02-15 | 株式会社Subaru | 車外環境認識装置 |
US11667171B2 (en) | 2020-03-12 | 2023-06-06 | Deere & Company | Method and system for estimating surface roughness of ground for an off-road vehicle to control steering |
US11678599B2 (en) | 2020-03-12 | 2023-06-20 | Deere & Company | Method and system for estimating surface roughness of ground for an off-road vehicle to control steering |
US11685381B2 (en) | 2020-03-13 | 2023-06-27 | Deere & Company | Method and system for estimating surface roughness of ground for an off-road vehicle to control ground speed |
US11753016B2 (en) * | 2020-03-13 | 2023-09-12 | Deere & Company | Method and system for estimating surface roughness of ground for an off-road vehicle to control ground speed |
KR20210129913A (ko) * | 2020-04-21 | 2021-10-29 | 주식회사 만도모빌리티솔루션즈 | 운전자 보조 시스템 |
US11433885B1 (en) * | 2020-08-20 | 2022-09-06 | Zoox, Inc. | Collision detection for vehicles |
KR20220027327A (ko) * | 2020-08-26 | 2022-03-08 | 현대모비스 주식회사 | 딥러닝 기반 노면판단 모델을 이용한 터레인모드 제어 방법 및 장치 |
US11954924B2 (en) * | 2020-10-23 | 2024-04-09 | Shoppertrak Rct Llc | System and method for determining information about objects using multiple sensors |
US20220135074A1 (en) * | 2020-11-02 | 2022-05-05 | Waymo Llc | Classification of objects based on motion patterns for autonomous vehicle applications |
US12050267B2 (en) | 2020-11-09 | 2024-07-30 | Waymo Llc | Doppler-assisted object mapping for autonomous vehicle applications |
US11702102B2 (en) * | 2020-11-19 | 2023-07-18 | Waymo Llc | Filtering return points in a point cloud based on radial velocity measurement |
US20220289237A1 (en) * | 2021-03-10 | 2022-09-15 | Gm Cruise Holdings Llc | Map-free generic obstacle detection for collision avoidance systems |
KR20230000655A (ko) * | 2021-06-25 | 2023-01-03 | 현대자동차주식회사 | 차량 및 그 제어 방법 |
US12049236B2 (en) * | 2021-07-29 | 2024-07-30 | Ford Global Technologies, Llc | Complementary control system detecting imminent collision of autonomous vehicle in fallback monitoring region |
US11904906B2 (en) * | 2021-08-05 | 2024-02-20 | Argo AI, LLC | Systems and methods for prediction of a jaywalker trajectory through an intersection |
US20230047336A1 (en) * | 2021-08-12 | 2023-02-16 | Waymo Llc | Time gaps for autonomous vehicles |
CN113997943A (zh) * | 2021-10-28 | 2022-02-01 | 山东新一代信息产业技术研究院有限公司 | 一种基于语义聚类的自动驾驶车辆控制方法、设备及介质 |
US20230162374A1 (en) * | 2021-11-19 | 2023-05-25 | Shenzhen Deeproute.Ai Co., Ltd | Method for forecasting motion trajectory, storage medium, and computer device |
KR102512793B1 (ko) * | 2021-11-29 | 2023-03-22 | 한국기술교육대학교 산학협력단 | 차량의 군집주행을 위한 시스템 |
US12030528B2 (en) * | 2021-12-03 | 2024-07-09 | Zoox, Inc. | Vehicle perception system with temporal tracker |
US20230326049A1 (en) * | 2022-04-07 | 2023-10-12 | Toyota Research Institute, Inc. | Self-supervised monocular depth estimation via rigid-motion embeddings |
CN118251660A (zh) * | 2022-04-29 | 2024-06-25 | 辉达公司 | 检测数据处理管线中的硬件故障 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160171898A1 (en) * | 2014-12-12 | 2016-06-16 | Atlantic Inertial Systems Limited (HSC) | Collision detection system |
US20160291149A1 (en) * | 2015-04-06 | 2016-10-06 | GM Global Technology Operations LLC | Fusion method for cross traffic application using radars and camera |
US9903728B2 (en) * | 2013-10-17 | 2018-02-27 | Fathym, Inc. | Systems and methods for predicting weather performance for a vehicle |
CN108701362A (zh) * | 2016-02-29 | 2018-10-23 | 深圳市大疆创新科技有限公司 | 目标跟踪期间的障碍避免 |
WO2020035728A2 (en) * | 2018-08-14 | 2020-02-20 | Mobileye Vision Technologies Ltd. | Systems and methods for navigating with safe distances |
Family Cites Families (32)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE3322500A1 (de) * | 1983-06-23 | 1987-03-19 | Krupp Gmbh | Verfahren zum passiven bestimmen von zieldaten eines fahrzeugs |
DE19747446A1 (de) * | 1997-10-28 | 1999-04-29 | Cit Alcatel | Verfahren zur Ansteuerung mindestens eines Haltestellen-Displays und Steuerzentrale |
JP3427815B2 (ja) * | 2000-03-30 | 2003-07-22 | 株式会社デンソー | 先行車選択方法及び装置、記録媒体 |
US6982668B1 (en) * | 2003-09-30 | 2006-01-03 | Sandia Corporation | Tangential velocity measurement using interferometric MTI radar |
US20060100771A1 (en) * | 2004-11-10 | 2006-05-11 | E-Lead Electronic Co., Ltd. | Vehicle speed detection apparatus |
JP4893118B2 (ja) * | 2006-06-13 | 2012-03-07 | 日産自動車株式会社 | 回避制御装置、この回避制御装置を備える車両および回避制御方法 |
WO2009049887A1 (de) * | 2007-10-16 | 2009-04-23 | I F M Electronic Gmbh | Verfahren und vorrichtung zur abstandsbestimmung |
US8126642B2 (en) * | 2008-10-24 | 2012-02-28 | Gray & Company, Inc. | Control and systems for autonomously driven vehicles |
JP2010235063A (ja) * | 2009-03-31 | 2010-10-21 | Equos Research Co Ltd | 車両制御装置、車両、及び車両制御プログラム |
US8949018B2 (en) * | 2011-06-13 | 2015-02-03 | Toyota Jidosha Kabushiki Kaisha | Driving assistance device and driving assistance method |
US9784829B2 (en) | 2015-04-06 | 2017-10-10 | GM Global Technology Operations LLC | Wheel detection and its application in object tracking and sensor registration |
JP6655342B2 (ja) * | 2015-10-15 | 2020-02-26 | 株式会社Soken | 衝突判定システム、衝突判定端末及びコンピュータプログラム |
WO2017064981A1 (ja) * | 2015-10-15 | 2017-04-20 | 日立オートモティブシステムズ株式会社 | 車両制御装置 |
EP3349033A1 (en) * | 2017-01-13 | 2018-07-18 | Autoliv Development AB | Enhanced object detection and motion estimation for a vehicle environment detection system |
JP6711312B2 (ja) * | 2017-05-12 | 2020-06-17 | 株式会社デンソー | 車両の自動運転制御システム |
JP6972744B2 (ja) * | 2017-08-01 | 2021-11-24 | トヨタ自動車株式会社 | 運転支援装置 |
US11334070B2 (en) * | 2017-08-10 | 2022-05-17 | Patroness, LLC | Systems and methods for predictions of state of objects for a motorized mobile system |
JP6989766B2 (ja) * | 2017-09-29 | 2022-01-12 | ミツミ電機株式会社 | レーダー装置及び物標検出方法 |
CN111417871A (zh) * | 2017-11-17 | 2020-07-14 | 迪普迈普有限公司 | 基于激光雷达利用高清晰度地图的集成运动估计的迭代最近点处理 |
WO2019138485A1 (ja) * | 2018-01-11 | 2019-07-18 | 住友電気工業株式会社 | 衝突可能性判定装置、衝突可能性判定方法、及びコンピュータプログラム |
US11091162B2 (en) * | 2018-01-30 | 2021-08-17 | Toyota Motor Engineering & Manufacturing North America, Inc. | Fusion of front vehicle sensor data for detection and ranging of preceding objects |
JP7143444B2 (ja) * | 2018-02-09 | 2022-09-28 | スカイディオ,インコーポレイテッド | 航空機のスマート着陸 |
US11022683B1 (en) * | 2018-03-15 | 2021-06-01 | Aeva, Inc. | Simultaneous measurement of range and velocity using optical radar |
US11550061B2 (en) * | 2018-04-11 | 2023-01-10 | Aurora Operations, Inc. | Control of autonomous vehicle based on environmental object classification determined using phase coherent LIDAR data |
US10706294B2 (en) * | 2018-05-03 | 2020-07-07 | Volvo Car Corporation | Methods and systems for generating and using a road friction estimate based on camera image signal processing |
JP2019197375A (ja) * | 2018-05-09 | 2019-11-14 | トヨタ自動車株式会社 | 衝突回避支援装置 |
EP3572839A1 (en) | 2018-05-23 | 2019-11-27 | Aptiv Technologies Limited | Method of estimating a velocity magnitude of a moving target in a horizontal plane and radar detection system |
US20200211394A1 (en) | 2018-12-26 | 2020-07-02 | Zoox, Inc. | Collision avoidance system |
US11090525B2 (en) * | 2019-01-25 | 2021-08-17 | 4Iiii Innovations Inc. | Virtual inertia enhancements in bicycle trainer resistance unit |
US10943355B2 (en) | 2019-01-31 | 2021-03-09 | Uatc, Llc | Systems and methods for detecting an object velocity |
CN110362074B (zh) * | 2019-06-18 | 2021-11-23 | 华南理工大学 | 一种基于航迹重规划的水面无人艇动态避碰方法 |
CN114829975A (zh) * | 2019-11-08 | 2022-07-29 | 沃伊亚影像有限公司 | 用于对车辆的周围环境进行感测的系统和方法 |
-
2021
- 2021-02-22 MX MX2022010293A patent/MX2022010293A/es unknown
- 2021-02-22 WO PCT/US2021/019122 patent/WO2021168452A2/en unknown
- 2021-02-22 EP EP21756397.2A patent/EP4096978A4/en active Pending
- 2021-02-22 US US17/182,168 patent/US20210261158A1/en not_active Abandoned
- 2021-02-22 KR KR1020227031758A patent/KR102503388B1/ko active IP Right Grant
- 2021-02-22 US US17/182,165 patent/US11235785B2/en active Active
- 2021-02-22 AU AU2021222055A patent/AU2021222055B2/en active Active
- 2021-02-22 JP JP2022549671A patent/JP7336604B2/ja active Active
- 2021-02-22 CN CN202180030320.XA patent/CN115461258B/zh active Active
- 2021-02-22 CA CA3168740A patent/CA3168740C/en active Active
- 2021-02-22 US US17/182,173 patent/US11719821B2/en active Active
-
2023
- 2023-06-16 US US18/211,171 patent/US20230333252A1/en active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9903728B2 (en) * | 2013-10-17 | 2018-02-27 | Fathym, Inc. | Systems and methods for predicting weather performance for a vehicle |
US20160171898A1 (en) * | 2014-12-12 | 2016-06-16 | Atlantic Inertial Systems Limited (HSC) | Collision detection system |
US20160291149A1 (en) * | 2015-04-06 | 2016-10-06 | GM Global Technology Operations LLC | Fusion method for cross traffic application using radars and camera |
CN108701362A (zh) * | 2016-02-29 | 2018-10-23 | 深圳市大疆创新科技有限公司 | 目标跟踪期间的障碍避免 |
WO2020035728A2 (en) * | 2018-08-14 | 2020-02-20 | Mobileye Vision Technologies Ltd. | Systems and methods for navigating with safe distances |
Also Published As
Publication number | Publication date |
---|---|
WO2021168452A8 (en) | 2022-10-06 |
AU2021222055A1 (en) | 2022-10-06 |
MX2022010293A (es) | 2023-01-04 |
WO2021168452A2 (en) | 2021-08-26 |
US11719821B2 (en) | 2023-08-08 |
AU2021222055B2 (en) | 2022-12-01 |
CN115461258B (zh) | 2023-09-05 |
CA3168740A1 (en) | 2021-08-26 |
CA3168740C (en) | 2023-08-01 |
US20210261158A1 (en) | 2021-08-26 |
KR102503388B1 (ko) | 2023-03-02 |
KR20220134029A (ko) | 2022-10-05 |
WO2021168452A3 (en) | 2021-10-28 |
US20210261157A1 (en) | 2021-08-26 |
JP7336604B2 (ja) | 2023-08-31 |
US20210261159A1 (en) | 2021-08-26 |
US11235785B2 (en) | 2022-02-01 |
EP4096978A4 (en) | 2024-03-06 |
JP2023507671A (ja) | 2023-02-24 |
US20230333252A1 (en) | 2023-10-19 |
EP4096978A2 (en) | 2022-12-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN115461258B (zh) | 用于自主导航期间对象避让的方法 | |
JP7349792B2 (ja) | 車両走行のための情報を提供する方法 | |
US11003945B2 (en) | Localization using semantically segmented images | |
CN111771207B (zh) | 增强的车辆跟踪 | |
US20200133272A1 (en) | Automatic generation of dimensionally reduced maps and spatiotemporal localization for navigation of a vehicle | |
US10984543B1 (en) | Image-based depth data and relative depth data | |
KR101572851B1 (ko) | 동적 환경에서 모바일 플랫폼의 지도 작성방법 | |
Barth et al. | Estimating the driving state of oncoming vehicles from a moving platform using stereo vision | |
EP3818339A1 (en) | Systems and methods for vehicle navigation | |
US11680801B2 (en) | Navigation based on partially occluded pedestrians | |
JP5023186B2 (ja) | 3dワーピング手法と固有対象物運動(pom)の検出の組み合わせに基づく対象物の動き検出システム | |
US20210389133A1 (en) | Systems and methods for deriving path-prior data using collected trajectories | |
US11961304B2 (en) | Systems and methods for deriving an agent trajectory based on multiple image sources | |
US11961241B2 (en) | Systems and methods for deriving an agent trajectory based on tracking points within images | |
WO2021116752A1 (en) | Systems and methods for selectively decelerating a vehicle | |
JP7454685B2 (ja) | 車両走行路内のデブリの検出 | |
EP4272157A1 (en) | Systems and methods for road segment mapping | |
WO2023129656A1 (en) | Calculating vehicle speed for a road curve | |
US20240094399A1 (en) | System and method for object reconstruction and automatic motion-based object classification | |
JP2023116424A (ja) | 歩行者の位置を決定する方法及び装置 | |
JP2020148601A (ja) | 認識装置、車両制御装置、認識方法、およびプログラム | |
JP7334489B2 (ja) | 位置推定装置及びコンピュータプログラム | |
Charaya | LiDAR for Object Detection in Self Driving Cars | |
US20240262386A1 (en) | Iterative depth estimation | |
US20240265707A1 (en) | Systems and methods for deriving an agent trajectory based on multiple image sources |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |