JP2023507671A - 自律ナビゲーションの間の物体回避の方法 - Google Patents

自律ナビゲーションの間の物体回避の方法 Download PDF

Info

Publication number
JP2023507671A
JP2023507671A JP2022549671A JP2022549671A JP2023507671A JP 2023507671 A JP2023507671 A JP 2023507671A JP 2022549671 A JP2022549671 A JP 2022549671A JP 2022549671 A JP2022549671 A JP 2022549671A JP 2023507671 A JP2023507671 A JP 2023507671A
Authority
JP
Japan
Prior art keywords
time
autonomous vehicle
calculating
velocity
motion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2022549671A
Other languages
English (en)
Other versions
JP7336604B2 (ja
Inventor
パジャヤムパリル,ジョエル
ムーン,クリスティン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bluespace AI Inc
Original Assignee
Bluespace AI Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Bluespace AI Inc filed Critical Bluespace AI Inc
Publication of JP2023507671A publication Critical patent/JP2023507671A/ja
Application granted granted Critical
Publication of JP7336604B2 publication Critical patent/JP7336604B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W10/00Conjoint control of vehicle sub-units of different type or different function
    • B60W10/18Conjoint control of vehicle sub-units of different type or different function including control of braking systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/09Taking automatic action to avoid collision, e.g. braking and steering
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • B60W30/0956Predicting travel path or likelihood of collision the prediction being responsive to traffic or environmental parameters
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/14Adaptive cruise control
    • B60W30/143Speed control
    • B60W30/146Speed limiting
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/18Propelling the vehicle
    • B60W30/18009Propelling the vehicle related to particular drive situations
    • B60W30/181Preparing for stopping
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/06Road conditions
    • B60W40/068Road friction coefficient
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/10Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
    • B60W40/105Speed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0011Planning or execution of driving tasks involving control alternatives for a single driving scenario, e.g. planning several paths to avoid obstacles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/50Systems of measurement based on relative movement of target
    • G01S17/58Velocity or trajectory determination systems; Sense-of-movement determination systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/04Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/165Anti-collision systems for passive traffic, e.g. including static obstacles, trees
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • B60W2420/408
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • B60W2552/40Coefficient of friction
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4041Position
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4042Longitudinal speed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4043Lateral speed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/80Spatial relation or speed relative to objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60YINDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
    • B60Y2300/00Purposes or special features of road vehicle drive control systems
    • B60Y2300/08Predicting or avoiding probable or impending collision
    • B60Y2300/095Predicting travel path or likelihood of collision
    • B60Y2300/0954Predicting travel path or likelihood of collision the prediction being responsive to traffic or environmental parameters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/12Acquisition of 3D measurements of objects

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Electromagnetism (AREA)
  • Automation & Control Theory (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Mathematical Physics (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Traffic Control Systems (AREA)
  • Navigation (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

自律走行車の自律ナビゲーションの方法は、自律走行車が完全停止するまでの停止期間を自律走行車の現在の速度に基づいて推定することと、停止期間によって現在の時間から臨界時間を計算することと、現在の時間に自律走行車上のセンサによって捉えられた自律走行車に近接する視野のスキャン画像において物体を検出することと、スキャン画像に基づいて、物体の現在の場所および運動を導出することと、物体の現在の場所および運動、ならびに公道に近接する一般物体についての所定の運動制限想定のセットに基づいて、臨界時間に至るまで物体にとってアクセス可能な陸上領域を表現する将来状態境界を計算することと、臨界時間の前の将来状態境界への進入を回避するためのナビゲーション行動を選ぶことと、を含む。【選択図】図1

Description

関連出願の相互参照
本出願は、2020年2月21日に出願された米国仮特許出願第62/980,131号、2020年2月21日に出願された米国仮特許出願第62/980,132号、および2020年8月11日に出願された米国仮特許出願第63/064,316号の優先権を主張するものであり、これらそれぞれの内容全体は参照により本明細書に組み込まれている。
本発明は、一般に、自律走行車の分野に関し、より詳細には、自律走行車の分野における自律ナビゲーションの間の物体回避の新しい有用な方法に関する。
図1は、方法のフローチャート図である。 図2は、方法の1つの変形のフローチャート図である。 図3A~図3Cは、方法の1つの変形のフローチャート図である。 図4は、方法の1つの変形のフローチャート図である。 図5は、方法の1つの変形のフローチャート図である。 図6は、方法の1つの変形のフローチャート図である。 図7は、方法の1つの変形のフローチャート図である。
本発明の実施形態の以下の説明は、本発明をこれらの実施形態に限定することを意図するものではなく、むしろ当業者が本発明を作成しかつ使用することができるようにすることを意図するものである。本明細書に説明される変形、構成、実装、実装例、および実施例は、オプションであり、それらが説明する変形、構成、実装、実装例、および実施例に限られるのものではない。本明細書に説明される発明は、これらの変形、構成、実装、実装例、および実施例のありとあらゆる置換を含むことができる。
1.方法
図1に示されるように、自律ナビゲーションの間の物体回避の方法S100は、ブロックS110において、第1の時間に自律走行車において、自律走行車が完全停止するまでの停止期間を第1の時間での自律走行車の速度に基づいて推定することと、ブロックS112において、停止期間によって第1の時間からオフセットされた臨界時間を記憶することと、ブロックS120において、ほぼ第1の時間に捉えられた自律走行車の周りの視野の第1のスキャン画像において物体を検出することと、ブロックS122において、第1のスキャン画像に基づいて、自律走行車から物体までの第1の放射線に沿った物体の第1の場所および第1の半径方向速度を導出することと、を含む。方法S100は、第1の時間における物体の第1の場所、物体の第1の半径方向速度、および最大想定角速度に基づいて、ブロックS130における、第1の時間から臨界時間まで物体にとってアクセス可能な陸上領域を表現する第1の将来状態境界、および自律走行車の動作のために定められた一般物体の最大想定加速度を計算することも含む。方法S100は、ブロックS142において、第1の時間における自律走行車と閾値距離を超える将来状態境界の周囲との間の第1の距離に応答して、自律走行車における次の経路計画考慮事項から物体をミュートする(mute)ことと、ブロックS144において、閾値距離が第1の距離を超えることに応答して、物体の将来状態境界を除いて、自律走行車の周りのアクセス区間を計算することと、ブロックS140において、第1の時間から臨界時間までアクセス区間にとどまるためのナビゲーション行動を実行することと、をさらに含む。
方法S100の1つの変形は、ブロックS110において、第1の時間に自律走行車において、自律走行車が完全停止するまでの停止期間を第1の時間での自律走行車の速度に基づいて推定することと、ブロックS112において、停止期間によって第1の時間からオフセットされた臨界時間を計算することと、ブロックS120において、ほぼ第1の時間に自律走行車上のセンサによって捉えられた自律走行車に近接する視野の第1のスキャン画像において物体を検出することと、ブロックS122において、第1のスキャン画像に基づいて、第1の物体の第1の場所および第1の運動を導出することと、第1の時間における第1の物体の第1の場所、第1の物体の第1の運動、および公道に近接する一般物体についての所定の運動制限想定のセットに基づいて、ブロックS130において、第1の時間から第1の臨界時間まで第1の物体にとってアクセス可能な第1の陸上領域を表現する第1の将来状態境界を計算することと、ブロックS140において、第1の臨界時間の前に第1の将来状態境界への進入を回避するための第1のナビゲーション行動を選ぶことと、を含む。
方法S100の別の変形は、ブロックS102において、公道に近接する一般物体についての所定の運動制限想定のセットにアクセスすることと、ブロックS104において、第1の時間において自律走行車上のセンサによって捉えられたデータを含んでいるスキャン画像にアクセスすることと、ブロックS120において、自律走行車に近接する視野において物体を表現するスキャン画像における点群を識別することであって、点群におけるそれぞれの点は、自律走行車に対する物体上の表面の位置、および自律走行車に対する物体の表面の半径方向速度を含む、点群を識別することと、ブロックS122において、点群における点の、半径方向速度と位置との間の相関関係を計算することと、ブロックS122において、相関関係に基づいて、第1の時間において物体のあり得る接線速度と物体のあり得る角速度とを関連付ける関数を計算することと、ブロックS122において、点群における点の半径方向速度に基づいて第1の時間に物体の半径方向速度を計算することと、関数によって定められる、第1の時間における物体のあり得る接線速度および物体のあり得る角速度、物体の半径方向速度、ならびに所定の運動制限想定のセットに基づいて、ブロックS130において未来の時間に物体にとってアクセス可能な陸上領域を表現する将来状態境界を計算することと、ブロックS140において、将来の臨界時間の前に将来状態境界を回避するためのナビゲーション行動を選ぶこととを含む。
方法S100のさらに別の変形は、ブロックS102において、公道に近接する一般物体についての所定の運動制限想定のセットにアクセスすることを含む。方法S100の変形はまた、第1のスキャン周期で、ブロックS104において、第1の時間において自律走行車上のセンサによって捉えられたデータを含んでいる第1のスキャン画像にアクセスすることと、ブロックS120において、自律走行車に近接する視野において第1の物体を表現する第1のスキャン画像において第1の点群を識別することであって、第1の点群におけるそれぞれの点は、センサから第1の物体上の表面までの第1の範囲値、センサに対する第1の物体上の表面の第1の方位角位置、およびセンサに対する第1の物体の表面の第1の半径方向速度を含む、第1の点群を識別することと、ブロックS122において、第1の点群における点の第1の半径方向速度と第1の方位角位置との間の第1の相関関係を計算することと、第1の相関関係に基づいて、ブロックS122において、第1の時間における第1の物体のあり得る接線速度と第1の物体のあり得る角速度とを関連付ける第1の関数を計算することと、ブロックS122において、第1の点群における点の第1の半径方向速度に基づいて第1の時間における第1の物体の第1の半径方向速度を計算することと、を含む。方法S100のこの変形は、さらに、ブロックS110において、第1の時間における自律走行車の第1の速度に基づいて、自律走行車が完全停止するまでの第1の停止期間を推定することと、ブロックS112において、停止期間によって第1の時間からオフセットされた第1の臨界時間を計算することと、第1の関数によって定められる、第1の時間における第1の物体のあり得る接線速度および第1の物体のあり得る角速度、第1の半径方向速度、ならびに所定の運動制限想定のセットに基づいて、ブロックS130において第1の臨界時間に第1の物体にとってアクセス可能な第1の陸上領域を表現する第1の将来状態境界を計算することと、ブロックS140において、第1の臨界時間の前に第1の将来状態境界への進入を回避するための第1のナビゲーション行動を選ぶことと、をさらに含む。
2.応用
一般的に、方法S100は、物体をその環境において検出すること、一般物体のプリロードされた最大運動想定(または一般の対立的(adversarial)物体についてのプリロードされた対立的運動制限)に基づいて、最悪速度および加速度値を物体に割り当てること、この現在の速度を前提として、現在の時間から、自律走行車が完全停止までブレーキをかけ得る時間に至るまで物体にとってアクセス可能な最大陸上領域を推定すること、および、自律走行車が、アクセス可能なこの最大陸上領域から十分遠い場合に経路計画考慮事項から物体を選択的にミュートすること、またはこの物体を考慮し、かつ将来アクセス可能なこの最大陸上領域への進入を回避するために速度および/または操舵角の調節を実行することを行うために、自律走行車(例えば、自律バス、自律乗用車)によって実行可能である。
より具体的には、動作全体を通して、自律走行車は、自律走行車がこの現在の速度を前提として完全停止することができるこの停止期間の推定を維持することができる。自律走行車が最初にこの視野において物体を検出する時、自律走行車は、対立的要因の所定の最悪速度および加速度の想定をこの物体に割り当て、かつ物体の現在の場所を前提として自律走行車の現在の停止期間にわたってこれらの最悪速度および加速度の想定の下でこの物体がアクセスできる最大陸上領域(以降「将来状態境界」)を計算することができる。自律走行車の現在の場所が物体のこの将来状態境界から十分オフセットされているあるいは物体のこの将来状態境界の外側にある場合、自律走行車は、物体の最悪の対立的行動が行われていてもこの物体と衝突する前に十分に完全停止する能力を予測することができるため、現在の経路計画決定から物体を無視またはミュートし、代わりに、その後、自律走行車が物体の将来状態境界に近づく時まで待機して、物体を回避するためのナビゲーション行動を実行することができる。逆に、自律走行車の現在の場所が物体のこの将来状態境界に近い場合、自律走行車は、(例えば、自律走行車から将来状態境界の周囲までの距離に反比例する大きさで)減速することができることで、自律走行車の停止期間を低減し、(自律走行車の現在の停止期間にわたって物体にとってアクセス可能な最大陸上領域を表現する)物体の将来状態境界を縮小し、自律走行車が経時的に物体のこの将来状態境界の外側にとどまることを可能にすることができる。従って、自律走行車が最初に物体をその環境において検出した直後に物体が自律走行車の方向において対立的行動を開始または継続する場合でも、自律走行車が物体との衝突前に完全停止することを可能にするために、物体からの空間的および時間的距離を維持するように予測されたナビゲーション行動(例えば、速度および/または操舵角の調節)を通知するために、方法S100のブロックを実行することができる。
さらに、自律走行車は、後続のスキャン画像上でこの物体を検出かつ追跡すること、これらのスキャン画像から物体の実際の速度(例えば、複数の連続したスキャン画像にわたる物体の位置の変化および連続する半径方向速度測定に基づく物体の絶対速度)を導出すること、および、物体の速度についての最悪想定を物体の実際の速度と置き換えることができる。自律走行車はさらにまた、物体の将来状態境界を、この実際の速度、および一般物体についての最悪加速度の想定に基づいて再計算するように、およびこの修正された将来状態境界に対する自律走行車の場所に基づいて現在の経路計画考慮事項から物体を選択的にミュートするように、方法S100のブロックを繰り返すことができる。
例えば、自律走行車は、高性能乗用車または高性能オートバイの最悪速度および加速度(例えば、毎秒50メートルの最大速度、毎秒毎秒9メートルの最大加速度)を記憶し、かつこれらの物体の実際のタイプまたはクラスに関わらず全ての検出した物体の将来状態境界を計算するためにこれらの最悪速度および加速度を実現することができる。よって、自律走行車は、物体のタイプを識別し、かつ、変わらない物体(例えば、道路標識、電柱)を、自律走行車の周りの視野における変わりやすい物体(例えば、歩行者、車両)と区別するための物体識別および他の機械学習技法への依存を低減または排除することができる。より具体的には、物体の予測したタイプに従って選択されたダイナミクスモデルに基づいて物体の将来状態を予測するのではなく、自律走行車は、その代わりに、物体の限定された運動データ、自律走行車に対するこの現在の位置、ならびに、一般物体(例えば、一般の高性能乗用車)についての最大速度および加速度の想定に基づいて、物体の将来状態を予測しかつこの境界を定めること、および、自律走行車が経時的にこの物体に関する追加の速度データを収集する際に物体のこれらの将来状態境界を精緻化する(例えば、絞り込む)ことができる。
従って、経路計画決定を通知するために方法S100のブロックを実行することによって、自律走行車は、物体のタイプまたはクラスをこの環境において精確に識別する必要性を低減または排除すること、自律走行車の自律動作におけるこのあり得る誤差原因を低減または排除すること、および、対立的コンピュータビジョン攻撃に対して、対立的ニューラルネットワーク攻撃に対して、またはトレーニングデータが限定されたまたは先のトレーニングデータがない状況などにおいて、自律走行車の自律動作の堅牢性を高めることができる。
さらに、自律走行車は、同一性検出、追跡、および、変わりやすい物体および変わらない物体の両方についての経路の運動計画決定を実施することによって、自律走行車の環境における物体のクラスを識別する(または物体を変わりやすいまたは変わらないで分類する)必要性を低減または排除し、かつ、自律走行車上で実行している、独自のコンピュータビジョン、機械学習、および経路計画パイプラインの量を低減することができる。例えば、自律走行車は、自律走行車の環境において検出不可能があり得るが、他の検出された物体によってふさがれた物体(例えば、電柱の背後に立っている歩行者、トラクタートレーラによって自律走行車の視野においてふさがれた車線を占有する乗用車)、自律走行車の視野に最初に入ってくる物体、および、自律走行車の視野に現存する物体を予測しかつ扱うための同一性検出、追跡、および、経路の運動計画決定を実行することができる。
3.自律走行車
自律走行車は、自律走行車の周りの視野における物体を表すデータを収集するように構成されるセンサ一式と、自律走行車によって実行するルートを定めるナビゲーションマップ、および車道に沿った変わらない表面の場所を表現するローカリゼーションマップを記憶するローカルメモリと、コントローラとを含むことができる。コントローラは、センサ一式およびローカリゼーションマップから収集したセンサデータに基づいて実空間における自律走行車の場所を計算すること、方法S100のブロックに従ってこれらのセンサデータにおいて検出された物体の将来状態境界を計算すること、これらの将来状態境界、自律走行車の実際の場所、およびナビゲーションマップに基づいて将来のナビゲーション行動を選ぶこと、および、これらのナビゲーション決定に従って車両内のアクチュエータ(例えば、アクセル、ブレーキ、および操舵アクチュエータ)を制御することができる。
1つの実装形態において、自律走行車は、自律走行車の前部に配置される1つのライダーセンサ、および自律走行車の後部に配置される第2のライダーセンサなど、自律走行車上に配置される360度ライダーセンサ一式、または、自律走行車の屋根上に配置されるライダーセンサ群を含む。それぞれのライダーセンサは、ライダーセンサと、ライダーセンサの回転ごと(すなわち、スキャン周期当たり1回)のライダーセンサの視野内の外面との間の距離を表現する3Dポイントクラウドの形式などにおける1つの3次元距離マップ(または奥行画像)を出力することができる。自律走行車は、さらにまたは代替的には、構造光を自律走行車の近くの視野内に投影するように構成される赤外線放射体のセットと、赤外線検出器(例えば、赤外線カメラ)のセットと、赤外線検出器によって出力された画像を視野の奥行マップに変換するように構成されるプロセッサとを含むことができる。
自律走行車は、さらにまたは代替的には、自律走行車の前部、後部、および/または側部から外方に向いているカラーカメラのセットを含むことができる。例えば、このセットにおけるそれぞれのカメラは、20Hzのレートでデジタル写真画像(または「フレーム」)のビデオフィードを出力することができる。自律走行車は、自律走行車から外方に向いており、かつ自律走行車の近くの物体の存在および速度を検出するように構成されるレーダセンサのセットも含むことができる。よって、自律走行車におけるコントローラは、ライダーセンサ、カラーカメラ、およびレーダセンサなどからのデータストリームを、スキャン周期ごとに、自律走行車の周りの視野における道路、歩道、車両、歩行者などを表現する点の集まりを含む3Dカラーマップまたは3Dポイントクラウドの形式などにおける1つのスキャン画像に融合することができる。
しかしながら、自律走行車は、任意の他のセンサを含むことができ、かつ、この地理空間的位置および向きを判断し、物体をこの周辺で検知し、および、これらのセンサを通して収集されたセンサデータに基づいてナビゲーション行動を選ぶために、任意の他のスキャン、信号処理、および自律ナビゲーション技法またはモデルを実現することができる。
3.1 物体の場所および運動データ
1つの実装形態において、自律走行車は、点の集まりを含むスキャン画像を出力するセンサを含み、この場合、このスキャン画像におけるそれぞれの点は、センサ(またはより全般的には自律走行車)に対する環境における表面の位置を表し、かつセンサ(またはより全般的には自律走行車)からこの表面まで延在する放射線に沿ったこの表面の速度を指定する。
1つの例において、自律走行車は、自律走行車の周りの視野においてセンサ(またはより全般的には自律走行車)からこれらの表面まで延在する放射線に沿った表面の距離および相対速度を検出するように構成される3Dスキャンライダーセンサを含む。この例において、3Dスキャンライダーセンサは、3Dスキャンライダーセンサにおける(または自律走行車上の基準位置における)起点を定める極座標系における球座標での視野における表面の位置を表し、かつ、センサのスキャン周期ごとに(例えば、回転ごとに)1つのスキャン画像においてこれらの極座標を記憶することができる。従って、この例において、自律走行車は、自律走行車に装着されており、センサに対する視野内の表面の位置および速度を表現するスキャン画像を生成するように構成されている4次元光検出および測距センサによって捉えられるデータを含んでいるスキャン画像にアクセスすることができる。
この例において、自律走行車は、それぞれが、スキャン周期ごとに1つのスキャン画像を出力するように構成される複数のこのような3Dスキャンライダーセンサを含むことができる。自律走行車は、さらにまた、これらのセンサによって出力される並行スキャン画像を、このスキャン周期に対して1つの合成スキャン画像に融合することができる。
代替的には、自律走行車は、異なるタイプのデータを捉えるセンサ一式を含むことができ、かつ、これらのセンサの出力を、視野における表面の場所での点を含み、かつ自律走行車とこれらの表面との間に延在する放射線に沿ったこれらの表面の速度がアノテートされたスキャン画像に融合することができる。例えば、自律走行車は、ライダーの視野を定め、かつスキャン周期の間の点の集まりを含む3Dポイントクラウドを生成するように構成される3Dスキャンライダーセンサを含むことができ、この場合、それぞれの点は自律走行車の周りの環境における表面上のある領域の位置を定める。この例において、自律走行車はまた、ライダーの視野を交差するレーダの視野を定め、かつスキャン周期の間のレーダの視野における物体または表面のリストを生成する固定またはスキャンレーダセンサを含むことができ、この場合、このリストにおけるそれぞれの物体または表面は、レーダセンサに対する速度がアノテートされている。自律走行車はさらにまた、3D点群における点に、レーダセンサによって検出された対応する物体または表面の速度をアノテートするために、スキャン周期の間のライダーセンサおよびレーダセンサの同時出力をマージする。
しかしながら、自律走行車は、任意の他のタイプまたは構成のセンサを含むことができ、かつスキャン周期の間の自律走行車の周りの視野における物体または表面の相対位置および相対速度を表現するスキャン画像にアクセスするまたはこれを構成することができる。
4.プリロードされた規則/想定
自律走行車はまた、一般物体についての所定の最悪運動想定を記憶できる。とりわけ、自律走行車は、自律走行車が動作中に遭遇する場合があり、かつ動作全体を通して遭遇する全ての物体(例えば、歩行者、乗用車、トラック、トレーラ、RV車、オートバイ、道路標識、街灯柱、信号機、電柱、建物)の将来状態を予測するためにこれらの最悪運動想定を適用し得る任意の物体の最も活動的な(または「最悪の」)運動および運動変化についての想定を記憶可能である。
例えば、自律走行車は、一般物体の最大可能速度(例えば、毎時100マイル、毎秒55メートル)、および、任意の方向における一般物体の最大可能直線加速度(例えば、毎秒毎秒9メートル)を記憶可能である。自律走行車は、物体の速度の逆関数など、任意の方向における一般物体の最大可能角速度も記憶可能である。例えば、自律走行車は、一般物体の線速度が増大すると減少する、中心周りの、一般物体の最大可能角速度を出力する最大可能角速度関数を記憶可能である。従って、この例において、最大可能角速度関数は、一般物体が静止している時に一般物体に関する最大可能角速度を予測可能である(例えば、じっと立っている歩行者は、毎秒30メートルで走行するスポーツカーより大きい最大可能角速度を示す場合がある)。
自律走行車は、自律走行車と、自律走行車の周辺における任意の物体の将来状態境界との間の最小の時間的または空間的余裕などの物体回避規則も記憶可能である。
しかしながら、自律走行車は、一般物体および/または物体回避規則についての任意の他の所定の最悪運動想定を記憶しかつ実現可能である。
さらに、自律走行車は、自律走行車、または自律走行車が動作する場所に関係がある操作者または利害関係者によって設定されたこれらの所定の最悪運動想定および/または物体回避規則を引き出すことができる。例えば、貨物車両運行責任者または政府官僚は、これらの値を全自律走行車に割り当ててよい、またはこれらの値を、地方自治体、都市、地方、地区、州、地域、または国などの範囲内の全ての自律走行車の動作に対して指定してよい。
5.停止距離および停止期間
方法S100のブロックS110およびS112には、第1の時間に自律走行車において、自律走行車が完全停止するまでの停止期間を第1の時間での自律走行車の速度に基づいて推定することと、停止期間によって第1の時間からオフセットされた臨界時間を記憶することとが挙げられている。一般的に、ブロックS110およびS112において、自律走行車は、自律走行車がその現在の速度に基づいて緊急停止手順を即座に開始した場合、自律走行車が完全停止し得る将来の時間および/または距離を推定する。例えば、自律走行車は、車両速度を停止期間および/または停止距離に直接変換するプリロードされた関数を実現可能である。
別の実装形態では、自律走行車は、自律走行車におけるさまざまなセンサによって収集されたデータに基づいて路面品質を推定する。例えば、自律走行車は、色画像において水たまりまたは停留水の存在を検出するためのコンピュータビジョンおよび機械学習技法を実現し、かつ、このような水たまりまたは停留水の存在および分布に基づいて、路面の湿潤を推定する。別の例では、自律走行車は、自律走行車上のカメラによって捉えられた色画像から色データおよびテクスチャ情報を抽出するためのコンピュータビジョンおよび機械学習技法を実現し、かつ、維持されたアスファルト、破損している(例えば、くぼみがある)アスファルト、滑らかなコンクリート、ざらついたコンクリート、砂利、土砂、草、または停留水など、自律走行車の周りの路面タイプを解釈する。この実装形態において、自律走行車は、さらにまた、この推定された湿潤および道路の表面タイプに基づいて路面の摩擦係数を計算するまたは引き出すことができる。自律走行車は、さらにまたは代替的には、自律走行車の最後のブレーキ点検からのマイル数、および/または自律走行車の最後のタイヤ交換からのマイル数に基づいて、ブレーキ効率係数を計算するために自律走行車用のブレーキ効率モデルを実現可能である。自律走行車は、さらにまた、現在の車両速度、摩擦係数、および/またはブレーキ効率係数に基づいて、停止距離および/または停止期間を推定するためのブレーキモデルを実現可能である。
しかしながら、自律走行車は、自律走行車の現在の停止距離および/または現在の停止期間を推定するための任意の他の方法または技法を実現可能である。
自律走行車はまた、停止距離に3メートル追加すること、停止期間に2秒追加すること、またはこれらの値を安全余裕度(例えば、「1.2」)で乗算することなどによって、これらの停止距離および/または停止期間の値に安全余裕度を追加することができる。
自律走行車はさらにまた、現在の時間および停止期間を合計することによって、自律走行車が完全停止までブレーキをかけ得る最も早い時間を表現する臨界時間を計算することができる。
6.スキャン画像、物体検出、および物体運動
方法S100のブロックS120およびS122には、ほぼ第1の時間に捉えられた自律走行車の周りの視野の第1のスキャン画像において物体を検出することと、第1のスキャン画像に基づいて、自律走行車から物体までの第1の放射線に沿って物体の第1の場所および第1の半径方向速度を導出することとが挙げられている。一般的に、ブロックS120およびS122において、自律走行車は、上述されるように、ライダーセンサによって出力された新たなスキャン画像にアクセスすること、この新たなスキャン画像において前のスキャン画像では検出されていない物体を検出すること、および、この物体の確実性が高い運動特性の限定されたセット(例えば、自律走行車に対する半径方向速度)をこの新たなスキャン画像から抽出することができる。
1つの実装形態において、現在のスキャン周期でのスキャン画像の受信(または生成)後、自律走行車は、スキャン画像における点群を自律走行車の周りの視野における別個の物体と関連付けるための物体検出技法を実行する。例えば、自律走行車は、自律走行車からの同様の奥行でクラスタ化され、かつ近接した物体に対して自己矛盾のない速度(例えば、距離レート、方位角速度)とタグ付けされた点群を集約すること、およびこの点群を視野における1つの物体と関連付けることができる。
自律走行車はさらにまた、自律走行車から物体まで延在する放射線(以降「半径方向」)に沿った物体の半径方向速度(または「距離レート」)、およびこのスキャン画像から自律走行車に対する物体の角速度を抽出することができる。例えば、自律走行車は、この物体を定める点の半径方向速度を、現在の時間での絶対参照システムにおける自律走行車の場所および速度に基づく絶対参照システムにおける絶対速度に変換し、かつ、この物体と関連付けられた点群に含まれている、最左点の絶対半径方向速度と最右点の絶対半径方向速度との間の差異に基づいて、現在のスキャン周期の間の絶対参照システムにおけるこの中心周りの物体の角速度(または「ヨー」)を計算することができる。この例において、自律走行車はまた、この物体を定めるこの点群の重心近くの点の部分集合に記憶された半径方向速度を平均し、かつ、この平均半径方向速度を、自律走行車の中心からこの点群の重心までの放射線に沿った半径方向において自律走行車に対する物体の半径方向速度として記憶することができる(自律走行車はまた、このスキャン周期の間の自律走行車の速度および角速度に基づいて、自律走行車に対する物体のこの半径方向速度を、半径方向における物体の絶対速度に変換することができる)。
自律走行車は、自律走行車の周りの視野における他の物体を表現するこのスキャン画像における他の点群に対してこのプロセスを繰り返すことができる。
6.1 物体追跡
自律走行車はまた、現在のスキャン画像における特定の物体を表現する点群を、前のスキャン画像において検出された同様の点群にリンクさせ、かつこれらの2つのスキャン画像にわたって、これらの点群とこれらが表現する物体とをリンクさせるための物体追跡技法を実現することができる。しかしながら、自律走行車が、現在のスキャン画像において検出された点群と、前のスキャン画像における同様の位置および速度での点群との一致を得られない場合、自律走行車は、現在のスキャン画像におけるこの点群を新たな物体(すなわち、現在のスキャン周期の間に自律走行車の視野に最初に入ってくる物体)としてラベル付けすることができる。
7.境界が定められた将来状態;新たな物体
方法S100のブロックS130には、第1の時間における物体の第1の場所、物体の第1の半径方向速度、最大想定加速度、および最大想定角速度に基づいて、第1の時間から臨界時間まで物体にとってアクセス可能な陸上領域を表現する第1の将来状態境界、および自律走行車の動作のために定められた一般物体の最大想定加速度を計算することが挙げられている。一般的に、ブロックS130において、自律走行車は、現在の時間から臨界時間まで(すなわち、後続の停止期間にわたって)物体にとってアクセス可能な陸上領域の広さを計算し、かつこの近づきやすい陸上領域を物体の将来状態境界として記憶するために、物体が最初に検出された現在のスキャン画像からそのように導出された物体の限定された運動データと、物体による対立的行動についての最悪想定とをマージすることができる。
より具体的には、自律走行車が最初にスキャン画像において物体を検出する時、自律走行車は、このスキャン画像におけるこの物体と関連付けられた点の重心近くの自律走行車に対する物体の中心の位置を推定すること、スキャン画像におけるこの物体と関連付けられたこの点群に記憶された速度値に基づいて自律走行車に対する物体のヨーレートを導出すること、および、上述されるように半径方向において(すなわち、自律走行車から物体まで延在する放射線に沿って)物体の速度を導出することができる。しかしながら、自律走行車が最初に物体を検出するスキャン画像は、自律走行車が、物体の絶対速度、または半径方向(以降、方位角方向)に垂直である物体の速度を導出することを可能にする十分なデータを含まない場合がある。従って、自律走行車は、最悪なシナリオにおいて現在の時間から臨界時間まで物体にとってアクセス可能な陸上領域を表現する将来状態境界を計算するために、物体の現在の速度および物体の将来の加速度についての最悪想定を実現することができる。
1つの実装形態において、コンピュータシステムでは、一般物体の想定される最大可能速度、および半径方向における物体の速度に基づいて、物体のほぼ中心を半径方向にオフセットされた多くの方向(例えば、3.6度で半径方向にオフセットされた100の方向)のそれぞれにおいて物体の最大可能速度を計算する。このセットにおける第1の方向について、コンピュータシステムでは、さらにまた、この第1の方向における物体の最大可能速度、および現在の時間から臨界時間までの経時的な物体の測定された角速度の第1の積分を計算する。この第1の方向について、自律走行車はまた、この第1の方向において物体の加速度の最大可能レートを推定するために、角速度および半径方向における速度を、一般物体に対してこの第1の方向における加速度の最大可能レートにリンクさせる加速度規則関数を実現し、かつ、現在の時間から臨界時間までの経時的な第1の方向における(一般物体の最大可能速度によって限定される)物体の加速度の最大可能レートの第2の(二重)積分を計算する。自律走行車はさらにまた、第1の方向において物体が横断した最大可能距離を計算するために第1の積分および第2の積分を合計し、かつ第1の方向に沿って物体の中心から延在し、かつ横断したこの最大可能距離によって物体の中心からオフセットされる放射線上に将来状態境界の第1の頂点を置く。自律走行車は、これらの方向のそれぞれにおいて将来状態境界の頂点を定めるためにセットにおけるそれぞれの他の方向でこのプロセスを繰り返し、これらの頂点のそれぞれを通してスプラインを計算し、この物体についての将来状態境界として、このスプラインによって包含されるエリアを記憶する。
従って、自律走行車は物体が可視であるこの第1のスキャン周期の間の物体の速度に関連している限定された情報を有するため、自律走行車は、現在の時間から臨界時間(すなわち、自律走行車が完全停止までブレーキをかけ得る最も早い時間)まで物体にとってアクセス可能な可能性がある最悪陸上領域を予測するために、物体の現在の速度および将来の加速度についての最悪の想定を実現することができる。自律走行車はさらにまた、物体のこの将来状態境界の外側の安全な陸上領域を定め、かつ、自律走行車と物体との間のいずれの衝突も、自律走行車が完全停止状態になった後にしか生じることができないように(および、物体との衝突が物体側にだけ責任があり自律走行車には責任がない場合があるように)安全な陸上領域内にとどまるためのナビゲーション行動を実行することができる。とりわけ、自律走行車は、自律走行車の現在の場所が将来状態境界の近くに(例えば、この閾値距離内に)なる場合、物体の将来状態境界を回避するための回避操縦を開始することができる。その他の場合、自律走行車は、自律走行車がこの現在の軌道に沿って、かつ少なくとも次のスキャン周期までこの現在の速度で、動作し続ける場合、物体による最も対立的行動を前提としても、自律走行車が物体との衝突を回避するような非常に高い信頼度を検証することができるため、現在のスキャン周期での経路計画決定から物体をミュートすることができる。
例えば、自律走行車の現在の場所が物体の将来状態境界から非常に遠い場合、自律走行車は、現在のスキャン周期での経路計画決定から物体をミュートすることができる。しかしながら、自律走行車の現在の場所が物体の将来状態境界から閾値距離の範囲内(例えば、10メートル、4秒)である場合、自律走行車は、物体の将来状態境界の周辺への自律走行車の近接度に反比例する大きさおよび/またはレートで自律走行車を減速させること、および/または自律走行車の軌道を物体の将来状態境界から離れるように移行させるために自律走行車の操舵角を調節することなどによって、現在のスキャン周期での経路計画決定に物体を含むことができる。
8.境界が定められた将来状態:現存の物体
一般的に、自律走行車は、自律走行車が最初にスキャン画像におけるこの物体を検出する時に、自律走行車が、典型的には、そのように物体について計算される将来状態境界のかなり外側の距離になるように、自律走行車から比較的長い距離で比較的高い解像度の画像を捉え得る。従って、自律走行車は一般に、自律走行車が最初に物体を検出するスキャン周期の間に経路計画決定から物体をミュートしてよい。しかしながら、自律走行車はまた、後続のスキャン画像にわたってこの物体を追跡し、これらのスキャン画像からこの物体の追加の運動特性を導出し、それに応じて物体についての将来状態境界を更新し、自律走行車の並行位置、および物体のこれらの精緻化された将来状態境界に基づいて、これらの後のスキャン周期の間に物体を選択的にミュートするまたは考慮することができる。
1つの実装形態において、自律走行車は、上述されるように、自律走行車が最初に物体を検出する第1のスキャン周期の後に続く第2のスキャン周期の間に第2のスキャン画像を捉える。自律走行車はさらにまた、この第2のスキャン画像、および第1のスキャン画像と第2のスキャン画像との間の差異から、物体の追加の運動特性(例えば、方位角方向における速度、角速度、および絶対速度)を導出し、物体の速度についての最悪想定をこれらの導出された運動データと置き換え、それに応じて物体についての将来状態境界を再計算するために、上述される方法および技法を実現する。
1つの実装形態において、自律走行車は、上述される第1のスキャン周期の後の第2のスキャン周期の間に捉えられた第2のスキャン画像にアクセスし、第2のスキャン周期における点群を第1のスキャン画像において検出された物体と関連付けるための物体追跡技法を実現し、第1の画像および第2の画像における物体の中心を推定し、第1のスキャン画像から第1のスキャン周期の第1の時間において物体の第1の位置を抽出し、第2のスキャン画像から第2のスキャン周期の第2の時間において物体の第2の位置を抽出し、第1の位置と第2の位置との間の空間距離を計算し、空間距離を、第1のスキャン周期と第2のスキャン周期との間の時間間隔で除算することによって自律走行車に対する物体の現在の速度を推定する。
(しかしながら、第1の画像および第2の画像における点群によって表される物体の範囲が異なる場合があるため、および、第1のスキャン周期と第2のスキャン周期との間の時間間隔が短い(例えば、10ミリ秒)場合があるため、第1のスキャン周期から第2のスキャン周期までの物体の位置の変化は、かなりの誤差になる傾向があり得る。より具体的には、物体のこの導出された速度の不確実性は、現在のスキャン画像から抽出された物体の半径方向速度と比較すると比較的高い場合がある。従って、自律走行車は、自律走行車に対する物体のこの計算された速度を「1.5」などの許容誤差で乗算することができる。さらに、自律走行車が複数の連続したスキャン周期にわたってこの物体を追跡する際に、自律走行車は、この計算における何らかの誤差を低減するために、物体のこれらの導出された速度の組み合わせ(例えば、加重平均)を計算することができる。)
この実装形態において、自律走行車はまた、(許容誤差によって調節された)自律走行車に対する物体の現在の速度をこの時間間隔の間の自律走行車の速度に基づく物体の絶対速度に変換すること、半径方向における物体の速度、および、この群における点に含まれている速度値に基づく物体の角速度を計算するために上述される方法および技法を実現すること、および、物体の絶対速度、および半径方向における物体の速度に基づいて、半径方向に垂直である方位角方向における物体の速度を導出することができる。
自律走行車は、そのように、第2のスキャン画像および前のスキャン画像から抽出されるデータに基づいて、この第2のスキャン周期の間の物体の、真の絶対速度などを含む、より完全な運動プロファイルを導出できる。
自律走行車はさらにまた、この第2のスキャン周期の間の自律走行車の速度に基づいて自律走行車の臨界時間を再計算し、かつ(一般物体の最悪速度ではなく)物体の真の(絶対または相対)速度、物体の角速度、および、現在の時間から修正された臨界時間までの一般物体の最大可能速度によって限定される一般物体の最大可能加速度に基づいて、現在の時間からこの修正された臨界時間までの物体の将来状態境界を再計算するために、上述される方法および技法を実現することができる。
従って、物体の真の速度は、一般物体の最大想定速度を(大幅に)下回る場合が多いため、そのように、この第2のスキャン周期の間に収集された追加の運動データに基づいて計算された物体のこの修正された将来状態境界は、最初に物体を検出した後に自律走行車によって計算された物体の初期の将来状態境界よりかなり小さい場合がある。
自律走行車は、さらにまた、物体のこの修正された将来状態境界の周辺から物体までの距離に基づいてこの第2のスキャン周期の間に経路計画考慮事項からこの物体を選択的にミュートするために、上述される方法および技法を実現することができる。
自律走行車は、自律走行車がこの物体を通り越すまで、またはこの物体が自律走行車の視野の外側に移動するまでなど、この物体についての将来状態境界を精緻化しかつ更新するために、そのように自律走行車によって捉えられたそれぞれの後続のスキャン画像に対してこのプロセスを繰り返すことができる。
9.境界が定められた将来状態:不明瞭な物体
1つの変形において、自律走行車は、検出された物体(例えば、乗用車、トラック、建物)によって不明瞭な自律走行車の周りの視野のある領域における仮想物体を定めること、最悪運動特性をこの仮想物体に割り当て、かつこの最悪運動特性に基づいてこの仮想物体についての仮想将来状態境界を定めるために上述されるのと同様の方法および技法を実現すること、および、経時的な仮想物体のあり得る運動特性の短縮範囲、およびそれに応じた、仮想物体の再計算された仮想将来状態境界に基づいて仮想物体のこれらの最悪運動特性を精緻化することができる。より具体的には、この変形において、自律走行車は、検出された物体の背後の未検出の物体の存在を予期し、かつ未検出の物体のあり得る将来状態の境界を定め、かつ、この未検出の物体に近づきがたい空間にとどまるようにするための距離ナビゲーション行動に基づいて検出された物体の背後の未検出の物体の可能性を選択的にミュートするために、上述されるのと同様の方法および技法を実現することができる。
1つの実装形態において、自律走行車は最初に、第1のスキャン画像において方位角距離に及ぶ第1の物体を検出する。自律走行車はさらにまた、第1のスキャン画像から抽出された運動データに基づいて第1の物体の将来状態境界を計算するために上述される方法および技法を実現し、かつ後続のスキャン画像から抽出された運動データに基づいて第1の物体のこの将来状態境界を修正する。
同時に、自律走行車は、第1の物体のすぐ後ろ(例えば、第1の物体の2メートル後ろ)の仮想物体を定め、一般物体の最大可能速度に至るまで、全方向における最悪速度および全方向における最悪加速度を仮想物体に割り当て、および、これらの最悪運動値に従って仮想物体についての仮想将来状態境界を計算する。例えば、自律走行車は、仮想物体が、現在の時間で(第1の物体によって現在不明瞭である方向以外の)全方向において一般物体の最大可能速度で移動していると想定し、かつ、自律走行車の現在の停止時間にわたって(第1の物体によって現在不明瞭である方向以外の)全方向におけるこの最大可能速度の積分に基づいて仮想物体についての仮想将来状態境界を計算することができる。自律走行車は、さらにまた、自律走行車の現在の場所がこの仮想将来状態境界の外側にあることを検証し、かつそれに応じて、現在のスキャン周期の間の経路計画考慮事項からこの仮想物体の考慮事項を選択的にミュートするために、上述される方法および技法を実現することができる。
次のスキャン周期の間に、自律走行車は同様に、次のスキャン画像にアクセスすること、および、該次のスキャン画像において第1の物体を検出し、かつ該次のスキャン画像におけるこの第1の物体を前のスキャン画像において検出された第1の物体にリンクさせるために、物体追跡技法を実現することができる。さらにまた、自律走行車が、該次のスキャン画像において、第1の物体の背後から現れる新たな物体を検出しない場合、自律走行車は、第1の物体に対する仮想物体の方位角速度が、先のスキャン周期から該次のスキャン周期までの時間間隔にわたる自律走行車の視野における第1の物体の方位角長さを通り過ぎるのに不十分であったことを確認できる。より具体的には、自律走行車が該次のスキャン画像において第1の物体の背後に現れる新たな物体を検出しなかったため、自律走行車は、第1の物体に対する、自律走行車によって定められた方位角方向に沿った仮想物体の速度が、前のスキャン周期と現在のスキャン周期との間の時間間隔で除算された第1の物体の幅を超えないことを予測することができる。従って、この実装形態において、自律走行車は、現在のスキャン画像から第1の物体までの方位角長さ(または、前のスキャン画像および現在のスキャン画像から抽出された第1の物体の平均長)を抽出すること、第1のスキャン画像と第2のスキャン画像との間の第1の物体の位置の変化に基づいて、自律走行車に対する第1の物体の方位角速度を導出すること、および、仮想物体が非常に細いと想定すると、第1の物体の方位角長さ、および第1のスキャン周期と第2のスキャン周期との間の時間間隔に基づいて、第1のスキャン周期と第2のスキャン周期との間の、第1の物体に対する、自律走行車によって定められた方位角方向に沿った仮想物体の最大可能方位角速度を計算することができる。自律走行車はさらにまた、自律走行車に対する第1の物体の方位角速度、および第1の物体に対する仮想物体の方位角速度を合計することによって自律走行車に対する仮想物体の最大可能方位角速度を計算し、次いで、そのように仮想物体に対して推定された最大方位角速度に基づいて、仮想物体についての仮想将来状態境界を計算するために、(新たな物体に対して)上述される方法および技法を実現することができる。
自律走行車は、第1の物体の長さ、および自律走行車が第1の物体を検出したスキャン画像のセットにわたる時間間隔に基づいて、自律走行車に対する方位角方向に沿った仮想物体の最大可能方位角速度さらに修正することと、仮想物体のこの最大可能方位角速度に基づいてさまざまな方向における仮想物体の最大可能速度および加速度を再計算することと、これらの仮想物体の最大可能速度、最大可能加速度、および最大可能方位角速度に基づいて仮想物体の仮想将来状態境界を精緻化することとを含めて、後続のスキャン周期に対してこのプロセスを繰り返すことができる。
自律走行車はまた、第1の物体の背後の複数の仮想物体を定め、かつ第1の物体のすぐ後ろの第1の仮想物体、第1の仮想物体の2メートル後ろの第2の仮想物体、第1の物体の10メートル後ろの第3の仮想物体、および第1の物体の20メートル後ろの第4の仮想物体など、これらの仮想物体のそれぞれについての仮想将来状態境界を定めるために同様の方法および技法を実現することができる。
例えば、自律走行車は、第1のスキャン画像において電柱を検出すると、これらの仮想物体のそれぞれについての仮想将来状態境界を計算するために前述の方法および技法を実行することができる。この例では、自律走行車が(例えば、1秒間に捉えられた)複数の連続したスキャン画像にわたってこの電柱を追跡し、かつ電柱の背後の視野に入ってくる新たな物体を検出しない場合、自律走行車は、電柱のすぐ後ろの方位角方向に毎秒0.2メートルより早く歩いている歩行者(すなわち、第1の仮想物体)がいないこと、電柱のおよそ2メートル後ろの領域において方位角方向に毎秒0.2メートルより早く移動しているオートバイ(すなわち、第2の仮想物体)がないこと、電柱のおよそ10メートル後ろの領域において方位角方向に毎秒1メートルより早く移動している乗用車(すなわち、第3の仮想物体)がないこと、および、電柱のおよそ20メートル後ろの領域において方位角方向に毎秒1メートルより早く移動しているトラック車両(すなわち、第3の仮想物体)がないことを示す、仮想将来状態境界のセットを定めることができる。
さらに、この変形では、自律走行車は、第1の物体の背後に、自律走行車からの特定の半径方向距離で第2の物体が現れることを検出すると、そのように、自律走行車からほぼこの特定の半径方向距離の仮想物体について導出された運動特性を、この第2の物体上に移し、次いで、この第2の物体の将来状態境界を計算するために仮想物体から移されたこれらの運動特性を実現することができる。
10.他の物体
一般的に、自律走行車は、現在のスキャン画像において検出された多くの別個の物体についての将来状態境界を計算し、これらの検出された物体のそれぞれの背後の1つまたは複数の仮想物体を定め、これらの物体のそれぞれについての仮想将来状態境界を定め、および、将来状態境界を経時的に精緻化するために、前述のプロセスの複数のインスタンスを同時に実行することができる。
11.アクセス区間
自律走行車は、さらにまた、自律走行車とこれらの検出された物体および仮想物体の将来状態境界との近接度に基づいて、これらの検出された物体および仮想物体の部分集合に基づいて次のナビゲーション行動を選ぶことができる。
1つの実装形態において、自律走行車は、現在のスキャン周期の間に計算された検出された物体および仮想物体についての将来状態境界を集約し、かつ現在のスキャン周期の間に自律走行車に対するこれらの検出された物体および仮想物体の場所に基づいてこれらの将来状態境界をまとめて、これらの物体の最悪対立的運動特性に基づいて、現在の時間から臨界時間までこれらの検出された物体および仮想物体にとってアクセス可能な全ての場所を定める1つ合成将来状態境界にする。(この変形において、この合成将来状態境界の複雑さを低減するために、自律走行車はまた、自律走行車の現在の場所の予め設定された最小の時間的または空間的余裕の範囲内にある周辺を定める将来状態境界の部分集合を選択することができる。自律走行車は次いで、将来状態境界のこの部分集合をまとめて1つの合成将来状態境界にすることができる。)
自律走行車はさらにまた、この合成将来状態境界の逆を自律走行車に対するアクセス区間として記憶することができる。より具体的には、このアクセス区間は、自律走行車が、少なくとも、現在のスキャン周期から次のスキャンまでの時間間隔の範囲内で動作することができる陸上領域を定めることができる一方、これらの物体のうちの1つ(または多く)が現在のスキャン周期の間に対立的行動を開始する(例えば、一般物体の最大可能速度まで急速に加速する)場合でも、自律走行車が任意の検出された物体との衝突の前に完全停止までブレーキをかけることができる非常に高い信頼度を維持することができる。自律走行車はまた、ジオリファレンスされた道路網をこのアクセス区間に整合し、さらに、この道路網において定められた道路エリアの外側に延在するアクセス区間の領域を除去することができる。
自律走行車は、さらにまた、自律走行車がアクセス区間の縁部の時間的または空間的余裕の範囲内にある場合にこの縁部への接近の割合を低減するために自律走行車を減速させること、および/または自律走行車からさらに延在するアクセス区間の一区分の方に自律走行車を向け直すために自律走行車の操舵角を調節することなど、自律走行車によって実行される時自律走行車をアクセス区間内に維持するナビゲーション行動を計算することができる(自律走行車はまた、これらのナビゲーション行動を、割り当てられたルート上またはこの近くに自律走行車を維持することに偏らせる可能性がある)。
従って、自律走行車は、自律走行車が限定された時間帯(例えば、2つの連続したスキャン周期の間の時間間隔)にわたる範囲内で動作できる陸上領域を計算するために、新たに検出された物体、現存の検出された物体、および仮想物体についての将来状態境界を活用する一方で、自律走行車がこれらの物体のいずれかとの衝突前に完全停止までブレーキをかけることができる高信頼度を維持すること、さらにまた、自律走行車をこのアクセス区間内に維持するためのナビゲーション行動を定めかつ実行することができる。自律走行車はさらにまた、動作中にそれぞれの後続のスキャン周期に対してこのプロセスを繰り返すことができる。
12.物体および点の変更
さらに、自律走行車は、物体のタイプを予測し、それに応じて物体の運動を予測するために物体の分類または識別に頼らない場合があるため、自律走行車は、例えば、これらの物体が同様の軌道に沿っておよび同様の速度で移動しているかのように、視野において複数の実際の物体に及ぶ点群を定めてよい。しかしながら、自律走行車は、これらの実際の物体が同様の軌道に沿っておよび/または同様の速度でもはや移動していない時まで、この「グループ化された物体」に対する将来状態境界を計算、精緻化、および回避するために前述の方法および技法を実現することができ、この時、自律走行車は、上述されるように、現在のスキャン周期においてこれらの物体を区別すること、運動特性を前のグループ化された物体からこれらの別個の物体のそれぞれに移すこと、次いで、これらの物体のそれぞれについての将来状態境界を計算することができる。
同様に、自律走行車は、点の2つのクラスタを区別することができ、これらの点の2つのクラスタは、単一の実際の物体を表し、かつ、例えば、これらの2つのクラスタにおける点の半径方向速度(または距離レート)の近接度および自己一貫性が単一の物体を示すと自律走行車が判断する時まで、これらのクラスタの両方に対する将来状態境界を計算、精緻化、および回避するために上述される方法および技法を実現する。
さらにまたは代替的には、自律走行車は、自律走行車の周りの視野における物体の小区域を表現する個々の点または点のより小さいクラスタについての将来状態境界を計算、精緻化、および回避するために前述の方法および技法を実現することができる。
13.運動の曖昧性除去
図2に示される方法S100の1つの変形は、第1のスキャン周期で、ブロックS104において、第1の時間において自律走行車上のセンサによって捉えられたデータを含んでいる第1のスキャン画像にアクセスすることと、ブロックS120において、自律走行車に近接する視野において物体を表現する第1のスキャン画像における第1の点群を識別することであって、第1の点群におけるそれぞれの点は、センサから物体上の表面までの第1の範囲値、センサに対する物体上の表面の第1の方位角位置、およびセンサに対する物体の表面の第1の半径方向速度を含む、第1の点群を識別することと、ブロックS122において、第1の点群における点の第1の半径方向速度と第1の方位角位置との間の第1の相関関係を計算することと、ブロックS122において、第1の相関関係に基づいて、第1の時間において物体のあり得る接線速度と物体のあり得る角速度とを関連付ける第1の関数を計算することと、を含む。方法S100のこの変形は、第2のスキャン周期で、ブロックS104において、第2の時間においてセンサによって捉えられたデータを含んでいる第2のスキャン画像にアクセスすることと、ブロックS120において、視野における物体を表現する第2のスキャン画像における第2の点群を識別することと、ブロックS122において、第2の点群における点の第2の半径方向速度と第2の方位角位置との間の第2の相関関係を計算することと、ブロックS122にいて、第2の相関関係に基づいて、第2の時間において物体のあり得る接線速度と物体のあり得る角速度とを関連付ける第2の関数を計算することと、を同様に含む。方法S100のこの変形は、ブロックS124において、第1の関数および第2の関数の交点に基づいて、第2の時間において、自律走行車に対する、物体の第2の接線速度および物体の第2の角速度を推定することをさらに含む。
この変形において、方法S100は、第1のスキャン周期で、ブロックS104において、第1の時間において自律走行車上のセンサによって捉えられたデータを含んでいる第1のスキャン画像にアクセスすることと、ブロックS120において、自律走行車に近接する視野において物体を表現する第1のスキャン画像において第1の点群を識別することであって、第1の点群におけるそれぞれの点は、センサから物体上の表面までの第1の範囲値、自律走行車に対する物体上の表面の第1の位置、および自律走行車に対する物体の表面の第1の半径方向速度を含む、第1の点群を識別することと、ブロックS122において、第1の点群における点の第1の半径方向速度と第1の位置との間の第1の相関関係を計算することと、ブロックS122にいて、第1の相関関係に基づいて、第1の時間において物体のあり得る線運動と物体のあり得る角運動とを関連付ける第1の関数を計算することと、を同様に含むことができる。方法S100のこの変形は、第2のスキャン周期で、ブロックS104において、第2の時間においてセンサによって捉えられたデータを含んでいる第2のスキャン画像にアクセスすることと、ブロックS120において、物体を表現する第2のスキャン画像における第2の点群を識別することと、ブロックS122において、第2の点群における点の第2の半径方向速度と第2の位置との間の第2の相関関係を計算することと、ブロックS122にいて、第2の相関関係に基づいて、第2の時間において物体のあり得る線運動と物体のあり得る角運動とを関連付ける第2の関数を計算することも含むことができる。方法S100のこの変形は、ブロックS126において、第1の関数および第2の関数の交点に基づいて、第2の時間において、自律走行車に対する、物体の線運動および物体の角運動を推定することをさらに含むことができる。
さらにまたは代替的には、この変形において、方法S100は、自律走行車における一連のスキャン周期におけるそれぞれのスキャン周期で、ブロックS104において、スキャン時間において自律走行車上のセンサによって捉えられたデータを含んでいるスキャン画像にアクセスすることと、ブロックS120において、自律走行車に近接する視野において物体を表現するスキャン画像における点群を識別することであって、点群におけるそれぞれの点は、自律走行車に対する物体上の表面の位置、および自律走行車に対する物体の表面の半径方向速度を含む、点群を識別することと、ブロックS122において、点群における点の半径方向速度と位置との間の相関関係に基づく関数を計算することであって、関数はスキャン時間において物体のあり得る線運動と物体のあり得る角運動とを関連付ける、関数を計算することと、を含むことができる。方法S100のこの変形は、ブロックS126において、現在の関数および前の関数の交点に基づいて現在の時間において、自律走行車に対する、物体の現在の線運動および物体の現在の角運動を推定することであって、現在の関数は現在の時間において捉えられたデータを含んでいる第1のスキャン画像から導出され、前の関数は現在の時間の前に捉えられたデータを含んでいる第2のスキャン画像から導出される、推定することも含むことができる。
13.1 3自由度
一般的に、この変形において、自律走行車は、自律走行車上のセンサによって出力されるスキャン画像における物体を表現する点群の特性に基づいて、この視野における物体の接線速度と角速度との間の関係を導出し、物体の測定された半径方向速度、および物体の接線速度と角速度との間のこの導出された関係に基づいて、この物体のあり得る現在の運動の境界をさらに定め、物体のあり得る現在の運動、および地上物体の運動制限想定に基づいてこの物体について計算された将来状態境界をさらに精緻化する。
とりわけ、この変形において、自律走行車は、物体の狭い範囲のあり得る接線速度および角速度、ひいては、単独のスキャン周期の間の物体の狭い範囲のあり得る総速度を計算するために、物体の半径方向距離、半径方向速度、接線速度、および角速度の間の関係、および限定された数(例えば、わずか2つ)の距離、角度、および範囲レート測定値を活用することができる。自律走行車はまた、次のスキャン周期の間にセンサによって出力されたスキャン画像における物体を追跡し、該次のスキャン画像に基づいて前述のプロセスを繰り返し、現在のスキャン周期および前のスキャン周期の結果をマージして、物体の運動推定を、接線、角度、および総速度値の単独のセット(またはこれらの非常に狭い範囲)に絞り込むことができる。さらにまた、自律走行車は、最大加速度想定および最大速度に基づく物体の将来状態境界、および物体のあり得る速度の範囲を計算するのではなく、その代わりに、最大加速度想定、および2つの独立した測定値で自律走行車によって導出された物体の単独の総速度に基づいて、物体のより狭い将来状態境界を計算することができる。より具体的には、自律走行車は、近くの物体の2次元運動の可能性のセットをこの物体の1次元運動の可能性のセットに圧縮するために方法S100のブロックを実行することができる。
一般的に、地上の物体(例えば、車両、歩行者)の運動は、x軸に沿った線運動、y軸に沿った線運動、および、平面に垂直であるz軸を中心とした回転を含めて、ほぼ水平面で(すなわち、基面に平行に)生じ得、これは、水平面における線速度、および水平面に垂直である軸を中心とした角速度として表され得る。方法S100のこの変形は、そのように、水平面における物体上の点の半径方向速度および位置(例えば、範囲および角度)を前提として、水平面内の物体の、接線速度、角速度、および総速度を導出するために自律走行車によって実行されるとして後述される。しかしながら、自律走行車は、3D空間における物体の線速度および角速度(すなわち、3つの線速度および3つの角速度)、ならびにそれに応じて3D空間における物体の絶対または相対総速度を導出するために、同様の方法および技法を実現することができる。
より具体的には、センサは、スキャン周期の間にセンサの視野の範囲内になる視野におけるそれぞれの表面に対して、視野における表面からセンサに戻る放射線に沿った、範囲(すなわち、距離)、方位角、および速度(すなわち、半径方向速度または「ドップラー」)に戻るように構成されてよい。スキャン画像における物体を表現する表面群の、接線速度(例えば、半径方向速度に垂直な方向におけるおよび水平面における線運動)および角速度(例えば、自律走行車のヨー軸を中心とした角運動)は、このスキャン画像における点の範囲、方位角、および速度のデータに含まれている。しかしながら、物体の特有の接線速度および角速度は、この点群に含まれている範囲、方位角、および半径方向速度から判断されない。さらに、複数のスキャン画像にわたって物体を追跡すること、および複数のスキャン画像にわたって示される物体の位置の変化から物体の接線速度を導出することによって、特に、物体の計算された接線速度において不正確に表されることになるように、物体が連続したスキャン周期にわたってサイズが変化するように見えるため、自律走行車の視野における物体の視点が1つのスキャン周期から次のスキャン周期まで変化する場合、特に、物体の可視領域にわたる検知窓の速度が物体の計算された接線速度で不正確に表されることになるため、センサからは不明瞭な物体の領域が連続したスキャン周期にわたって変化する場合、および特に、2つの連続したスキャン画像にわたる点が、物体が連続したスキャン周期にわたって自律走行車に対して移動する場合に物体上の同じ表面を表現する可能性が低い限りにおいて、大きな誤差が取り込まれる。
しかしながら、自律走行車は、第1のスキャン画像における物体を表現する点群に含まれている、範囲、方位角、および半径方向速度のデータに基づいて、第1のスキャン周期の間の物体の接線速度と角速度との間の第1の関係(または「相関関係」)を導出するために方法S100のブロックを実行することができる。自律走行車はさらにまた、第2のスキャン画像における物体を表現する点群に含まれている、範囲、方位角、および半径方向速度のデータに基づいて、第2のスキャン周期の間の物体の接線速度と角速度との間の第2の関係を計算するために第2のスキャン周期の間にこのプロセスを繰り返し、かつ、第1の関係および第2の関係の両方と適合する物体の特有の接線速度および特有の角速度(またはこの狭い範囲)を導出することができる。
13.2 第1のスキャン周期
図2に示される1つの実装形態において、自律走行車上のセンサは、第1の時間Tにおいて第1のスキャン周期を実行し、かつ、自律走行車の周りの視野全体を通して、点の集まり(例えば、小さな表面、エリア)の半径方向速度、距離、および角度位置を含む第1のスキャン画像を返す。自律走行車はさらにまた、視野における別個の物体に対応する点の群(または「クラスタ」)を識別するために上述される方法および技法を実現し、かつ、この群における点の半径方向速度の中心傾向の測度に基づいてTにおける物体の半径方向速度Vrad、0を計算する。例えば、自律走行車は、中心傾向のこの測度を、この群における点の半径方向速度の算術平均として計算することができる。同様に、自律走行車は、群における点の最大方位角位置と最小方位角位置との間の差異、すなわち、点群の半径方向長さに基づいて(例えば、等しい)Tにおける物体の第1の半径Rを計算することができる。
自律走行車は、さらにまた、Tにおけるこれらの点の範囲値および角度位置に基づいて自律走行車に対する(例えば、極座標系内の)群における点の位置を計算し、かつこれらの点の角度位置と半径方向速度との間の相関関係を計算する。1つの例では、自律走行車は、点とこの点群の平均位置との間の角度の余弦、および点とこの点群の平均位置との間の角度の正弦で除算されるこれらの半径方向速度による最良適合(または「傾向」)線の傾斜としてこの相関関係を計算する。
自律走行車は、さらにまた、時間Tにおける物体の接線速度Vtan、0と角速度ωとの間の関係を表現するこの最良適合線の第1の傾斜Sを計算する。とりわけ、この傾斜Sは、時間Tでのセンサの視野における、Vtan、0と、物体の第1の半径Rで乗算されたωの積との間の差異を表し得る。自律走行車は従って、時間Tにおける傾斜Sおよび半径Rに基づいて物体のVtan、0とωとを関連付ける第1の関数(例えば、線形関数)Fを生成することができる。
関数Fに基づいて、自律走行車はさらにまた、Tにおける物体の現在の半径方向速度Vrad、0を前提として、時間Tにおける物体のあり得るVtan、0およびωの運動の組み合わせを表現する線Lを計算することができる。
同様の実装形態において、自律走行車は、センサと物体との間の放射線に沿った半径方向における線運動(すなわち、半径方向速度)、半径方向に直角の接線方向および水平面における線運動、および、半径方向および接線方向に直角の軸を中心としたヨー方向における角運動を含めて、3自由度における物体の運動の値を求める。この実装形態において、自律走行車は、物体を表現する第1の点群における、点の第1の方位角位置に対する第1の半径方向速度を、水平面(すなわち、路面にほぼ平行な2D空間)に投影すること、第1の点群における点の第1の方位角位置の範囲に基づいて第1の時間における物体の第1の半径を計算すること、第1の点群における点の第1の半径方向速度の中心傾向(例えば、平均)の第1の測度に基づいて第1の時間における自律走行車に対する物体の第1の半径方向速度を計算すること、第1の点群における点の第1の方位角位置に対する第1の半径方向速度による第1の線形傾向線を計算すること、および、第1の時間における物体の第1の接線速度と物体の第1の角速度との間の関係を表現する、第1の線形傾向線の第1の傾斜に基づいて第1の相関関係を計算することができる。とりわけ、第1の傾斜は、第1の時間における物体の第1の接線速度と、第1の時間における物体の第1の半径および第1の時間における物体の第1の角速度の積との間の差異を表現することができる。自律走行車はさらにまた、第1の時間における第1の傾斜および第1の半径に基づいて、第1の時間における物体のあり得る接線速度と第1の時間における自律走行車に対する物体のあり得る角速度とを関連付ける第1の線形関数(例えば、関係:S=Vtan、0-Rωを満足させるあり得る接線速度および角速度)を計算することができる。より具体的には、この第1の関数は、路面にほぼ平行な水平面内の第1の時間における、物体のあり得る接線速度と物体のあり得る角速度とを関連付けることができる。
従って、自律走行車は、上述される地上物体の最大速度想定のみによって先に境界が定められた物体のあり得るVtan、0およびωの運動の組み合わせの2D表面を、時間Tにおける物体のあり得るVtan、0およびωの運動の組み合わせの1D線に圧縮することができる。より具体的には、自律走行車は、そのように、L上のVtan、0およびωの全ての組み合わせがTにおける物体の測定された半径方向速度を解消するように、単独で未知の、すなわち、Tにおける物体の真のVtan、0およびωを表現する線Lに沿った点に至るまで2D空間において移動する物体の3つの未知の特性(すなわち、Vrad、0、Vtan、0、ω)を低減することができる。
13.3 境界設定
この実装形態において、自律走行車はまた、Vrad、0と組み合わせて、上述される最大物体速度想定に等しいまたはこれを下回る最大総速度を生じさせるVtan、0およびωの範囲を計算し、かつ、Vtan、0およびωの値のこの範囲に線Lの境界を定めることができる。自律走行車は、さらにまたは代替的には、図2に示されるように、上述される地上物体の最大接線および角速度想定に対して線Lの境界を定めることができる。
さらにまた、境界線L上に表される、時間Tにおける物体のVrad、0、Vtan、0の範囲、およびωの運動の組み合わせを前提として、自律走行車は、Tにおける自律走行車に対する物体のあり得る総速度の範囲を計算することができる。さらにまたは代替的には、自律走行車は、Tにおける物体のあり得る絶対速度の範囲を計算するために、Tにおけるこの絶対速度を、物体のVrad、0、およびこの境界線L上に表されるVtan、0およびωの運動の組み合わせの範囲とマージすることができる。
13.4 第1のスキャン周期後の将来状態境界
自律走行車はさらにまた、上述されるように、物体のこれらのあり得る相対速度または絶対速度、および最大物体加速度想定に基づいて物体の将来状態境界を計算し、かつそれに応じて、この軌道を選択的に調整するために、上述される方法および技法を実現することができる。
例えば、ブロックS110およびS112において、自律走行車は、ほぼ第1の時間において、自律走行車上に配置される第2のセンサによって捉えられた視野の第2の画像にアクセスし、第2の画像から抽出された特徴のセットに基づいて第1の時間において自律走行車が占有する路面のタイプを解釈し、特徴のセットに基づいて路面の品質を予測し、路面のタイプおよび路面の品質に基づいて路面上で作用する自律走行車のタイヤに対する摩擦係数を推定し、第1の時間における自律走行車の車両速度、摩擦係数、および自律走行車の記憶されたブレーキモデルに基づいて、第1の時間における自律走行車の停止期間を推定し、および、停止期間によって第1の時間からオフセットされた臨界時間を計算するために、上述される方法および技法を実現することができる。
この例では、ブロックS102において、自律走行車はまた、一般の地上物体の最大直線加速度、一般の地上物体の最大線速度、および/または一般の地上物体の最大角速度などを含む、所定の運動制限想定のセットにアクセス可能である。
さらに、ブロックS122において、自律走行車は、第1の点群における点の第1の範囲値および第1の方位角位置に基づいて第1の時間における物体の第1の場所を導出し、次いで、a)第1の関数によって定められる、第1の時間における物体のあり得る接線速度および物体のあり得る角速度、第1の半径方向速度、b)第1の場所、およびc)所定の運動制限想定のセットに基づいて、自律走行車の第1の将来状態境界を計算することができる。より具体的には、自律走行車は、半径方向速度、ならびに、最大角速度に至るまで移動し、かつ、停止期間にわたる物体の第1の場所から、所定の運動制限想定によって定められる最大直線加速度に従って最大線速度に至るまで加速する、第1の時間における物体のあり得る接線速度および角速度の対(または「第1の運動」)を積分することによって、第1の時間から臨界未来時間まで物体にとってアクセス可能な第1の陸上領域を計算することができる。自律走行車は、さらにまた、第1の時間の物体の将来状態境界としてこの第1の陸上領域を記憶することができる。
13.5 第2のスキャン周期
自律走行車はさらにまた、次のスキャン周期の間にセンサによって出力された点の、半径方向速度、距離、および角度位置の次のセットに基づいて前述のプロセスを繰り返すことができる。
とりわけ、第2の時間Tにおいて、センサは、第2のスキャン周期を実行し、かつ、自律走行車の周りの視野全体を通して点の集まりの半径方向速度、距離、および角度位置を含む第2のスキャン画像を返す。自律走行車はさらにまた、視野における別個の物体に対応する点群を識別し、かつ第1のスキャン周期からの物体を表現する点群を、この第2のスキャン周期における物体を表現する対応する点群まで追跡するために、上述される方法および技法を実現する。
自律走行車はさらにまた、この群における点の半径方向速度の中心測度を計算し、時間Tにおける物体の半径方向速度Vrad、1としてこの中心測度を記憶し、時間Tにおける物体の接線速度Vtan、1と角速度ωとの間の関係を表現する、これらのデータについての第2の傾斜Sを計算するために、上述されるプロセスを繰り返す。例えば、この傾斜Sは、Vtan、1と、Tにおける物体のωを、時間Tにおける自律走行車に対する物体位置の第1の半径Rで乗算した積との間の差異を表し得る。自律走行車は、従って、Tにおける物体を表現する点群の位置の中心傾向の測度の半径Rを計算し、かつ時間Tにおける傾斜Sおよび半径Rに基づいて物体のVtan、1とωとを関連付ける第2の関数(例えば、線形関数)Fを生成することができる。
関数Fに基づいて、自律走行車はさらにまた、Tにおける物体の現在の半径方向速度Vrad、1を前提として、時間Tにおける物体のあり得るVtan、1およびωの運動の組み合わせを表現する線Lを計算することができる。
その後、自律走行車は、図2に示されるように、Tにおける物体の実際のVtan、1およびω(またはこれらの近似)を表現する線LおよびL(または関数FおよびF)の交点を計算することができる。よって、Tにおける第1のスキャン周期からTにおける後続のスキャン周期まで、自律走行車は、Tにおける、Vtan、1、ω、およびVrad、1を含む、物体の3つの未知の運動特性全てを解明することができる。
さらにまた、線LおよびLの交点に表されるVrad、1、Vtan、1、およびwを前提として、自律走行車は、Tにおける自律走行車に対する物体の総速度Vtot、rel、1を計算することができる。さらにまたは代替的には、自律走行車は、Tにおける物体の総絶対速度Vtot、abs、1を計算するために、Tにおけるこの絶対速度を物体のVrad、1、Vtan、1、およびwとマージすることができる。
従って、前述の実装形態において、自律走行車は、物体を表現する第2の点群における、点の第2の方位角位置に対する第2の半径方向速度を、水平面(すなわち、路面にほぼ平行な2D空間)に投影すること、第2の点群における点の第2の方位角位置の範囲に基づいて第2の時間における物体の第2の半径を計算すること、第2の点群における点の第2の半径方向速度の中心傾向(例えば、平均)の第2の測度に基づいて第2の時間における自律走行車に対する物体の第2の半径方向速度を計算すること、第2の点群における点の第2の方位角位置に対する第2の半径方向速度による第2の線形傾向線を計算すること、および、第2の時間における物体の第2の接線速度と物体の第2の角速度との間の関係を表現する、第2の線形傾向線の第2の傾斜に基づいて第2の相関関係を計算することができる。とりわけ、第2の傾斜は、第2の時間における物体の第2の接線速度と、第2の時間における物体の第2の半径および第2の時間における物体の第2の角速度の積との間の差異を表現することができる。自律走行車はさらにまた、第2の時間における第2の傾斜および第2の半径に基づいて第2の時間において、自律走行車に対する、第2の時間における物体のあり得る接線速度と物体のあり得る角速度とを関連付ける第2の線形関数(例えば、関係:S1=Vtan、1-R1ω1を満足させるあり得る接線速度および角速度)を計算することができる。より具体的には、この第2の関数は、路面にほぼ平行な水平面内の第2の時間における、物体のあり得る接線速度と物体のあり得る角速度とを関連付けることができる。
自律走行車はさらにまた、3自由度の状態空間における第1の関数および第2の関数の交点に基づいて、第2の時間における、自律走行車に対する、物体の特有の第2の接線速度および物体の特有の第2の角速度(または、後述されるように、物体の狭い範囲のあり得る接線運動および角運動)を推定することができる。さらに、自律走行車は、第2の時間における、物体の第2の接線速度、物体の第2の角速度、物体の第2の半径方向速度、および、物体の絶対速度に基づいて、ブロックS126において、第2の時間における自律走行車に対する物体の総絶対速度を計算するために、上述される方法および技法を実行することができる。
自律走行車はさらにまた、上述されるように、物体のこれらのあり得る相対速度または絶対速度、および最大物体加速度想定に基づいて、物体の将来状態境界を計算し、かつそれに応じて、この軌道を選択的に調整するために、上述される方法および技法を実現することができる。
13.6 累積誤差
この変形において、自律走行車に対する物体の接線速度Vtanおよび角速度ωは、Tにおける第1のスキャン周期とTにおける第2のスキャン周期との間で変化し得、これによって、時間T単位で線L内の(追加の)誤差が生じ得る。この誤差の大きさは、TとTとの間の時間オフセットに関連している場合があり、従って、センサのサンプリングレートの関数であり得る。
それ故に、自律走行車は、線Lのそれぞれの側におけるエラーバー(例えば、エラーバーL0、error、lowおよびL0、error、high)を計算するために、上述される物体の運動制限想定などに基づいて、TからTまでの時間オフセットにわたる物体の接線速度Vtanおよび角速度ωの最大変化および最小変化を積分することができる。自律走行車は、さらにまた、Lと、エラーバーL0、error、lowおよびL0、error、highの間のエリアとの交点を計算することで、図2に示されるように、時間Tから時間Tまでの自律走行車に対する物体の運動によるあり得る累積誤差を考慮しながら、Tにおける物体のあり得るVtan、1およびωの値の範囲が絞り込まれ得る。
さらにまた、Vrad、1、および、線Lのエラーバーによって境界が定められる線L上に表されるVtan、1およびωの運動の組み合わせの範囲を前提として、自律走行車は、Tにおける自律走行車に対する物体のあり得る総速度の範囲を計算することができる。さらにまたは代替的には、自律走行車は、Tにおける物体のあり得る絶対速度の範囲を計算するために、Tにおけるこの絶対速度を、Vrad、1およびこの境界線L上に表されるVtan、1およびωの運動の組み合わせの範囲とマージすることができる。
例えば、自律走行車は、ブロックS126において第1の時間と第2の時間との間の時間差、すなわち、第1の時間から第2の時間までの物体の運動の最悪の変化に対して、上述される所定の運動制限想定のセットの積分に基づいて、第1の関数の第1の誤差を特徴付けることができる。上述されるように、自律走行車は、第1の相関関係に基づいて第1の時間における自律走行車に対する、物体のあり得る接線速度と物体のあり得る角速度とを関連付ける第1の線を計算すること、第1の誤差に基づいて第1の線の第1の幅を計算すること、および、第1のスキャン周期の間の第1の関数において第1の線および第1の線の第1の幅を表現することができる。第1の関数は、従って、第1の時間における物体の第1の接線速度および第1の角速度のあり得る組み合わせを含む2次元楕円を表現することができる。
第2のスキャン周期の間、自律走行車は同様に、第2の相関関係に基づいて第2の時間における自律走行車に対する物体のあり得る接線速度と物体のあり得る角速度とを関連付ける第2の線を計算することができる。自律走行車はさらにまた、第1の幅の第1の線および第2の線の交点に基づいて第2の時間における自律走行車に対する物体の接線速度の第2の範囲および物体の角速度の第2の範囲を推定することができる。
13.7 適合度誤差
図5に示される同様の実装形態において、自律走行車は、第1のスキャン画像から導出された第1の点群における点の第1の方位角位置に対する第1の半径方向速度による第1の線形傾向線を計算すること、第1の線形傾向線の第1の傾斜に基づいて第1の時間における物体の第1の接線速度と物体の第1の角速度との間の第1の相関関係を計算すること、ブロックS126において、第1の線形傾向線からの第1の点群における点の第1の半径方向速度の偏差に基づいて第1の線形傾向線の第1の誤差を特徴付けること、第1の相関関係に基づいて第1の時間における自律走行車に対する物体のあり得る接線速度と物体のあり得る角速度とを関連付ける第1の線を計算すること、第1の誤差に基づいて第1の線の第1の幅を計算すること、および第1の関数において第1の線および第1の線の第1の幅を表現することができる。例えば、自律走行車は、群におけるそれぞれの点から第1の線形傾向線までの最小距離の二乗和の平方根に比例する、第1の誤差、ひいては第1の線の幅を計算することができる。第1の関数は、従って、第1の時間における物体の、第1の接線速度および第1の角速度のあり得る組み合わせを含む2次元楕円を表現することができる。
自律走行車は、同様に、第2の点群における点の第2の方位角位置に対する第2の半径方向速度による第2の線形傾向線を計算すること、第2の線形傾向線の第2の傾斜に基づいて第2の時間における物体の第2の接線速度と物体の第2の角速度との間の第2の相関関係を計算すること、第2の線形傾向線からの第2の点群における点の第2の半径方向速度の偏差に基づいて第2の線形傾向線の第2の誤差を特徴付けること、第2の相関関係に基づいて第2の時間における自律走行車に対する物体のあり得る接線速度と物体のあり得る角速度とを関連付ける第2の線を計算すること、第1の誤差に基づいて第1の線の第1の幅を計算すること、および第2の関数において第2の線および第2の線の第2の幅を表現することができる。第2の関数は従って、第2の時間における物体の、第2の接線速度および第2の角速度のあり得る組み合わせを含む2次元楕円を表現することができる。
それ故に、自律走行車は、第1の幅の第1の線および第2の幅の第2の線の交点に基づいて第2の時間における自律走行車に対する物体の接線速度の第2の範囲および物体の角速度の第2の範囲を推定することができる。自律走行車は、第2の時間における物体の特有の接線速度および角速度を解消しない場合があるが、自律走行車は、物体を示す単一のスキャン画像から導出された物体のあり得る接線速度および角速度の範囲よりはるかに狭い、第1の関数および第2の関数の交点に基づいて、第2の時間における物体のあり得る接線速度および角速度の範囲を計算することができる。
13.8 第2のスキャン周期後の将来状態境界
自律走行車は、さらにまた、上述されるように、物体のこれらのあり得る相対速度または絶対速度、および所定の運動制限想定に基づいて物体の将来状態境界を計算し、かつそれに応じてこの軌道を選択的に調整するために、上述される方法および技法を実現することができる。
例えば、ブロックS112において臨界時間を計算後、自律走行車は、最大角速度に至るまで移動し、かつ、停止期間にわたる物体の第2の場所から所定の運動制限想定によって規定される最大直線加速度に従って最大線速度に至るまで加速する、第2の時間における物体の第2の運動を積分して、第2の時間から臨界時間まで物体にとってアクセス可能な第2の陸上領域を計算し、かつ、物体の第1の将来状態境界よりサイズが(かなり)小さい第2の時間における物体の第2の将来状態境界(路面にほぼ平行な水平面におけるエリア)としてこの第2の陸上領域を記憶することができる。
とりわけ、自律走行車は、第1の関数によって表される所定の運動制限想定のみによって境界が定められる物体の広い範囲のあり得る接線速度および角速度の組み合わせを、第1の関数および第2の関数の交点における物体の1つまたはより小さい範囲のあり得る接線速度および角速度の組み合わせに圧縮するため、自律走行車はまた、の第1のスキャン周期から第2のスキャン周期までの物体のより小さい将来状態境界を計算することで、近くの他の物体との衝突の前に完全停止する能力を犠牲にすることなく、自律走行車が臨界時間に至るまで動作し得るより大きいアクセス区間を予測することができる。
13.9 物体運動処理
さらにまた、上述されるように、自律走行車は、ブロックS140において、臨界時間の前に第2の将来状態境界への進入を回避するための第2のナビゲーション行動を選ぶことができる。
例えば、自律走行車は、ブロックS144において物体の第1の将来状態境界を除いて、自律走行車の周りのアクセス区間を計算し、次いで、第2の時間における自律走行車の場所が、物体の現在の将来状態境界の周辺の閾値距離の範囲内(例えば、自律走行車の現在の速度における500ミリ秒で横断する距離である、2メートル)にあることに応答して、アクセス区間の方へナビゲートするための(例えば、自律走行車の軌道を変更するための)第1のナビゲーション行動を実行するために、上述される方法および技法を実現することができる。さらにまたは代替的には、自律走行車は、第2の時間における自律走行車の場所が物体の現在の将来状態境界の周辺の閾値内にあることに応答して、自律走行車を減速させるための制動行動を自動的に実行可能である。逆に、自律走行車は、この現在の軌道(例えば、速さであり、速度および操舵角)を維持し、あるいは、自律走行車の現在の場所が物体の第2の将来状態境界の外側にある場合、第2のスキャン周期の間に経路計画考慮事項から物体をミュートすることができる。
13.10 後続のスキャン周期
自律走行車はさらにまた、第3の時間Tにおいてセンサによって出力された第3のスキャン画像において追跡された、同じ物体と関連付けられた点群の、平均半径方向速度Vrad、2、傾斜S、および半径Rに基づいて第3の関数Fを計算し、関数Fに基づいて第3の線Lを計算し、次いで、Tにおける物体のあり得るVtan、2およびωの値を表現する、(TからTまでの時間オフセットに基づくエラーバーを有する)第1の線L、(TからTまでの時間オフセットに基づくエラーバーを有する)第2の線L、および、第3の線Lの交点を計算するために、前述の方法および技法を繰り返すことができる。
代替的には、この第3のスキャン周期の間、自律走行車は、線Lを廃棄し、かつ、Tにおける物体のあり得るVtan、2およびωの値を表現する、(TからTまでの時間オフセットに基づくエラーバーを有する)第2の線L、および第3の線Lの交点を計算することができる。
上述されるように、自律走行車は、さらにまた、上述されるように、この多差路交差点(例えば、2方向、3方向などの交点)に基づいてTにおける物体のあり得るVtan、2およびωの値の範囲を計算すること、Tにおける物体のあり得る相対速度または絶対速度を計算すること、それに応じて物体の将来状態境界を更新すること、および、それに応じてこの軌道を選択的に調整することができる。
13.11 物体による点のグループ化およびグループ化解除
上述されるように、自律走行車は、同様の範囲値、方位角値、仰角値、および同様の半径方向速度などを含む、近接度によってスキャン画像における点をグループ化することができる。第1のスキャン画像において検出されるそれぞれの点群について、自律走行車は、点群によって表される物体の線運動および角運動を表現する関数を計算することができる。自律走行車は、さらにまた、後続のスキャン画像に対してこのプロセスを繰り返すこと、第1のスキャン画像における点群を第2のスキャン画像における点群とリンクさせるための物体追跡技法を実現すること、および、第1のスキャン画像および第2のスキャン画像から導出されたこれらの点群についての第1の関数および第2の関数の対の交点に基づいて、それぞれの物体についての運動予測を精緻化することができる。
自律走行車はまた、第2のスキャン画像においてそのように検出された2つの物体を、これらの運動が所定の速度区別閾値の範囲内にある場合など、これらの導出された運動が適合する場合(例えば、これらの半径方向速度、接線速度、および角速度が非常に類似しているまたは同一である場合)、1つの「合成物体」(または「剛体」)にクラスタ化することができる。自律走行車はさらにまた、この合成物体についての1つの将来状態境界を計算し、かつそれに応じてこの合成物体に対して選択的にナビゲートすることができる。従って、自律走行車は、適合する運動内の複数の点群を単独の物体として解釈かつ処理することによって、自律走行車が追跡している別個の物体の数が低減されるため、動作中に自律走行車における計算負荷を低減することができる。
同様に、自律走行車は、第1のスキャン画像において第1の時間に1つの物体を表現するように予測された第1の点群の、第2のスキャン画像において第2の時間に2つの異なる物体を表現するように予測された第2の点群および第3の点群への分別を解釈すること、第2の物体および第3の物体についての独自の関数を生成すること、および、第1のスキャン周期および第2のスキャン周期にわたって導出された関数に基づいて第2の物体および第3の物体の運動を推定することができる。
1つの例示の実装形態において、自律走行車は、第1の時間において捉えられた第1のスキャン画像における第1の点群を識別し、かつ第1のスキャン周期の間の物体の運動を表現する第1の関数を導出するために上述される方法および技法を実現する。第2のスキャン周期の間、自律走行車は、第1の時間の後に続く第2の時間においてセンサによって捉えられたデータを含んでいる第2のスキャン画像にアクセスすること、視野における物体を表現する第2のスキャン画像における第2の点群を識別すること、視野における第2の物体を表現する第2のスキャン画像における第3の点群を識別することであって、第2の物体は第1の時間から第2の時間までの物体と別個である、第3の点群を識別すること、第2の点群における点の、第2の半径方向速度と第2の方位角位置との間の第2の相関関係を計算すること、第3の点群における点の、第3の半径方向速度と第3の方位角位置との間の第3の相関関係を計算すること、第2の相関関係に基づいて、第2の時間において物体のあり得る接線速度と物体のあり得る角速度とを関連付ける第2の関数を計算すること、および、第3の相関関係に基づいて、第2の時間における第2の物体のあり得る接線速度と第2の物体のあり得る角速度とを関連付ける第3の関数を計算することができる。それ故に、自律走行車は、上述されるように、第1の関数および第2の関数の交点に基づいて第2の時間における自律走行車に対する物体の第2の接線速度および物体の第2の角速度を推定することができる。しかしながら、自律走行車はまた、第1の時間における物体の運動を表現する第1の関数と第2の時間における第2の物体の運動を表現する第3の関数との交点に基づいて、第2の時間における自律走行車に対する第2の物体の第3の接線速度および第2の物体の第3の角速度を推定することができる。
例えば、自律走行車は、第1の時間において自律走行車に隣接する2つの車線において同じ方向および速度で走行する2つの車を表現する2つの点群を検出し、これらの物体の運動を特徴付け、第1の時間における物体の適合する運動を反映する1つの合成群としてこれら2つの物体を追跡しかつこれらに反応するために、前述のプロセスを実現することができる。自律走行車はさらにまた、第2の時間においてこれらの車両のうちの1つがもう1つに対してブレーキをかけかつ減速する場合などに互いに対して移動する2つの物体を検出すること、合成物体を2つの物体に分別すること、次いで、ここでは速度区別閾値を超える異なる運動を示すこれら2つの物体に独立に追跡しかつこれらに反応することができる。
13.12 複数のセンサからの並行データ
1つの変形において、自律走行車は、スキャン周期の間に、異なる視点で自律走行車の周りの視野における表面を表現する並行ポイントクラウドを出力する複数のオフセットされたセンサを含む。この変形において、自律走行車は、1つのスキャン周期の間にこれらのセンサによって出力される並行ポイントクラウドにおいて単独の物体を表現する共通空間の物体群についての関数および線の対を計算し、これらの線の交点を計算し、これらの交点に基づいて物体の接線速度および角速度を推定するために、前述の方法および技法を実行することができる。
例えば、自律走行車は、第1の時間Tにおいて自律走行車上の第1のセンサによって出力される第1のポイントクラウドにおいて別個の物体を表現する第1の点群を識別すること、この第1の群における点の半径方向速度の平均を計算すること、第1の時間において物体の第1の半径方向速度Vrad、1、0としてこの平均を記憶すること、第1の時間におけるこの第1の点群の、半径方向速度Vrad、1、0、傾斜S1、0、および半径R1、0に基づいて、第1の関数F1、0を計算すること、および、関数F1、0に基づいて第1の線L1、0を計算することができる。自律走行車は同様に、第1の時間Tにおいて自律走行車上の第2のセンサによって出力される第2のポイントクラウドにおいてこの同じ物体を表現する第2の点群を識別すること、この第2の群における点の半径方向速度の平均を計算すること、第1の時間において物体の第2の半径方向速度Vrad、2、0としてこの平均を記憶すること、第1の時間におけるこの第2の点群の、半径方向速度Vrad、2、0、傾斜S2、0、および半径R2、0に基づいて、第2の関数F2、0を計算すること、および、関数F2、0に基づいて第2の線L2、0を計算することができる。
自律走行車はさらにまた、時間Tにおける物体の実際のVtan、0およびω(またはこれらの近似)を表現する第1の線L1、0および第2の線L2、0の交点を計算することができる。よって、自律走行車は、単一のスキャン周期の間にこれら2つのセンサによって出力されたデータに基づいて、Tにおける、Vtan、0、ω、およびVrad、0を含む、物体の3つの未知の運動特性全てを解明することができる。
さらにまた、線L1、0およびL2、0の交点において表されるVrad、0、Vtan、0、およびωを前提として、自律走行車は、Tにおける自律走行車に対する物体の総速度Vtot、rel、0を計算することができる。さらにまたは代替的には、自律走行車は、Tにおける物体の総絶対速度Vtot、abs、0を計算するために、Tにおけるこの絶対速度を物体のVrad、0、Vtan、0、およびωとマージすることができる。
自律走行車はさらにまた、上述されるように、物体のこれらのあり得る相対速度または絶対速度、および最大物体加速度想定に基づいて物体の将来状態境界を計算し、かつ、それに応じてこの軌道を選択的に調整するために、上述される方法および技法を実現することができる。
さらに、自律走行車は、第1のスキャン周期の間に自律走行車上の2つのセンサによって捉えられた2つの並行スキャン画像に示される物体を検出すること、両方のスキャン画像からこの物体の運動を表す第1の関数および第2の関数を導出すること、および、この第1のスキャン周期の間にこれらの第1の関数および第2の関数を物体の1つの運動推定に融合することができる。同時に、自律走行車は、(これらのセンサのうちの1つの視野から不明瞭になっていることにより、または2つのセンサの異なる視野により)最初のこれら2つのスキャン画像のみに示される第2の物体を検出し、かつ第1のスキャン周期の間に第1のスキャン画像からこの第2の物体の運動を表す第3の関数を導出することができる。さらにまた、次のスキャン周期の間、自律走行車は、上述されるように、第3のスキャン画像のみに示される第2の物体を検出すること、第3のスキャン画像からこの第2の物体の運動を表す第4の関数を導出すること、および、第2のスキャン周期の間にこれらの第3の関数および第4の関数を第2の物体の1つの運動推定に融合することができる。
従って、自律走行車は、単独のスキャン周期の間に捉えられた並行スキャン画像および複数のスキャン周期にわたって捉えられたスキャン画像のシーケンスの両方に基づいて、物体の集まりの運動を特徴付けるために、方法S100の前述のブロックを実現することができる。
14.6DOF
図3A、図3B、および図3Cに示される方法S100の1つの変形は、第1の時間において捉えられた第1のスキャン画像における物体を表現する第1の点群における点の、第1の半径方向速度、第1の方位角位置、および第1の仰角位置による第1の最良適合面を計算することと、第2の時間において捉えられた第2のスキャン画像における物体を表現する第2の点群における点の、第2の半径方向速度、第2の方位角位置、および第2の仰角位置による第2の最良適合面を計算することと、第3の時間において捉えられた第3のスキャン画像における物体を表現する第3の点群における点の、第3の半径方向速度、第3の方位角位置、および第3の仰角位置による第3の最良適合面を計算することと、を含む。
とりわけ、第1の最良適合面は、第1の時間における、物体の第1の接線速度(例えば、接線方位角速度および接線仰角方向速度の合成接線速度)、物体の第1のヨー速度、および、物体の第1のピッチ速度の間の関係を表現する。それ故に、自律走行車は、第1の最良適合面に基づいて、第1の時間における、あり得る接線方位角速度とヨー速度との間の第1の関係(例えば、相関関係)、およびあり得る接線仰角方向速度とヨー速度との間の第2の関係を表現する第1の関数を生成することができる。
同様に、第2の最良適合面は、第2の時間における、物体の第2の接線速度、物体の第2のヨー速度、および、物体の第2のピッチ速度の間の関係を表現する。それ故に、自律走行車は、第2の最良適合面に基づいて、第2の時間における、あり得る接線方位角速度とヨー速度との間の第1の関係(例えば、相関関係)、および、あり得る接線仰角方向速度とピッチ速度との間の第2の関係を表現する第2の関数を生成することができる。
さらに、第3の最良適合面は、第1の時間における、物体の第3の接線速度、物体の第3のヨー速度、および、物体の第3のピッチ速度の間の関係を表現する。それ故に、自律走行車は、第3の最良適合面に基づいて、第3の時間における、あり得る接線方位角速度とヨー速度との間の第1の関係、および、あり得る接線仰角方向速度とピッチ速度との間の第3の関係を表現する第3の関数を生成することができる。
この変形において、方法S100は、ブロックS124において、第1の関数、第2の関数、および第3の関数の交点に基づいて、第3の時間における、物体の第3の接線速度(または、個々の接線方位角速度および接線仰角方向速度)、物体の第3のヨー速度、および物体の第3のピッチ速度を計算することをさらに含む。
14.1 3DOF対6DOF
一般的に、上述される方法S100は、3自由度(または「3DOF」)における物体の運動を特徴付けるために自律走行車によって実行可能である。しかしながら、この変形において、自律走行車は、6自由度(または「6DOF」)における物体の運動を特徴付けるために同様の方法および技法を実現することができる。
とりわけ、上述されるように3自由度における物体の移動を特徴付ける時、自律走行車は、水平面内の半径方向および接線方向における物体の線運動、および、この水平面のみに垂直であるヨー軸を中心とした回転運動を解釈することができる。逆に、上述されるように6自由度における物体の運動を特徴付ける時、自律走行車は、半径方向、(例えば、センサのスキャン方向に平行な)接線方位角方向、および、(例えば、半径および接線方位角方向に直角である)接線仰角方向における物体の線運動、および、接線方位角方向に沿ったピッチ軸、および接線仰角方向に沿ったヨー軸を中心とした回転運動を解釈することができる。
さらに、センサから物体まで延在する放射線を中心とした物体の回転(すなわち、「ロール」運動)は、単一のスキャン画像内でセンサによって観察できない場合がある。しかしながら、物体の物体ロール運動がこの放射線と同軸ではない場合、センサによって捉えられた連続したスキャン画像(または、2つのオフセットされたセンサによって捉えられた並行スキャン画像)における点で記憶された半径方向速度は、物体のロール速度に関連している情報を含むことができ、従って、自律走行車は、複数のスキャン画像における画像を表現する点群を融合して、さらに、自律走行車に対する物体のロール速度の曖昧さを解消することができる。
さらに、道路車両本体および歩行者などの多くの(例えば、大部分の)地上の移動中の物体は、最小のピッチ速度を示し得るまたはこれらを示さない場合がある、および接線仰角方向速度を示さない場合がある(例えば、水平な路面上以外のいずれの方向にも移動していない場合がある)。それ故に、物体の接線仰角方向速度およびピッチ速度は、ゼロに等しい場合がある(またはこれに近い場合がある)。よって、3次元空間における点群による最良適合面は、2次元空間における最良適合線に縮約し、方法S100のこの変形による6自由度におけるこのような物体の運動の導出は、上述されるような3自由度における物体の運動の導出に縮約する。
しかしながら、車輪、コンクリートミキサ、および街路清掃車などの路面上のおよび路面近くのいくつかの物体は、自律走行車に対する非ゼロの接線仰角方向速度およびピッチ速度を示す場合がある。同様に、斜面に沿って移動している車両は、自律走行車に対する非ゼロの接線仰角方向速度およびピッチ速度を示す場合がある。このような物体の接線仰角方向速度およびピッチ速度は、スキャン画像においてこの物体を表現する点の半径方向速度データに含まれているが、単一のスキャン画像に含まれている半径方向速度データからは確定できない。従って、自律走行車は、異なる視点から(すなわち、自律走行車および物体が互いに対して移動する際の)物体を示す複数のスキャン画像から導出される物体の接線方位角速度、接線仰角方向速度、ヨー速度、およびピッチ速度の間の関係を融合して、物体の特定のまたは狭い範囲のあり得る接線方位角速度、接線仰角方向速度、ヨー速度、およびピッチ速度を計算することができる。
14.2 実施例
例えば、自律走行車は、物体を表現する第1のスキャン画像における点群を分離し、かつ、これらの点に含まれている速度(すなわち、半径方向速度)範囲値、方位角値、および仰角値に基づいて、これらの点を3次元空間(すなわち、半径方向速度、方位角、および仰角の空間)に投影するために、上述される方法および技法を実現することができる。自律走行車は、さらにまた、第1の点群における点の第1の半径方向速度の中心傾向(例えば、平均)の第1の測度に基づいて第1の時間における自律走行車に対する物体の第1の半径方向速度を計算すること、第1の点群における点の第1の方位角および仰角位置の中心傾向(例えば、平均)の第1の測度に基づいて第1の時間における自律走行車に対する物体の第1の位置を計算すること、および、物体の第1の位置から自律走行車に戻る第1の半径方向ベクトルを計算することができる。
さらに、自律走行車は、第1の点群における点の、第1の方位角位置に対する第1の半径方向速度による第1の線形方位角傾向線を計算し、かつ、第1の時間において、物体の第1の接線方位角速度と物体の第1のヨー速度との間の関係を表現する、第1の線形方位角傾向線の第1の傾斜に基づく第1の相関関係を計算することができる。とりわけ、第1の傾斜は、第1の接線方向(例えば、接線方位角方向)における物体の接線速度と、物体の半径方向ベクトルと物体のヨー速度(例えば、ピッチ速度)との間のクロス乗積の第1の接線方向への投影との間の第1の差異を表現することができる。
自律走行車は、同様に、第1の点群における点の、第1の仰角位置に対する第1の半径方向速度による第1の線形仰角傾向線を計算し、かつ、第1の時間において、物体の第1の接線仰角方向速度と物体の第1のピッチ速度との間の関係を表現する、第2の線形傾向線の第2の傾斜に基づく第2の相関関係を計算することができる。とりわけ、第2の傾斜は、第2の接線方向(例えば、接線仰角方向)における物体の接線速度と、物体の半径方向ベクトルと物体のヨー速度との間のクロス乗積の第1の接線方向への投影との間の第2の差異を表現することができる。
第1の線形方位角および仰角傾向線は、従って、図3Aに示されるように、3次元の半径方向速度、方位角、および仰角空間でプロットされた第1の群における点についての第1の最良適合面を表現することができる。
自律走行車は、さらにまた、第1の傾斜、第2の傾斜、および第1の時間における物体の相対位置を表現する第1の半径方向ベクトルに基づいて、第1の時間における物体のあり得る接線方位角速度、接線仰角方向速度、ヨー速度、およびピッチ速度を関連付ける第1の関数を計算することができる。より具体的には、この第1の関数は、物体のあり得る接線方位角速度を物体のあり得るヨー速度と関連付け、物体のあり得る接線仰角方向速度を第1の時間における物体のあり得るピッチ速度と関連付けることができる。
代替的には、自律走行車は、第1の線形方位角および仰角傾向線を独立に計算するのではなく、第1の群における点についての第1の最良適合面を直接計算することができる、および/または任意の他の方向における接線速度に基づいて第1の関数を導出することができる。例えば、自律走行車は、物体の観察(すなわち、物体を表現する点の、方位角位置、仰角位置、および範囲位置、ならびに半径方向速度)、および6自由度における物体の運動状態に関連した関数を導出するために、図7に示されるプロセスを実行することができる。
自律走行車はさらにまた、図3Aに示されるように、物体の接線運動および角運動のあり得る組み合わせを表現する一連の関数を生成するために、後続のスキャン画像に対してこのプロセスを繰り返すことができる。自律走行車はさらにまた、物体の特定のまたは狭い範囲のあり得る半径方向速度、接線方位角速度、接線仰角方向速度、ヨー速度、ピッチ速度、およびロール速度を計算するために、6自由度状態の空間において3つの連続したスキャン画像から導出された3つの関数の交点を計算することができる。
それ故に、自律走行車は、図3Cに示されるように、物体のこれらの接線方位角速度、接線仰角方向速度、ヨー速度、およびピッチ速度を現在のスキャン画像から導出された物体の半径方向速度と融合して、自律走行車に対する6自由度全てにおける物体の総速度を計算することができる。
14.3 適合度誤差
この変形では、自律走行車は、最良適合面の幅(または「厚さ」)を計算するために、上述されるのと同様の方法および技法を実現することができる。例えば、自律走行車は、群におけるそれぞれの点から最良適合面までの(3次元の)最小距離の二乗和平方根に比例するスキャン画像についてのそれぞれの最良適合面に対する誤差を計算することができる。自律走行車はさらにまた、この誤差に基づいてこの平面の厚さを計算することができる、あるいはこの物体について計算された対応する関数においてこの誤差を表現することができる。この関数は従って、スキャン周期中の物体の接線速度、ヨー速度、およびピッチ速度のあり得る組み合わせを含んでいる3次元楕円体を表現することができる。
この例において、自律走行車はさらにまた、現在の時間における物体の狭い範囲のあり得る半径方向速度、接線方位角速度、接線仰角方向速度、ヨー速度、ピッチ速度、およびロール速度を計算するために、3つの連続した(厚化した(thickened))関数の交点を計算することができる。自律走行車はさらにまた、この物体の、この狭い範囲のあり得る接線方位角速度、接線仰角方向速度、ヨー速度、ピッチ速度、およびロール速度、ならびに測定された半径方向速度を含めて、6自由度のこの運動に基づいて物体の将来状態境界を計算しかつこれに選択的に反応するために、上述される方法および技法を実現することができる。
14.4 累積誤差
さらにまたは代替的には、3つの連続したスキャン周期にわたって第1の関数、第2の関数、および第3の関数を計算後、自律走行車は、第1の関数および第2の関数の交点に表される物体のあり得る接線方位角速度、接線仰角方向速度、ヨー速度、ピッチ速度、およびロール速度の第1のセットを計算すること、これらのあり得る接線方位角速度、接線仰角方向速度、ヨー速度、ピッチ速度、およびロール速度、ならびに所定の運動制限想定のセットと適合する物体の最悪運動を計算すること、第1のスキャン周期から第3のスキャン周期までの時間にわたる物体のこの最悪運動を積分すること、および、第1の最良適合面の厚さ、ひいては第1の関数によって表される誤差としてこの値を記憶することができる。第1の関数は、従って、第1のスキャン周期の間の物体の接線速度、ヨー速度、およびピッチ速度のあり得る組み合わせを含んでいる3次元楕円体を表現することができる。
同様に、自律走行車は、第2の関数によって表される物体のあり得る接線方位角速度、接線仰角方向速度、ヨー速度、およびピッチ速度の第2のセットを計算すること、これらのあり得る接線方位角速度、接線仰角方向速度、ヨー速度、およびピッチ速度、ならびに設定された所定の運動制限想定のセットと適合する物体の最悪運動を計算すること、第2のスキャン周期から第3のスキャン周期までの時間にわたる物体のこの最悪運動を積分すること、および、第2の最良適合面の厚さ、ひいては第2の関数によって表される誤差としてこの値を記憶することができる。第2の関数は、従って、第2のスキャン周期の間の物体の接線速度、ヨー速度、およびピッチ速度のあり得る組み合わせを含んでいる3次元楕円体を表現することができる。
この例では、自律走行車はさらにまた、図3Cに示されるように、(厚みの、誤差が最も多い)第1の関数、(厚化した)第2の関数、および第3の関数の交点を計算して、第3の時間における物体の狭い範囲のあり得る接線方位角速度、接線仰角方向速度、ヨー速度、ピッチ速度、およびロール速度を計算することができる。自律走行車はさらにまた、物体の、この狭い範囲のあり得る接線方位角速度、接線仰角方向速度、ヨー速度、ピッチ速度、およびロール速度、ならびに測定された半径方向速度を含めて、6自由度におけるこの運動に基づいて物体の将来状態境界を計算しかつこれに選択的に反応するために、上述される方法および技法を実現することができる。
14.5 複数のセンサ
上述されるように、並行スキャン画像を出力する複数のオフセットされたセンサを含む自律走行車の変形において、自律走行車は、物体を示す複数の並行スキャン画像から6自由度におけるこの物体の運動を表現する複数の関数を計算し、次いで、これらの関数の交点に基づいて6自由度における物体の運動を導出するために、前述の方法および技法を実行することができる。
例えば、自律走行車は、自律走行車上の3つのセンサによって捉えられた3つの並行スキャン画像に示される1つの物体についての3つの関数を生成しかつこれらを融合することができる。別の例では、自律走行車は、2つの連続したスキャン周期にわたって自律走行車上の2つのセンサのそれぞれによって捉えられた2対のスキャン画像に示される1つの物体についての2つの関数の2つの連続した対を生成しかつこれらを融合することができる。
従って、自律走行車は、単独のスキャン周期の間に捉えられた並行スキャン画像、および複数のスキャン周期にわたって捉えられたスキャン画像のシーケンスの両方に基づいて、物体の集まりの運動を特徴付けるために、方法S100の前述のブロックを実現することができる。
14.6 複数の物体
さらに、自律走行車は、自律走行車によって捉えられた複数の並行または連続したスキャン画像から6自由度における複数の物体の運動を導出するために、方法のこの変形の複数のインスタンスを同時に実行することができる。
14.7 物体のセグメント化
この変形の1つの例において、自律走行車は、道路車両(例えば、乗用車、トラック)の側面を示すスキャン画像を捉える。自律走行車は、近接度に基づいてスキャン画像におけるこの道路車両を示す点をグループ化するために、上述される方法および技法を実現する。しかしながら、道路車両が移動している場合(すなわち、この車輪速度が非ゼロである場合)、道路車両の本体は、自律走行車に対する最小のまたはゼロに等しい接線仰角方向速度およびピッチ速度を示し得るが、道路車両の車輪は非ゼロの接線仰角方向速度およびピッチ速度を示し得る。従って、道路車両の本体に対応するこの群における点の第1の部分集合によって表される半径方向速度は、道路車両の車輪に対応するこの群における点の第2の部分集合によって表される半径方向速度と適合しない場合がある。
従って、1つの実装形態において、自律走行車は、図3Bに示されるように、点群にわたる半径方向速度の傾向の差異に基づいて点の第1の部分群および第2の部分群を区別しかつ分別することができる。例えば、自律走行車は、点群によって表される、半径方向速度、方位角位置、および仰角位置による初期の最良適合面を計算し、かつ、初期の最良適合面と群における点との間の誤差(例えば、これらからの距離)を特徴付けるために、上述される方法および技法を実現することができる。この誤差が大きい(例えば、所定の閾値を超える)場合、自律走行車は、最も大きい誤差(例えば、最良適合面から最も遠い距離)によって特徴付けられる群における点の第1のクラスタを検出すること、点群を、点の第1のクラスタを含んでいる第1の部分群、および残りの点を含んでいる第2の部分群に分けること、点の第1の部分群によって表される半径方向速度、方位角位置、および仰角位置による第1の最良適合面を計算すること、第1の最良適合面と第1の部分群における点との間の第1の誤差を特徴付けること、点の第2の部分群によって表される、半径方向速度、方位角位置、および仰角位置による第2の最良適合面を同様に計算すること、および、第2の最良適合面と第2の部分群における点との間の第2の誤差を特徴付けることができる。自律走行車は、点のそれぞれの部分群とこの対応する最良適合面との間の誤差が最大誤差を下回る(例えば、所定の閾値を下回る)まで、第1の部分群および第2の部分群を反復して精緻化するために、このプロセスを繰り返すことができる。
この実装形態において、自律走行車はまた、初期の点群を、乗用車の本体および2つの車輪、連結式バスの2つの車輪ならびにフロントボディ部およびリヤボディ部、街路清掃車の2つの車輪、本体、およびスイーパー要素、または、セメントトラックの2つの車輪、本体、およびコンクリートミキサ要素をまとめて表し得る最大で4つの部分群などの最大数の部分群に分けることができる。さらにまたは代替的には、自律走行車は、初期の点群を、それぞれが少なくとも所定の最小数の点(例えば、100の点)を有する部分群に分けることができる。
より一般的には、初期の群における点の半径方向速度に表される、自律走行車に対する1つの道路車両の異なる要素の接線仰角方向速度およびピッチ速度における差異は、群全体に対するこれらの点と最良適合面との間の誤差を生じさせることになるが、これは、この最良適合面が6自由度における道路車両のこれらの要素の全ての適合する運動を表すからである。従って、自律走行車は、自律走行車に対する異なる運動を示す1つの道路車両上の別個の要素を表現する点の部分群を検出しかつ分離するために、および、スキャン周期の際に道路車両のこれらの別個の要素の接線方位角速度、接線仰角方向速度、ヨー速度、およびピッチ速度を関連付ける関数のセット(例えば、最良適合面)を計算するために、前述のプロセスを実行することができる。
自律走行車はさらにまた、上述されるように、道路車両上の別個の要素を表現する点の部分群を分離し、道路車両のこれらの要素の接線方位角速度、接線仰角方向速度、ヨー速度、およびピッチ速度を関連付ける関数のさらなるセットを導出し、その後、道路車両のそれぞれの要素についての関数の3つのセットの交点に基づいて、自律走行車に対する6自由度における道路車両のそれぞれの要素の運動を導出するために、複数のセンサによって捉えられた並行画像のセット、または1つのセンサによって捉えられた連続したスキャン画像などの複数のスキャン画像に対してこのプロセスを繰り返すことができる。自律走行車はまた、上述されるように、自律走行車のこれらの相対運動および並行運動に基づいて、道路車両のそれぞれの要素の総絶対運動を計算することができる。
14.8 物体のリンク
さらに、自律走行車がそのように6自由度における道路車両の複数の要素の相対運動または絶対運動を導出すると、自律走行車は、これらの絶対または相対総線速度が上述される所定の速度区別閾値内にある場合など、これらの線運動が適合する場合、これらの別個の要素を1つの合成物体(例えば、1つの「剛体」)に再グループ化するために、上述されるものと同様の方法および技法を実現することができる。
例えば、自律走行車は、センサによって捉えられた3つの連続したスキャン画像に示される第1の物体を表現する点の3つの部分群から導出される(例えば、3つの)関数のセットの交点に基づいて、ブロックS126において、現在の時間における自律走行車に対する第1の物体の第1の線運動および第1の物体の第1の角運動を推定することができる。同時に、自律走行車は、これら3つの連続したスキャン画像に示される第2の物体を表現する点の3つの部分群から導出される(例えば、3つの)関数のセットの交点に基づいて、ブロックS126において、現在の時間における自律走行車に対する第2の物体の第2の線運動および第2の物体の第2の角運動を推定することができる。自律走行車は、図3Bに示されるように、第1の線運動と第2の線運動との間の差異が、上述される所定の速度区別閾値内にある場合など、ブロックS160において、第1の物体の第1の線運動と第2の物体の第2の線運動との間の整合に応答して、第1の物体および第2の物体を共通の剛体に対応するとして識別することができる。
より具体的には、同じ道路車両の異なる要素に対応する、自律走行車によって複数のスキャン周期にわたって検出されかつ追跡された2つの物体は、自律走行車に対する異なったピッチ速度およびヨー速度を示し得るが、同じ経路に沿って共に移動することになるため、同じ(または非常に類似した)線速度を示すことになる。従って、自律走行車は、極めて接近しており、同じ(または非常に類似した)線速度を、場合によっては異なるヨー速度およびピッチ速度を示す物体をグループ化して、完全な道路車両を表現する1つの合成物体(または1つの「剛体」)を形成する。
14.9 物体の分類
さらに、自律走行車は、この運動特性に基づいて個々の物体のタイプを分類することができる。
図3Bに示される1つの例では、自律走行車は、これらの点に含まれている方位角位置、仰角位置、および範囲の値に基づいて、この物体を表現する(部分)群における点を3次元空間に投影すること、物体の絶対線速度の方向を計算すること、点群を通り、物体の運動方向に平行な(すなわち、これを含んでいる)垂直面を計算すること、および垂直面内の群における点の半径方向速度の線速度成分を計算することによって、物体を車輪として識別することができる。自律走行車はさらにまた、これらの点の(すなわち、車輪またはタイヤの現在の上部を表現する点の)垂直面内の最大線速度が、物体の絶対線速度のおよそ2倍である(ならびに物体の絶対線速度の方向に平行であるおよび/またはこれと同じ向きである)場合、および/または、これらの点の(すなわち、車輪またはタイヤの現在の底部を表現する点の)垂直面内の最小線速度がほぼゼロに等しい場合、ブロックS162において物体を車輪として識別することができる。
同様の例では、自律走行車は、物体の絶対線速度の方向を計算すること、および物体の絶対運動方向に平行な群の点の半径方向速度の線速度成分を計算することによって、物体を車輪として識別することができる。自律走行車はさらにまた、これらの点の(すなわち、車輪またはタイヤの現在の上部を表現する点の)物体の絶対運動方向に平行な最大線速度が、物体の絶対線速度のおよそ2倍である(ならびに物体の絶対線速度の方向に平行であるおよび/またはこれと同じ向きである)場合、これらの点の(すなわち、車輪またはタイヤの現在の底部を表現する点の)物体の絶対運動方向に平行な最小線速度がほぼゼロに等しい場合、および/または、物体の絶対運動方向に平行な群における点の線速度の勾配がほぼゼロに等しい基部の基面から、物体の上部における(例えば、点群の上下中央の基面より上に高さが2倍の物体上の点における)物体の絶対線速度のおよそ2倍に増大する場合、ブロックS162において物体を車輪として識別することができる。
さらにまた、合成物体の範囲内の物体を車輪として識別することに応答して、自律走行車は、図3Bに示されるように、この合成物体を車輪付き乗り物として分類することができる。より具体的には、自律走行車は、例えば、色画像において検出される合成物体の視覚特性、または合成物体の奥行画像から導出される物体のジオメトリ特性に基づいて合成物体を分類するために、人工知能およびコンピュータビジョン技法を実現するのではなくまたは実現することに加えて、合成物体に含まれている物体の運動特性および/または相対位置に基づいて、合成物体を車輪付き乗り物として分類することができる。従って、複雑な人工知能およびコンピュータビジョン技法ではなく、簡易な所定の規定の規則に基づいて含まれている物体の運動に基づいて、合成物体を車輪付き乗り物として分類することによって、自律走行車は、少ない時間でおよび/または少ない計算量で合成物体を精確に分類することができる。
さらに、合成物体を車輪付き乗り物として分類後、自律走行車は、図3Bに示されるように、一般物体について(すなわち、全てのあり得る物体のタイプについて)ではなく、車輪付き乗り物についての所定の運動制限想定を引き出し、かつ、これらの精緻化された所定の運動制限想定を合成物体に割り当てるまたはラベル付けすることができる。例えば、自律走行車は、オートバイおよび歩行者に対する最大角速度を下回る、および車両の対地速度の関数として変化するおよびこれに比例して減少する最大角速度、および、オートバイに対しては下回る最大線加速度を指定する車輪付き乗り物についての所定の運動制限想定を引き出すことができる。
さらに、この変形において、自律走行車は、車輪として識別されるこの合成物体の範囲内の物体が、物体の総絶対線速度の2倍を(大幅に)上回る物体の線運動の方向に平行な最大線速度を示す場合、このような特性が、車輪付き乗り物が「急発進している」、「焼損している」、あるいは牽引力を失ったことを示す場合がある際に、合成物体の好ましくない運動を検出することができる。それ故に、自律走行車は、牽引力の損失を示す車輪付き乗り物についての所定の運動制限想定を引き出し、かつ、これらの精緻化された所定の運動制限想定を合成物体に割り当てるまたはラベル付けすることができる。例えば、自律走行車は、牽引力がある車輪付き乗り物に対するよりも低い最大線速度および大きい最大角速度を指定する、牽引力の損失を示す車輪付き乗り物についての所定の運動制限想定を引き出すことができる。
15.物体運動の不確実性の方向性(direction)
図4に示される方法S100の1つの変形は、第1のスキャン周期で、ブロックS104において、第1の時間において自律走行車上のセンサによって捉えられたデータを含んでいる第1のスキャン画像にアクセスすることと、ブロックS120において、自律走行車に近接する視野において物体を表現する第1のスキャン画像において第1の点群を識別することであって、第1の点群におけるそれぞれの点は、自律走行車に対する物体上の表面の第1の位置、およびセンサに対する物体の表面の第1の半径方向速度を含む、第1の点群を識別することと、ブロックS122において、第1の点群における点の第1の半径方向速度の中心傾向の第1の測度に基づいて、第1の時間における自律走行車に対する物体の第1の半径方向速度を計算することと、ブロックS170において、物体の第1の半径方向速度に垂直である第1の接線方向に沿った第1の時間における物体の運動の不確実性の第1の方向性を特徴付けることと、を含む。方法S100のこの変形はまた、ブロックS172において、第1の時間における自律走行車の運動に基づいて、第1の時間の後に続く第2の時間において物体の運動の不確実性の予測される第2の方向性を計算することと、ブロックS142において、不確実性の第2の方向性が不確実性の第1の方向性と異なることに応答して、第2の時間において自律走行車による物体回避についての制動考慮事項から物体をミュートすることとを含む。
15.1 将来データ品質に基づく衝突回避行動の遅延
一般的に、前述の変形において、自律走行車は、3自由度における物体の総運動を導出するための2つのスキャン周期、または6自由度における物体の総運動を導出するための3つのスキャン周期など、物体の特定の絶対または相対総運動を導出するために複数のスキャン周期を必要とする場合がある。さらに、自律走行車によって計算されたこれらのスキャン周期にわたる物体のあり得る絶対運動または相対運動の範囲は高い場合があり、それによって、自律走行車に対する物体の半径方向位置がこれらのスキャン周期にわたって比較的安定したままである場合、物体の真の運動の低い確実性をもたらす場合があり、この逆もまた同様である。
従って、この変形において、自律走行車は、現在のスキャン周期の間に(例えば、接線方位角方向および/または接線仰角方向における)物体の運動の不確実性の現在の方向性を特徴付けること、将来の(例えば、次の)スキャン周期の間に(例えば、自律走行車および物体の相対運動、および一般物体の所定の運動制限想定に基づいて)物体の運動の不確実性の将来の方向性を予測すること、および、将来の物体との衝突を回避するためのより精確な反応(例えば、制動、操舵、または無行動)を通知し得る、物体の運動の不確実性の現在の方向性および将来の方向性が並列ではない場合など、自律走行車が将来の物体の運動のこの確実性を改善するかどうかを予測するために、物体の運動の不確実性の現在の方向性および予測される将来の方向性を比較することができる。それ故に、自律走行車が、上述されるように物体の将来状態境界の外側に現在位置していることを検証する場合、自律走行車は、自律走行車が将来の物体の運動の確実性が大きくなっていると予測するため、現在のスキャン周期の間の物体への反応を遅延させることを選ぶことができる。
より具体的には、自律走行車は、物体が最初に自律走行車上のセンサの視野に入ってくる時に物体の不完全な運動情報を有し得るが、自律走行車は、自律走行車が物体の運動の不確実性を低減することになる将来のより多くのまたはより良い情報へのアクセスを予測するため、物体との衝突を回避する行動(例えば、制動、方向転換)を遅延させることを選ぶことができる。よって、自律走行車は、乗り心地を改善し、かつ、その他の場合は、乗る人に対して物理的および感情的不快をもたらし、かつ人間の運転手および近くの歩行者に対する自律走行車による行動の不確実性を増大させる場合がある不必要な制動および操舵行動を回避するために、方法S100のこの変形を実行することができる。
15.2 物体運動の不確実性
一般的に、現在のスキャン周期の間の物体によって最初に検出された物体は、現在のスキャン周期の間に自律走行車によって計算された関数を満たし、かつ所定の運動制限想定によって規定された最大接線および角速度想定の範囲内にある接線速度および角速度の任意の組み合わせで移動している場合がある。例えば、物体は、自律走行車の経路内に非常に急速に移動している場合がある、または自律走行車および物体が両方共交差点に近づいている間など、自律走行車を回避するためにブレーキをかけている場合がある。現在のスキャン画像においてこの物体を表現する点に含まれている半径方向速度は、(例えば、おおよそ小さい角度により)単独の測定方向に近いため、物体の特有の接線速度および角速度を解消するのには不十分な情報を含む場合がある。
しかしながら、次のスキャン周期の間に、自律走行車は、物体の運動を表現するより多くのデータにアクセスしてよく、このデータは、自律走行車がさらにまた、物体に対する(より)狭い範囲のあり得る接線速度および角速度の組み合わせを計算するために、前のスキャン周期の間の物体の運動記述(例えば、第1の半径方向速度、および、物体の接線速度および角速度を関連付ける第1の関数)と融合することができるものである。
次のスキャン周期の間に捉えられたデータによる物体の運動のこのような精緻化は、現在のスキャン周期の間の物体の接線速度および角速度を関連付ける関数の直交性に比例し得る。とりわけ、これら2つの関数が低い直交性(すなわち、高い並列性)を示す場合、これら2つの関数の交点は、比較的大きいエリアであってよく、それによって、物体の広い範囲のあり得る接線速度および角速度を通知してよく、この逆もまた同様である。より具体的には、これら2つの関数が低い直交性を示す場合、第1の関数および第2の関数の和によって除算される第1の関数および第2の関数の交点は、比較的大きくてよく、これは物体の運動の低い確実性に対応し得る。
15.3 不確実性の方向性の導出
1つの実装形態において、自律走行車は、第1のスキャン画像にアクセスし、第1のスキャン画像において第1の時間で物体を検出し、第1の半径方向速度、および第1のスキャン周期の間の物体の接線速度と角速度とを関連付ける第1の関数を計算し、物体の第1の将来状態境界を計算するために、上述される方法および技法を実現する。
さらにまた、自律走行車が将来状態境界から非常に遠い場合、自律走行車は、経路計画考慮事項から物体をミュートすることができる。例えば、自律走行車は、現在の時間における自律走行車の場所が、現在の速度を前提として、50メートルの閾値距離、または自律走行車によって5秒の閾値時間内に横断した距離などの閾値距離を上回って物体の第1の将来状態境界の外側にある場合、現在の時間から少なくとも次のスキャン周期まで物体回避のための制動考慮事項から物体をミュートすることができる。
逆に、自律走行車がこの将来状態境界の内側にある場合、自律走行車は、自動的に制動行動を実行することができることによって、将来の(例えば、次の)スキャン周期の間に自律走行車の場所を将来状態境界の外側に移動させるために自律走行車を減速させることができる。
しかしながら、自律走行車が物体の将来状態境界の近くに(例えば、この閾値距離の外側ではあるがこの範囲内に)ある場合、自律走行車は、物体の運動の不確実性の方向性を特徴付けるために方法S100のこの変形のブロックを実行することができる。物体の運動の不確実性の方向性と自律走行車の軌道との間の角度が閾値角度より大きい場合(例えば、物体が交差道路を横断しており自律走行車と同じ交差点に接近している場合)、自律走行車は、現時点では、物体が自律走行車の方へ非常に急速に移動しているまたは自律走行車と衝突しようとしているところであるかどうかを判別するのには不十分な情報にアクセスしている場合がある。しかしながら、自律走行車の現在の場所が自律走行車の将来状態境界の外側にあるため、自律走行車は、自律走行車が少なくとももう1つのスキャン周期分行動を遅延させる場合でも、かつ物体が所定の運動制限想定の範囲内の最悪の接線速度および角速度で移動している場合でも、自律走行車が完全停止までブレーキをかけることができる前に物体が自律走行車と衝突することはないことを確認することができる。従って、自律走行車は、物体についての追加の運動データが自律走行車に利用可能になる時に(少なくとも)次のスキャン周期まで物体を回避する行動の実行を保留することができる。
さらに、自律走行車が物体に非常に近い(例えば、この2メートル内または200ミリ秒内にある)、および/または物体の将来状態境界に非常に近い(例えば、この10メートル内または1秒内にある)場合、自律走行車は、物体の不確実性の次の方向性を予測するために方法S100のこの変形を実行することができる。例えば、自律走行車は、現在の時間において物体についての公称角速度想定(例えば、毎秒0ラジアン)を選び、かつ第1の関数および公称角速度に基づいて、物体の第1の接線速度を計算することができる。代替的には、自律走行車は、所定の運動制限想定のセットおよび第1の関数と適合する自律走行車に向かう物体の最大接線速度を(従って、現在のスキャン画像における物体を表現する点の半径方向速度、および物体の半径方向長さに基づいて)計算すること、この最大接線速度を物体の予測された第1の接線速度として記憶すること、および、第1の関数、および物体の予測された第1の接線速度に基づいて物体の対応する予測された第1の角速度を計算することができる。自律走行車はさらにまた、第1の半径方向速度、予測された第1の接線速度、および予測された公称角速度に基づいて、物体の総相対運動を予測すること、現在のスキャン周期から次のスキャン周期までの時間(例えば、センサのサンプリング間隔)にわたって物体の総相対運動を積分することによって、次のスキャン周期の間の自律走行車に対する物体の次の相対位置を計算すること、次いで、次のスキャン周期の間の自律走行車に対する物体の半径方向位置に垂直であり、かつ水平面の範囲内にある、次のスキャン周期の間の物体の運動の不確実性の予測される第2の方向性を計算することができる(より具体的には、自律走行車は、次のスキャン周期で予測された接線方位角方向にある物体の運動の不確実性の予測される第2の方向性を計算することができる)。
従って、自律走行車は、現在の時間における自律走行車の運動、ならびに、現在の時間における物体の、第1の半径方向速度、予測された第1の接線速度、および予測された第1の角速度に基づいて、次のスキャン周期の間の物体の運動の不確実性の予測される第2の方向性を計算することができる。
15.4 確実性改善予測
さらにまた、不確実性の予測される第2の方向性が現在のスキャン周期での不確実性の第1の方向性と異なる場合、自律走行車は、次のスキャン周期の間の物体の運動の不確実性の低下を予測し、かつ自律走行車の運動の変化がないことを確認することができる。自律走行車はまた、物体の運動の不確実性の第1の方向性と第2の予測される方向性との間の角度に基づいて(またはこれに比例して)次のスキャン周期の際に物体の運動の確実性の予測される改善の規模を特徴付けることができる。
しかしながら、不確実性の予測される第2の方向性が、現在のスキャン周期での不確実性の第1の方向性に平行またはほとんど平行(例えば、これの5度以内)である場合、自律走行車は、(視野における多くのまたは全ての物体に対して計算されたアクセス区間にとどまっており、かつ所定の円滑な自律ナビゲーションの要件を満たしている間に)操舵角の変更、制動入力、または加速入力など、現在のスキャン周期と次のスキャン周期との間の自律走行車の運動の変化を前提として物体についての不確実性の予測される第2の方向性を再計算するために、上述のプロセスを繰り返すことができる。例えば、自律走行車は、自律走行車によるナビゲーション行動をモデル化することができ、このナビゲーション行動は、物体についての不確実性の方向性の変化を生じさせるため、次のスキャン周期において物体の運動の確実性を改善し得る。
さらにまた、これらのナビゲーション行動のうちの1つが不確実性の方向性の予測される変化をもたらす(すなわち、この予測される変化によって、不確実性の予測される第2の方向性と不確実性の第1の方向性との間の角度が増大する)場合、自律走行車は、次のスキャン周期の間の物体に対する自律走行車の運動を調整するためにこのナビゲーション行動を実行することができる。とりわけ、自律走行車は、必ずしも物体との衝突を回避するわけではなく、具体的には、物体の真の運動をより良く通知し得る情報を取得するための機会を改善するためにこのナビゲーション行動を実行することができるが、これは、自律走行車に、物体の最悪の運動を前提としても物体との衝突の前に完全停止する時間があることを、自律走行車が既に確認しているからである。
15.5 近接物体
自律走行車は、さらにまたは代替的には、不確実性の第1の方向性が、自律走行車の現在の場所より前に閾値距離(例えば、30メートル、3秒、または自律走行車の停止期間)以内などで、自律走行車の現在の軌道を交差する場合に、次のスキャン周期の間の物体の運動の不確実性の予測される第2の方向性を計算するためにこのプロセスを実行することができる。
しかしながら、次のスキャン周期の間の物体の運動の不確実性の予測される第2の方向性がこの閾値距離を超えて自律走行車の現在の軌道を交差する場合、または次のスキャン周期の間の物体の運動の不確実性の予測される第2の方向性が自律走行車の現在の軌道にほぼ平行である(例えば、これに対して20度である)場合、自律走行車は、自律走行車に向かう物体の運動の確実性が高い場合がある。
例えば、物体と自律走行車とが2つの直接隣接した平行な車線で互いに近接している場合、自律走行車によって第1のスキャン画像から導出された物体の第1の半径方向速度は、物体の真の接線速度がこの第1のスキャン画像から未知であっても、非常に高い確実性で自律走行車に向かう(すなわち、危険性が最も高い方向の)物体の運動を示し得る。この例では、(例えば、物体の接線速度の方向における)物体の運動の不確実性の方向性は、自律走行車および物体の運動方向にほぼ平行であるため、自律走行車に向かう物体の運動を通知しない。さらに、自律走行車の軌道と物体の運動の不確実性の方向性との間の角度は、ほぼ0度である。それ故に、自律走行車は、物体の将来状態境界に基づき、物体の運動の不確実性に基づかずに、物体との衝突を回避するためのナビゲーション行動を選ぶことができるが、これは、(主に)物体との衝突の危険性をもたらす運動の成分が既知であるからである。
15.6 将来のスキャン周期
自律走行車は、自律走行車の動作の後に続く10のスキャン周期にわたって、または該動作の後に続く2秒にわたってなど、複数の将来のスキャン周期にわたって、物体の運動の不確実性の方向性、ひいては物体の運動の確実性における改善を予測するために、前述のプロセスを実行することもできる。それ故に、自律走行車は、複数の後続のスキャン周期にわたって物体回避考慮事項から物体をミュートすることを選ぶことができるが、これは、自律走行車が、これらの複数の後続のスキャン周期にわたって、物体の運動の不確実性の方向性の変化、ひいては物体の運動の確実性における改善を予測するからである。さらにまたは代替的には、自律走行車は、複数の後続のスキャン周期にわたって、物体の運動の不確実性の方向性の変化、ひいては物体の運動の確実性における改善を生じさせることになる自律走行車によるナビゲーション行動を予測(または「モデル化」)し、次いで、物体の運動のこの確実性を改善するためにこれらのスキャン周期にわたってこのようなナビゲーション行動を実行することができる。
16.物体運動の不確実性
図5に示される方法S100の同様の変形は、自律走行車において第1のスキャン周期で、ブロックS104において、第1の時間において自律走行車上のセンサによって捉えられたデータを含んでいる第1のスキャン画像にアクセスすることと、ブロックS120において、自律走行車に近接する視野において物体を表現する第1のスキャン画像における第1の点群を識別することと、ブロックS126において、第1の点群に基づいて第1の時間における物体の第1の運動を特徴付けることと、を含む。方法S100のこの変形はまた、自律走行車において第2のスキャン周期で、ブロックS104において、第1の時間の後に続く第2の時間においてセンサによって捉えられたデータを含んでいる第2のスキャン画像にアクセスすることと、ブロックS120において、物体を表現する第2のスキャン画像における第2の点群を識別することと、ブロックS126において、第2の点群および第1の運動に基づいて第2の時間における物体の第2の運動を特徴付けることと、を含む。方法S100のこの変形は、ブロックS180において、第2の時間における物体の第2の運動の第2の不確実性を特徴付けることと、ブロックS182において、第2の時間における物体の第2の運動、および第2の時間における自律走行車の運動に基づいて、第2の時間の後に続く第3の時間における物体の第3の運動の予測される第3の不確実性を計算することと、予測される第3の不確実性が第2の不確実性を下回ることに応答して、ブロックS142において、第2の時間において自律走行車による物体回避についての制動考慮事項から物体をミュートすることと、をさらに含む。
同様に、方法S100のこの変形は、自律走行車において第1のスキャン周期で、ブロックS104において、第1の時間において自律走行車上のセンサによって捉えられたデータを含んでいる第1のスキャン画像にアクセスすることと、ブロックS120において、自律走行車に近接する視野において物体を表現する第1のスキャン画像において第1の点群を識別することと、ブロックS126において、第1の点群に基づいて第1の時間における物体の第1の運動を特徴付けることと、を含むことができる。方法S100のこの変形はまた、ブロックS180において、第2の時間における物体の第1の運動の第1の不確実性を特徴付けることと、ブロックS182において、第1の時間における物体の第1の運動、および第1の時間における自律走行車の運動に基づいて、第1の時間の後に続く第2の時間における物体の第2の運動の予測される第2の不確実性を計算することと、予測される第2の不確実性が第1の不確実性を下回ることに応答して、ブロックS142において、第2の時間において自律走行車による物体回避についての制動考慮事項から物体をミュートすることと、を含むことができる。
16.1 物体運動の不確実性
一般的に、この変形において、自律走行車は、上述されるように、次のスキャン周期の間の物体の運動の不確実性の予測される次の方向性を計算し、(例えば、物体の運動の不確実性の現在の方向性および予測される次の方向性の直交性に比例する)将来の物体の運動の確実性における改善の規模を予測するために、物体の運動の不確実性の現在の方向性と予測される次の方向性とを比較し、次いで、自律走行車が将来の物体の運動の確実性における(意味のある重要な)改善を予測する場合に、物体の運動の低い確実性に応答して現在の時間において物体を回避するためのナビゲーション行動を選択的に遅延させることによって、自律走行車の運動の変化を低減し、かつ乗員の乗り心地を改善するために、上述されるものと同様の方法および技法を実現することができる。
16.2 不確実性の特徴付け:3DOF
より具体的には、自律走行車が3自由度における物体の運動を特徴付ける上述の変形において、自律走行車は、第1のスキャン画像においてこの物体を表現する点の半径方向速度に基づいて物体の運動を表現する第1の関数を計算し、第1のスキャン周期の間に捉えられた第1のスキャン画像において物体を最初に検出する際に物体の第1の将来状態境界を計算し、自律走行車が現在物体の第1の将来状態境界の外側に位置していることを検証するために、上述される方法および技法を実現することができる。自律走行車はさらにまた、次のスキャン周期の間の物体の運動を表現する第2の関数を予測するために上述される方法および技法を実現することができる。例えば、自律走行車は、第1の半径方向速度、および第1のスキャン周期の間の物体の運動を表す第1の関数、一般物体の所定の運動制限想定、ならびに第1のスキャン周期から次のスキャン周期までの時間差にわたる積分に基づいて、第2のスキャン周期の間の物体の(絶対または相対)運動を予測することができる。自律走行車はさらにまた、次のスキャン画像において物体を表現する点の半径方向速度および方位角位置の勾配を予測すること、これらの方位角位置での半径方向速度のこの勾配に基づいて次のスキャン周期の間の物体のあり得る接線速度および角速度を表現する予測される第2の関数を計算すること、および、第1の関数および予測される第2の関数の和によって除算した交点を計算することができる。自律走行車はさらにまた、第1の関数および予測される第2の関数の和によって除算したこの交点に反比例する、情報利得、ひいては、物体の運動の確実性における改善を予測することができる。
従って、自律走行車が3自由度における物体の運動を特徴付ける上述される変形において、自律走行車は、ブロックS180において、第1の関数および第2の関数の交点と第1の関数および第2の関数の和との比率に比例する、第2の時間における物体の運動の第2の不確実性を特徴付けることができる。
16.2 不確実性の特徴付け:6DOF
自律走行車が6自由度における物体の運動を特徴付ける上述される変形において、自律走行車は、次のスキャン周期の間の物体の運動の不確実性を特徴付けるために、同様の方法および技法を実現することができる。
例えば、自律走行車は、現在の(すなわち、第1の)スキャン周期の間の物体の、あり得る接線運動、角運動、およびピッチ運動を表現する第1の関数を計算すること、第2のスキャン周期の間の6自由度における物体の(絶対または相対)運動を予測するために上述される方法および技法を実現すること、次の(すなわち、第2の)スキャン画像における物体を表現する点の、半径方向速度、方位角位置、および仰角位置の第1の勾配を予測すること、および、これらの方位角位置および仰角位置での半径方向速度のこの第1の勾配に基づいて、第2のスキャン周期の間の物体の、あり得る接線速度、角速度、およびピッチ速度を表現する予測される第2の関数を計算することができる。自律走行車はさらにまた、第1の関数(例えば、3次元楕円体)および予測される第2の関数(3次元楕円体)の和によって除算した交点を計算することができる。
自律走行車はさらにまた、第1の関数および予測される第2の関数の和によって除算したこの交点に反比例する、情報利得、ひいては、第2のスキャン周期の間の物体の運動の確実性における改善を予測することができる。
さらにまた、第2のスキャン周期の間、自律走行車は、第2のスキャン周期の間の物体の、あり得る接線運動、角運動、およびピッチ運動を表現する第2の関数を計算し、かつ第2の関数と予測される第2の関数との間の差異を特徴付けることができる。自律走行車はさらにまた、第2のスキャン周期から次の(すなわち、第3の)スキャン周期までの時間差にわたって積分され、かつ第2の関数と予測される第2の関数との間の差異に従って補正(または「調節」)された第1の関数と第2の関数との交点において表現される運動に基づいて、第3のスキャン周期の間の6自由度における物体の(絶対または相対)運動を予測するために、上述される方法および技法を実現することができる。自律走行車はさらにまた、第3のスキャン画像における物体を表現する点の、半径方向速度、方位角位置、および仰角位置の第2の勾配を予測し、かつ、これらの方位角位置および仰角位置での半径方向速度のこの第2の勾配に基づいて、次の(すなわち、第3の)スキャン周期の間の物体の、あり得る接線速度、角速度、およびピッチ速度を表現する予測される第3の関数を計算することができる。自律走行車はさらにまた、第1の関数、第2の関数、および予測される第3の関数の和によって除算した交点を計算することができる。
自律走行車はよって、第1の関数、第2の関数、および予測される第3の関数の和によって除算したこの交点に反比例する、情報利得、ひいては第3のスキャン周期の間の物体の運動の確実性における改善を予測することができる。
16.3 物体の非表示
さらにまた、上述されるように、自律走行車は、自律走行車の現在の場所が閾値距離を上回って物体に対して計算された現在の将来状態境界の外側にある場合、および、自律走行車が、具体的には自律走行車の現在の軌道の方向などにおいて、物体の運動の不確実性における改善を予測する場合、少なくとも次のスキャン周期まで自律走行車による物体回避についての制動考慮事項から(またはより一般的には反動的なナビゲーション行動から)物体をミュートすることができる。
16.4 不確実性を低減する行動
代替的には、この変形において、自律走行車は、上述されるように、将来のスキャン周期の間の物体の運動の不確実性を改善(すなわち、低減)し得る物体についての運動データを捉えるように、この軌道を改変するためのナビゲーション行動を選ぶことができる。
16.5 将来のスキャン周期
自律走行車は、自律走行車の動作の後に続く10のスキャン周期にわたって、または該動作の後に続く2秒にわたってなど、複数の将来のスキャン周期にわたって、物体の運動の不確実性を予測するために前述のプロセスを実行することもできる。それ故に、自律走行車は、複数の後続のスキャン周期にわたって物体回避考慮事項から物体をミュートすることを選ぶことができるが、これは、自律走行車が、これらの複数の後続のスキャン周期にわたって物体の運動の不確実性における不十分な改善を予測するからである。さらにまたは代替的には、自律走行車は、複数の後続のスキャン周期にわたる物体の運動の不確実性における改善を生じさせることになる、自律走行車によるナビゲーション行動を予測(または「モデル化」)し、次いで、物体の運動のこの確実性を改善するためにこれらのスキャン周期にわたってこのようなナビゲーション行動を実行することができる。
17.不確実性境界
図6に示される同様の変形において、自律走行車は、自律走行車の周りの視野のスキャン画像(例えば、3D速度がアノテートされたポイントクラウド)において物体を検出し、このスキャン画像からこの物体についての低不確実性運動データ(例えば、自律走行車に対する半径方向速度)を抽出し、現在自律走行車には利用不可能であるが、自律走行車が、自律走行車と物体との間の将来の衝突を生じさせる場合がある最悪の物体運動を検証することを可能にしてよい、物体の臨界運動データを識別し、自律走行車の現在の速度および物体のこのような最悪運動を前提として、自律走行車がこれらの臨界運動データにアクセスすることになる時を予測するために、方法S100のブロックを実行する。自律走行車はさらにまた、依然、自律走行車がこの物体と衝突する前に完全停止までブレーキをかけることを可能にする(例えば、いずれのこのような衝突も完全に物体側に責任があり自律走行車には責任がない場合があるように)自律走行車が、未来時間において物体のこれらの臨界運動データにアクセスすることになることを予測することに応答して、この物体についての衝突回避行動(例えば、減速、停止)の実行を選択的に遅延させることができる。
例えば、自律走行車がその付近で物体を検出する時、自律走行車は、自律走行車に対する物体の位置が、自律走行車が物体の運動の不確実性を低減させる追加の物体運動データを捉えることを可能にするほど十分に変化するため、自律走行車が物体との衝突の可能性を検証できるようにする臨界未来時間を推定するために、方法S100のブロックを実行することができる。自律走行車はさらにまた、(例えば、一般物体の最大速度についての所定の想定によって境界が定められる)物体の最悪運動を前提としても、自律走行車がこの臨界未来時間後まで緊急停止を遅延させる場合、物体との衝突の前に完全停止まで依然ブレーキをかけることができことを確認し得、そのような場合、自律走行車は、物体についての優先的な衝突回避行動の実行を遅延させることができ、それによって、近くの他の車両、運転手、および歩行者に対する自律走行車の運動の予測可能性、および、動作中の自律走行車の運動の円滑化が改善され得る。従って、自律走行車は、物体についての優先的な衝突回避行動の実行を遅延させることができ、それによって、近くの他の車両、運転手、および歩行者に対する自律走行車の運動の予測可能性、および、動作中の自律走行車の運動の円滑化が改善され得る。
同様に、物体の最悪運動を前提として、自律走行車は、自律走行車がこの臨界未来時間後まで緊急停止を遅延させる場合、自律走行車が物体との衝突の前に完全停止までブレーキをかけることを可能にする臨界未来時間における自律走行車の最大臨界速度を計算することができる。自律走行車はさらにまた、自律走行車の現在の速度がこの最大臨界速度を下回る場合に重大な未来に至るまでこの最大速度をこの最大臨界速度まで境界を定めることができる、または、自律走行車の現在の速度がこの最大臨界速度を上回る場合にこの速度を臨界未来時間によるこの最大臨界速度まで低減するように自動的に惰行運転するまたはブレーキをかけることができる。
例えば、自律走行車は、高性能乗用車または高性能オートバイの最悪速度および加速度(例えば、毎秒50メートルの最大速度、毎秒毎秒9メートルの最大加速度)を記憶すること、これらの最悪速度および加速度に基づいて自律走行車によって測定できない方向における物体のあり得る運動の境界を定めること、この境界内の速度を前提として物体が自律走行車に到達しかつこれと衝突する場合があるかどうかを検証すること、さらにまた、追加の運動データを収集するためにこの物体の回避を選択的に遅延させるためにおよび物体の運動をさらに検証するために、方法S100の後続のブロックを実行することを行うことができる。自律走行車は、従って、物体のタイプを識別し、変わらない物体(例えば、道路標識、電柱)を、自律走行車の周りの視野における変わりやすい物体(例えば、歩行者、車両)と区別し、これらのタイプに基づいて物体のダイナミクスモデルを選択するまたはこの将来の運動を予測するための、物体識別および他の機械学習技法への依存を低減または排除することができる。より具体的には、物体の予測したタイプに従って選択されたダイナミクスモデルに基づいて物体の将来の運動を予測するのではなく、自律走行車は、その代わりに、現在のスキャン周期の間に収集された限定された運動データ、自律走行車に対する物体の現在の位置、ならびに、一般物体(例えば、一般の高性能乗用車)の最大速度および加速度の想定に基づいて、物体の現在の運動および将来の運動を予測しかつこの境界を定めること、および、境界の範囲内のこの物体の運動によって物体が自律走行車と衝突することが可能であるかどうかを検証することができる。
従って、経路計画決定を通知するために方法S100のブロックを実行することによって、自律走行車は、物体のタイプまたはクラスをこの環境において精確に識別する必要性を低減または排除すること、自律走行車の自律動作におけるこのあり得る誤差原因を低減または排除すること、および、対立的コンピュータビジョン攻撃に対して、対立的ニューラルネットワーク攻撃に対して、またはトレーニングデータが限定されたまたは先のトレーニングデータがない状況などにおいて、自律走行車の自律動作の堅牢性を高めることができる。
さらに、自律走行車は、同一性検出、追跡、および、変わりやすい物体および変わらない物体の両方についての経路の運動計画決定を実施することによって、自律走行車の環境における物体のクラスを識別する(または物体を変わりやすいまたは変わらないで分類する)必要性を低減または排除し、かつ、自律走行車上で実行している、独自のコンピュータビジョン、機械学習、および経路計画パイプラインの量を低減することができる。例えば、自律走行車は、自律走行車の環境において検出不可能であり得るが、他の検出された物体によってふさがれた物体(例えば、電柱の背後に立っている歩行者、トラクタートレーラによって自律走行車の視野においてふさがれた車線を占有する乗用車)、自律走行車の視野に最初に入ってくる物体、および、自律走行車の視野に現存する物体を予測しかつ扱うための同一性検出、追跡、および、経路の運動計画決定を実行することができる。
17.1 物体運動測定の制約および不確実性
一般的に、自律走行車は、自律走行車から物体まで延在する半径方向における並進、半径方向に垂直な水平接線方向における並進、および物体のヨー軸を中心とした回転など、3自由度でのこの視野において検出された物体の運動を特徴付けることができる。しかしながら、上述されるスキャン画像における点は、視野における物体の1D運動観察(すなわち、放射軸に沿った距離レート)を含み得る。上述されるように、自律走行車は、スキャン画像における自律走行車からの同様の距離で表現される点のクラスタを分離すること、このスキャン画像における点にわたる1D運動観察と一致した2D運動(例えば、自律走行車に対する半径方向速度および物体を中心としたヨーレート)を補間すること、よって、この点のクラスタを視野における1つの物体と関連付けることができる。従って、自律走行車は、物体の半径方向速度(すなわち、自律走行車から物体まで延在する放射線に沿った物体の速度)、およびスキャン画像からの物体のヨーレートを導出することができる。
しかしながら、スキャン画像は、物体の接線速度(すなわち、自律走行車から物体まで延在する放射線に垂直な運動)に関連する情報を含んでいない場合がある。従って、現在のスキャン周期の間の物体の接線速度の不確実性は、自律走行車におけるセンサによって直接測定され、かつ現在のスキャン画像に記憶される物体の半径方向速度の不確実性と比較して相対的に高い場合がある。
しかしながら、自律走行車が物体に対して移動している場合、自律走行車の物体に対する視点は、現在のスキャン周期からその後のスキャン周期まで変化し得ることで、物体は、該その後のスキャン周期の間の自律走行車の視野において異なる方位角位置になる。そのように、その後のスキャン周期の間に自律走行車によって捉えられた該その後のスキャン画像から導出された物体の半径方向速度は、従って、現在のスキャン周期の間に捉えられたスキャン画像において表現される物体の半径方向と異なる絶対参照システムにおける方向での物体の速度に対応し得る。
従って、自律走行車および物体が後続のスキャン周期にわたって互いに対して移動し続けると、自律走行車は、接線方向の範囲にわたる物体の半径方向速度のセットへのアクセスを予期することができ、これらの接線方向における物体の半径方向速度にアクセスし、かつ物体の運動の不確実性を低減するために衝突回避行動を遅延させることを選択的に選ぶことができ、物体の運動の確実性がより高い知識に基づいて将来の経路計画決定を行うことができることによって、自律走行車の効率が増大し、かつ自律走行車の運動が円滑になる。
17.2 速度不確実性境界
一般的に、自律走行車は、所定の運動制限想定によって規定される、物体の測定された半径方向速度および一般物体の最大速度を、現在の時間における物体の多くの(または全ての)あり得る速度のセットを表現する速度不確実性境界に融合するために、上述される方法および技法を実現することができる。
例えば、自律走行車は、自律走行車を中心とした原点を有する(極)座標系においてベクトルのセットを初期化することであって、それぞれのベクトルは現在のスキャン周期の間の座標系において自律走行車に対する物体のあり得る速度を表現する、ベクトルのセットを初期化すること、物体の現在の測定された半径方向速度に等しい半径方向におけるそれぞれのベクトルの成分長さを設定すること、一般物体の負の最大速度から一般物体の正の最大速度に及ぶ全長の範囲をベクトルのセットに割り当てること、座標系における物体の中心から延在するベクトルのセットを検索すること、および、現在のスキャン周期の間の物体についての速度不確実性境界を定めるためにこれらのベクトルを含んでいる楕円または楕円体を計算することを行うことができる。
この例では、自律走行車は、現在のスキャン画像における物体と関連付けられた点の半径方向速度の範囲に及ぶ、および/またはスキャン画像を生成したセンサの半径方向速度測定の誤差範囲に及ぶ、半径方向における成分長さによってベクトルの範囲を同様に計算することができる。自律走行車はさらにまた、現在のスキャン周期の間の物体についての速度不確実性境界を定めるためにこれらのベクトルによって楕円または楕円体を計算することができる。
しかしながら、自律走行車は、物体についての速度不確実性境界を任意の他のやり方で計算することができる。
17.3 衝突速度、衝突期間、および臨界時間
一般的に、自律走行車は、物体の速度不確実性境界に含まれている物体の特定の速度が、自律走行車がこの現在の軌道に沿い続ける場合に自律走行車との衝突を引き起こすことになる未来時間を予測することができる。
より具体的には、自律走行車は、自律走行車の現在の速度、この計画されたルート、および/または自律走行車の周りの既知の車線網に基づいて、自律走行車のこれからの経路を予測すること、例えば、既知の車線網を考慮してまたはこれに関わらず、自律走行車とほぼ同時に自律走行車のこれからの経路に沿った特定の場所に物体を到達させることを可能にし得る特定の速度についての物体の速度不確実性境界をスキャンすること、この特定の速度で移動する物体およびこの経路に沿って移動する自律走行車がこの特定の場所に到達することになる衝突時間を推定すること、および、自律走行車の現在の停止期間による衝突時間の前の臨界時間を計算することができる。
17.4 臨界時間における物体運動不確実性予測
一般的に、自律走行車は、現在の時間と臨界時間との間に自律走行車に近づきやすい物体運動データを予測し、かつこれらの追加の物体運動データによって物体の運動の不確実性がどのように低減され得るのかを予測することができる。
17.4.1 臨界時間における第2の半径方向
1つの実装形態において、自律走行車は、自律走行車の現在の経路および速度に基づいて臨界時間における自律走行車の場所を推定し、そのように、物体の現在の場所、および現在のスキャン周期の間に計算された自律走行車の最悪速度に基づいて臨界時間における物体の場所を推定し、臨界時間における自律走行車および物体のこれらの推定される場所に基づいて、臨界時間において自律走行車から物体までの第2の半径方向(また方位角)を計算する。自律走行車は、自律走行車の現在の経路および速度に基づいて、物体の現在の場所に基づいて、およびこの時間帯にわたる物体の最悪速度を想定して、現在の時間から臨界時間までの自律走行車から物体までの半径方向の範囲を推定するために、同様の方法および技法を実現することができる。
17.4.2 臨界時間における将来速度不確実性境界
自律走行車はさらにまた、自律走行車および物体が臨界時間においてこれらの推定された場所に到達すると想定して、自律走行車が臨界時間までには収集し得る物体運動データに基づいて、物体の将来速度不確実性境界を計算するために、上述される方法および技法を実現する。
17.4.3 臨界時間における不確実性
自律走行車はさらにまた、例えば、臨界時間における自律走行車に対する接線方向における(すなわち、半径方向に垂直である)物体のあり得る速度の範囲に比例する、臨界時間における物体の運動の不確実性を特徴付けることができる。さらにまた、臨界時間における物体の速度のこの予測される不確実性が閾値不確実性を下回る場合(例えば、物体のあり得る接線速度の範囲が毎秒4メートルを下回る場合)、自律走行車は、ブロックS142において、現在のスキャン周期の間の経路計画決定から物体をミュートすることができる、あるいは、物体に反応するいずれの衝突回避行動も未来時間まで遅延させることを選ぶことができる。
逆に、臨界時間における物体の速度の予測される不確実性がこの閾値不確実性を超える場合(例えば、物体のあり得る接線速度の範囲が毎秒4メートルより大きい場合)、自律走行車は、例えば、臨界時間をさらに将来まで延長するようにこの不確実性に比例してこの速度を低減することができ、それによって、自律走行車は、物体とのあり得る衝突の前に物体についての追加の運動データを捉えることで、この遅延した臨界時間の前に物体の運動不確実性を低減することが可能になる。
17.5 物体および点の変化
さらに、自律走行車は、物体のタイプを予測し、それに応じて、物体の運動を予測するために、物体の分類または識別に頼らない場合があるため、自律走行車は、これらの物体が同様の軌道に沿って同様の速度で移動している場合など、視野における複数の実際の物体に及ぶ点群を定め得る。しかしながら、自律走行車は、これらの実際の物体がもはや同様の軌道に沿っておよび/または同様の速度で移動しなくなる時までこの「グループ化された物体」についての将来状態境界を計算、精緻化、および回避するために前述の方法および技法を実現することができ、この時、自律走行車は、上述されるように、現在のスキャン周期においてこれらの物体を区別すること、運動特性を前のグループ化された物体からこれらの別個の物体のそれぞれに移すこと、次いで、これらの物体のそれぞれについての将来状態境界を計算することができる。
同様に、自律走行車は、点の2つのクラスタを区別してよく、これらの点の2つのクラスタは、単一の実際の物体を表し、かつ、例えば、これらの2つのクラスタにおける点の半径方向速度(または距離レート)の近接度および自己一貫性が単独の物体を示すと自律走行車が判断する時まで、これらのクラスタの両方に対する将来状態境界を計算、精緻化、および回避するために上述される方法および技法を実現してよい。
さらにまたは代替的には、自律走行車は、自律走行車の周りの視野における物体の小区域を表現する個々の点または点のより小さいクラスタについての将来状態境界を計算、精緻化、および回避するために、前述の方法および技法を実現することができる。
本明細書に説明されるシステムおよび方法は、コンピュータ可読命令を記憶するコンピュータ可読媒体を受信するように構成される機械として少なくとも部分的に具現化および/または実現可能である。該命令は、アプリケーション、アプレット、ホスト、サーバ、ネットワーク、ウェブサイト、通信サービス、通信インターフェース、ユーザコンピュータまたはモバイルデバイスのハードウェア/ファームウェア/ソフトウェア要素、リストバンド、スマートフォン、またはこれらの任意の適した組み合わせと統合されたコンピュータ実行可能コンポーネントによって実行可能である。実施形態の他のシステムおよび方法は、コンピュータ可読命令を記憶するコンピュータ可読媒体を受信するように構成される機械として少なくとも部分的に具現化および/または実現可能である。該命令は、上述されるタイプの装置およびネットワークと統合されたコンピュータ実行可能コンポーネントによって統合されたコンピュータ実行可能コンポーネントによって実行可能である。コンピュータ可読媒体は、RAM、ROM、フラッシュメモリ、EEPROM、光学デバイス(CDまたはDVD)、ハードドライブ、フロッピドライブ、または任意の適したデバイスなどの任意の適したコンピュータ可読媒体上に記憶可能である。コンピュータ実行可能コンポーネントはプロセッサとすることができるが、任意の適した専用のハードウェアデバイスは該命令を(代替的にまたはさらに)実行可能である。
当業者が、先の詳細な説明からならびに図および特許請求の範囲から認識するように、以下の特許請求の範囲に定められる本発明の範囲から逸脱することなく、修正および変更を本発明の実施形態になすことができる。

Claims (60)

  1. 自律走行車の自律ナビゲーションの方法であって、
    公道に近接する一般物体についての所定の運動制限想定のセットにアクセスすることと、
    第1のスキャン周期で、
    第1の時間において前記自律走行車上のセンサによって捉えられたデータを含んでいる第1のスキャン画像にアクセスすること、
    前記自律走行車に近接する視野において第1の物体を表現する前記第1のスキャン画像において第1の点群を識別することであって、前記第1の点群におけるそれぞれの点は、
    前記センサから前記第1の物体上の表面までの第1の範囲値、
    前記センサに対する前記第1の物体上の前記表面の第1の方位角位置、および
    前記センサに対する前記第1の物体の前記表面の第1の半径方向速度
    を含む、第1の点群を識別すること、
    前記第1の点群における点の第1の半径方向速度と第1の方位角位置との間の第1の相関関係を計算すること、
    前記第1の相関関係に基づいて、前記第1の時間における前記第1の物体のあり得る接線速度と前記第1の物体のあり得る角速度とを関連付ける第1の関数を計算すること、および、
    前記第1の点群における点の第1の半径方向速度に基づいて前記第1の時間における前記第1の物体の第1の半径方向速度を計算すること
    を行うことと、
    前記第1の時間における前記自律走行車の第1の速度に基づいて、前記自律走行車が完全停止するまでの第1の停止期間を推定することと、
    前記停止期間によって前記第1の時間からオフセットされた第1の臨界時間を計算することと、
    前記第1の臨界時間に前記第1の物体にとってアクセス可能な第1の陸上領域を表現する第1の将来状態境界を、
    前記第1の関数によって定められる、前記第1の時間における前記第1の物体のあり得る接線速度および前記第1の物体のあり得る角速度、
    前記第1の半径方向速度、ならびに
    前記所定の運動制限想定のセット
    に基づいて計算することと、
    前記第1の臨界時間の前の前記第1の将来状態境界への進入を回避するための第1のナビゲーション行動を選ぶことと、を含む、方法。
  2. 前記第1の物体の前記第1の将来状態境界を除いて、前記自律走行車の周りのアクセス区間を計算することをさらに含み、
    前記第1のナビゲーション行動を選ぶことは、前記第1の時間における前記自律走行車の第1の場所が、前記第1の将来状態境界の周辺の閾値距離の範囲内にあることに応答して、前記アクセス区間の方へナビゲートするために前記第1のナビゲーション行動を実行することを含む、請求項1に記載の方法。
  3. 前記第1のナビゲーション行動を選ぶことは、前記第1の時間における前記自律走行車の第1の場所が、前記第1の将来状態境界の範囲内にあることに応答して、前記自律走行車を減速させるための制動行動を実行することを含む、請求項1に記載の方法。
  4. 前記第1のナビゲーション行動を選ぶことは、前記第1の時間における前記自律走行車の第1の場所が、前記第1の将来状態境界の外側にあることに応答して、前記自律走行車の速度を維持することを含む、請求項1に記載の方法。
  5. 前記第1のスキャン周期の後に続く第2のスキャン周期で、
    第2の時間において前記センサによって捉えられたデータを含んでいる第2のスキャン画像にアクセスすること、
    前記視野において前記第1の物体を表現する前記第2のスキャン画像において第2の点群を識別すること、
    前記第2の点群における点の第2の半径方向速度と第2の方位角位置との間の第2の相関関係を計算すること、
    前記第2の相関関係に基づいて、前記第2の時間における前記第1の物体のあり得る接線速度と前記第1の物体のあり得る角速度とを関連付ける第2の関数を計算すること、および
    前記第2の点群における点の第2の半径方向速度に基づいて前記第2の時間における前記第1の物体の第2の半径方向速度を計算することと、
    前記第1の関数および前記第2の関数の交点に基づいて、前記第2の時間における前記第1の物体の第2の接線速度および前記第1の物体の第2の角速度を推定することと、
    前記自律走行車が完全停止するまでの第2の停止期間を前記第2の時間での前記自律走行車の第2の速度に基づいて推定することと、
    前記停止期間によって前記第2の時間からオフセットされた第2の臨界時間を計算することと、
    前記第2の臨界時間に前記第1の物体にとってアクセス可能な第2の陸上領域を表現する第2の将来状態境界を、
    前記第1の物体の第2の接線速度、
    前記第1の物体の前記第2の角速度、
    前記第1の半径方向速度、および
    前記所定の運動制限想定のセット
    に基づいて計算することと、
    前記第1の臨界時間の前の前記第2の将来状態境界への進入を回避するための第2のナビゲーション行動を選ぶことと、をさらに含む、請求項1に記載の方法。
  6. 前記第1の将来状態境界を計算することは、
    路面にほぼ平行な平面内にあり、
    第1の領域寸法によって特徴付けられる、
    前記第1の将来状態境界を計算することを含み、
    前記第2の将来状態境界を計算することは、
    前記平面内にあり、
    前記第1の領域寸法を下回る第2の領域寸法によって特徴付けられる、
    前記第2の将来状態境界を計算することを含む、請求項5に記載の方法。
  7. 前記第1の相関関係を計算することは、
    前記第1の点群における点の第1の方位角位置に対する第1の半径方向速度による第1の線形傾向線を計算することと、
    前記第1の時間における前記第1の物体の第1の接線速度と前記第1の物体の第1の角速度との間の関係を表現する、前記第1の線形傾向線の第1の傾斜に基づいて前記第1の相関関係を計算することと、を含む、請求項1に記載の方法。
  8. 前記第1の線形傾向線からの前記第1の点群における点の第1の半径方向速度の偏差に基づいて前記第1の線形傾向線の第1の誤差を特徴付けることをさらに含み、
    前記第1の関数を計算することは、
    前記第1の相関関係に基づいて前記第1の時間における前記第1の物体のあり得る接線速度と前記第1の物体のあり得る角速度とを関連付ける第1の線を計算することと、
    前記第1の誤差に基づいて前記第1の線の第1の幅を計算することと、を含み、
    前記第1の将来状態境界を計算することは、前記第1の幅の前記第1の線によって表現される、前記第1の時間における前記第1の物体のあり得る接線速度および前記第1の物体のあり得る角速度に基づいて、前記第1の将来状態境界を計算することを含む、請求項7に記載の方法。
  9. 前記第1のスキャン画像にアクセスすることは、
    前記自律走行車に装着されており、
    前記センサに対する前記視野内の表面の位置および速度を表現するスキャン画像を生成するように構成されている、
    4次元光検出および測距センサを含む前記センサによって捉えられるデータを含んでいる前記第1のスキャン画像にアクセスすることを含む、請求項1に記載の方法。
  10. 自律走行車の自律ナビゲーションの方法であって、
    第1の時間に前記自律走行車において、前記自律走行車が完全停止するまでの停止期間を前記第1の時間での前記自律走行車の速度に基づいて推定することと、
    前記停止期間によって前記第1の時間からオフセットされた臨界時間を計算することと、
    ほぼ前記第1の時間に前記自律走行車上のセンサによって捉えられた、前記自律走行車に近接する視野の第1のスキャン画像において物体を検出することと、
    前記第1のスキャン画像に基づいて、前記第1の物体の第1の場所および第1の運動を導出することと、
    前記第1の時間から前記第1の臨界時間まで前記第1の物体にとってアクセス可能な第1の陸上領域を表現する第1の将来状態境界を、
    前記第1の時間における前記第1の物体の前記第1の場所、
    前記第1の物体の前記第1の運動、および
    公道に近接する一般物体についての所定の運動制限想定のセット
    に基づいて計算することと、
    前記第1の臨界時間の前の前記第1の将来状態境界への進入を回避するための第1のナビゲーション行動を選ぶことと、を含む、方法。
  11. さらに、
    一般の地上の乗り物の最大直線加速度、
    一般の地上の乗り物の最大線速度、および
    前記一般の地上の乗り物の最大角速度
    を含む、前記所定の運動制限想定のセットにアクセスすることを含み、
    前記第1の将来状態境界を計算することは、
    前記最大角速度に至るまで移動し、かつ、前記停止期間にわたる前記第1の物体の前記第1の場所から前記最大直線加速度に従って前記最大線速度に至るまで加速する、前記第1の物体の前記第1の運動を積分して、前記第1の時間から前記第1の臨界時間まで前記第1の物体にとってアクセス可能な前記第1の陸上領域を計算することと、
    前記第1の将来状態境界として前記第1の陸上領域を記憶することと、を含む、請求項10に記載の方法。
  12. 前記第1のスキャン画像において第2の物体を検出することと、
    前記第1のスキャン画像に基づいて、前記第2の物体の第2の場所および第2の運動を導出することと、
    前記最大角速度に至るまで移動し、かつ、前記停止期間にわたる前記第2の物体の前記第2の場所から前記最大直線加速度に従って前記最大線速度に至るまで加速する、前記第2の物体の前記第2の運動を積分して、前記第1の時間から前記第1の臨界時間まで前記第2の物体にとってアクセス可能な第2の陸上領域を計算することと、
    第2の将来状態境界として前記第2の陸上領域を記憶することと、をさらに含み、
    前記第1のナビゲーション行動を選ぶことは、前記第1の臨界時間の前の前記第1の将来状態境界および前記第2の将来状態境界への進入を回避するための前記第1のナビゲーション行動を選ぶことを含む、請求項11に記載の方法。
  13. 前記第1の物体の前記第1の将来状態境界および前記第2の物体の前記第2の将来状態境界を除いて、前記自律走行車の周りのアクセス区間を計算することをさらに含み、
    前記第1のナビゲーション行動を選ぶことは、前記アクセス区間の方へナビゲートするための前記第1のナビゲーション行動を実行することを含む、請求項12に記載の方法。
  14. 前記第1の物体の前記第1の将来状態境界を除いて、前記自律走行車の周りのアクセス区間を計算することをさらに含み、
    前記第1のナビゲーション行動を選ぶことは、前記第1の時間における前記自律走行車の第1の場所が、前記第1の将来状態境界の周辺の閾値距離の範囲内にあることに応答して、前記アクセス区間の方へナビゲートするために前記第1のナビゲーション行動を実行することを含む、請求項10に記載の方法。
  15. 前記第1のスキャン画像において前記物体を検出することは、前記自律走行車に近接する視野において第1の物体を表現する前記第1のスキャン画像において第1の点群を識別することであって、前記第1の点群におけるそれぞれの点は、
    前記センサから前記第1の物体上の表面までの第1の範囲値、
    前記自律走行車に対する前記第1の物体上の前記表面の第1の方位角位置、および
    前記自律走行車に対する前記第1の物体の前記表面の第1の半径方向速度
    を含む、第1の点群を識別することを含み、
    前記第1の物体の前記第1の場所および前記第1の運動を導出することは、
    前記第1の点群における点の第1の半径方向速度と第1の方位角位置との間の第1の相関関係を計算することと、
    前記第1の相関関係に基づいて、前記第1の時間における前記第1の物体のあり得る接線速度と前記第1の物体のあり得る角速度とを関連付ける第1の関数を計算することと、
    前記第1の点群における点の第1の半径方向速度に基づいて前記第1の時間における前記第1の物体の第1の半径方向速度を計算することと、
    前記第1の点群における点の第1の範囲値および第1の方位角位置に基づいて前記第1の物体の前記第1の場所を導出することと、を含み、
    前記第1の将来状態境界を計算することは、
    前記第1の関数によって定められる、前記第1の時間における前記第1の物体のあり得る接線速度および前記第1の物体のあり得る角速度、
    前記第1の半径方向速度、
    前記第1の場所、および
    前記所定の運動制限想定のセット
    に基づいて、前記第1の将来状態境界を計算することを含む、請求項10に記載の方法。
  16. 前記第1のスキャン周期の後に続く第2のスキャン周期で、
    第2の時間において前記センサによって捉えられたデータを含んでいる第2のスキャン画像にアクセスすること、
    前記視野において前記第1の物体を表現する前記第2のスキャン画像において第2の点群を識別すること、
    前記第2の点群における点の第2の半径方向速度と第2の方位角位置との間の第2の相関関係を計算すること、
    前記第2の相関関係に基づいて、前記第2の時間における前記第1の物体のあり得る接線速度と前記第1の物体のあり得る角速度とを関連付ける第2の関数を計算すること、および
    前記第2の点群における点の第2の半径方向速度に基づいて前記第2の時間における前記第1の物体の第2の半径方向速度を計算することと、
    前記第1の関数および前記第2の関数の交点に基づいて、前記第2の時間における前記第1の物体の第2の接線速度および前記第1の物体の第2の角速度を推定することと、
    前記自律走行車が完全停止するまでの第2の停止期間を前記第2の時間での前記自律走行車の第2の速度に基づいて推定することと、
    前記停止期間によって前記第2の時間からオフセットされた第2の臨界時間を計算することと、
    前記第2の臨界時間に前記第1の物体にとってアクセス可能な第2の陸上領域を表現する第2の将来状態境界を、
    前記第1の物体の前記第2の接線速度、
    前記第1の物体の前記第2の角速度、
    前記第2の半径方向速度、および
    前記所定の運動制限想定のセット
    に基づいて計算することと、
    前記第1の臨界時間の前の前記第2の将来状態境界への進入を回避するための第2のナビゲーション行動を選ぶことと、をさらに含む、請求項15に記載の方法。
  17. 前記第2の将来状態境界を計算することは、前記第1の陸上領域を下回る前記第2の陸上領域を表現する前記第2の将来状態境界を計算することを含む、請求項16に記載の方法。
  18. 前記第1のスキャン画像において第2の物体を検出することと、
    前記第1のスキャン画像に基づいて、前記第2の物体の第2の場所および第2の運動を導出することと、
    前記第1の時間から前記第1の臨界時間まで前記第2の物体にとってアクセス可能な第2の陸上領域を表現する第2の将来状態境界を、
    前記第1の時間における前記第2の物体の前記第2の場所、
    前記第2の物体の前記第2の運動、および
    公道に近接する一般物体についての前記所定の運動制限想定のセット
    に基づいて計算することと、
    前記第1の時間における前記自律走行車から前記第2の将来状態境界の第2の周囲までの第2の距離が前記閾値距離を超えることに応答して、前記自律走行車における次の経路計画考慮事項から前記第2の物体をミュートすることと、をさらに含み、
    前記第1のナビゲーション行動を選ぶことは、前記第1の時間における前記自律走行車から前記第1の将来状態境界の第1の周囲までの第1の距離が前記閾値距離の範囲内にあることに応答して、前記自律走行車における前記次の経路計画考慮事項において前記第1の物体をアクティブ化することを含む、請求項10に記載の方法。
  19. 前記停止期間を推定することは、
    ほぼ前記第1の時間において、前記自律走行車上に配置される第2のセンサによって捉えられた前記視野の第2の画像にアクセスすることと、
    前記第2の画像から抽出された特徴のセットに基づいて前記第1の時間において前記自律走行車が占有する路面のタイプを解釈することと、
    前記特徴のセットに基づいて前記路面の品質を予測することと、
    前記路面の前記タイプおよび前記路面の前記品質に基づいて前記路面上で作用する前記自律走行車のタイヤに対する摩擦係数を推定することと、
    前記停止期間を、
    前記第1の時間における前記自律走行車の車両速度、
    前記摩擦係数、および
    前記自律走行車のブレーキモデルに基づいて推定することと、を含む、請求項10に記載の方法。
  20. 自律走行車の自律ナビゲーションの方法であって、
    公道に近接する一般物体についての所定の運動制限想定のセットにアクセスすることと、
    第1の時間において前記自律走行車上のセンサによって捉えられたデータを含んでいるスキャン画像にアクセスすることと、
    前記自律走行車に近接する視野において物体を表現する前記スキャン画像において点群を識別することであって、前記点群におけるそれぞれの点は、
    前記自律走行車に対する前記物体上の表面の位置、および
    前記自律走行車に対する前記物体の前記表面の半径方向速度
    を含む、点群を識別することと、
    前記点群における点の半径方向速度と位置との間の相関関係を計算することと、
    前記相関関係に基づいて、前記第1の時間における前記物体のあり得る接線速度と前記物体のあり得る角速度とを関連付ける関数を計算することと、
    前記点群における点の半径方向速度に基づいて前記第1の時間における前記物体の半径方向速度を計算することと、
    将来の時間に前記物体にとってアクセス可能な陸上領域を表現する将来状態境界を、
    前記関数によって定められる、前記第1の時間における前記物体のあり得る接線速度および前記物体のあり得る角速度、
    前記物体の前記半径方向速度、ならびに
    前記所定の運動制限想定のセット
    に基づいて計算することと、
    将来の前記臨界時間の前の前記将来状態境界を回避するためのナビゲーション行動を選ぶことと、を含む、方法。
  21. 自律走行車の自律ナビゲーションの方法であって、
    第1のスキャン周期で、
    第1の時間において前記自律走行車上のセンサによって捉えられたデータを含んでいる第1のスキャン画像にアクセスすること、
    前記自律走行車に近接する視野において第1の物体を表現する前記第1のスキャン画像において第1の点群を識別することであって、前記第1の点群におけるそれぞれの点は、
    前記センサから前記第1の物体上の表面までの第1の範囲値、
    前記センサに対する前記第1の物体上の前記表面の第1の方位角位置、および
    前記センサに対する前記第1の物体の前記表面の第1の半径方向速度
    を含む、第1の点群を識別すること、
    前記第1の点群における点の第1の半径方向速度と第1の方位角位置との間の第1の相関関係を計算すること、および、
    前記第1の相関関係に基づいて、前記第1の時間における前記第1の物体のあり得る接線速度と前記第1の物体のあり得る角速度とを関連付ける第1の関数を計算すること
    を行うことと、
    第2のスキャン周期で、
    第2の時間において前記センサによって捉えられたデータを含んでいる第2のスキャン画像にアクセスすること、
    前記視野において前記第1の物体を表現する前記第2のスキャン画像において第2の点群を識別すること、
    前記第2の点群における点の第2の半径方向速度と第2の方位角位置との間の第2の相関関係を計算すること、および、
    前記第2の相関関係に基づいて、前記第2の時間における前記第1の物体のあり得る接線速度と前記第1の物体のあり得る角速度とを関連付ける第2の関数を計算すること
    を行うことと、
    前記第1の関数および前記第2の関数の交点に基づいて、前記第2の時間における前記自律走行車に対する前記第1の物体の第2の接線速度および前記第1の物体の第2の角速度を推定することと、
    前記第1の物体の前記第2の接線速度および前記第1の物体の前記第2の角速度に基づいてナビゲーション行動を選ぶことと、を含む、方法。
  22. 前記第2の点群における点の第2の半径方向速度の中心傾向の第2の測度に基づいて、前記第2の時間における前記自律走行車に対する前記第1の物体の第2の半径方向速度を計算することと、
    前記第1の物体の前記第2の接線速度、前記第1の物体の前記第2の角速度、および前記第1の物体の前記第2の半径方向速度に基づいて、前記第2の時間における前記自律走行車に対する前記第1の物体の総速度を特徴付けることと、をさらに含み、
    前記ナビゲーション行動を選ぶことは、前記第2の時間における前記第1の物体の前記総速度に基づいて前記第1の物体を回避するための前記ナビゲーション行動を選ぶことを含む、請求項21に記載の方法。
  23. 前記第1の相関関係を計算することは、
    前記第1の点群における点の第1の方位角位置に対する第1の半径方向速度による第1の線形傾向線を計算することと、
    前記第1の時間における前記第1の物体の第1の接線速度と前記第1の物体の第1の角速度との間の関係を表現する、前記第1の線形傾向線の第1の傾斜に基づいて前記第1の相関関係を計算することと、を含む、請求項21に記載の方法。
  24. 前記第1の点群における点の第1の方位角位置の範囲に基づいて前記第1の時間における前記自律走行車に対する前記第1の物体の第1の半径を計算することをさらに含み、
    前記第1の線形傾向線の前記第1の傾斜を計算することは、
    前記第1の時間における前記第1の物体の前記第1の接線速度と、
    前記第1の時間における前記第1の物体の前記第1の半径および前記第1の時間における前記第1の物体の前記第1の角速度の積
    との第1の差異を表現する前記第1の傾斜を計算することを含み、
    前記第1の線形傾向線の前記第1の傾斜を計算することは、
    前記第1の時間における前記第1の物体の前記第1の半径、および
    前記第1の時間における前記第1の物体の前記第1の接線速度と、前記第1の時間における前記第1の物体の前記第1の角速度との間の差異
    の第1の積を表現する前記第1の傾斜を計算することを含み、
    前記第1の関数を計算することは、前記第1の時間における前記第1の傾斜および前記第1の半径に基づいて、前記第1の時間における、前記自律走行車に対する、前記第1の物体のあり得る接線速度と前記第1の物体のあり得る角速度とを関連付ける第1の線形関数を計算することを含む、請求項23に記載の方法。
  25. 前記第2の相関関係を計算することは、
    前記第2の点群における点の第2の方位角位置に対する第2の半径方向速度による第2の線形傾向線を計算することと、
    前記第2の時間における前記第1の物体の第2の接線速度と前記第1の物体の第2の角速度との間の関係を表現する、前記第2の線形傾向線の第2の傾斜に基づいて前記第2の相関関係を計算することと、を含み、
    さらに、
    前記第1の線形傾向線からの前記第1の点群における点の第1の半径方向速度の偏差に基づいて前記第1の線形傾向線の第1の誤差を特徴付けることと、
    前記第2の線形傾向線からの前記第2の点群における点の第2の半径方向速度の偏差に基づいて前記第2の線形傾向線の第2の誤差を特徴付けることと、を含み、
    前記第1の関数を計算することは、
    前記第1の相関関係に基づいて前記第1の時間における前記自律走行車に対する、前記第1の物体のあり得る接線速度と前記第1の物体のあり得る角速度とを関連付ける第1の線を計算することと、
    前記第1の誤差に基づいて前記第1の線の第1の幅を計算することと、を含み、
    前記第2の関数を計算することは、
    前記第2の相関関係に基づいて前記第2の時間における前記自律走行車に対する前記第1の物体のあり得る接線速度と前記第1の物体のあり得る角速度とを関連付ける第2の線を計算することと、
    前記第1の誤差に基づいて前記第1の線の第1の幅を計算することと、を含み、
    前記第2の時間における前記第1の物体の前記第2の接線速度および前記第1の物体の前記第2の角速度を推定することは、前記第1の幅の前記第1の線および第2の幅の前記第2の線の交点に基づいて前記第2の時間における前記自律走行車に対する前記第1の物体の接線速度の第2の範囲および前記第1の物体の角速度の第2の範囲を推定することを含み、
    前記ナビゲーション行動を選ぶことは、前記第2の時間における前記第1の物体の前記接線速度の第2の範囲および前記第1の物体の角速度の第2の範囲に基づいて、前記第1の物体を回避するための前記ナビゲーション行動を選ぶことを含む、請求項23に記載の方法。
  26. 公道に近接する一般物体についての所定の運動制限想定のセットにアクセスすることと、
    前記第1の時間と前記第2の時間との間の時間差に対して、前記所定の運動制限想定のセットの積分に基づいて、前記第1の関数の第1の誤差を特徴付けることと、をさらに含み、
    前記第1の関数を計算することは、
    前記第1の相関関係に基づいて前記第1の時間における前記自律走行車に対する、前記第1の物体のあり得る接線速度と前記第1の物体のあり得る角速度とを関連付ける第1の線を計算することと、
    前記第1の誤差に基づいて前記第1の線の第1の幅を計算することと、を含み、
    前記第2の関数を計算することは、
    前記第2の相関関係に基づいて前記第2の時間における前記自律走行車に対する、前記第1の物体のあり得る接線速度と前記第1の物体のあり得る角速度とを関連付ける第2の線を計算することを含み、
    前記第2の時間における前記第1の物体の前記第2の接線速度および前記第1の物体の前記第2の角速度を推定することは、前記第1の幅の前記第1の線および前記第2の線の交点に基づいて前記第2の時間における前記自律走行車に対する前記第1の物体の接線速度の第2の範囲および前記第1の物体の角速度の第2の範囲を推定することを含み、
    前記ナビゲーション行動を選ぶことは、前記第2の時間における前記第1の物体の前記接線速度の第2の範囲および前記第1の物体の前記角速度の第2の範囲に基づいて、前記第1の物体を回避するための前記ナビゲーション行動を選ぶことを含む、請求項23に記載の方法。
  27. 前記第1の関数を計算することは、路面にほぼ平行な水平面内の、前記第1の時間における前記第1の物体のあり得る接線速度と前記第1の物体のあり得る角速度とを関連付ける前記第1の関数を計算することを含み、
    前記第2の関数を計算することは、路面にほぼ平行な前記水平面内の、前記第2の時間における前記第1の物体のあり得る接線速度と前記第1の物体のあり得る角速度とを関連付ける前記第2の関数を計算することを含み、
    前記第2の時間における前記第1の物体の前記第2の接線速度および前記第1の物体の前記第2の角速度を推定することは、3自由度の状態空間における前記第1の関数および前記第2の関数の前記交点に基づいて、前記第2の時間における前記自律走行車に対する前記第1の物体の前記第2の接線速度および前記第1の物体の前記第2の角速度を推定することを含む、請求項21に記載の方法。
  28. 公道に近接する一般物体についての最大物体速度想定にアクセスすることと、
    前記第2の点群における点の第2の半径方向速度に基づいて前記第2の時間における前記自律走行車に対する前記第1の物体の第2の半径方向速度を計算することと、
    前記第1の物体の将来状態境界を計算するために、対象の時間間隔にわたって、前記第1の物体の前記第2の半径方向速度、前記第1の物体の前記第2の接線速度、および前記第1の物体の前記第2の角速度を積分することと、をさらに含み、
    前記ナビゲーション行動を選ぶことは、前記第1の物体の前記将来状態境界への将来の進入を回避するための前記ナビゲーション行動を選ぶことを含む、請求項21に記載の方法。
  29. 前記自律走行車が完全停止するまでの停止期間を前記第1の時間での前記自律走行車の速度に基づいて推定することと、
    前記停止期間に基づいて前記対象の時間間隔を計算することと、をさらに含み、
    前記第1の物体の前記将来状態境界への将来の進入を回避するための前記ナビゲーション行動を選ぶことは、前記第2の時間における前記自律走行車の場所が、前記第1の物体の前記将来状態境界の閾値距離の範囲内にあることに応答して、前記自律走行車を減速させるための制動行動を実行することを含む、請求項28に記載の方法。
  30. 第3のスキャン周期で、
    前記第2の時間の後に続く第3の時間において前記センサによって捉えられたデータを含んでいる第3のスキャン画像にアクセスすること、
    前記視野において前記第1の物体を表現する前記第3のスキャン画像において第3の点群を識別すること、
    前記視野における第2の物体を表現する前記第3のスキャン画像において第4の点群を識別することであって、前記第2の物体は前記第2の時間から前記第3の時間までの前記第1の物体と別個である、第4の点群を識別すること、
    前記第3の点群における点の、第3の半径方向速度と第3の方位角位置との間の第3の相関関係を計算すること、
    前記第4の点群における点の、第4の半径方向速度と第4の方位角位置との間の第4の相関関係を計算すること、
    前記第3の相関関係に基づいて、前記第3の時間における前記第1の物体のあり得る接線速度と前記第1の物体のあり得る角速度とを関連付ける第3の関数を計算すること、および、
    前記第4の相関関係に基づいて、前記第3の時間における前記第2の物体のあり得る接線速度と前記第2の物体のあり得る角速度とを関連付ける第4の関数を計算すること
    を行うことと、
    前記第2の関数および前記第3の関数の交点に基づいて前記第3の時間における前記自律走行車に対する前記第1の物体の第3の接線速度および前記第1の物体の第3の角速度を推定することと、
    前記第2の関数および前記第4の関数の交点に基づいて前記第3の時間における前記自律走行車に対する前記第2の物体の第4の接線速度および前記第2の物体の第4の角速度を推定することと、
    前記第1の物体の前記第3の接線速度、前記第1の物体の前記第3の角速度、前記第2の物体の前記第4の接線速度、および前記第2の物体の前記第4の角速度に基づいて、前記第1の物体および前記第2の物体を回避するための第2のナビゲーション行動を選ぶことと、をさらに含む、請求項21に記載の方法。
  31. 前記第1のスキャン画像にアクセスすることは、
    前記自律走行車に装着されており、
    前記センサに対する前記視野内の表面の位置および速度を表現するスキャン画像を生成するように構成されている、
    4次元光検出および測距センサを含む前記センサによって捉えられるデータを含んでいる前記第1のスキャン画像にアクセスすることを含む、請求項21に記載の方法。
  32. 第3のスキャン周期の間に、前記第1の時間および前記第2の時間の前の第3の時間において前記センサによって捉えられたデータを含んでいる第3の画像において検出された第3の点群において表現される前記第1の物体のあり得る接線速度と前記第1の物体のあり得る角速度とを関連付ける第3の相関関係に基づいて第3の関数を生成することをさらに含み、
    前記第1の相関関係を計算することは、前記第1の点群における点の、第1の半径方向速度、第1の方位角位置、および第1の仰角位置による第1の最良適合面を計算することであって、前記第1の最良適合面は、前記第1の時間における、前記第1の物体の第1の接線速度、前記第1の物体の第1の角速度、および前記第1の物体の第1のピッチ速度の間の関係を表現する、第1の最良適合面を計算することを含み、
    前記第1の関数を計算することは、前記第1の最良適合面に基づいて前記第1の関数を計算することを含み、
    前記第2の相関関係を計算することは、前記第2の点群における点の、第2の半径方向速度、第2の方位角位置、および第2の仰角位置による第2の最良適合面を計算することであって、前記第2の最良適合面は、前記第2の時間における、前記第1の物体の第2の接線速度、前記第1の物体の第2の角速度、および前記第1の物体の第2のピッチ速度の間の関係を表現する、第2の最良適合面を計算することを含み、
    前記第2の関数を計算することは、前記第2の最良適合面に基づいて前記第2の関数を計算することを含み、
    前記第2の時間において前記第1の物体の前記第2の接線速度および前記第1の物体の前記第2の角速度を推定することは、前記第1の関数、前記第2の関数、および前記第3の関数の前記交点に基づいて、前記第2の時間において、前記第1の物体の前記第2の接線速度、前記第1の物体の前記第2の角速度、および前記第1の物体の第2のピッチ速度を計算することを含む、請求項21に記載の方法。
  33. 自律走行車の自律ナビゲーションの方法であって、
    第1のスキャン周期で、
    第1の時間において前記自律走行車上のセンサによって捉えられたデータを含んでいる第1のスキャン画像にアクセスすること、
    前記自律走行車に近接する視野において第1の物体を表現する前記第1のスキャン画像において第1の点群を識別することであって、前記第1の点群におけるそれぞれの点は、
    前記センサから前記第1の物体上の表面までの第1の範囲値、
    前記自律走行車に対する前記第1の物体上の前記表面の第1の位置、および
    前記自律走行車に対する前記第1の物体の前記表面の第1の半径方向速度
    を含む、第1の点群を識別すること、
    前記第1の点群における点の第1の半径方向速度と第1の位置との間の第1の相関関係を計算すること、および、
    前記第1の相関関係に基づいて、前記第1の時間における前記第1の物体のあり得る線運動と前記第1の物体のあり得る角運動とを関連付ける第1の関数を計算すること
    を行うことと、
    第2のスキャン周期で、
    第2の時間において前記センサによって捉えられたデータを含んでいる第2のスキャン画像にアクセスすること、
    前記第1の物体を表現する前記第2のスキャン画像において第2の点群を識別すること、
    前記第2の点群における点の第2の半径方向速度と第2の位置との間の第2の相関関係を計算すること、および、
    前記第2の相関関係に基づいて、前記第2の時間において前記第1の物体のあり得る線運動と前記第1の物体のあり得る角運動とを関連付ける第2の関数を計算すること
    を行うことと、
    前記第1の関数および前記第2の関数の交点に基づいて、前記第2の時間において前記自律走行車に対する前記第1の物体の線運動および前記第1の物体の角運動を推定することと、
    前記第2の時間における前記第1の物体の前記線運動および前記第1の物体の前記角運動に基づいてナビゲーション行動を選ぶことと、を含む、方法。
  34. 前記第1の相関関係を計算することは、
    路面にほぼ平行な平面上に投影された前記第1の点群における点の第1の方位角位置に対する第1の半径方向速度による第1の線形傾向線を計算することと、
    前記第1の時間における前記第1の物体の第1の接線速度と前記第1の物体の第1の角速度との間の関係を表現する、前記第1の線形傾向線の第1の傾斜に基づいて前記第1の相関関係を計算することと、を含み、
    前記第2の相関関係を計算することは、
    前記平面上に投影された前記第2の点群における点の第2の方位角位置に対する第2の半径方向速度による第2の線形傾向線を計算することと、
    前記第2の時間における前記第1の物体の第2の接線速度と前記第1の物体の第2の角速度との間の関係を表現する、前記第2の線形傾向線の第2の傾斜に基づいて前記第2の相関関係を計算することと、を含み、
    前記第2の時間における前記第1の物体の前記線運動および前記第1の物体の前記角運動を推定することは、前記第1の関数および前記第2の関数の前記交点に基づいて、前記第2の時間における前記自律走行車に対する、前記第1の物体の第2の接線速度および前記第1の物体の第2の角速度を推定することを含む、請求項33に記載の方法。
  35. 前記第1の相関関係を計算することは、前記第1の点群における点の、第1の半径方向速度および第1の位置による第1の最良適合面を計算することであって、前記第1の最良適合面は、前記第1の時間における前記自律走行車に対する、前記第1の物体の第1の接線速度、前記第1の物体の第1の角速度、および前記第1の物体の第1のピッチ速度の間の関係を表現する、第1の最良適合面を計算することを含み、
    前記第1の関数を計算することは、前記第1の最良適合面に基づいて前記第1の関数を計算することを含み、
    前記第2の相関関係を計算することは、前記第2の点群における点の第2の半径方向速度および第2の位置による第2の最良適合面を計算することであって、前記第2の最良適合面は、前記第2の時間における前記自律走行車に対する、前記第1の物体の第2の接線速度、前記第1の物体の第2の角速度、および前記第1の物体の第2のピッチ速度の間の関係を表現する、第2の最良適合面を計算することを含み、
    前記第2の関数を計算することは、前記第2の最良適合面に基づいて前記第2の関数を計算することを含む、請求項33に記載の方法。
  36. 第3のスキャン周期の間に、前記第1の時間および前記第2の時間の前の第3の時間において前記センサによって捉えられたデータを含んでいる第3の画像において検出された第3の点群において表現される前記第1の物体のあり得る接線速度と前記第1の物体のあり得る角速度とを関連付ける第3の相関関係に基づいて第3の関数を生成することをさらに含み、
    前記第2の時間における前記自律走行車に対する前記第1の物体の前記線運動および前記第1の物体の前記角運動を推定することは、前記第1の関数、前記第2の関数、および前記第3の関数の前記交点に基づいて、前記第2の時間において前記自律走行車に対する前記第1の物体の前記線運動および前記第1の物体の前記角運動を推定することを含む、請求項35に記載の方法。
  37. 前記第1のスキャン周期で、
    前記第1のスキャン画像における前記第1の点群に近接する第3の点群を識別すること、
    前記第3の点群における点の、第3の半径方向速度および第3の位置による第3の最良適合面を計算することであって、前記第3の最良適合面は、前記第1の時間における前記自律走行車に対する、第2の物体の第3の接線速度、前記第2の物体の第3の角速度、および前記第2の物体の第3のピッチ速度の間の関係を表現する、第3の最良適合面を計算すること、および、
    前記第3の最良適合面に基づいて前記第3の関数を計算すること
    を行うことと、
    前記第2のスキャン周期で、
    前記第2のスキャン画像における前記第2の点群に近接する第4の点群を識別すること、
    前記第4の点群における点の、第4の半径方向速度および第4の位置による第4の最良適合面を計算することであって、前記第4の最良適合面は、前記第2の時間における前記自律走行車に対する、前記第2の物体の第4の接線速度、前記第2の物体の第4の角速度、および前記第2の物体の第4のピッチ速度の間の関係を表現する、第4の最良適合面を計算すること、および、
    前記第4の最良適合面に基づいて第4の関数を計算すること
    を行うことと、
    前記第3の関数および前記第4の関数の交点に基づいて、前記第2の時間において前記自律走行車に対する前記第2の物体の第2の線運動および前記第2の物体の第2の角運動を推定することと、
    前記第1の物体の前記線運動と前記第2の物体の前記第2の線運動との間の整合に応答して、前記第1の物体および前記第2の物体を共通の剛体に対応するとして識別することと、をさらに含む、請求項35に記載の方法。
  38. 前記第2の時間における前記第2の物体の前記第2の角運動を推定することは、前記第3の関数および前記第4の関数の前記交点に基づいて、前記第2の時間における前記自律走行車に対する、前記第2の物体の第2の角速度および第2のピッチ速度を推定することを含み、
    さらに、
    前記第4の点群における点の第4の半径方向速度の中心傾向の第2の測度に基づいて前記第2の時間における前記自律走行車に対する前記第2の物体の第2の半径方向速度を計算することと、
    前記第2の時間における、前記第2の物体の、前記第2の半径方向速度、前記第2の接線速度、前記第2の角速度、および前記第2のピッチ速度に基づいて、前記第2の時間における前記第2の物体の総絶対速度を計算することと、
    前記第2の時間における前記第2の物体の総絶対速度の方向における前記第4の点群における点の第4の半径方向速度の第4の速度成分のセットを計算することと、
    前記第2の物体の前記総絶対速度のおよそ2倍である前記第4の速度成分のセットの最大速度に基づいて、前記第2の物体を車輪として識別することと、
    前記第2の物体を前記車輪として識別することに応答して、前記共通の剛体を車輪付き乗り物としてラベル付けすることと、を含む、請求項37に記載の方法。
  39. 自律走行車の自律ナビゲーションの方法であって、
    前記自律走行車における一連のスキャン周期におけるそれぞれのスキャン周期で、
    スキャン時間において前記自律走行車上のセンサによって捉えられたデータを含んでいるスキャン画像にアクセスすること、
    前記自律走行車に近接する視野において第1の物体を表現する前記スキャン画像における点群を識別することであって、前記点群におけるそれぞれの点は、
    前記自律走行車に対する前記第1の物体上の表面の位置、および
    前記自律走行車に対する前記第1の物体の前記表面の半径方向速度
    を含む、点群を識別すること、および、
    前記点群における点の半径方向速度と位置との間の相関関係に基づいて関数を計算することであって、前記関数は前記スキャン時間において前記第1の物体のあり得る線運動と前記第1の物体のあり得る角運動とを関連付ける、関数を計算すること
    を行うことと、
    現在の関数および前の関数の交点に基づいて現在の時間において前記自律走行車に対する前記第1の物体の現在の線運動および前記第1の物体の現在の角運動を推定することであって、前記現在の関数は前記現在の時間において捉えられたデータを含んでいる第1のスキャン画像から導出され、前記前の関数は前記現在の時間の前に捉えられたデータを含んでいる第2のスキャン画像から導出される、推定することと、
    前記第1の物体の前記現在の線運動および前記第1の物体の前記現在の角運動に基づいてナビゲーション行動を選ぶことと、を含む、方法。
  40. 前記自律走行車が完全停止するまでの停止期間を前記第1の時間での前記自律走行車の速度に基づいて推定することと、
    前記第1の物体の前記現在の線運動、前記第1の物体の前記現在の角運動、および現在の時間における前記自律走行車の運動に基づいて、前記現在の時間における、前記第1の物体の現在の絶対線運動および前記第1の物体の現在の絶対角運動を計算することと、
    公道に近接する一般物体についての最大物体加速度想定にアクセスすることと、
    前記第1の時間における前記自律走行車の運動、接線速度および半径方向速度の対の前記第1の範囲、および、前記第1の時間における前記第1の物体の前記第1の半径方向速度に基づいて、第1の時間における前記自律走行車に対する前記第1の物体のあり得る絶対速度の範囲を計算することと、
    前記第1の時間から前記第1の臨界時間まで前記第1の物体にとってアクセス可能な陸上領域を計算するために、前記停止期間にわたって前記最大物体加速度想定に従って加速する、前記第1の物体の前記現在の絶対線運動および前記第1の物体の前記現在の絶対角運動を積分することと、をさらに含み、
    前記ナビゲーション行動を選ぶことは、前記第1の臨界時間の前の前記陸上領域への進入を回避するための前記第1のナビゲーション行動を選ぶことを含む、請求項39に記載の方法。
  41. 自律走行車の自律ナビゲーションの方法であって、
    第1のスキャン周期で、
    第1の時間において前記自律走行車上のセンサによって捉えられたデータを含んでいる第1のスキャン画像にアクセスすること、
    前記自律走行車に近接する視野において第1の物体を表現する前記第1のスキャン画像において第1の点群を識別することであって、前記第1の点群におけるそれぞれの点は、
    前記自律走行車に対する前記第1の物体上の表面の第1の位置、および
    前記センサに対する前記第1の物体の前記表面の第1の半径方向速度
    を含む、第1の点群を識別すること、
    前記第1の点群における点の第1の半径方向速度の中心傾向の第1の測度に基づいて、前記第1の時間における前記自律走行車に対する前記第1の物体の第1の半径方向速度を計算すること、および、
    前記第1の物体の前記第1の半径方向速度に垂直である第1の接線方向に沿った前記第1の時間における前記第1の物体の運動の不確実性の第1の方向性を特徴付けること
    を行うことと、
    前記第1の時間における前記自律走行車の運動に基づいて、前記第1の時間の後に続く第2の時間において前記第1の物体の運動の不確実性の予測される第2の方向性を計算することと、
    前記不確実性の第2の方向性が前記不確実性の第1の方向性と異なることに応答して、前記第2の時間において前記自律走行車による物体回避についての制動考慮事項から前記第1の物体をミュートすることと、を含む、方法。
  42. 公道に近接する一般物体についての所定の運動制限想定のセットにアクセスすることをさらに含み、
    前記第2の時間において前記第1の物体の前記運動の不確実性の予測される第2の方向性を計算することは、
    前記所定の運動制限想定のセットおよび前記第1の点群における点の第1の半径方向速度と適合する前記自律走行車に向かう前記第1の物体の最大接線速度を計算することと、
    前記第1の時間における前記自律走行車の運動および前記第1の時間における前記第1の物体の前記最大接線速度に基づいて、前記第2の時間における前記第1の物体の前記運動の不確実性の予測される第2の方向性を計算することと、を含む、請求項41に記載の方法。
  43. 前記第1の時間からオフセットされた臨界時間を計算することと、
    前記第1のスキャン画像に基づいて、前記第1の物体の第1の場所を導出することと、
    前記第1の点群における点の第1の半径方向速度と第1の位置との間の第1の相関関係を計算することと、
    前記第1の相関関係に基づいて、前記第1の時間における前記第1の物体のあり得る接線速度と前記第1の物体のあり得る角速度とを関連付ける第1の関数を計算することと、
    前記第1の時間から前記臨界時間まで前記第1の物体にとってアクセス可能な第1の陸上領域を表現する第1の将来状態境界を、
    前記第1の時間における前記第1の物体の前記第1の場所、
    前記第1の物体の第1の半径方向速度、
    前記第1の関数によって定められた前記第1の時間における前記第1の物体のあり得る接線速度および前記第1の物体のあり得る角速度、および
    公道に近接する一般物体についての所定の運動制限想定のセット
    に基づいて計算することと、をさらに含み、
    前記第2の時間において前記自律走行車による物体回避についての制動考慮事項から前記第1の物体をミュートすることは、前記第1の時間における前記自律走行車の場所が閾値距離を上回って前記第1の将来状態境界の外側にあることにさらに応答して、前記第2の時間において前記自律走行車による物体回避についての制動考慮事項から前記第1の物体をミュートすることを含む、請求項41に記載の方法。
  44. 前記臨界時間を計算することは、
    前記第1の時間における前記自律走行車の速度に基づいて、前記自律走行車が完全停止するまでの停止期間を推定することと、
    前記停止期間によって前記第1の時間からオフセットされた前記臨界時間を計算することと、を含む、請求項43に記載の方法。
  45. 前記第1のスキャン周期で、
    前記視野において第2の物体を表現する前記第1のスキャン画像において第2の点群を識別することであって、前記第2の点群におけるそれぞれの点は、
    前記自律走行車に対する前記第2の物体上の表面の第2の位置、および
    前記センサに対する前記第2の物体の前記表面の第2の半径方向速度
    を含む、第2の点群を識別すること、
    前記第2の点群における点の第2の半径方向速度の中心傾向の第2の測度に基づいて、前記第1の時間における前記自律走行車に対する前記第2の物体の第2の半径方向速度を計算すること、および、
    前記第2の物体の前記第2の半径方向速度に垂直である第2の接線方向に沿った前記第1の時間における前記第2の物体の運動の不確実性の第3の方向性を特徴付けること
    を行うことと、
    前記第1の時間における前記自律走行車の運動に基づいて、前記第2の時間において前記第2の物体の運動の不確実性の予測される第4の方向性を計算することと、
    前記不確実性の予測される第4の方向性が閾値差を下回って前記不確実性の第3の方向性と異なることに応答して、前記第2の時間において前記第2の物体に対する前記自律走行車の運動を調整するためにナビゲーション行動を選ぶことと、をさらに含む、請求項41に記載の方法。
  46. 前記ナビゲーション行動を選ぶことは、前記閾値差を上回って前記不確実性の第1の方向性と異なる前記第2の物体の運動の不確実性の代替の第4の方向性をもたらすために、前記第2の時間における前記第2の物体に対する代替の場所に前記自律走行車を置くようにする前記ナビゲーション行動を識別することであって、前記ナビゲーション行動は、制動入力、加速度入力、および操舵入力で構成されるナビゲーション行動群から選択される、前記ナビゲーション行動を識別することを含む、請求項45に記載の方法。
  47. 前記ナビゲーション行動を選ぶことは、前記第3の不確実性の方向性が、前記第1の時間における前記自律走行車の場所より前に閾値距離以内で、前記第1の時間に前記自律走行車の第1の軌道を交差することにさらに応答して、前記ナビゲーション行動を選ぶことを含む、請求項45に記載の方法。
  48. 自律走行車の自律ナビゲーションの方法であって、
    前記自律走行車において第1のスキャン周期で、
    第1の時間において前記自律走行車上のセンサによって捉えられたデータを含んでいる第1のスキャン画像にアクセスすること、
    前記自律走行車に近接する視野において第1の物体を表現する前記第1のスキャン画像において第1の点群を識別すること、および、
    前記第1の点群に基づいて前記第1の時間における前記第1の物体の第1の運動を特徴付けることと、
    前記自律走行車において第2のスキャン周期で、
    前記第1の時間の後に続く第2の時間において前記センサによって捉えられたデータを含んでいる第2のスキャン画像にアクセスすること、
    前記第1の物体を表現する前記第2のスキャン画像において第2の点群を識別すること、および、
    前記第2の点群および前記第1の運動に基づいて前記第2の時間における前記第1の物体の第2の運動を特徴付けること
    を行うことと、
    前記第2の時間における前記第1の物体の前記第2の運動の第2の不確実性を特徴付けることと、
    前記第2の時間における前記第1の物体の前記第2の運動、および前記第2の時間における前記自律走行車の運動に基づいて、前記第2の時間の後に続く第3の時間における前記第1の物体の第3の運動の予測される第3の不確実性を計算することと、
    前記予測される第3の不確実性が前記第2の不確実性を下回ることに応答して、前記第2の時間において前記自律走行車による物体回避についての制動考慮事項から前記第1の物体をミュートすることと、を含む、方法。
  49. 前記第1の時間における前記第1の物体の前記第1の運動を特徴付けることは、
    前記第1の点群における点の第1の半径方向速度と第1の方位角位置との間の第1の相関関係を計算することと、
    前記第1の相関関係に基づいて、前記第1の時間における前記第1の物体のあり得る接線速度と前記第1の物体のあり得る角速度とを関連付ける第1の関数を計算することと、を含み、
    前記第2の時間における前記第1の物体の前記第2の運動を特徴付けることは、
    前記第2の点群における点の第2の半径方向速度と第2の方位角位置との間の第2の相関関係を計算することと、
    前記第2の相関関係に基づいて、前記第2の時間における前記第1の物体のあり得る接線速度と前記第1の物体のあり得る角速度とを関連付ける第2の関数を計算することと、
    前記第1の関数および前記第2の関数の交点に基づいて、前記第2の時間における前記自律走行車に対する前記第1の物体の接線速度の第2の範囲および前記第1の物体の角速度の第2の範囲を推定することと、を含み、
    前記第2の時間における前記第1の物体の前記第2の運動の前記第2の不確実性を特徴付けることは、前記第1の関数および前記第2の関数の交点と前記第1の関数および前記第2の関数の和との比率に比例する、前記第2の時間における前記第1の物体の前記第2の運動の前記第2の不確実性を特徴付けることを含む、請求項48に記載の方法。
  50. 前記第1の相関関係を計算することは、
    前記第1の点群における点の第1の方位角位置に対する第1の半径方向速度による第1の線形傾向線を計算することと、
    前記第1の時間における前記第1の物体の第1の接線速度と前記第1の物体の第1の角速度との間の関係を表現する、前記第1の線形傾向線の第1の傾斜に基づいて前記第1の相関関係を計算することと、を含む、請求項49に記載の方法。
  51. 前記第2の相関関係を計算することは、
    前記第2の点群における点の第2の方位角位置に対する第2の半径方向速度による第2の線形傾向線を計算することと、
    前記第2の時間における前記第1の物体の第2の接線速度と前記第1の物体の第2の角速度との間の関係を表現する、前記第2の線形傾向線の第2の傾斜に基づいて前記第2の相関関係を計算することと、を含み、
    さらに、
    前記第1の線形傾向線からの前記第1の点群における点の第1の半径方向速度の偏差に基づいて前記第1の線形傾向線の第1の誤差を特徴付けることと、
    前記第2の線形傾向線からの前記第2の点群における点の第2の半径方向速度の偏差に基づいて前記第2の線形傾向線の第2の誤差を特徴付けることと、を含み、
    前記第1の関数を計算することは、
    前記第1の相関関係に基づいて前記第1の時間における前記自律走行車に対する、前記第1の物体のあり得る接線速度と前記第1の物体のあり得る角速度とを関連付ける第1の線を計算することと、
    前記第1の誤差に基づいて前記第1の線の第1の幅を計算することと、を含み、
    前記第2の関数を計算することは、
    前記第2の相関関係に基づいて前記第2の時間における前記自律走行車に対する前記第1の物体のあり得る接線速度と前記第1の物体のあり得る角速度とを関連付ける第2の線を計算することと、
    前記第1の誤差に基づいて前記第1の線の第1の幅を計算することと、を含み、
    前記第2の時間における前記第1の物体の前記第2の運動の前記第2の不確実性を特徴付けることは、前記第1の幅の前記第1の線および第2の幅の前記第2の線の交差エリアに比例する、前記第2の時間における前記第1の物体の前記第2の運動の前記第2の不確実性を特徴付けることを含む、請求項50に記載の方法。
  52. 前記第3の時間における前記第1の物体の前記第3の運動の前記予測される第3の不確実性を計算することは、
    前記第2の時間における前記第1の物体の前記第2の運動、および前記第2の時間における前記自律走行車の運動に基づいて、前記第3の時間における前記自律走行車に対する前記第1の物体の予測される第3の位置を計算することと、
    前記第3の時間における前記自律走行車に対する前記第1の物体の前記予測される第3の位置に基づいて、前記第3の時間において前記第1の物体の運動の不確実性の予測される第3の方向性を計算することと、
    前記不確実性の第3の方向性、および前記第2の関数の交点に基づいて、前記第3の時間における前記第1の物体の前記第3の運動の前記予測される第3の不確実性を計算することと、を含む、請求項49に記載の方法。
  53. 前記第3の時間における前記自律走行車に対する前記第1の物体の前記予測される第3の位置を計算することは、
    前記第2の点群における点の第2の半径方向速度の中心傾向の第1の測度に基づいて、前記第2の時間における前記自律走行車に対する前記第1の物体の第2の半径方向速度を計算することと、
    前記接線速度の第2の範囲の中心傾向の第2の測度に基づいて、前記第2の時間における前記自律走行車に対する前記第1の物体の第2の接線速度を推定することと、
    前記角速度の第2の範囲の中心傾向の第3の測度に基づいて、前記第2の時間における前記自律走行車に対する前記第1の物体の第2の角速度を推定することと、
    前記第1の物体の前記第2の半径方向速度、前記第1の物体の前記第2の接線速度、前記第1の物体の前記第2の角速度、および前記第2の時間における前記自律走行車の運動に基づいて、前記第3の時間における前記自律走行車に対する前記第1の物体の前記予測される第3の位置を計算することと、を含む、請求項52に記載の方法。
  54. 前記第2の時間からオフセットされた臨界時間を計算することと、
    前記第2のスキャン画像に基づいて、前記第1の物体の第2の場所を導出することと、
    前記第2の時間から前記臨界時間まで前記第2の物体にとってアクセス可能な第2の陸上領域を表現する第1の将来状態境界を、
    前記第2の時間における前記第1の物体の前記2の場所、
    前記第2の時間における前記第1の物体の第2の運動、および
    公道に近接する一般物体についての所定の運動制限想定のセット
    に基づいて計算することと、をさらに含み、
    前記第3の時間において前記自律走行車による物体回避についての制動考慮事項から前記第1の物体をミュートすることは、前記第2の時間における前記自律走行車の場所が閾値距離を上回って前記第2の将来状態境界の外側にあることにさらに応答して、前記第3の時間において前記自律走行車による物体回避についての制動考慮事項から前記第1の物体をミュートすることを含む、請求項48に記載の方法。
  55. 前記臨界時間を計算することは、
    前記自律走行車が完全停止するまでの停止期間を、前記第1の時間での前記自律走行車の速度に基づいて推定することと、
    前記停止期間によって前記第1の時間からオフセットされた前記臨界時間を計算することと、を含む、請求項54に記載の方法。
  56. 前記第1のスキャン周期で、
    前記視野において第2の物体を表現する前記第1のスキャン画像において第3の点群を識別すること、および、
    前記第3の点群に基づいて前記第1の時間における前記第2の物体の第3の運動を特徴付けること
    を行うことと、
    前記第2のスキャン周期で、
    前記視野において前記第2の物体を表現する前記第2のスキャン画像において第4の点群を識別すること、および、
    前記第2の点群および前記第3の運動に基づいて前記第2の時間における前記第2の物体の第4の運動を特徴付けること
    を行うことと、
    前記第2の時間における前記第2の物体の前記第4の運動の第4の不確実性を特徴付けることと、
    前記第2の時間における前記第2の物体の前記第4の運動、および前記第2の時間における前記自律走行車の運動に基づいて、前記第3の時間における前記第2の物体の第5の運動の予測される第5の不確実性を計算することと、
    前記予測される第5の不確実性が閾値差を下回って前記第4の不確実性と異なることに応答して、前記第3の時間において前記第2の物体に対する前記自律走行車の運動を調整するためにナビゲーション行動を選ぶことと、をさらに含む、請求項48に記載の方法。
  57. 前記ナビゲーション行動を選ぶことは、前記第3の時間における前記第2の物体の運動の不確実性を低減させるために、前記第2の時間における前記第2の物体に対する代替の場所に前記自律走行車を置くようにする前記ナビゲーション行動を識別することであって、前記ナビゲーション行動は、制動入力、加速度入力、および操舵入力で構成されるナビゲーション行動群から選択される、前記ナビゲーション行動を識別することを含む、請求項56に記載の方法。
  58. 前記ナビゲーション行動を選ぶことは、前記第2の時間における前記第2の物体の前記第4の運動が、前記第2の時間に前記自律走行車の第2の軌道を交差することにさらに応答して、前記ナビゲーション行動を選ぶことを含む、請求項56に記載の方法。
  59. 自律走行車の自律ナビゲーションの方法であって、
    前記自律走行車において第1のスキャン周期で、
    第1の時間において前記自律走行車上のセンサによって捉えられたデータを含んでいる第1のスキャン画像にアクセスすること、
    前記自律走行車に近接する視野において第1の物体を表現する前記第1のスキャン画像において第1の点群を識別すること、および、
    前記第1の点群に基づいて前記第1の時間における前記第1の物体の第1の運動を特徴付けること
    を行うことと、
    前記第1の時間における前記第1の物体の前記第1の運動の第1の不確実性を特徴付けることと、
    前記第1の時間における前記第1の物体の前記第1の運動、および前記第1の時間における前記自律走行車の運動に基づいて、前記第1の時間の後に続く第2の時間における前記第1の物体の第2の運動の予測される第2の不確実性を計算することと、
    前記予測される第2の不確実性が前記第1の不確実性を下回ることに応答して、前記第2の時間において前記自律走行車による物体回避についての制動考慮事項から前記第1の物体をミュートすることと、を含む、方法。
  60. 前記第1のスキャン周期の後に続く第2のスキャン周期で、
    第2の時間において前記センサによって捉えられたデータを含んでいる第2のスキャン画像にアクセスすること、
    前記第1の物体を表現する前記第2のスキャン画像において第2の点群を識別すること、および、
    前記第2の点群、および前記第1の時間における前記第2の物体の前記第1の運動に基づいて前記第2の時間における前記第2の物体の第2の運動を特徴付けること
    を行うことと、
    前記第2の時間における前記第1の物体の前記第2の運動の第2の不確実性を特徴付けることと、
    前記第2の不確実性が前記予測される第2の不確実性を超えることに応答して、前記第2の時間の後に続く第3の時間において前記第2の物体に対する前記自律走行車の運動を調整するためにナビゲーション行動を選ぶことと、をさらに含む、請求項59に記載の方法。
JP2022549671A 2020-02-21 2021-02-22 自律ナビゲーションの間の物体回避の方法 Active JP7336604B2 (ja)

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
US202062980131P 2020-02-21 2020-02-21
US202062980132P 2020-02-21 2020-02-21
US62/980,132 2020-02-21
US62/980,131 2020-02-21
US202063064316P 2020-08-11 2020-08-11
US63/064,316 2020-08-11
PCT/US2021/019122 WO2021168452A2 (en) 2020-02-21 2021-02-22 Method for object avoidance during autonomous navigation

Publications (2)

Publication Number Publication Date
JP2023507671A true JP2023507671A (ja) 2023-02-24
JP7336604B2 JP7336604B2 (ja) 2023-08-31

Family

ID=77366637

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022549671A Active JP7336604B2 (ja) 2020-02-21 2021-02-22 自律ナビゲーションの間の物体回避の方法

Country Status (9)

Country Link
US (4) US11719821B2 (ja)
EP (1) EP4096978A4 (ja)
JP (1) JP7336604B2 (ja)
KR (1) KR102503388B1 (ja)
CN (1) CN115461258B (ja)
AU (1) AU2021222055B2 (ja)
CA (1) CA3168740C (ja)
MX (1) MX2022010293A (ja)
WO (1) WO2021168452A2 (ja)

Families Citing this family (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11256932B2 (en) * 2018-02-02 2022-02-22 Mitsubishi Electric Corporation Falling object detection apparatus, in-vehicle system, vehicle, and computer readable medium
DE102018211240A1 (de) * 2018-07-07 2020-01-09 Robert Bosch Gmbh Verfahren zum Klassifizieren einer Relevanz eines Objekts
US11592832B2 (en) * 2018-08-20 2023-02-28 Uatc, Llc Automatic robotically steered camera for targeted high performance perception and vehicle control
US11360480B2 (en) 2019-08-21 2022-06-14 Zoox, Inc. Collision zone detection for vehicles
RU2745804C1 (ru) * 2019-11-06 2021-04-01 Общество с ограниченной ответственностью "Яндекс Беспилотные Технологии" Способ и процессор для управления перемещением в полосе движения автономного транспортного средства
FR3103303B1 (fr) * 2019-11-14 2022-07-22 Continental Automotive Détermination d’un coefficient de friction pour un véhicule sur une route
US11718304B2 (en) 2020-03-06 2023-08-08 Deere & Comoanv Method and system for estimating surface roughness of ground for an off-road vehicle to control an implement
US11684005B2 (en) * 2020-03-06 2023-06-27 Deere & Company Method and system for estimating surface roughness of ground for an off-road vehicle to control an implement
JP7431623B2 (ja) * 2020-03-11 2024-02-15 株式会社Subaru 車外環境認識装置
US11667171B2 (en) 2020-03-12 2023-06-06 Deere & Company Method and system for estimating surface roughness of ground for an off-road vehicle to control steering
US11678599B2 (en) 2020-03-12 2023-06-20 Deere & Company Method and system for estimating surface roughness of ground for an off-road vehicle to control steering
US11685381B2 (en) 2020-03-13 2023-06-27 Deere & Company Method and system for estimating surface roughness of ground for an off-road vehicle to control ground speed
US11753016B2 (en) * 2020-03-13 2023-09-12 Deere & Company Method and system for estimating surface roughness of ground for an off-road vehicle to control ground speed
KR20210129913A (ko) * 2020-04-21 2021-10-29 주식회사 만도모빌리티솔루션즈 운전자 보조 시스템
US11433885B1 (en) * 2020-08-20 2022-09-06 Zoox, Inc. Collision detection for vehicles
KR20220027327A (ko) * 2020-08-26 2022-03-08 현대모비스 주식회사 딥러닝 기반 노면판단 모델을 이용한 터레인모드 제어 방법 및 장치
US11954924B2 (en) * 2020-10-23 2024-04-09 Shoppertrak Rct Llc System and method for determining information about objects using multiple sensors
US20220135074A1 (en) * 2020-11-02 2022-05-05 Waymo Llc Classification of objects based on motion patterns for autonomous vehicle applications
US11702102B2 (en) * 2020-11-19 2023-07-18 Waymo Llc Filtering return points in a point cloud based on radial velocity measurement
US20220289237A1 (en) * 2021-03-10 2022-09-15 Gm Cruise Holdings Llc Map-free generic obstacle detection for collision avoidance systems
US20230030815A1 (en) * 2021-07-29 2023-02-02 Argo AI, LLC Complementary control system for an autonomous vehicle
US11904906B2 (en) * 2021-08-05 2024-02-20 Argo AI, LLC Systems and methods for prediction of a jaywalker trajectory through an intersection
US20230047336A1 (en) * 2021-08-12 2023-02-16 Waymo Llc Time gaps for autonomous vehicles
CN113997943A (zh) * 2021-10-28 2022-02-01 山东新一代信息产业技术研究院有限公司 一种基于语义聚类的自动驾驶车辆控制方法、设备及介质
KR102512793B1 (ko) * 2021-11-29 2023-03-22 한국기술교육대학교 산학협력단 차량의 군집주행을 위한 시스템
US20230174110A1 (en) * 2021-12-03 2023-06-08 Zoox, Inc. Vehicle perception system with temporal tracker
WO2023206346A1 (en) * 2022-04-29 2023-11-02 Nvidia Corporation Detecting hardware faults in data processing pipelines

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012172632A1 (ja) * 2011-06-13 2012-12-20 トヨタ自動車株式会社 運転支援装置及び運転支援方法
JP2017076274A (ja) * 2015-10-15 2017-04-20 株式会社日本自動車部品総合研究所 衝突判定システム、衝突判定端末及びコンピュータプログラム
WO2019138485A1 (ja) * 2018-01-11 2019-07-18 住友電気工業株式会社 衝突可能性判定装置、衝突可能性判定方法、及びコンピュータプログラム
JP2019197375A (ja) * 2018-05-09 2019-11-14 トヨタ自動車株式会社 衝突回避支援装置

Family Cites Families (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3322500A1 (de) * 1983-06-23 1987-03-19 Krupp Gmbh Verfahren zum passiven bestimmen von zieldaten eines fahrzeugs
DE19747446A1 (de) * 1997-10-28 1999-04-29 Cit Alcatel Verfahren zur Ansteuerung mindestens eines Haltestellen-Displays und Steuerzentrale
JP3427815B2 (ja) * 2000-03-30 2003-07-22 株式会社デンソー 先行車選択方法及び装置、記録媒体
US6982668B1 (en) * 2003-09-30 2006-01-03 Sandia Corporation Tangential velocity measurement using interferometric MTI radar
US20060100771A1 (en) * 2004-11-10 2006-05-11 E-Lead Electronic Co., Ltd. Vehicle speed detection apparatus
JP4893118B2 (ja) * 2006-06-13 2012-03-07 日産自動車株式会社 回避制御装置、この回避制御装置を備える車両および回避制御方法
WO2009049887A1 (de) 2007-10-16 2009-04-23 I F M Electronic Gmbh Verfahren und vorrichtung zur abstandsbestimmung
US8126642B2 (en) * 2008-10-24 2012-02-28 Gray & Company, Inc. Control and systems for autonomously driven vehicles
JP2010235063A (ja) 2009-03-31 2010-10-21 Equos Research Co Ltd 車両制御装置、車両、及び車両制御プログラム
US9187099B2 (en) * 2013-10-17 2015-11-17 Richard M. Powers Systems and methods for predicting weather performance for a vehicle
CA2910296A1 (en) 2014-12-12 2016-06-12 Atlantic Inertial Systems Limited (HSC) Collision detection system
US9784829B2 (en) * 2015-04-06 2017-10-10 GM Global Technology Operations LLC Wheel detection and its application in object tracking and sensor registration
US9599706B2 (en) * 2015-04-06 2017-03-21 GM Global Technology Operations LLC Fusion method for cross traffic application using radars and camera
US10654477B2 (en) * 2015-10-15 2020-05-19 Hitachi Automotive Systems, Ltd. Vehicle control device
WO2017147747A1 (en) 2016-02-29 2017-09-08 SZ DJI Technology Co., Ltd. Obstacle avoidance during target tracking
EP3349033A1 (en) * 2017-01-13 2018-07-18 Autoliv Development AB Enhanced object detection and motion estimation for a vehicle environment detection system
JP6711312B2 (ja) 2017-05-12 2020-06-17 株式会社デンソー 車両の自動運転制御システム
JP6972744B2 (ja) 2017-08-01 2021-11-24 トヨタ自動車株式会社 運転支援装置
US11334070B2 (en) * 2017-08-10 2022-05-17 Patroness, LLC Systems and methods for predictions of state of objects for a motorized mobile system
JP6989766B2 (ja) * 2017-09-29 2022-01-12 ミツミ電機株式会社 レーダー装置及び物標検出方法
US11353589B2 (en) 2017-11-17 2022-06-07 Nvidia Corporation Iterative closest point process based on lidar with integrated motion estimation for high definition maps
US11091162B2 (en) * 2018-01-30 2021-08-17 Toyota Motor Engineering & Manufacturing North America, Inc. Fusion of front vehicle sensor data for detection and ranging of preceding objects
US11242144B2 (en) * 2018-02-09 2022-02-08 Skydio, Inc. Aerial vehicle smart landing
US11022683B1 (en) * 2018-03-15 2021-06-01 Aeva, Inc. Simultaneous measurement of range and velocity using optical radar
US11550061B2 (en) * 2018-04-11 2023-01-10 Aurora Operations, Inc. Control of autonomous vehicle based on environmental object classification determined using phase coherent LIDAR data
US10706294B2 (en) 2018-05-03 2020-07-07 Volvo Car Corporation Methods and systems for generating and using a road friction estimate based on camera image signal processing
EP3572839A1 (en) * 2018-05-23 2019-11-27 Aptiv Technologies Limited Method of estimating a velocity magnitude of a moving target in a horizontal plane and radar detection system
EP3787947A2 (en) * 2018-08-14 2021-03-10 Mobileye Vision Technologies Ltd. Systems and methods for navigating with safe distances
US20200211394A1 (en) 2018-12-26 2020-07-02 Zoox, Inc. Collision avoidance system
WO2020152534A1 (en) * 2019-01-25 2020-07-30 4Iiii Innovations Inc. Virtual inertia enhancements in bicycle trainer resistance unit
US10943355B2 (en) * 2019-01-31 2021-03-09 Uatc, Llc Systems and methods for detecting an object velocity
CN110362074B (zh) * 2019-06-18 2021-11-23 华南理工大学 一种基于航迹重规划的水面无人艇动态避碰方法
JP2023502000A (ja) * 2019-11-08 2023-01-20 バヤー イメージング リミテッド 車両の周囲を検知するためのシステム及び方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012172632A1 (ja) * 2011-06-13 2012-12-20 トヨタ自動車株式会社 運転支援装置及び運転支援方法
JP2017076274A (ja) * 2015-10-15 2017-04-20 株式会社日本自動車部品総合研究所 衝突判定システム、衝突判定端末及びコンピュータプログラム
WO2019138485A1 (ja) * 2018-01-11 2019-07-18 住友電気工業株式会社 衝突可能性判定装置、衝突可能性判定方法、及びコンピュータプログラム
JP2019197375A (ja) * 2018-05-09 2019-11-14 トヨタ自動車株式会社 衝突回避支援装置

Also Published As

Publication number Publication date
WO2021168452A8 (en) 2022-10-06
EP4096978A4 (en) 2024-03-06
AU2021222055B2 (en) 2022-12-01
US20210261159A1 (en) 2021-08-26
MX2022010293A (es) 2023-01-04
KR20220134029A (ko) 2022-10-05
AU2021222055A1 (en) 2022-10-06
CN115461258A (zh) 2022-12-09
CA3168740C (en) 2023-08-01
US20210261158A1 (en) 2021-08-26
US11719821B2 (en) 2023-08-08
CA3168740A1 (en) 2021-08-26
US11235785B2 (en) 2022-02-01
KR102503388B1 (ko) 2023-03-02
WO2021168452A2 (en) 2021-08-26
US20210261157A1 (en) 2021-08-26
JP7336604B2 (ja) 2023-08-31
EP4096978A2 (en) 2022-12-07
CN115461258B (zh) 2023-09-05
US20230333252A1 (en) 2023-10-19
WO2021168452A3 (en) 2021-10-28

Similar Documents

Publication Publication Date Title
JP7336604B2 (ja) 自律ナビゲーションの間の物体回避の方法
JP7349792B2 (ja) 車両走行のための情報を提供する方法
US20200133272A1 (en) Automatic generation of dimensionally reduced maps and spatiotemporal localization for navigation of a vehicle
WO2018061084A1 (ja) 自己位置推定方法及び自己位置推定装置
US11680801B2 (en) Navigation based on partially occluded pedestrians
US20210389133A1 (en) Systems and methods for deriving path-prior data using collected trajectories
US20220371583A1 (en) Systems and Methods for Selectively Decelerating a Vehicle
US20230236037A1 (en) Systems and methods for common speed mapping and navigation
US11961304B2 (en) Systems and methods for deriving an agent trajectory based on multiple image sources
WO2023129656A1 (en) Calculating vehicle speed for a road curve
EP3410345B1 (en) Information processing apparatus and non-transitory recording medium storing thereon a computer program
US11961241B2 (en) Systems and methods for deriving an agent trajectory based on tracking points within images
JP6699728B2 (ja) 車間距離推定方法及び車間距離推定装置
JP7454685B2 (ja) 車両走行路内のデブリの検出
Hernández et al. Laser based collision warning system for high conflict vehicle-pedestrian zones
CN112734811B (zh) 一种障碍物跟踪方法、障碍物跟踪装置和芯片
US20240094399A1 (en) System and method for object reconstruction and automatic motion-based object classification
Vatavu et al. Real-time environment representation based on occupancy grid temporal analysis using a dense stereo-vision system
JP2020148601A (ja) 認識装置、車両制御装置、認識方法、およびプログラム
WO2023175741A1 (ja) 外界認識装置
WO2023067385A2 (en) Radar-camera fusion for vehicle navigation
KR20230070868A (ko) 시맨틱 분할 이미지 및 시맨틱 포인트 클라우드 맵 기반의 전체론적 매칭을 통한 위치 추정 장치 및 방법
JP2023003924A (ja) 演算装置、速度算出方法
GB2616114A (en) Vehicle navigation with pedestrians and determining vehicle free space
Bharamgoudar Detection of Free Space/Obstacles in Front of the Ego Car Using Stereo Camera in Urban Scenes

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221031

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221012

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221031

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20221031

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230131

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20230501

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230502

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230704

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20230803

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230821

R150 Certificate of patent or registration of utility model

Ref document number: 7336604

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150