JP2023502598A - 統計モデルを用いる衝突モニタリング - Google Patents
統計モデルを用いる衝突モニタリング Download PDFInfo
- Publication number
- JP2023502598A JP2023502598A JP2022527669A JP2022527669A JP2023502598A JP 2023502598 A JP2023502598 A JP 2023502598A JP 2022527669 A JP2022527669 A JP 2022527669A JP 2022527669 A JP2022527669 A JP 2022527669A JP 2023502598 A JP2023502598 A JP 2023502598A
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- determining
- estimated position
- probability
- estimated
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012544 monitoring process Methods 0.000 title abstract description 11
- 238000013179 statistical model Methods 0.000 title description 2
- 238000009826 distribution Methods 0.000 claims abstract description 152
- 238000000034 method Methods 0.000 claims abstract description 132
- 230000009471 action Effects 0.000 claims description 33
- 230000008859 change Effects 0.000 claims description 8
- 230000008569 process Effects 0.000 abstract description 78
- 230000004807 localization Effects 0.000 description 26
- 230000015654 memory Effects 0.000 description 20
- 238000004458 analytical method Methods 0.000 description 17
- 230000001953 sensory effect Effects 0.000 description 16
- 238000004891 communication Methods 0.000 description 15
- 230000008447 perception Effects 0.000 description 14
- 238000012545 processing Methods 0.000 description 11
- 230000007613 environmental effect Effects 0.000 description 6
- 230000033001 locomotion Effects 0.000 description 6
- 241001465754 Metazoa Species 0.000 description 5
- 238000001514 detection method Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 4
- 238000010801 machine learning Methods 0.000 description 4
- 230000003068 static effect Effects 0.000 description 4
- 238000003491 array Methods 0.000 description 3
- 238000005259 measurement Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000011218 segmentation Effects 0.000 description 3
- 230000004931 aggregating effect Effects 0.000 description 2
- 230000006399 behavior Effects 0.000 description 2
- 239000000872 buffer Substances 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 239000003795 chemical substances by application Substances 0.000 description 2
- 230000001149 cognitive effect Effects 0.000 description 2
- 230000001419 dependent effect Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 238000007792 addition Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000010267 cellular communication Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000001816 cooling Methods 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 230000037361 pathway Effects 0.000 description 1
- 231100000817 safety factor Toxicity 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 239000000725 suspension Substances 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
- G08G1/166—Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/08—Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
- B60W30/095—Predicting travel path or likelihood of collision
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/08—Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
- B60W30/095—Predicting travel path or likelihood of collision
- B60W30/0953—Predicting travel path or likelihood of collision the prediction being responsive to vehicle dynamic parameters
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/08—Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
- B60W30/095—Predicting travel path or likelihood of collision
- B60W30/0956—Predicting travel path or likelihood of collision the prediction being responsive to traffic or environmental parameters
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/02—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
- B60W40/04—Traffic conditions
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W60/00—Drive control systems specially adapted for autonomous road vehicles
- B60W60/001—Planning or execution of driving tasks
- B60W60/0015—Planning or execution of driving tasks specially adapted for safety
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W60/00—Drive control systems specially adapted for autonomous road vehicles
- B60W60/001—Planning or execution of driving tasks
- B60W60/0027—Planning or execution of driving tasks using trajectory prediction for other traffic participants
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/93—Lidar systems specially adapted for specific applications for anti-collision purposes
- G01S17/931—Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
Landscapes
- Engineering & Computer Science (AREA)
- Automation & Control Theory (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Mathematical Physics (AREA)
- Electromagnetism (AREA)
- Computer Networks & Wireless Communication (AREA)
- Traffic Control Systems (AREA)
- Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
Abstract
誤差モデルを用いて衝突のモニタリングを実行するための技術および方法である。例えば、車両は、1つまたは複数のセンサーを用いてセンサーデータを生成することができる。車両は、次に、車両に関連付けられるパラメーターおよび別のオブジェクトに関連付けられるパラメーターを決定すべく、システムを用いてセンサーデータを分析することができる。さらに、車両は、車両に関連付けられる推定される位置の分布を決定すべく、システムに関連付けられる誤差モデルを用いて、車両に関連付けられるパラメーターを処理することができる。車両は、また、オブジェクトに関連付けられる推定される位置の分布を決定すべく、誤差モデルを用いてオブジェクトに関連付けられるパラメーターを処理することができる。推定される位置の分布を用いて、車両は、車両とオブジェクトとの間の衝突の確率を決定することができる。
Description
本発明は、統計モデルを用いる衝突モニタリングに関する。
本出願は、「COLLISION MONITORING USING STATISTIC MODELS」と題された2019年11月13日に出願された米国特許出願第16/682,971号、および「COLLISION MONITORING USING SYSTEM DATA」と題された2019年11月13日に出願された米国特許出願第16/683,005号の優先権を主張し、双方の内容全体が参照により本明細書に組み込まれる。
自律車両は、自律車両コントローラーを用いることが可能であり、環境を通して自律車両を誘導する。例えば、自律車両コントローラーは、プラニング方法、装置、およびシステムを用いることが可能であり、動的なオブジェクト(例えば、車両、歩行者、動物など)および静的オブジェクト(例えば、建物、標識、立ち往生した車両など)を含む環境を通して走行経路を決定して、自律車両を誘導する。自律車両コントローラーは、車両が環境を通ってナビゲートするにつれて、動的オブジェクトの予測される挙動を考慮に入れることができる。
詳細な説明は、添付の図面を参照して説明される。図面において、参照番号の左端の数字は、その参照番号が最初に出現する図面を識別する。異なる図面における同一の参照番号の使用は、類似または同一の構成要素または特徴を示す。
上記のように、自律車両は、コントローラーを用いることが可能であり、環境を通して自律車両を誘導する。例えば、コントローラーは、プラニング方法、装置、およびシステムを用いることが可能であり、動的なオブジェクト(例えば、車両、歩行者、動物など)および/または静的オブジェクト(例えば、建物、標識、立ち往生した車両など)を含む環境を通して走行経路を決定して、自律車両を誘導する。乗員およびオブジェクトの安全性を保証すべく、自律車両コントローラーは、環境において動作する場合に安全因子を用いてよい。しかしながら、少なくともある例示において、このようなシステムおよびコントローラーは、検証されることができない複雑なシステムを含む場合がある。このようなシステムおよびシステムに関連付けられる誤差または不確実性を決定する方法が存在しないという事実にもかかわらず、このような誤差および不確実性は、このような車両に環境における安全な動作を通知するために必要であることがある。
そのため、本開示は、複雑なシステムおよびシステムに対する誤差および/または不確実性モデルを決定することによって、誤差モデルおよび/またはシステムデータを用いる衝突のモニタリングを実行するための技術に向けられる。例えば、自律車両は、誤差モデルおよび/またはシステムの不確実性を用いて、後で、自律車両および1つまたは複数のオブジェクトの両方の推定される位置を決定することができる。ある例示において、推定される位置は、自律車両および1つまたは複数のオブジェクトに関連付けられる確率分布の位置を含んでよい。自律車両は、次に、推定される位置を用いる自律車両と1つまたは複数のオブジェクトとの間の衝突の確率を決定することができる。少なくとも部分的に衝突の確率に基づいて、自律車両は、1つまたは複数のアクションを実行してよい。少なくともある例示において、このような確率は、本明細書で詳細に説明される技術のいずれかに従って行われた決定に基づいて決定されてよい。
より詳細については、自律車両は、環境を横断することが可能であり、1つまたは複数のセンサーを用いるセンサーデータを生成することが可能である。ある例示において、センサーデータは、飛行時間センサー、位置センサー(例えば、GPS、コンパスなど)、慣性センサー(例えば、慣性測定ユニット(IMU)、加速度計、磁気計、ジャイロスコープなど)、ライダーセンサー、レーダーセンサー、ソナーセンサー、赤外線センサー、カメラ(例えば、RGB、IR、強度、深度など)、マイクセンサー、環境センサー(例えば、温度センサー、湿度センサー、光センサー、圧力センサーなど)、超音波トランスデューサー、ホイールエンコーダーなどのようなセンサーによってキャプチャされるデータを含んでよい。自律車両は、次に、環境を通してナビゲートする場合に、1つまたは複数のコンポーネント(例えば、1つまたは複数のシステム)を用いるセンサーデータを分析することが可能である。
例えば、自律車両のコンポーネントのうちの1つまたは複数は、センサーデータを用いることが可能であり、自律車両に対する軌道を生成する。ある例示において、1つまたは複数のコンポーネントは、また、センサーデータを用いることが可能であり、自律車両の位置に関連付けられる姿勢データを決定する。例えば、1つまたは複数のコンポーネントは、センサーデータを用いることが可能であり、環境における車両の位置データ、座標データ、および/または方向データを決定する。ある例示において、姿勢データは、x-y-z座標を含んでよく、ならびに/または車両に関連付けられるピッチ、ロール、およびヨーデータを含んでよい。
さらに、自律車両の1つまたは複数のコンポーネントは、センサーデータを用いることが可能であり、環境内のオブジェクトの検出、識別、セグメンテーション、分類、および/または追跡などの動作を実行する。例えば、歩行者、自転車/自転車運転者、バイク/バイク運転者、バス、路面電車、トラック、動物などのオブジェクトは、環境において存在してよい。1つまたは複数のコンポーネントは、未来の時点(例えば、未来での1秒、未来での5秒など)でのオブジェクトに対する推定される位置と同様に、センサーデータを用いることが可能であり、オブジェクトの現在の位置を決定する。
自律車両は、次に、オブジェクトの推定される位置と共に自律車両の軌道を用いることが可能であり、自律車両とオブジェクトとの間の衝突の確率を決定する。例えば、自律車両は、未来の時点でのオブジェクトの推定される位置が未来の時点での軌道に沿った自律車両の位置と交差するかを決定することができる。安全性を高めるために、自律車両は、決定を行う場合に、距離および/または時間バッファーを用いてよい。例えば、自律車両は、未来の時点でのオブジェクトの位置が自律車両の位置までの閾値距離(例えば、距離バッファー)内にある場合に、衝突の確率が高いという決定をすることができる。
さらに、自律車両は、コンポーネントに関連付けられる誤差モデルおよび/またはコンポーネントの出力に関連付けられる不確実性を用いて、衝突の確率を決定することができる。コンポーネントに関連付けられる誤差モデルは、コンポーネントの出力に関連付けられる誤差および/または誤差パーセンテージを表現することが可能である。例えば、知覚誤差モデルは、知覚コンポーネントの知覚パラメーター(例えば、出力)に関連付けられる知覚誤差を生成することが可能であり、予測誤差モデルは、予測コンポーネントなどからの予測パラメーター(例えば、出力)に関連付けられる予測誤差を生成することが可能である。ある例示において、誤差は、グラウンドトゥルースデータ、関数(例えば、入力パラメーターに基づく誤差)、または出力を特定の誤差にマッピングする任意の他のモデルもしくはデータ構造を用いる統計的集合に少なくとも部分的に基づいて決定されるルックアップテーブルによって限定されることなく、表現されることができる。少なくともある例示において、このような誤差モデルは、発生の確率/頻度を伴う具体的なの誤差をマッピングしてよい。説明されるように、ある例示において、このような誤差モデルは、特定のクラスのデータ(例えば、車両の速度、オブジェクトの速度などに基づいて、距離の第1の範囲内の検出に対する知覚システムおよび距離の第2の範囲内の検出に対する知覚システムに対しての異なる誤差モデル)について決定されてよい。
ある例示において、誤差モデルは、静的誤差モデルを含んでよい。他の例示において、誤差モデルは、自律車両および/または1つまたは複数のコンピューティングデバイスによって更新される動的誤差モデルを含んでよい。例えば、コンピューティングデバイスは、自律車両から車両データを継続して受信してよい。コンピューティングデバイスは、次に、グラウンドトゥルースデータと同様に、車両データを用いる誤差モデルを更新してよく、これは、以下でより詳細に説明される。誤差モデルを更新した後で、コンピューティングデバイスは、更新された誤差モデルを自律車両に送信してよい。
コンポーネントは、センサーデータを分析することができ、少なくとも部分的に分析に基づいて出力を生成することができ、これは、1つまたは複数のパラメーターを表現することができる。誤差モデルは、次に、オブジェクトに関連付けられる速度のような車両のコンポーネントの出力が誤差パーセンテージに関連付けられているということを示すことが可能である。例えば、コンポーネントは、環境内のオブジェクトの速度が毎秒10メートルであるということを決定することができる。誤差モデルを用いて、自律車両は、誤差パーセンテージがX%(例えば、20%)であり、速度+/-X%(例えば、20%の誤差パーセンテージの場合における毎秒8メートルと毎秒12メートルとの間)の範囲をもたらすという決定をすることができる。ある例示において、速度の範囲は、範囲の一部が範囲の他の部分よりも発生する確率が高いことを示しているガウス分布のような確率分布に関連付けられてよい。ある例示において、確率分布は、多様な離散確率へとビニングされてよい。例えば、8メートル毎秒および12メートル毎秒は、5%の確率に関連付けられてよく、9メートル毎秒および11メートル毎秒は、20%の確率に関連付けられてよく、10メートル毎秒は、45%の確率に関連付けられてよい。
誤差モデルを用いるために、自律車両は、少なくとも部分的に、コンポーネントからの出力およびコンポーネントに関連付けられる誤差モデルに基づいて、未来の時点でのオブジェクトの推定される位置を決定することができる。推定される位置は、位置のガウス分布のような確率分布に対応してよい。ある例示において、自律車両は、コンポーネントおよび/またはパラメーターのそれぞれに関連付けられるそれぞれの確率分布を最初に決定することによって、オブジェクトの推定される位置を決定する。自律車両は、次に、すべてのコンポーネントおよび/またはパラメーターに対する確率分布を用いる推定される位置を決定することができる。例えば、自律車両は、すべてのコンポーネントおよび/またはパラメーターに対する確率分布を集合または組み合わせることができ、推定される位置を決定する。確率分布を集合および/または組み合わせることは、確率分布を乗算すること、確率分布を集計すること、および/または確率分布に1つまたは複数の他の式を適用することを含んでよい。
追加的または代替的に、ある例示において、自律車両は、最初に、コンポーネントからの出力を用いるオブジェクトに関連付けられる初期の推定される位置を決定することができる。自律車両は、次に、誤差モデルを用いて、それぞれの出力の合計の誤差を決定する。自律車両は、コンポーネントに対する誤差モデルのそれぞれからの誤差を集合および/または組み合わせることによって、合計の誤差を決定することができる。次に、自律車両は、合計の誤差および初期の推定される位置を用いて推定される位置を決定する。このような例示において、推定される位置は、初期の推定される位置の周りの起こり得る位置の分布を含んでよい。
第1の例示に対して、自律車両は、1つまたは複数のコンポーネントを用いて、オブジェクトに関連付けられるパラメーターを決定すべく、センサーデータを分析することができる。パラメーターは、オブジェクトのタイプ、オブジェクトの現在の位置、オブジェクトの速度、オブジェクトの走行方向などを含んでよいが、これらに限定されない。誤差モデルを用いて、自律車両は、次に、オブジェクトのタイプに関連付けられる確率分布、オブジェクトの現在の位置に関連付けられる確率分布、オブジェクトの速度に関連付けられる確率分布、オブジェクトの走行方向に関連付けられる確率分布などを決定することができる。自律車両は、次に、パラメーターに対する確率分布を用いる未来の時点でのオブジェクトの推定される位置を決定することができる。この第1の例示において、推定される位置のそれぞれ(または任意の1つまたは複数)は、位置の確率分布として表現されることができる。
第2の例示に対して、自律車両は、1つまたは複数のコンポーネントを用いて、オブジェクトに関連付けられるパラメーターを決定すべく、センサーデータを分析することができる。自律車両は、次に、パラメーターを用いて、未来の時点でのオブジェクトの初期の推定される位置を決定することができる。さらに、ある例示において、自律車両は、パラメーターに関連付けられる誤差モデルを用いて、オブジェクトの初期の推定される位置を決定することに関連付けられる合計の誤差および/または誤差パーセンテージを決定することができる。自律車両は、次に、初期の推定される位置、および合計の誤差および/または誤差パーセンテージを使用してよく、オブジェクトに対する推定される位置を決定する。再び、この第2の例示において、推定される位置のそれぞれ(または任意の1つまたは複数)は、位置の確率分布として表現されることができる。
上記の例示のいずれかにおいて、自律車両は、同様のプロセスを用いて、環境内に位置される1つまたは複数の他のオブジェクトの推定される位置を決定することができる。さらに、自律車両は、同様のプロセスを用いて、未来の時点での自律車両の推定される位置を決定することができる。例えば、自律車両は、1つまたは複数のコンポーネントを用いて、自律車両に関連付けられるパラメーターを決定すべく、センサーデータを分析することができる。パラメーターは、自律車両の位置、自律車両の速度、自律車両の走行方向などを含んでよいが、これらに限定されない。自律車両は、次に、パラメーターに関連付けられる誤差モデルを用いて、未来の時点での自律車両の推定される位置を決定することができる。ある例示において、推定される位置のそれぞれ(または任意の1つまたは複数)は、未来の時点での自律車両に対する位置の確率分布に対応してよい。
自律車両および/またはオブジェクトの推定される位置を決定するために、誤差モデルを用いることに加えて、またはその代替から、自律車両は、コンポーネントおよび/または出力に関連付けられる不確実性モデルのようなシステムデータを用いる推定される位置を決定することができる。パラメーターに関連付けられる不確実性モデルは、出力がどれだけ信頼されるべきかの分布、および/またはシステムが出力をどれだけ正確であるかの測定に対応してよい。例えば、コンポーネントがオブジェクトの位置を決定すべくセンサーデータを多様な回数分析する場合、コンポーネントは、出力がグラウンドトゥルースデータデータによって示される位置の周りの値の小さな分布(例えば、第1の範囲内)を含む場合、低い不確実性を出力することとなる。さらに、コンポーネントは、出力がグラウンドトゥルースデータデータによって示される位置の周りの値の大きな分布を含む場合(例えば、第1の範囲よりも大きい第2の範囲内)、高い不確実性を出力することとなる。自律車両は、不確実性モデルを用いて、未来の時点でのオブジェクトの推定される位置を決定することができる。
第1の例示に対して、自律車両は、1つまたは複数のコンポーネントを用いて、オブジェクトに関連付けられるパラメーターを決定すべく、センサーデータを分析することができる。自律車両は、次に、オブジェクトのタイプを決定することに関連付けられる不確実性モデル、オブジェクトの現在の位置を決定することに関連付けられる不確実性モデル、オブジェクトの速度を決定することに関連付けられる不確実性モデル、オブジェクトの走行方向を決定することに関連付けられる不確実性モデルなどを決定することができる。自律車両は、次に、パラメーターに関連付けられる不確実性モデルを用いる未来の時点でのオブジェクトの推定される位置を決定することができる。この第1の例示において、推定される位置は、位置の確率分布に対応してよい。
第2の例示に対して、自律車両は、1つまたは複数のコンポーネントを用いて、オブジェクトに関連付けられるパラメーターを決定すべく、センサーデータを分析することができる。自律車両は、次に、パラメーターを用いる未来の時点でのオブジェクトの初期の推定される位置を決定することができる。さらに、自律車両は、パラメーターおよび推定される位置を決定するコンポーネントに関連付けられる不確実性モデルを用いて、未来の時点でのオブジェクトの推定される位置を決定することができる。再び、この第2の例示において、推定される位置は、位置の確率分布に対応してよい。
上記の例示のいずれかにおいて、自律車両は、同様のプロセスを用いて、環境内に位置される1つまたは複数の他のオブジェクトの推定される位置を決定することができる。さらに、自律車両は、同様のプロセスを用いて、未来の時点での自律車両の推定される位置を決定することができる。例えば、自律車両は、1つまたは複数のコンポーネントを用いて、自律車両に関連付けられるパラメーターを決定すべく、センサーデータを分析することができる。パラメーターは、自律車両の位置、自律車両の速度、自律車両の走行方向などを含んでよいが、これらに限定されない(これらのうちのいずれかおよび/またはすべては、例えば、プランナーシステムからの出力軌道に由来してよい)。自律車両は、次に、パラメーターに関連付けられる不確実性モデルを用いて、未来の時点での自律車両の推定される位置を決定することができる。ある例示において、推定される位置は、未来の時点での自律車両に対する位置の確率分布に対応してよい。
ある例示において、自律車両は、次に、自律車両の推定される位置およびオブジェクトの推定される位置を用いる衝突の確率を決定することができる。例えば、自律車両とオブジェクトとの間の衝突の確率は、自律車両の推定される位置(例えば、位置の確率分布)とオブジェクトの推定される位置(例えば、位置の確率分布)との間の幾何学的な重複の領域を用いて算定されてよい。ある例示において、環境内に位置される多様なオブジェクトが存在する場合、自律車両は、オブジェクトのそれぞれに対して決定される衝突の確率を用いる自律車両に関連付けられる合計の衝突の確率を決定することができる。例えば、合計の衝突の確率は、オブジェクトのそれぞれに対する衝突の確率の合計を含んでよい。
自律車両は、次に、衝突の確率が閾値(例えば、0.5%、1%、5%、および/またはある他の閾値パーセンテージ)と等しいか、またはそれよりも大きいかを決定することができる。ある例示において、衝突の確率が閾値よりも小さい場合、自律車両は、次に、自律車両の現在のルートに沿ってナビゲートすることを継続してよい。しかしながら、ある例示において、自律車両が、衝突の確率が閾値と等しいか、またはそれよりも大きいという決定をする場合、自律車両は、1つまたは複数のアクションをとってよい。例えば、自律車両は、自律車両の速度を変更(例えば、減速)してよく、自律車両のルートを変更してよく、安全な場所での駐車などをしてもよい。
追加的または代替的に、ある例示において、自律車両は、少なくとも部分的に、自律車両の推定される位置を決定するために用いられる不確実性モデルおよびオブジェクトの推定される位置を決定するために用いられる不確実性モデルに基づいて、自律車両をナビゲートすることに関連付けられる合計の不確実性を決定することができる。自律車両は、次に、異なるルートを生成してよく、異なるルートに関連付けられる合計の不確実性を決定するための同様のプロセスを実行してよい。さらに、自律車両は、最低の不確実性を含むルートを選択してよい。
自律車両および/または1つまたは複数のコンピューティングデバイスは、入力データ(例えば、ログデータおよび/またはシミュレーションデータ)を用いて、誤差モデルおよび/または不確実性モデルを生成する。例えば、自律車両および/または1つまたは複数のコンピューティングデバイスは、入力データをグラウンドトゥルースデータと比較することができる。ある例示において、グラウンドトゥルースデータは、他の認証された機械学習コンポーネントから手動でラベル付けおよび/または決定されることが可能である。例えば、入力データは、センサーデータおよび/または自律車両のコンポーネントによって生成される出力データを含んでよい。自律車両および/または1つまたは複数のコンピューティングデバイスは、入力データを環境におけるオブジェクトの実際のパラメーターを示し得るグラウンドトゥルースデータと比較することが可能である。入力データをグラウンドトゥルースデータと比較することによって、自律車両および/または1つまたは複数のコンピューティングデバイスは、コンポーネントおよび/またはパラメーターに関連付けられる誤差および/または不確実性を決定することが可能であり、誤差を用いる対応する誤差モデルおよび/または不確実性を用いる対応する不確実性モデルを生成することが可能である。
ある例示において、自律車両および/または1つまたは複数のコンピューティングデバイスは、コンポーネントに関連付けられる不確実性を決定することが可能である。例えば、自律車両および/または1つまたは複数のコンピューティングデバイスは、コンポーネントから多様な出力(例えば、パラメーター)を受信すべく、入力データをコンポーネントへと多様な回数入力することができる。自律車両および/または1つまたは複数のコンピューティングデバイスは、次に、出力を分析することができ、出力に関連付けられる分布を決定する。分布を用いて、自律車両および/または1つまたは複数のコンピューティングデバイスは、不確実性を決定することができる。例えば、大きな分布がある場合、自律車両および/または1つまたは複数のコンピューティングデバイスは、高い不確実性があると決定することができる。しかしながら、小さな分布がある場合、自律車両および/または1つまたは複数のコンピューティングデバイスは、小さな不確実性があるという決定をすることができる。
本明細書で説明される技術は、複数の方法で実装されてよい。例示的な実装は、以下の図面を参照することで以下に提供される。自律車両のコンテキストにおいて説明されるが、本明細書で説明される方法、装置、およびシステムは、さまざまなシステム(例えば、センサーシステム、またはロボティックプラットホーム)に適用されてよく、自律車両に限定されない。別の例示において、技術は、航空または船舶のコンテキストにおいて、またはマシンビジョンを用いる任意のシステムにおいて(例えば、画像データを用いるシステムにおいて)利用されてよい。さらに、本明細書で説明される技術は、(例えば、センサーを用いてキャプチャされた)実データ、(例えば、シミュレーターによって生成される)シミュレーションされるデータ、またはその2つの任意の組合せで用いられてよい。
図1は、本開示の実施形態に従って、誤差モデルおよび/またはシステムデータを用いる衝突のモニタリングを実行する車両102を含む環境100を図示する。例えば、車両102は、環境100内の軌道104に沿ってナビゲートすることができる。ナビゲートしている間に、車両102は、車両102の1つまたは複数のセンサーを用いるセンサーデータ106を生成することができ、車両102の1つまたは複数のコンポーネント108(例えば、1つまたは複数のシステム)を用いてセンサーデータ106を分析することができる。コンポーネント108は、ローカリゼーションコンポーネント、知覚コンポーネント、予測コンポーネント、プラニングコンポーネントなどを含んでよいが、これらに限定されない。少なくとも部分的に分析に基づいて、車両102は、少なくとも環境100内に位置する第1のオブジェクト110および第2のオブジェクト112を識別することができる。
さらに、車両102は、車両102に関連付けられる推定される位置114、第1のオブジェクト110に関連付けられる推定される位置116、および未来の時点での第2のオブジェクト112に関連付けられる推定される位置118を決定すべく、コンポーネント108を用いてセンサーデータ106を分析することができる。ある例示において、推定される位置114は、車両102に関連付けられる位置の確率分布を含んでよく、推定される位置116は、第1のオブジェクト110に関連付けられる位置の確率分布を含んでよく、および/または推定される位置118は、第2のオブジェクト112に関連付けられる位置の確率分布を含んでよい。
例えば、推定される位置114は、車両102に関連付けられる推定される位置120(1)、第1の確率に関連付けられる推定される位置120(2)の第1の領域(例えば、第1の境界)、第2の確率に関連付けられる推定される位置120(3)の第2の領域(例えば、第2の境界)、および第3の確率に関連付けられる推定される位置120(4)の第3の領域(例えば、第3の境界)を含んでよい。ある例示において、第1の確率は、第2の確率よりも大きく、第2の確率は、第3の確率よりも大きい。例えば、車両102は、車両102がおおよその位置120(3)の第2の領域内よりも推定される位置120(2)の第1の領域内に位置することとなる確率がより高いという決定をすることができる。さらに、車両102は、車両102が推定される位置120(3)の第2の領域内に位置することとなる確率が、推定される位置120(4)の第3の領域内よりも高いという決定をすることができる。
図1の例示がこのように推定される位置の3つの別個の領域だけを例示する一方で、他の例示において、推定される位置の任意の数の領域があり得ることに留意されたい。さらに、推定される位置120(1)からさらに遠くに位置する領域は、推定される位置120(1)により近い位置に位置する領域よりも低い確率を含んでよい。これは、同様に、オブジェクト110およびオブジェクト112の推定される位置のそれぞれのためであってよい。
さらに、推定位置116は、第1のオブジェクト110に関連付けられる推定される位置122(1)、第1の確率に関連付けられる推定される位置122(2)の第1の領域(例えば、第1の境界)、第2の確率に関連付けられる推定される位置122(3)の第2の領域(例えば、第2の境界)、および第3の確率に関連付けられる推定される位置122(4)の第3の領域(例えば、第3の境界)を含んでよい。ある例示において、第1の確率は、第2の確率よりも大きく、第2の確率は、第3の確率よりも大きい。例えば、車両102は、第1のオブジェクト110がおおよその位置120(3)の第2の領域内よりも推定される位置122(2)の第1の領域内に位置することとなる確率がより高いという決定をすることができる。さらに、車両102は、第1のオブジェクト110が推定される位置122(3)の第2の領域内に位置することとなる確率が、推定される位置122(4)の第3の領域内よりも高いという決定をすることができる。
さらに、推定される位置118は、第2のオブジェクト112に関連付けられる推定される位置124(1)、第1の確率に関連付けられる推定される位置124(2)の第1の領域(例えば、第1の境界)、第2の確率に関連付けられる推定される位置124(3)の第2の領域(例えば、第2の境界)、および第3の確率に関連付けられる推定される位置120(4)の第3の領域(例えば、第3の境界)を含んでよい。ある例示において、第1の確率は、第2の確率よりも大きく、第2の確率は、第3の確率よりも大きい。例えば、車両102は、第2のオブジェクト112がおおよその位置124(3)の第2の領域内よりも推定される位置124(2)の第1の領域内に位置することとなる確率がより高いという決定をすることができる。さらに、車両102は、第2のオブジェクト112が推定される位置124(3)の第2の領域内に位置することとなる確率が、推定される位置124(4)の第3の領域内よりも高いという決定をすることができる。
ある例示において、車両102は、コンポーネント108に関連付けられる誤差モデル126を用いて推定される位置114~118を決定することができる。例えば、第1のオブジェクト110に対して、車両102は、第1のオブジェクト110に関連付けられる1つまたは複数のパラメーター128を決定すべく、コンポーネント108を用いてセンサーデータ106を分析することができる。パラメーター128は、第1のオブジェクト110のタイプ、第1のオブジェクト110の現在の位置(および/または第1のオブジェクト110までの距離)、第1のオブジェクト110の速度などを含んでよいが、これらに限定されない。誤差モデル126を用いて、車両102は、次に、第1のオブジェクト110の推定される位置116を決定することができる。
第1の例示に対して、車両102は、第1の誤差モデル126を用いて第1のオブジェクト110のタイプに関連付けられる確率分布を決定することができ、第2の誤差モデル126を用いて第1のオブジェクト110の現在の位置に関連付けられる確率分布を決定することができ、第3の誤差モデル126を用いて第1のオブジェクト110の速度に関連付けられる確率分布を決定することなどができる。例えば、第1のオブジェクト110の速度を用いて、車両102は、第1のオブジェクト110の速度が毎秒1メートルであるという決定をすることができる。次に、車両102は、第3の誤差モデル126を用いて、誤差パーセンテージがX%(例えば、20%)であってよく、速度の範囲(例えば、20%での毎秒0.8メートルと毎秒1.2メートルとの間の速度)をもたらし得るということを決定することができる。ある例示において、誤差モデル126は、さらに、範囲の一部が他の範囲の部分よりもより高い発生する確率を有するということを示すことができる。例えば、毎秒0.8メートルおよび毎秒1.2メートルは、5%の確率に関連付けられてよく、毎秒0.9メートルおよび毎秒1.1メートルは、20パーセントの確率に関連付けられてよく、毎秒1メートルは、45%の確率に関連付けられてよい。車両102は、他のパラメーター128の確率分布を決定するための同様のプロセスを用いてよい。
車両102は、次に、パラメーター128の確率分布を用いて、第1のオブジェクト110の推定される位置116を決定することができる。さらに、車両102は、同様のプロセスを用いて車両102に対するパラメーター128を決定することができ、車両102に対するパラメーター128に関連付けられる確率分布を決定することができ、確率分布を用いる推定される位置114を決定することができる。さらに、車両102は、同様のプロセスを用いて第2のオブジェクト112に対するパラメーター128を決定することができ、第2のオブジェクト112に対するパラメーター128に関連付けられる確率分布を決定することができ、確率分布を用いる推定される位置116を決定することができる。
第2の例示に対して、車両102は、第1のオブジェクト110に対して推定される位置122(1)を決定すべく、第1のオブジェクト110に対するパラメーター128を用いてよい。車両102は、次に、パラメーター128に対する誤差を決定すべく、推定される位置122(1)を決定するために用いられたパラメーター128に関連付けられる誤差モデル126を用いてよい。合計の誤差および推定される位置122(1)を用いて、車両102は、第1のオブジェクト110に対して推定される位置116を決定することができる。さらに、車両102は、同様のプロセスを用いて、車両102に対して推定される位置114および第2のオブジェクト112に対して推定される位置118を決定することができる。
推定される位置114~118を決定するために誤差モデル126を用いることに加えて、またはその代替から、他の例示において、車両102は、コンポーネント108および/またはパラメーター128に関連付けられる1つまたは複数の不確実性モデル130を用いてよい。例えば、コンポーネント108からの出力は、パラメーター128を決定することに関連付けられる不確実性モデル130を含んでよい。例えば、車両102は、第1のオブジェクト110のタイプを決定することに関連付けられる第1の不確実性モデル130、第1のオブジェクト110の現在の位置を決定することに関連付けられる第2の不確実性モデル130、第1のオブジェクト110の速度を決定することに関連付けられる第3の不確実性モデル130などを決定することができる。車両102は、次に、パラメーター128および不確実性モデル130を用いて、第1のオブジェクト110に対して推定される位置116を決定することができる。
第1の例示に対して、車両102は、第1の不確実性モデル130を用いる第1のオブジェクト110のタイプに関連付けられる確率分布を決定することができ、第2の不確実性モデル130を用いて第1のオブジェクト110現在の位置に関連付けられる確率分布を決定することができ、第3の不確実性モデル130を用いて第1のオブジェクト110の速度に関連付けられる確率分布を決定することなどができる。例えば、第1のオブジェクト110の速度を用いて、車両102は、第1のオブジェクト110の速度が毎秒1メートルであるという決定をすることができる。車両102は、次に、第1のオブジェクトの速度に対する不確実性が20%であるため、確実性は、80%であるという決定をすることができる。そのため、車両102は、毎秒0.8メートルと毎秒1.2メートルとの間の速度の範囲であると決定することができる。ある例示において、車両102は、さらに、範囲の一部が他の範囲の部分よりもより高い発生する確率を有するということを決定することができる。例えば、毎秒0.8メートルおよび毎秒1.2メートルは、5%の確率に関連付けられてよく、毎秒0.9メートルおよび毎秒1.1メートルは、20%の確率に関連付けられてよく、1メートル毎秒は、45%の確率に関連付けられてよい。車両102は、他のパラメーター128の確率分布を決定するための同様のプロセスを用いてよい。
車両102は、次に、パラメーター128の確率分布を用いて、第1のオブジェクト110の推定される位置116を決定することができる。さらに、車両102は、同様のプロセスを用いて車両102に対するパラメーター128を決定することができ、車両102に対するパラメーター128に関連付けられる確率分布を決定することができ、確率分布を用いて推定される位置114を決定することができる。さらに、車両102は、同様のプロセスを用いて第2のオブジェクト112に対するパラメーター128を決定することができ、第2のオブジェクト112に対するパラメーター128に関連付けられる確率分布を決定することができ、確率分布を用いる推定される位置116を決定することができる。
第2の例示に対して、車両102は、第1のオブジェクト110に対して推定される位置122(1)を決定すべく、第1のオブジェクト110に対するパラメーター128を用いてよい。車両102は、次に、推定される位置122(1)に関連付けられる合計の不確実性を決定すべく、パラメーター128に関連付けられる不確実性モデル130を用いてよい。合計の不確実性を用いて、車両102は、第1のオブジェクト110に対して推定される位置116を決定することができる。さらに、車両102は、同様のプロセスを用いて、車両102に対して推定される位置114および第2のオブジェクト112に対して推定される位置118を決定することができる。
上記の例示のいずれにおいても、推定される位置114~118を決定した後で、車両102は、推定される位置114~118を用いる衝突の確率を決定することができる。例えば、車両102は、車両102と第1のオブジェクト110との間の衝突の確率を決定することができる。ある例示において、車両102は、車両102の推定される位置114と第1のオブジェクト110の推定される位置116との間の少なくとも幾何学的な重複の領域を用いる衝突の確率を決定することができる。
より具体的には、車両102の推定される位置114は、パラメーターμv,σv(これは、N(μv,σv
2)によって表現されてよい)を有するガウス分布であってよい。さらに、第1のオブジェクト110の推定される位置116は、パラメーターμ0,σ0(これは、N(μ0,σ0
2)によって表現されてよい)を有するガウス分布であってよい。推定される位置114と推定される位置116との間の重複の確率は、次に、P[x=0]に変換されてよく、ここで、xは、N(μv-σ0
2+σv
2)属する。これは、重複の確率を決定することに関連付けられる1次元の問題を表現することができる。
ある例示において、車両102は、1次元の問題を2次元の問題に拡張すべく、同様のプロセスを実行してよい。さらに、車両102は、車両102と第2のオブジェクト112との間の衝突の確率を決定すべく、同様のプロセスを実行してよい。ある例示において、車両102は、次に、車両102と第1のオブジェクト110との間の衝突の確率、および車両102と第2のオブジェクト112との間の衝突の確率を用いる衝突の合計の確率を決定することができる。しかしながら、図1の例示において、推定される位置114と推定される位置118との間に幾何学的な重複がないため、車両102と第2のオブジェクト112との間の衝突の確率は、0であってよい。
車両102は、次に、衝突の確率が閾値と等しいか、またはそれよりも大きいかを決定することができる。少なくとも部分的に、衝突の確率が閾値よりも小さいという決定に基づいて、車両102は、軌道104に沿って継続してナビゲートすることができる。しかしながら、少なくとも部分的に、衝突の確率が閾値と等しいか、またはそれよりも大きいという決定に基づいて、車両102は、1つまたは複数のアクションをとってよい。1つまたは複数のアクションは、新しい軌道に沿ってナビゲートすること、速度を変更すること(例えば、減速すること)、駐車することなどを含んでよいが、これらに限定されない。
ある例示において、車両102は、オブジェクト110とオブジェクト112との間の衝突の確率を決定すべく、同様のプロセスを実行し得ることに留意されたい。車両102は、次に、少なくとも部分的に、衝突の確率に基づいて1つまたは複数のアクションを実行してよい。例えば、車両102が、オブジェクト110とオブジェクト112との間の衝突の確率が閾値と等しいか、またはそれよりも大きいという決定をする場合、車両102は、停止してよい。
図2は、本開示の実施形態に従って、オブジェクトに関連付けられる推定される位置を決定すべく、誤差モデル126を用いるセンサーデータ106を分析する車両102の例示を図示する。例えば、車両102のセンサーシステム202は、センサーデータ106を生成することができる。センサーデータ106は、次に、車両102のコンポーネント108によって分析されることができる。図2の例示において、コンポーネント108は、ローカリゼーションコンポーネント204、知覚コンポーネント206、プラニングコンポーネント208、および予測コンポーネント210を含んでよい。しかしながら、他の例示において、車両102は、ローカリゼーションコンポーネント204、知覚コンポーネント206、プラニングコンポーネント208、または予測コンポーネント210のうちの1つまたは複数を含まないことがある。追加的または代替的に、ある例示において、車両102は、1つまたは複数のさらなるコンポーネントを含んでよい。
コンポーネント204~210のうちの1つまたは複数は、次に、センサーデータ106を分析することができ、少なくとも部分的に分析に基づいて出力212~218を生成することができる。ある例示において、出力212~218は、車両102および/またはオブジェクトに関連付けられるパラメーターを含んでよい。第1の例示に対して、ローカリゼーションコンポーネント204からの出力212は、車両102の位置を示すことができる。第2の例示に対して、知覚コンポーネント206からの出力214は、オブジェクトに関連付けられる検出、セグメンテーション、分類などを含んでよい。第3の例示に対して、プラニングコンポーネント208からの出力216は、車両102が環境内を横断するための経路を含んでよい。
図2の例示において図示されていないが、コンポーネント204~210のうちの1つまたは複数は、出力212~218を生成すべく、他のコンポーネント204~210のうちの1つまたは複数からの出力212~218を用い得ることに留意されたい。例えば、プラニングコンポーネント208は、出力216を生成すべく、ローカリゼーションコンポーネント204からの出力212を用いてよい。別の例示に対して、プラニングコンポーネント208は、出力216を生成すべく、知覚コンポーネント206からの出力214を用いてよい。1つまたは複数の他のコンポーネント204~210からの出力212~218を用いることに加えて、またはその代替から、コンポーネント204~210は、確率分布220~226を用いてよく、これらは、以下で示される。
誤差コンポーネント228は、出力212~218に関連付けられる確率分布220~226を生成すべく、誤差モデル126を用いて出力212~218を処理するように構成されてよい。ある例示において、誤差コンポーネント228は、コンポーネント204~210内に含まれてよい。例えば、ローカリゼーションコンポーネント204は、センサーデータ106を分析することができ、少なくとも部分的に分析に基づいて、出力212および出力212に関連付けられる確率分布220の両方を生成することができる。別の例示に対して、知覚コンポーネント206は、センサーデータ106を分析することができ、少なくとも部分的に分析に基づいて、出力214および出力214に関連付けられる確率分布222の両方を生成することができる。
確率分布220~226は、それぞれ出力212~218に関連付けられてよい。例えば、誤差コンポーネント228は、確率分布220を生成すべく、ローカリゼーションコンポーネント204に関連付けられる誤差モデル126を用いる出力212を処理することができる。例えば、出力212が車両102の位置を示す場合、確率分布220は、ローカリゼーションコンポーネント204に対する誤差モデル126によって表現される決定される位置および誤差に基づく車両102の推定される位置を表現することができる。さらに、誤差コンポーネント228は、確率分布222を生成すべく、知覚コンポーネント206に関連付けられる誤差モデル126を用いる出力214を処理することができる。例えば、出力214がオブジェクトの速度を示す場合、確率分布222は、知覚コンポーネント206に対する誤差モデル126によって表現される決定される速度および誤差に基づいてオブジェクトの可能性の高い速度を表現することができる。
推定コンポーネント230は、車両102および/またはオブジェクトに関連付けられる推定される位置232を生成すべく、確率分布220~226および/またはセンサーデータ106のうちの1つまたは複数(明確にする理由のために図示せず)を処理するように構成されてよい。本明細書で説明されるように、推定される位置232は、位置のガウス分布のような確率分布を含んでよい。
図3は、本開示の実施形態に従って、オブジェクトに関連付けられる推定される位置を決定すべく、誤差モデル126を用いるセンサーデータ106を分析する車両102の例示を図示する。図3の例示において、推定コンポーネント230は、車両102および/またはオブジェクトに関連付けられる推定される位置302を決定すべく、コンポーネント204~210のうちの1つまたは複数からの出力212~218のうちの1つまたは複数を分析することができる。誤差コンポーネント228は、次に、誤差モデル126および推定される位置302を用いて、車両102および/またはオブジェクトの推定される位置304を決定することができる。
例えば、誤差コンポーネント228は、誤差モデル126を用いて、推定される位置302を決定するために用いられたコンポーネント204~210の出力212~218に関連付けられる合計の誤差および/または合計の誤差パーセンテージを決定することができる。誤差コンポーネント228は、次に、合計の誤差および/または合計の誤差パーセンテージを用いて、推定される位置304を生成することができる。本明細書で説明されるように、推定される位置304は、位置のガウス分布のような確率分布を含んでよい。
図4は、本開示の実施形態に従って、オブジェクトに関連付けられる推定される位置を決定すべく、不確実性モデル130を用いるセンサーデータ106を分析する車両102の例示を図示する。例えば、不確実性コンポーネント402は、出力212~218に関連付けられる確率分布404~410を生成すべく、不確実性モデル130を用いる出力212~218を処理するように構成されてよい。ある例示において、不確実性コンポーネント402は、コンポーネント204~210内に含まれてよい。例えば、ローカリゼーションコンポーネント204は、センサーデータ106を分析することができ、少なくとも部分的に分析に基づいて、出力212および出力212に関連付けられる確率分布404の両方を生成することができる。別の例示に対して、知覚コンポーネント206は、センサーデータ106を分析することができ、少なくとも部分的に分析に基づいて、出力214および出力214に関連付けられる確率分布406の両方を生成することができる。
図4の例示において図示されていないが、コンポーネント204~210のうちの1つまたは複数は、出力212~218を生成すべく、他のコンポーネント204~210のうちの1つまたは複数からの出力212~218を用い得ることに留意されたい。例えば、プラニングコンポーネント208は、出力216を生成すべく、ローカリゼーションコンポーネント204からの出力212を用いてよい。別の例示に対して、プラニングコンポーネント208は、出力216を生成すべく、知覚コンポーネント206からの出力214を用いてよい。1つまたは複数の他のコンポーネント204~210からの出力212~218を用いることに加えて、またはその代替から、コンポーネント204~210は、確率分布404~410を用いてよい。
確率分布404~410は、それぞれ出力212~218に関連付けられてよい。例えば、不確実性コンポーネント402は、確率分布404を生成すべく、ローカリゼーションコンポーネント204に関連付けられる不確実性モデル130を用いる出力212を処理することができる。例えば、出力212が車両102の位置を示す場合、確率分布404は、ローカリゼーションコンポーネント204に対して少なくとも部分的に、決定される位置および不確実性モデル130に基づく車両102の推定される位置を表現することができる。さらに、不確実性コンポーネント402は、確率分布406を生成すべく、知覚コンポーネント206に関連付けられる不確実性モデル130を用いる出力214を処理することができる。例えば、出力214がオブジェクトの速度を示す場合、確率分布406は、知覚コンポーネント206に対して決定される速度および不確実性モデル130に基づくオブジェクトの可能性の高い速度を表現することができる。
推定コンポーネント230は、車両102および/またはオブジェクトに関連付けられる推定される位置412を生成すべく、確率分布404~410および/またはセンサーデータ106のうちの1つまたは複数(明確にする理由のために図示せず)を処理するように構成されてよい。本明細書で説明されるように、推定される位置412は、位置のガウス分布のような確率分布を含んでよい。
図5は、本開示の実施形態に従って、オブジェクトに関連付けられる推定される位置を決定すべく、不確実性モデル130を用いるセンサーデータ106を分析する車両102の例示を図示する。図5の例示において、推定コンポーネント230は、車両102および/またはオブジェクトに関連付けられる推定される位置302を決定すべく、コンポーネント204~210のうちの1つまたは複数からの出力212~218のうちの1つまたは複数を分析することができる。不確実性コンポーネント402は、次に、不確実性モデル130および推定される位置302を用いて、車両102および/またはオブジェクトの推定される位置502を決定することができる。
例えば、不確実性コンポーネント402は、コンポーネント204~210に対する不確実性モデル130を用いて、推定される位置302を決定するために用いられたコンポーネント204~210の出力212~218に関連付けられる合計の不確実性を決定することができる。不確実性コンポーネント402は、次に、合計の不確実性を用いて、推定される位置502を生成することができる。本明細書で説明されるように、推定される位置502は、位置のガウス分布のような確率分布を含んでよい。
図6は、本開示の実施形態に従って、時間期間にわたる衝突の確率を決定する車両102を図示する例示的なグラフ600を図示する。図示されるように、グラフ600は、y軸に沿った確率602およびx軸に沿った時点604を表現する。図6の例示において、車両102は、時点606(1)での衝突の確率を決定することができる。例えば、時点606(1)で、車両102は、3つの未来の時点での時点606(2)、時点606(3)、および時点606(4)での衝突の確率を決定することができる。ある例示において、衝突の確率は、車両102および1つのオブジェクトに関連付けられる。他の例示において、衝突の確率は、車両102および1つよりも多くのオブジェクトに関連付けられる。
図示されるように、車両102は、時点606(2)での衝突の第1の確率608(1)、時点606(3)での衝突の第2の確率608(2)、および時点606(4)での衝突の確率がないという決定をすることができる。衝突の第1の確率608(1)は、低いリスクに関連付けられてよく、衝突の第2の確率608(2)は、高いリスクに関連付けられてよく、時点606(4)での衝突の確率がないため、時点606(4)での衝突のリスクがない。ある例示において、衝突の第1の確率608(1)は、少なくとも部分的に、閾値確率よりも低い衝突の第1の確率608(1)に基づいて、低いリスクであってよい。さらに、衝突の第2の確率608(2)は、少なくとも部分的に、衝突の第2の確率608(2)が閾値確率よりも大きいことに基づいて、高いリスクであってよい。
図6の例示が離散時点での衝突の確率を決定することを図示するが、ある例示において、車両102は、継続して衝突の確率を連続的に決定することができる。
図7は、本開示の実施形態に従って、少なくとも部分的に、車両データおよびグラウンドトゥルースデータに基づいて、誤差モデルデータを生成する例示700を図示する。図7で描かれるように、車両702は、車両データ704を生成することが可能であり、車両データ704を誤差モデルコンポーネント706に伝送することが可能である。本明細書で説明されるように、誤差モデルコンポーネント706は、パラメーターに関連付けられる誤差を示し得る誤差モデル126を決定することが可能である。例えば、車両データ704は、知覚コンポーネント206、プラニングコンポーネント208、ローカリゼーションコンポーネント204、推定コンポーネント230などのような車両702のコンポーネントに関連付けられるデータであってよい。例示の目的であり、限定することなく、車両データ704は、知覚コンポーネント206に関連付けられてよく、車両データ704は、環境における車両702によって検出されるオブジェクトに関連付けられる境界ボックスを含んでよい。
誤差モデルコンポーネント706は、手動でラベル付けおよび/または他の認証された機械学習コンポーネントから決定され得るグラウンドトゥルースデータ708を受信することが可能である。例示の目的であり、限定することなく、グラウンドトゥルースデータ708は、環境におけるオブジェクトに関連付けられる認証された境界ボックスを含んでよい。車両データ704の境界ボックスをグラウンドトゥルースデータ708の境界ボックスと比較することによって、誤差モデルコンポーネント706は、車両702のシステム(例えば、コンポーネント)に関連付けられる誤差を決定することが可能である。このような誤差は、例えば、グラウンドトゥルースと出力との間の差、パーセントの差、誤差率などを含んでよい。ある例示において、車両データ704は、検出されるエンティティおよび/またはエンティティが位置する環境に関連付けられる1つまたは複数の特徴(パラメーターとも称される)を含んでよい。ある例示において、エンティティに関連付けられる特徴は、x位置(グローバル位置)、y位置(グローバル位置)、z位置(グローバル位置)、方向、エンティティのタイプ(例えば、分類など)、エンティティの速度、エンティティの範囲(サイズ)などを含んでよいが、これらに限定されない。環境に関連付けられる特徴は、環境における別のエンティティの存在、環境における別のエンティティの状態、時刻、曜日、季節、気象条件、暗さ/明るさの指示などを含んでよいが、これらに限定されない。したがって、誤差は、他の特徴(例えば、環境パラメーター)に関連付けられてよい。少なくともある例示において、このような誤差モデルは、パラメーターのさまざまなグループ化(例えば、分類、距離、速度などの異なる組み合わせに対する明確なモデル)のために決定されることができる。少なくともある例示において、このようなパラメーターは、さらに、オブジェクトの数、1日の時刻、1年の時期、気象条件などのような環境情報を含んでよいが、これに限定されない。
誤差モデルコンポーネント706は、複数の車両データ704および複数のグラウンドトゥルースデータ708を処理することが可能であり、誤差モデルデータ710を決定する。誤差モデルデータ710は、誤差712(1)~(3)として表現され得る誤差モデルコンポーネント706によって算定される誤差を含んでよい。さらに、誤差モデルコンポーネント706は、誤差712(1)~(3)に関連付けられ、環境パラメーターに関連付けられ得る確率714(1)~(3)として表現される確率を決定して、誤差モデル716(1)~(3)(これは、誤差モデル126を表現してよい)を提示することが可能である。例示の目的であり、限定することなく、車両データ704は、降雨を含む環境における車両702から50メートルの距離にあるオブジェクトに関連付けられる境界ボックスを含んでよい。グラウンドトゥルースデータ708は、オブジェクトに関連付けられる認証された境界ボックスを提供することが可能である。誤差モデルコンポーネント706は、誤差が車両702の知覚システムに関連付けられているということを決定する誤差モデルデータ710を決定することが可能である。50メートルの距離および降雨は、環境パラメーターとして用いられ、誤差モデル716(1)~(3)のうちのどの誤差モデルを用いるかを決定することが可能である。誤差モデルが識別されると、誤差モデル716(1)~(3)は、確率714(1)~(3)に基づいて誤差712(1)~(3)を提供することが可能であり、ここで、より高い確率714(1)~(3)に関連付けられる誤差712(1)~(3)は、より低い確率714(1)~(3)に関連付けられる誤差712(1)~(3)よりも選択され得る。
図8は、本開示の実施形態に従って、車両データ704を生成して、車両データ704をコンピューティングデバイス802に伝送する車両702の例示800を図示する。上記のように、誤差モデルコンポーネント706は、パラメーターに関連付けられる誤差を示し得る知覚誤差モデルを決定することが可能である。上記のように、車両データ704は、車両702のセンサーによって生成されるセンサーデータおよび/または車両702の知覚システムによって生成される知覚データを含んでよい。知覚誤差モデルは、車両データ704をグラウンドトゥルースデータ708と比較することによって決定されることが可能である。グラウンドトゥルースデータ708は、手動でラベル付けされてよく、環境に関連付けられてよく、周知の結果を表現してよい。したがって、車両データ704におけるグラウンドトゥルースデータ708からの逸脱は、車両702のセンサーシステムおよび/または知覚システムにおける誤差として識別されることが可能である。例示の目的であり、限定することなく、知覚システムは、オブジェクトを自転車運転者として識別することが可能であり、ここで、グラウンドトゥルースデータ708は、オブジェクトが歩行者であることを示している。別の例示の目的であり、限定することなく、センサーシステムは、オブジェクトが2メートルの幅を有するように表現するセンサーデータを生成することが可能であり、ここで、グラウンドトゥルースデータ708は、オブジェクトが3メートルの幅を有するということを示している。
上記のように、誤差モデルコンポーネント706は、車両データ704において表現されるオブジェクトに関連付けられる分類を決定することが可能であり、車両データ704および/または他のログデータにおける同一の分類の他のオブジェクトを決定することが可能である。次に、誤差モデルコンポーネント706は、オブジェクトに関連付けられる誤差の範囲に関連付けられる確率分布を決定することが可能である。比較および誤差の範囲に基づいて、誤差モデルコンポーネント706は、推定される位置502を決定することが可能である。
図8で描かれるように、環境804は、知覚システムによって生成される境界ボックスとして表現されるオブジェクト806(1)~(3)を含んでよい。知覚誤差モデルデータ808は、状況パラメーターを810(1)~(3)として示すことが可能であり、状況パラメーターに関連付けられる誤差を812(1)~(3)として示すことが可能である。
図9は、本開示の実施形態に従って、少なくとも部分的に、車両データおよびグラウンドトゥルースデータに基づいて不確実性データを生成する例示900を図示する。図9で描かれるように、車両702は、車両データ704を生成することが可能であり、車両データ704を不確実性モデルコンポーネント902に伝送することが可能である。本明細書で説明されるように、不確実性モデルコンポーネント902は、コンポーネント決定パラメーターに関連付けられる不確実性を決定することが可能である。例えば、車両データ704は、知覚コンポーネント206、プラニングコンポーネント208、ローカリゼーションコンポーネント204、予測コンポーネント210などのような車両702のコンポーネントに関連付けられるデータであってよい。例示の目的であり、限定することなく、車両データ704は、知覚コンポーネント206に関連付けられてよく、車両データ704は、環境における車両702によって検出されるオブジェクトに関連付けられる境界ボックスを含んでよい。
不確実性モデルコンポーネント902は、手動でラベル付けおよび/または他の認証された機械学習コンポーネントから決定され得るグラウンドトゥルースデータ708を受信することが可能である。例示の目的であり、限定することなく、グラウンドトゥルースデータ708は、環境におけるオブジェクトに関連付けられる認証された境界ボックスを含んでよい。車両データ704をグラウンドトゥルースデータ708と比較することによって、不確実性モデルコンポーネント902は、車両702のシステム(例えば、コンポーネント)がグラウンドトゥルースを決定するための整合性を決定することが可能である。例えば、整合性は、車両データ704によって表現されるパラメーターがグラウンドトゥルースデータ708によって表現されるパラメーターと同一であるためのパーセンテージを示すことができる。
不確実性モデルコンポーネント902は、次に、整合性を用いて、パラメーターを決定するコンポーネントに関連付けられるおよび/またはパラメーターを決定するコンポーネントに関連付けられる不確実性データ904を生成することができる。例えば、整合性が低いパーセンテージがあるということを示す場合、不確実性データ904は、高い不確実性を示すことができる。しかしながら、データの整合性が高いパーセンテージがあるということを示す場合、不確実性データ904は、低い不確実性を示すことができる。
より詳細には、不確実性モデルコンポーネント902は、1つまたは複数のタイプの不確実性を識別することができる。不確実性のタイプは、認識的不確実性、偶然的不確実性(例えば、データ依存、タスク依存など)などを含んでよいが、これらに限定されない。認識的不確実性は、コンポーネントが生成したデータに関して無知に関連付けられてよい。偶然的不確実性は、データが説明することが可能でない情報に対して不確実性に関連付けられてよい。不確実性モデルコンポーネント902は、次に、識別された不確実性を用いて、不確実性モデル130を生成することができる。
ある例示において、不確実性モデルコンポーネント902は、データをコンポーネントへと多様な回数入力することができ、ここで、コンポーネントの1つまたは複数のノードは、データを入力する場合に変更され、これは、コンポーネントの出力が異なることを引き起こす。これは、コンポーネントからの出力に幅を持たせることができる。ある例示において、コンポーネントは、さらに、出力の平均および/または分散を出力することができる。不確実性モデルコンポーネント902は、出力の範囲、平均、および/または分散に関連付けられる分布を用いて、コンポーネントおよび/または出力のタイプ(例えば、パラメーター)に対する不確実性モデル130を生成することができる。
図10は、本明細書で説明される技術を実装するための例示的なシステム1000のブロック図を図示する。少なくとも1つの例示において、システム1000は、車両102を含んでよい。図示される例示1000において、車両102は、自律車両であるが、車両102は、任意の他の車両のタイプ(例えば、さまざまな操作を実行することが安全であるかの表示を提供し得る運転者制御車両)であってよい。
車両102は、コンピューティングデバイス1002、1つまたは複数のセンサーシステム202、1つまたは複数のエミッター1006(通信デバイスおよび/またはモデムとも称される)、少なくとも1つの直接接続1008(例えば、データを交換するためおよび/または電力を提供するために車両102と物理的に結合するために)、および1つまたは複数の駆動システム1010を含んでよい。1つまたは複数のセンサーシステム202は、環境に関連付けられるセンサーデータ106をキャプチャするように構成されてよい。
センサーシステム202は、飛行時間センサー、位置センサー(例えば、GPS、コンパスなど)、慣性センサー(例えば、慣性測定装置(IMU)、加速度計、磁力計、ジャイロスコープなど)、ライダーセンサー、レーダーセンサー、ソナーセンサー、赤外線センサー、カメラ(例えば、RGB、IR、強度、深度など)、マイクセンサー、環境センサー(例えば、温度センサー、湿度センサー、光センサー、圧力センサーなど)、超音波トランスデューサー、ホイールエンコーダーなどを含んでよい。センサーシステム202は、センサーのこれらまたは他のタイプのそれぞれの多様な例示を含んでよい。例えば、飛行時間センサーは、車両102の角部、前部、後部、側面、および/または上部に配置される個々の飛行時間センサーを含んでよい。別の例示として、カメラセンサーは、車両102の外部および/または内部に関するさまざまな位置に配置される多様なカメラを含んでよい。センサーシステム202は、コンピューティングデバイス1002に入力を提供することが可能である。
車両102は、また、光および/または音を放出するための1つまたは複数のエミッター1004を含んでよい。この例示において1つまたは複数のエミッター1004は、車両102の乗員と通信するための内部オーディオおよび視覚エミッターを含む。例示の目的であり、限定ではなく、内部エミッターは、スピーカー、ライト、標識、ディスプレイ画面、タッチスクリーン、触覚エミッター(例えば、振動および/または力フィードバック)、機械的アクチュエータ(例えば、シートベルトテンショナー、シートポジショナー、ヘッドレストポジショナーなど)などを含んでよい。この例示において、1つまたは複数のエミッター1004は、また、外部エミッターを含む。例示の目的であり、限定ではなく、この例示における外部エミッターは、走行方向の信号を送るライト、もしくは車両のアクションの他のインジケーター(例えば、インジケーター照明、標識、照明アレイなど)、ならびに歩行者、または音響ビームステアリング技術を含む1つまたは複数の近隣の他の車両と音響で通信する1つまたは複数のオーディオエミッター(例えば、スピーカー、スピーカーアレイ、ホーンなど)を含む。
車両102は、また、車両102と1つまたは複数の他のローカルまたはリモートコンピューティングデバイス(例えば、リモート遠隔操作コンピューティングデバイス)またはリモートサービスとの間の通信を可能にする1つまたは複数の通信接続1006を含んでよい。例えば、通信接続1006は、車両102および/または駆動システム1010に対する他のローカルコンピューティングデバイスとの通信を容易にすることが可能である。また、通信接続1006は、車両102が他の近隣のコンピューティングデバイス(例えば、他の近隣の車両、交通信号など)と通信することを可能としてよい。
通信接続1006は、コンピューティングデバイス1002を別のコンピューティングデバイスまたは1つまたは複数の外部ネットワーク1012(例えば、インターネット)に接続するために物理的および/または論理的インターフェースを含んでよい。例えば、通信接続1006は、IEEE802.11規格によって定義された周波数を介するようなWi-Fiベースの通信、Bluetoothなどの短距離無線周波数、セルラー通信(例えば、2G、3G、4G、4G LTE、5Gなど)、衛星通信、専用狭域通信(DSRC)、またはそれぞれのコンピューティングデバイスが他のコンピューティングデバイスとインターフェースで接続することを可能にする任意の適切な有線または無線通信プロトコルを可能にしてよい。少なくともある例示において、通信接続1006は、上記で詳細に説明されるように、1つまたは複数のモデムを含んでよい。
少なくとも1つの例示において、車両102は、1つまたは複数の駆動システム1010を含んでよい。ある例示において、車両102は、1つの駆動システム1010を有してよい。少なくとも1つの例示において、車両102が多様な駆動システム1010を有する場合、個々の駆動システム1010は、車両102の両端(例えば前部および後部など)に配置されてよい。少なくとも1つの例示において、駆動システム1010は、駆動システム1010および/または車両102の周囲の状態を検出するための1つまたは複数のセンサーシステム202を含んでよい。例示の目的であり、限定ではなく、センサーシステム202は、駆動システムのホイールの回転を感知するための1つまたは複数のホイールエンコーダー(例えば、ロータリーエンコーダー)、駆動システムの方向および加速度を測定するための慣性センサー(例えば、慣性測定ユニット、加速度計、ジャイロスコープ、磁力計など)、カメラまたは他の画像センサー、駆動システムの周囲の状態におけるオブジェクトを音響的に検出するための超音波センサー、ライダーセンサー、レーダーセンサーなどを含んでよい。ホイールエンコーダーのようなあるセンサーは、駆動システム1010に一意であってよい。ある例示において、駆動システム1010に対するセンサーシステム202は、車両102の対応するシステム(例えば、センサーシステム506)と重複または補完することが可能である。
駆動システム1010は、高電圧バッテリー、車両を推進させるためのモーター、他の車両システムによる使用のためにバッテリーからの直流を交流に変換するためのインバーター、ステアリングモーターとステアリングラックとを含むステアリングシステム(これは電動式であってよい)、油圧アクチュエータまたは電気アクチュエータを含むブレーキシステム、油圧および/または空気圧コンポーネントを含むサスペンションシステム、トラクションの損失を緩和し、制御を維持するために制動力を分配するための安定性制御システム、HVACシステム、照明(例えば、車両の外周を照明するためのヘッドライド/テールライトなどの照明)、および1つまたは複数の他のシステム(例えば、冷却システム、安全システム、車載充電システム、DC/DCコンバーターなどの他の電気コンポーネント、高電圧ジャンクション、高電圧ケーブル、充電システム、充電ポートなど)を含めて、車両システムの多くを含んでよい。さらに、駆動システム1010は、センサーシステム202からデータを受信して、前処理をし得るさまざまな車両システムの動作を制御するための駆動システムコントローラーを含んでよい。ある例示において、駆動システムコントローラーは、1つまたは複数のプロセッサと、1つまたは複数のプロセッサと通信可能に結合されるメモリとを含むことが可能である。メモリは、1つまたは複数のモジュールを格納することが可能であり、駆動モジュール1010のさまざまな機能を実行する。さらに、駆動システム1010は、また、それぞれの駆動システムによる1つまたは複数の他のローカルコンピューティングデバイスまたはリモートコンピューティングデバイスとの通信を可能にする1つまたは複数の通信接続を含む。
コンピューティングデバイス1002は、プロセッサ1014と通信可能に結合される1つまたは複数のプロセッサ1014およびメモリ1016を含んでよい。図示される例示において、コンピューティングデバイス1002のメモリ1016は、ローカリゼーションコンポーネント204、知覚コンポーネント206、予測コンポーネント210、推定コンポーネント230、プラニングコンポーネント208、誤差コンポーネント228、不確実性コンポーネント402、および1つまたは複数のセンサーシステム202を格納する。例示的な目的のためにメモリ1016において存在するように描かれるが、ローカリゼーションコンポーネント204、知覚コンポーネント206、予測コンポーネント210、推定コンポーネント230、プラニングコンポーネント208、誤差コンポーネント228、不確実性コンポーネント402、および1つまたは複数のシステムコントローラー1018は、追加的または代替的に、コンピューティングデバイス1002にアクセス可能であり(例えば、車両102の異なるコンポーネントに格納される)、および/または車両102にアクセス可能である(例えば、リモートで格納される)ということが企図される。
コンピューティングデバイス1002のメモリ1016において、ローカリゼーションコンポーネント204は、センサーシステム202からデータを受信して車両102の位置を決定する機能を含むことが可能である。例えば、ローカリゼーションコンポーネント204は、環境の3次元マップを含んでよく、および/または要求/受信してよく、マップ内の自律車両の位置を継続的に決定してよい。ある例示において、ローカリゼーションコンポーネント204は、SLAM(simultaneous localization and mapping)またはCLAMS(calibration, localization and mapping, simultaneously)を用いることが可能であり、飛行時間データ、画像データ、ライダーデータ、レーダーデータ、ソナーデータ、IMUデータ、GPSデータ、ホイールエンコーダーデータ、またはそれらの任意の組み合わせなどを受信して、自律車両の位置を正確に決定する。ある例示において、本明細書で説明されるように、ローカリゼーションコンポーネント204は、データを車両102のさまざまなコンポーネントに提供することが可能であり、軌道を生成するために自律車両の初期位置を決定する。
知覚コンポーネント206は、オブジェクトの検出、セグメンテーション、および/または分類を実行するための機能を含んでよい。ある例示において、知覚コンポーネント206は、車両102に近接するエンティティの存在および/またはエンティティのタイプ(例えば、自動車、歩行者、自転車運転者、建物、樹木、路面、縁石、歩道、不明なものなど)としてエンティティの分類を示す処理されたセンサーデータを提供することが可能である。追加的および/または代替的な例示において、知覚コンポーネント206は、検出されたエンティティおよび/またはエンティティが配置される環境に関連付けられる1つまたは複数の特徴(パラメーターとも称される)を示す処理されたセンサーデータを提供することが可能である。ある例示において、エンティティに関連付けられる特徴は、x位置(グローバル位置)、y位置(グローバル位置)、z位置(グローバル位置)、方向、エンティティのタイプ(例えば、分類など)、エンティティの速度、エンティティの範囲(サイズ)などを含んでよいが、これらに限定されない。環境に関連付けられる特徴は、環境における別のエンティティの存在、環境における別のエンティティの状態、時刻、曜日、季節、気象条件、地理的位置、暗さ/明るさの表示などを含んでよいが、これらに限定されない。
知覚コンポーネント206は、知覚コンポーネント206によって生成される知覚データを格納するための機能を含んでよい。ある例示において、知覚コンポーネント206は、オブジェクトのタイプとして分類されたオブジェクトに対応するトラックを決定することが可能である。例示のみを目的のために、センサーシステム202を用いる知覚コンポーネント206は、環境の1つまたは複数の画像をキャプチャすることが可能である。センサーシステム202は、歩行者のようなオブジェクトを含む環境の画像をキャプチャすることが可能である。歩行者は、時点Tでの第1の位置に、時点T+tでの第2の位置(例えば、時点Tの後の時点tのスパンの間の移動)にいてよい。つまり、歩行者は、この時間期間の間に第1の位置から第2の位置まで移動することが可能である。このような移動は、例えば、オブジェクトに関連付けられる格納された知覚データとして記録される。
格納された知覚データは、ある例示において、車両によってキャプチャされた融合される知覚データを含んでよい。融合される知覚データは、画像センサー、ライダーセンサー、レーダーセンサー、飛行時間センサー、ソナーセンサー、全地球測位システムセンサー、内部センサー、および/またはこれらの任意の組み合わせなどのセンサーシステム202からのセンサーデータの融合または他の組み合わせを含んでよい。格納された知覚データは、追加的または代替的に、センサーデータにおいて表現されるオブジェクト(例えば、歩行者、車両、建物、路面など)の意味分類を含む分類データを含んでよい。格納された知覚データは、追加的または代替的に、環境を通る動的オブジェクトとして分類されるオブジェクトの動きに対応するトラックデータ(経時的なオブジェクトに関連付けられる履歴的な位置、方向、センサー特性などの集合)を含んでよい。トラックデータは、経時的に多様な異なるオブジェクトの多様なトラックを含んでよい。このトラックデータは、オブジェクトが動かない(例えば、静止している)または動いている(例えば、歩行している、走行しているなど)場合に、特定のタイプのオブジェクト(例えば、歩行者、動物など)の画像を識別するためにマイニングされてよい。この例示において、コンピューティングデバイスは、歩行者に対応するトラックを決定する。
予測コンポーネント210は、環境における1つまたは複数のオブジェクトの予測される位置の予測確率を表現する1つまたは複数の確率マップを生成することが可能である。例えば、予測コンポーネント210は、車両102から閾値距離内にある車両、歩行者、動物などのための1つまたは複数の確率マップを生成することが可能である。ある例示において、予測コンポーネント210は、オブジェクトのトラックを測定することが可能であり、観測されて予測される挙動に基づいて、オブジェクトのための離散化された予測確率マップ、ヒートマップ、確率分布、離散化された確率分布、および/または軌道を生成することが可能である。ある例示において、1つまたは複数の確率マップは、環境における1つまたは複数のオブジェクトの意図を表現することが可能である。
プラニングコンポーネント208は、車両102がたどるための経路を決定することが可能であり、環境を横断する。例えば、プランニングコンポーネント208は、さまざまなルートおよびに経路ならびにさまざまなレベルの詳細を決定することが可能である。ある例示において、プランニングコンポーネント208は、第1の位置(例えば、現在の位置)から第2の位置(例えば、対象の位置)に走行するルートを決定することが可能である。この説明の目的のために、ルートは、2つの位置間を走行するための一連のウェイポイントであってよい。非限定的な例示として、ウェイポイントは、車道、交差点、全地球測位システム(GPS)の座標などを含む。さらに、プランニングコンポーネント208は、第1の位置から第2の位置へのルートの少なくとも一部に沿って車両を誘導するための命令を生成することが可能である。少なくとも1つの例示において、プランニングコンポーネント208は、車両102を一連のウェイポイントにおける第1のウェイポイントから一連のウェイポイントにおける第2のウェイポイントまでどのように誘導するかを決定することが可能である。ある例示において、命令は経路または経路の一部であってよい。ある例示において、多様な経路は、後退ホライズン技術(receding horizon technique)に従って、実質的に同時に(例えば、技術的な許容範囲内で)生成されてよい。最も高い信頼レベルを有する後退ホライズンデータ(receding data horizon)における多様な経路のうちの1つの経路が車両を操作するために選択されてよい。
他の例示において、プラニングコンポーネント208は、代替的にまたは追加的に、知覚コンポーネント206および/または予測コンポーネント210からのデータを用いて、車両102が環境を横断するためにたどる経路を決定することができる。例えば、プラニングコンポーネント208および/または予測コンポーネント210は、環境に関連付けられるオブジェクトに関するデータを知覚コンポーネント206から受信することが可能である。このデータを用いて、プランニングコンポーネント208は、第1の位置(例えば、現在の位置)から第2の位置(例えば、対象の位置)まで移動するルートを決定することが可能であり、環境におけるオブジェクトを回避する。少なくともある例示において、このようなプラニングコンポーネント208は、このような衝突のない経路がないと決定することが可能であり、次に、車両102を安全な停止に導き、すべての衝突を回避する、および/またはそうでなければ損傷を緩和する経路を提供することが可能である。
少なくとも1つの例示において、車両コンピューティングデバイス1002は、1つまたは複数のシステムコントローラー1018を含んでよく、これは、ステアリング、推進、制動、安全性、エミッター、通信、および車両102の他のシステムを制御するように構成されてよい。これらのシステムコントローラー1018は、駆動システム1010の対応するシステムおよび/または車両102の他のコンポーネントと通信および/または制御することが可能であり、これは、プラニングコンポーネント208から提供される経路に従って動作するように構成されてよい。
車両102は、ネットワーク1012を介してコンピューティングデバイス802に接続してよく、1つまたは複数のプロセッサ1020および1つまたは複数のプロセッサ820と通信可能に結合されるメモリ1022を含んでよい。少なくとも1つの例外において、プロセッサ820は、プロセッサ1014と類似してよく、メモリ1022は、メモリ1016と類似してもよい。図示される例示において、コンピューティングデバイス802のメモリ1022は、車両データ704、グラウンドトゥルースデータ708、および誤差モデルコンポーネント706を格納する。例示的な目的のためにメモリ1022において存在するように描かれるが、車両データ704、グラウンドトゥルースデータ708、および/または誤差モデルコンポーネント706は、追加的にまたは代替的に、コンピューティングデバイス802にアクセス可能であり(例えば、コンピューティングデバイス802の異なるコンポーネントに格納される)、および/またはコンピューティングデバイス802にアクセス可能である(例えば、リモートで格納される)ということが企図される。
コンピューティングデバイス1002のプロセッサ1014およびコンピューティングデバイス802のプロセッサ1020は、本明細書で説明されるように、データを処理して、動作を実施するための命令を実行することが可能である任意の適切なプロセッサであってよい。例示の目的であり、限定ではなく、プロセッサ1014および1020は、1つまたは複数の中央処理装置(CPU)、Graphics Processing Units(GPU)、または電子データを処理してその電子データをレジスタおよび/またはメモリに格納され得る他の電子データへと変換する任意の他のデバイスもしくはデバイスの一部を含んでよい。ある例示において、集積回路(例えば、ASICなど)ゲートアレイ(例えば、FPGAなど)、および他のハードウェアデバイスは、また、それらが符号化された命令を実装するように構成される限り、プロセッサとみなされてよい。
コンピューティングデバイス1002のメモリ1016およびコンピューティングデバイス802のメモリ1022は、非一時的なコンピューター可読媒体の例示である。メモリ1016および1022は、オペレーティングシステム、ならびに本明細書で説明される方法、およびさまざまなシステムに起因される機能を実装する1つまたは複数のソフトウェアアプリケーション、命令、プログラム、および/またはデータを格納することが可能である。さまざまな実装において、メモリ1016および1022は、スタティックランダムアクセスメモリ(SRAM)、シンクロナスダイナミックRAM(SDRAM)、不揮発性/フラッシュタイプメモリ、または、情報を格納することが可能である任意の他のタイプのメモリなどの任意の適切なメモリ技術を用いて実装されてよい。本明細書で説明されるアーキテクチャ、システム、および個々の要素は、多くの他の論理、プログラマティック、および物理的なコンポーネントを含んでよく、その中で、添付の図面に示されるものは、本明細書での説明に関連する例示に過ぎない。
ある例示において、本明細書で説明されるコンポーネントのいくつかまたはすべての態様は、任意のモデル、アルゴリズム、および/または機械学習アルゴリズムを含んでよい。例えば、ある例示において、メモリ1016および1022におけるコンポーネントは、ニューラルネットワークとして実装されてよい。
図11~図14は、本開示の実施形態に従って例示的なプロセスを図示する。これらのプロセスは、論理フローグラフとして図示され、その中で、それぞれの動作は、ハードウェア、ソフトウェア、またはそれらの組み合わせにおいて実装され得る一連の動作を表現する。ソフトウェアのコンテキストにおいて、動作は、1つまたは複数のプロセッサによって実行された場合に、列挙された動作を実行する1つまたは複数のコンピューター可読媒体に格納されたコンピューター実行可能命令を表現する。一般に、コンピューター実行可能命令は、具体的な機能を実行するか、または具体的な抽象データ型を実装するルーティン、プログラム、オブジェクト、コンポーネント、データ構造などを含む。動作が説明される順序は、限定として解釈されることを意図したものではなく、任意の数の説明される動作は、任意の順序で、および/または並行して組み合わされてよく、プロセスを実装する。
図11は、本開示の実施形態に従って、誤差モデルを用いる衝突のモニタリングを実行するための例示的なプロセス1100を図示する。動作1102で、プロセス1100は、1つまたは複数のセンサーによって生成されるセンサーデータを受信することを含んでよい。例えば、車両102は、第1の位置から第2の位置への経路に沿ってナビゲートすることができる。ナビゲートしている間に、車両102は、車両102の1つまたは複数のセンサーを用いてセンサーデータを生成することができる。
動作1104で、プロセス1100は、少なくとも車両の第1のシステムを用いて、少なくとも部分的に、センサーデータの第1の部分に基づいて、車両に関連付けられる少なくともパラメーターを決定することを含んでよい。例えば、車両102は、1つまたは複数のシステムを用いてセンサーデータの第1の部分を分析することができる。1つまたは複数のシステムは、ローカリゼーションシステム、知覚システム、プラニングシステム、予測システムなどを含んでよいが、これらに限定されない。少なくとも部分的に分析に基づいて、車両102は、車両102に関連付けられるパラメーターを決定することができる。パラメーターは、車両102の位置、車両102の速度、車両102の走行方向などを含んでよいが、これらに限定されない。
動作1106で、プロセス1100は、少なくとも部分的に、車両に関連付けられるパラメーターおよび第1のシステムに関連付けられる第1の誤差モデルに基づいて、車両に関連付けられる推定される位置を決定することを含んでよい。例えば、車両102は、第1の誤差モデルを用いて、車両102に関連付けられるパラメーターを少なくとも処理することができる。本明細書で説明されるように、第1の誤差モデルは、第1のシステムの出力に関連付けられる誤差および/または誤差パーセンテージを表現することが可能である。少なくとも部分的に処理に基づいて、車両102は、後で車両102に関連付けられる推定される位置を決定することができる。本明細書でも説明されるように、推定される位置は、位置の確率分布に対応してよい。
動作1108で、プロセス1100は、車両の第2のシステムを少なくとも用いて、少なくとも部分的に、センサーデータの第2の部分に基づいて、オブジェクトに関連付けられるパラメーターを少なくとも決定することを含んでよい。例えば、車両102は、センサーデータを分析することができ、少なくとも部分的に分析に基づいて、オブジェクトを識別することができる。車両102は、次に、1つまたは複数のシステムを用いてセンサーデータの第2の部分を分析することができる。少なくとも部分的に分析に基づいて、車両102は、オブジェクトに関連付けられるパラメーターを決定することができる。パラメーターは、オブジェクトのタイプ、オブジェクトの位置、オブジェクトの速度、オブジェクトの走行方向などを含んでよいが、これに限定されない。
動作1110で、プロセス1100は、少なくとも部分的に、オブジェクトに関連付けられるパラメーターおよび第2のシステムに関連付けられる第2の誤差モデルに基づいて、オブジェクトに関連付けられる推定される位置を決定することを含んでよい。例えば、車両102は、第2の誤差モデルを用いて、オブジェクトに関連付けられるパラメーターを少なくとも処理することができる。本明細書で説明されるように、第2の誤差モデルは、第2のシステムの出力に関連付けられる誤差および/または誤差パーセンテージを表現することが可能である。少なくとも部分的に処理に基づいて、車両102は、後でオブジェクトに関連付けられる推定される位置を決定することができる。本明細書でも説明されるように、推定される位置は、位置の確率分布に対応してよい。
動作1112で、プロセス1100は、少なくとも部分的に、車両に関連付けられる推定される位置およびオブジェクトに関連付けられる推定される位置に基づいて、衝突の確率を決定することを含んでよい。例えば、車両102は、衝突の確率を決定すべく、車両102に関連付けられる推定される位置およびオブジェクトに関連付けられる推定される位置を分析することができる。ある例示において、衝突の確率は、少なくとも部分的に、車両102に関連付けられる推定される位置とオブジェクトに関連付けられる推定される位置との間の重複の量に基づいてよい。
動作1114で、プロセス1100は、衝突の確率が閾値と等しいか、またはそれよりも大きいかを決定することを含んでよい。例えば、車両102は、衝突の確率が閾値と等しいか、またはそれよりも大きいかを決定すべく、衝突の確率を閾値と比較することができる。
動作1114で、衝突の確率が閾値と等しくないか、またはそれよりも大きいということが決定される場合、動作1116で、プロセス1100は、車両を経路に沿ってナビゲートすることを継続させることを含んでよい。例えば、車両102が衝突の確率が閾値よりも小さいということを決定する場合、車両102は、継続して経路に沿ってナビゲートすることができる。
しかしながら、動作1114で、衝突の確率が閾値と等しいか、またはそれよりも大きいということが決定される場合、動作1118で、プロセス1100は、車両に1つまたは複数のアクションを実行させることを含んでよい。例えば、車両102が衝突の確率が閾値と等しいか、またはそれよりも大きいということを決定する場合、車両102は、1つまたは複数のアクションを実行することができる。1つまたは複数のアクションは、車両102の経路を変更すること、車両102の速度を変更すること、車両102を駐車することなどを含んでよいが、これらに限定されない。
図12は、本開示の実施形態に従って、誤差モデルを用いるためのオブジェクトに関連付けられる推定される位置を決定する例示的なプロセス1200を図示する。動作1202で、プロセス1200は、1つまたは複数のセンサーによって生成されるセンサーデータを受信することを含んでよい。例えば、車両102は、第1の位置から第2の位置への経路に沿ってナビゲートすることができる。ナビゲートしている間に、車両102は、車両102の1つまたは複数のセンサーを用いてセンサーデータを生成することができる。
動作1204で、プロセス1200は、車両の1つまたは複数のシステムを用いて、少なくとも部分的にセンサーデータに基づいて、オブジェクトに関連付けられる第1のパラメーターを決定することを含んでよい。例えば、車両102は、1つまたは複数のシステムを用いてセンサーデータを分析することができる。1つまたは複数のシステムは、ローカリゼーションシステム、知覚システム、プラニングシステム、予測システムなどを含んでよいが、これらに限定されない。少なくとも部分的に分析に基づいて、車両102は、オブジェクト(例えば、車両または別のオブジェクト)に関連付けられる第1のパラメーターを決定することができる。パラメーターは、オブジェクトの位置、オブジェクトの速度、オブジェクトの走行方向などを含んでよいが、これに限定されない。
動作1206で、プロセス1200は、少なくとも部分的に第1の誤差モデルに基づいて、第1のパラメーターに関連付けられる第1の確率分布を決定することを含んでよい。例えば、車両102は、第1の誤差モデルを用いて、第1のパラメーターを少なくとも処理することができる。本明細書で説明されるように、第1の誤差モデルは、第1のパラメーターに関連付けられる誤差および/または誤差パーセンテージを表現することが可能である。少なくとも部分的に処理に基づいて、車両102は、第1のパラメーターに関連付けられる第1の確率分布を決定することができる。
動作1208で、プロセス1200は、車両の1つまたは複数のシステムを用いて、センサーデータまたは第1の確率分布のうちの少なくとも1つに少なくとも部分的に基づいて、オブジェクトに関連付けられる第2のパラメーターを決定することを含んでよい。例えば、車両102は、1つまたは複数のシステムを用いて、センサーデータまたは第1の確率分布のうちの少なくとも1つを分析することができる。ある例示において、車両102は、第2のパラメーターが第1のパラメーターを用いて決定される場合に、第1の確率分布を分析する。少なくとも部分的に分析に基づいて、車両102は、オブジェクト(例えば、車両または別のオブジェクト)に関連付けられる第2のパラメーターを決定することができる。第2のパラメーターは、オブジェクトの位置、オブジェクトの速度、オブジェクトの走行方向、未来の時点でのオブジェクトの推定される位置などを含んでよいが、これに限定されない。
動作1210で、プロセス1200は、少なくとも部分的に第2の誤差モデルに基づいて、第2のパラメーターに関連付けられる第2の確率分布を決定することを含んでよい。例えば、車両102は、第2の誤差モデルを用いて、第2のパラメーターを少なくとも処理することができる。本明細書で説明されるように、第2の誤差モデルは、第2のパラメーターに関連付けられる誤差および/または誤差パーセンテージを表現することが可能である。少なくとも部分的に処理に基づいて、車両102は、第2のパラメーターに関連付けられる第2の確率分布を決定することができる。
動作1212で、プロセス1200は、少なくとも部分的に、第1の確率分布または第2の確率分布のうちの少なくとも1つに基づいて、オブジェクトに関連付けられる推定される位置を決定することを含んでよい。例えば、車両102は、少なくとも部分的に、第1の確率分布および/または第2の確率分布に基づいて推定される位置を決定することができる。ある例示において、オブジェクトの現在位置を示している第1のパラメーターおよびオブジェクトの速度を示している第2のパラメーターのように、第1のパラメーターおよび第2のパラメーターが独立している場合、車両102は、第1の確率分布および第2の確率分布の双方を用いて推定される位置を決定することができる。ある例示において、第2のパラメーターがオブジェクトの速度を示している第1のパラメーターを用いて決定される未来の時点でのオブジェクトの推定される位置を示す場合のように、第2のパラメーターが第1のパラメーターを用いて決定される場合、車両102は、第2の確率分布を用いて推定される位置を決定することができる。
図13A~図13Bは、本開示の実施形態に従って、不確実性モデルを用いる衝突のモニタリングを実行するための例示的なプロセス1300を図示する。動作1302で、プロセス1300は、1つまたは複数のセンサーによって生成されるセンサーデータを受信することを含んでよい。例えば、車両102は、第1の位置から第2の位置への経路に沿ってナビゲートすることができる。ナビゲートしている間に、車両102は、車両102の1つまたは複数のセンサーを用いてセンサーデータを生成することができる。
動作1304で、プロセス1300は、少なくとも車両の第1のシステムを用いて、少なくとも部分的に、センサーデータの第1の部分に基づいて、車両に関連付けられる少なくともパラメーターを決定することを含んでよい。例えば、車両102は、1つまたは複数のシステムを用いてセンサーデータの第1の部分を分析することができる。1つまたは複数のシステムは、ローカリゼーションシステム、知覚システム、プラニングシステム、予測システムなどを含んでよいが、これらに限定されない。少なくとも部分的に分析に基づいて、車両102は、車両102に関連付けられるパラメーターを決定することができる。パラメーターは、車両102の位置、車両102の速度、車両102の走行方向などを含んでよいが、これに限定されない。
1306で、プロセス1300は、車両に関連付けられるパラメーターを決定する第1のシステムに関連付けられる第1の不確実性モデルを決定することを含んでよい。例えば、車両102は、第1の不確実性モデルを決定することができる。ある例示において、車両102は、第1の不確実性モデルを第1のシステムから受信することによって、第1の不確実性モデルを決定する。ある例示において、車両102は、第1のパラメーターを決定する第1のシステムに関連付けられる不確実性を示している不確実性データを用いて、第1の不確実性モデルを決定する。
動作1308で、プロセス1300は、少なくとも部分的に、車両に関連付けられるパラメーターおよび第1の不確実性モデルに基づいて、車両に関連付けられる推定される位置を決定することを含んでよい。例えば、車両102は、第1の不確実性モデルを用いて、車両102に関連付けられるパラメーターを少なくとも処理することができる。少なくとも部分的に処理に基づいて、車両102は、後で車両102に関連付けられる推定される位置を決定することができる。本明細書でも説明されるように、推定される位置は、位置の確率分布に対応してよい。
動作1310で、プロセス1300は、少なくとも車両の第2のシステムを用いて、少なくとも部分的に、センサーデータの第2の部分に基づいて、オブジェクトに関連付けられるパラメーターを少なくとも決定することを含んでよい。例えば、車両102は、センサーデータを分析することができ、少なくとも部分的に分析に基づいて、オブジェクトを識別することができる。車両102は、次に、1つまたは複数のシステムを用いてセンサーデータの第2の部分を分析することができる。少なくとも部分的に分析に基づいて、車両102は、オブジェクトに関連付けられるパラメーターを決定することができる。パラメーターは、オブジェクトのタイプ、オブジェクトの位置、オブジェクトの速度、オブジェクトの走行方向などを含んでよいが、これに限定されない。
1312で、プロセス1300は、オブジェクトに関連付けられるパラメーターを決定する第2のシステムに関連付けられる第2の不確実性モデルを決定することを含んでよい。例えば、車両102は、第2の不確実性モデルを決定することができる。ある例示において、車両102は、第2の不確実性モデルを第2のシステムから受信することによって、第2の不確実性モデルを決定する。ある例示において、車両102は、第2のパラメーターを決定する第2のシステムに関連付けられる不確実性を示している不確実性データを用いて、第2の不確実性モデルを決定する。
動作1314で、プロセス1300は、少なくとも部分的に、オブジェクトに関連付けられるパラメーターおよび第2の不確実性モデルに基づいて、オブジェクトに関連付けられる推定される位置を決定することを含んでよい。例えば、車両102は、第2の不確実性モデルを用いて、オブジェクトに関連付けられるパラメーターを少なくとも処理することができる。少なくとも部分的に処理に基づいて、車両102は、後でオブジェクトに関連付けられる推定される位置を決定することができる。本明細書でも説明されるように、推定される位置は、位置の確率分布に対応してよい。
動作1316で、プロセス1300は、少なくとも部分的に、車両に関連付けられる推定される位置およびオブジェクトに関連付けられる推定される位置に基づいて、衝突の確率を決定することを含んでよい。例えば、車両102は、衝突の確率を決定すべく、車両102に関連付けられる推定される位置およびオブジェクトに関連付けられる推定される位置を分析することができる。ある例示において、衝突の確率は、少なくとも部分的に、車両102に関連付けられる推定される位置とオブジェクトに関連付けられる推定される位置との間の重複の量に基づいてよい。
動作1318で、プロセス1300は、衝突の確率が閾値と等しいか、またはそれよりも大きいかを決定することを含んでよい。例えば、車両102は、衝突の確率が閾値と等しいか、またはそれよりも大きいかを決定すべく、衝突の確率を閾値と比較することができる。
動作1318で、衝突の確率が閾値と等しくないか、またはそれよりも大きいということが決定される場合、動作1320で、プロセス1300は、車両を経路に沿ってナビゲートすることを継続させることを含んでよい。例えば、車両102が衝突の確率が閾値よりも小さいということを決定する場合、車両102は、継続して経路に沿ってナビゲートすることができる。
しかしながら、動作1318で、衝突の確率が閾値と等しいか、またはそれよりも大きいということが決定される場合、動作1322で、プロセス1300は、車両に1つまたは複数のアクションを実行させることを含んでよい。例えば、車両102が衝突の確率が閾値と等しいか、またはそれよりも大きいということを決定する場合、車両102は、1つまたは複数のアクションを実行することができる。1つまたは複数のアクションは、車両102の経路を変更すること、車両102の速度を変更すること、車両102を駐車することなどを含んでよいが、これらに限定されない。
ある例示において、車両102は、車両102に関連付けられる多様な起こり得る経路を用いてステップ1304~1314を実行してよいことに留意されたい。このような例示において、車両102は、最も低い不確実性および/または最も低い衝突の確率を含むルートを選択してよい。
図14は、本開示の実施形態に従って、不確実性モデルを用いるためのオブジェクトに関連付けられる推定される位置を決定する例示的なプロセス1400を図示する。動作1402で、プロセス1400は、1つまたは複数のセンサーによって生成されるセンサーデータを受信することを含んでよい。例えば、車両102は、第1の位置から第2の位置への経路に沿ってナビゲートすることができる。ナビゲートしている間に、車両102は、車両102の1つまたは複数のセンサーを用いてセンサーデータを生成することができる。
動作1404で、プロセス1400は、車両の1つまたは複数のシステムを用いて、少なくとも部分的にセンサーデータに基づいて、オブジェクトに関連付けられる第1のパラメーターを決定することを含んでよい。例えば、車両102は、1つまたは複数のシステムを用いてセンサーデータを分析することができる。1つまたは複数のシステムは、ローカリゼーションシステム、知覚システム、プラニングシステム、予測システムなどを含んでよいが、これらに限定されない。少なくとも部分的に分析に基づいて、車両102は、オブジェクト(例えば、車両または別のオブジェクト)に関連付けられる第1のパラメーターを決定することができる。第1のパラメーターは、オブジェクトの位置、オブジェクトの速度、オブジェクトの走行方向などを含んでよいが、これに限定されない。
動作1406で、プロセス1400は、少なくとも部分的に第1の不確実性モデルに基づいて、第1のパラメーターに関連付けられる第1の確率分布を決定することを含んでよい。例えば、車両102は、第1の不確実性モデルを用いて、第1のパラメーターを少なくとも処理することができる。少なくとも部分的に処理に基づいて、車両102は、第1のパラメーターに関連付けられる第1の確率分布を決定することができる。
動作1408で、プロセス1400は、車両の1つまたは複数のシステムを用いて、センサーデータまたは第1の確率分布のうちの少なくとも1つに少なくとも部分的に基づいて、オブジェクトに関連付けられる第2のパラメーターを決定することを含んでよい。例えば、車両102は、1つまたは複数のシステムを用いて、センサーデータまたは第1の確率分布のうちの少なくとも1つを分析することができる。ある例示において、車両102は、第2のパラメーターが第1のパラメーターを用いて決定される場合に、第1の確率分布を分析する。少なくとも部分的に分析に基づいて、車両102は、オブジェクト(例えば、車両または別のオブジェクト)に関連付けられる第2のパラメーターを決定することができる。第2のパラメーターは、オブジェクトの位置、オブジェクトの速度、オブジェクトの走行方向、未来の時点でのオブジェクトの推定される位置などを含んでよいが、これに限定されない。
動作1410で、プロセス1400は、少なくとも部分的に第2の不確実性モデルに基づいて、第2のパラメーターに関連付けられる第2の確率分布を決定することを含んでよい。例えば、車両102は、第2の不確実性モデルを用いて、第2のパラメーターを少なくとも処理することができる。少なくとも部分的に処理に基づいて、車両102は、第2のパラメーターに関連付けられる第2の確率分布を決定することができる。
動作1412で、プロセス1400は、少なくとも部分的に、第1の確率分布または第2の確率分布のうちの少なくとも1つに基づいて、オブジェクトに関連付けられる推定される位置を決定することを含んでよい。例えば、車両102は、少なくとも部分的に、第1の確率分布および/または第2の確率分布に基づいて推定される位置を決定することができる。ある例示において、オブジェクトの現在位置を示している第1のパラメーターおよびオブジェクトの速度を示している第2のパラメーターのように、第1のパラメーターおよび第2のパラメーターが独立している場合、車両102は、第1の確率分布および第2の確率分布の双方を用いて推定される位置を決定することができる。ある例示において、第2のパラメーターがオブジェクトの速度を示している第1のパラメーターを用いて決定される未来の時点でのオブジェクトの推定される位置を示す場合のように、第2のパラメーターが第1のパラメーターを用いて決定される場合、車両102は、第2の確率分布を用いて推定される位置を決定することができる。
(結論)
本明細書で説明される技術の1つまたは複数の例示が説明されてきた一方で、それらの例示のさまざまな変更形態、追加形態、置換形態、および均等形態が、本明細書で説明される技術範囲内に含まれる。
本明細書で説明される技術の1つまたは複数の例示が説明されてきた一方で、それらの例示のさまざまな変更形態、追加形態、置換形態、および均等形態が、本明細書で説明される技術範囲内に含まれる。
例示の説明において、主張される発明の主題の具体的な例示を示す本願の一部を形成する添付図面に対する参照が行われる。他の例示が用いられることが可能であること、および構造上の変更のような変更または変形が行われることが可能であることを理解されたい。このような例示、変更または変形は、意図された主張される発明の主題に対する範囲から必ずしも逸脱するものではない。本明細書におけるステップは、特定の順序で提供される一方で、ある場合において、順序が変更され得ることによって、説明されるシステムおよび方法の機能を変更することなく、特定の入力が異なる時間または異なる順序で提供される。開示された手順は、また、異なる順序で実行され得る。さらに、本明細書におけるさまざまな算定は、開示される順序で実行される必要はなく、算定の代替の順序を用いる他の例示が容易に実装され得る。順序変更されることに加えて、算定は、また、同一の結果を伴って部分的計算へと分解され得る。
(例示的な条項)
A:自律車両は、1つまたは複数のセンサー、1つまたは複数のプロセッサ、および1つまたは複数のプロセッサによって実行された場合に、1つまたは複数のプロセッサに、1つまたは複数のセンサーからセンサーデータを取得すること、少なくとも部分的に、センサーデータの第1の部分に基づいて、未来の時点での自律車両の推定される位置を決定すること、少なくとも部分的に、自律車両のシステムおよびセンサーデータの第2の部分に基づいて、未来の時点でのオブジェクトの推定される位置を決定すること、少なくとも部分的に、誤差モデルおよびオブジェクトの推定される位置に基づいて、オブジェクトに関連付けられる推定される位置の分布を決定することであって、誤差モデルは、システムに関連付けられる誤差の確率を表現すること、少なくとも部分的に、自律車両の推定される位置およびオブジェクトに関連付けられる推定される位置の分布に基づいて、自律車両とオブジェクトとの間の衝突の確率を決定すること、および少なくとも部分的に衝突の確率に基づいて、自律車両に1つまたは複数のアクションを実行させることを含む動作を実行させる1つまたは複数のコンピューター可読媒体を備える。
A:自律車両は、1つまたは複数のセンサー、1つまたは複数のプロセッサ、および1つまたは複数のプロセッサによって実行された場合に、1つまたは複数のプロセッサに、1つまたは複数のセンサーからセンサーデータを取得すること、少なくとも部分的に、センサーデータの第1の部分に基づいて、未来の時点での自律車両の推定される位置を決定すること、少なくとも部分的に、自律車両のシステムおよびセンサーデータの第2の部分に基づいて、未来の時点でのオブジェクトの推定される位置を決定すること、少なくとも部分的に、誤差モデルおよびオブジェクトの推定される位置に基づいて、オブジェクトに関連付けられる推定される位置の分布を決定することであって、誤差モデルは、システムに関連付けられる誤差の確率を表現すること、少なくとも部分的に、自律車両の推定される位置およびオブジェクトに関連付けられる推定される位置の分布に基づいて、自律車両とオブジェクトとの間の衝突の確率を決定すること、および少なくとも部分的に衝突の確率に基づいて、自律車両に1つまたは複数のアクションを実行させることを含む動作を実行させる1つまたは複数のコンピューター可読媒体を備える。
B:段落Aに記載の自律車両であって、動作は、1つまたは複数のコンピューティングデバイスから、誤差モデルを受信することをさらに含み、誤差モデルは、1つまたは複数の車両によって生成された少なくともセンサーデータを用いて生成される。
C:段落AまたはBのいずれかに記載の自律車両であって、動作は、少なくとも部分的に、さらなる誤差モデルおよび車両の推定される位置に基づいて、自律車両に関連付けられる推定される位置の分布を決定することをさらに含み、自律車両とオブジェクトとの間の衝突の確率を決定することは、少なくとも、自律車両に関連付けられる推定される位置の分布とオブジェクトに関連付けられる推定される位置の分布との間の重複の量を決定すること、および少なくとも部分的に重複の量に基づいて、衝突の確率を決定することを含む。
D:段落A~Cのいずれか一つに記載の自律車両であって、未来の時点でのオブジェクトの推定される位置は、少なくとも部分的に、自律車両のさらなるシステムに基づいてさらに決定され、推定される位置の分布は、少なくとも部分的にさらなる誤差モデルに基づいてさらに決定され、さらなる誤差モデルは、さらなるシステムに関連付けられる誤差分布を表現する。
E:方法は、車両の1つまたは複数のセンサーからセンサーデータを受信するステップ、少なくとも部分的に、センサーデータの第1の部分に基づいて、時点での車両に関連付けられる推定される位置を決定するステップ、少なくとも部分的に、車両のシステムおよびセンサーデータの第2の部分に基づいて、オブジェクトに関連付けられるパラメーターを決定するステップ、少なくとも部分的に、誤差モデルおよびオブジェクトに関連付けられるパラメーターに基づいて、時点でのオブジェクトに関連付けられる推定される位置を決定するステップであって、誤差モデルは、システムに関連付けられる誤差の確率を表現するステップ、および少なくとも部分的に、車両に関連付けられる推定される位置およびオブジェクトに関連付けられる推定される位置に基づいて、車両に1つまたは複数のアクションを実行させるステップを備える。
F:段落Eに記載の方法であって、動作は、1つまたは複数のコンピューティングデバイスから、誤差モデルを受信するステップをさらに含み、誤差モデルは、1つまたは複数の車両によって生成された少なくともセンサーデータを用いて生成される。
G:段落Eまたは段落Fのいずれかに記載の方法であって、パラメーターは、オブジェクトに関連付けられるオブジェクトのタイプ、環境内のオブジェクトの位置、オブジェクトの速度、または環境内のオブジェクトの走行方向のうちの少なくとも一つを含む。
H:段落E~Fのいずれか一つに記載の方法であって、時点での車両に関連付けられる推定される位置を決定するステップは、少なくとも、少なくとも部分的に、車両のさらなるシステムおよびセンサーデータの第1の部分に基づいて、車両に関連付けられるパラメーターを決定するステップ、および少なくとも部分的に、さらなる誤差モデルおよび車両に関連付けられるパラメーターに基づいて、時点での車両に関連付けられる推定される位置を決定するステップであって、さらなる誤差モデルは、さらなるシステムに関連付けられる誤差の確率を表現するステップを含む。
I:段落E~Hのいずれか一つに記載の方法であって、少なくとも部分的にパラメーターに基づいて、時点でのオブジェクトに関連付けられるさらなる推定される位置を決定するステップをさらに備え、時点でのオブジェクトに関連付けられる推定される位置を決定するステップは、少なくとも部分的に、誤差モデルおよびオブジェクトに関連付けられるさらなる推定される位置に基づいて、時点でのオブジェクトに関連付けられる推定される位置を決定するステップを含む。
J:段落E~Iのいずれか一つに記載の方法であって、時点でのオブジェクトに関連付けられる推定される位置を決定するステップは、少なくとも部分的に、誤差モデルおよびオブジェクトに関連付けられるパラメーターに基づいて、時点でのオブジェクトに関連付けられる推定される位置の分布を決定するステップを含む。
K:段落E~Jのいずれか一つに記載の方法であって、車両に関連付けられる推定される位置を決定するステップは、少なくとも、少なくとも部分的に、車両のさらなるシステムおよびセンサーデータの第1の部分に基づいて、車両に関連付けられるパラメーターを決定するステップ、および少なくとも部分的に、さらなる誤差モデルおよび車両に関連付けられるパラメーターに基づいて、時点での車両に関連付けられる推定される位置の分配を決定するステップであって、さらなる誤差モデルは、さらなるシステムに関連付けられる誤差の確率を表現するステップを含む。
L:段落E~Kのいずれか一つに記載の方法であって、車両に関連付けられる推定される位置の分布とオブジェクトに関連付けられる推定される位置の分布との間の重複の量を決定するステップ、および少なくとも部分的に重複の量に基づいて、衝突の確率を決定するステップをさらに備え、車両に、1つまたは複数のアクションを実行させるステップは、少なくとも部分的に衝突の確率に基づいている。
M:段落E~Lのいずれか一つに記載の方法であって、少なくとも部分的にパラメーターに基づいて、誤差モデルを選択するステップをさらに備える。
N:段落E~Mのいずれか一つに記載の方法であって、少なくとも部分的に、車両のさらなるシステムおよびセンサーデータの第2の部分に基づいて、オブジェクトに関連付けられるさらなるパラメーターを決定するステップ、少なくとも部分的に、さらなる誤差モデルおよびオブジェクトに関連付けられるさらなるパラメーターに基づいて、オブジェクトに関連付けられる出力を決定するステップであって、オブジェクトに関連付けられるパラメーターを決定することは、少なくとも部分的に、車両のシステムおよび出力に基づいて、オブジェクトに関連付けられるパラメーターを決定するステップとをさらに備える。
O:段落E~Nのいずれか一つに記載の方法であって、システムは、知覚システムであり、さらなるシステムは、予測システムである。
P:段落E~Oのいずれか一つに記載の方法であって、少なくとも部分的に、センサーデータの第1の部分に基づいて、時点よりも後のさらなる時点での車両に関連付けられるさらなる推定される位置を決定するステップ、少なくとも部分的に、車両のシステムおよびセンサーデータの第2の部分に基づいて、オブジェクトに関連付けられるさらなるパラメーターを決定するステップ、少なくとも部分的に、誤差モデルおよびオブジェクトに関連付けられるさらなるパラメーターに基づいて、さらなる時点でのオブジェクトに関連付けられるさらなる推定される位置を決定するステップ、および少なくとも部分的に、車両に関連付けられるさらなる推定される位置およびオブジェクトに関連付けられるさらなる推定される位置に基づいて、車両に1つまたは複数のアクションを実行させるステップをさらに備える。
Q:段落E~Pのいずれか一つに記載の方法であって、少なくとも部分的に、車両に関連付けられる推定される位置およびオブジェクトに関連付けられる推定される位置に基づいて、衝突の確率を決定するステップをさらに備え、車両に1つまたは複数のアクションを実行させるステップは、少なくとも部分的に衝突の確率に基づいて、車両に速度の変更またはルートの変更のうちの少なくとも1つをさせるステップを含む。
R:1つまたは複数の非一時的なコンピューター可読媒体は、1つまたは複数のプロセッサによって実行された場合に、1つまたは複数のコンピューティングデバイスに、車両に関連付けられるセンサーによって生成されるセンサーデータを受信すること、少なくとも部分的にセンサーデータの一部に基づいて、時点でのオブジェクトに関連付けられる推定される位置を決定すること、少なくとも部分的に推定される位置に基づいて、複数の誤差モデルから誤差モデルを決定すること、少なくとも部分的に、誤差モデルおよび推定される位置に基づいて、オブジェクトに関連付けられる推定される位置の分布を決定すること、および少なくとも部分的に推定される位置の分布に基づいて車両をナビゲートするための1つまたは複数のアクションを決定することを含む動作を実行させる命令を格納する。
S:段落Rに記載の1つまたは複数の非一時的なコンピューター可読媒体であって、動作は、少なくとも部分的にセンサーデータの一部に基づいて、車両に関連付けられるパラメーターを決定すること、および少なくとも部分的にパラメーターに基づいて推定される位置を決定することをさらに含み、誤差モデルは、パラメーターに関連付けられる。
T:段落RまたはSに記載の1つまたは複数の非一時的なコンピューター可読媒体であって、誤差モデルを決定することは、少なくとも部分的に、オブジェクトの分類、オブジェクトの速度、オブジェクトのサイズ、環境におけるオブジェクトの数、環境における気象条件、時刻、または時期のうちの1つまたは複数にさらに基づいている。
U:自律車両は、1つまたは複数のセンサー、1つまたは複数のプロセッサ、および1つまたは複数のプロセッサによって実行された場合に、1つまたは複数のプロセッサに、1つまたは複数のセンサーによって生成されるセンサーデータを取得すること、少なくとも部分的にセンサーデータの第1の部分に基づいて自律車両の推定される位置を決定すること、少なくとも部分的にセンサーの第2の部分に基づいてオブジェクトの推定される位置を決定すること、オブジェクトの推定される位置に関連付けられる不確実性モデルを決定すること、少なくとも部分的に、不確実性モデルおよびオブジェクトの推定される位置に基づいて、オブジェクトに関連付けられる推定される位置の分布を決定すること、少なくとも部分的に、車両に関連付けられる推定される位置およびオブジェクトに関連付けられる推定される位置の確率に基づいて自律車両とオブジェクトとの間の衝突の確率を決定すること、および少なくとも部分的に衝突の確率に基づいて自律車両に、1つまたは複数のアクションを実行させることを含む動作を実行させる命令を格納する1つまたは複数のコンピューター可読媒体を備える。
V:段落Uに記載の自律車両であって、動作は、自律車両の推定される位置を決定するさらなるシステムに関連付けられるさらなる不確実性モデルを決定すること、および少なくとも部分的に、さらなる不確実性モデルおよび自律車両の推定される位置に基づいて、自律車両に関連付けられる推定される位置の確率を決定することをさらに含み、自律車両とオブジェクトとの間の衝突の確率は、少なくとも、自律車両に関連付けられる推定される位置の確率とオブジェクトに関連付けられる推定される位置の確率との間の重複の量を決定すること、および少なくとも部分的に重複の量に基づいて衝突の確率を決定することを含む。
W:段落UまたはVのいずれかに記載の自律車両であって、オブジェクトの推定される位置は、少なくとも部分的に、自律車両のさらなるシステムに基づいてさらに決定され、動作は、オブジェクトの推定される位置を決定するさらなるシステムに関連付けられるさらなる不確実性モデルを決定することをさらに含み、推定される位置の確率は、少なくとも部分的にさらなる不確実性モデルに基づいてさらに決定される。
X:方法は、車両の1つまたは複数のセンサーからセンサーデータを受信するステップ、少なくとも部分的にセンサーデータの第1の部分に基づいて、車両に関連付けられる推定される位置を決定するステップ、少なくとも部分的に、車両のシステムおよびセンサーデータの第2の部分に基づいて、オブジェクトに関連付けられたパラメーターを決定するステップ、システムに関連付けられる不確実性モデルを決定するステップ、少なくとも部分的に、オブジェクトに関連付けられるパラメーターおよび不確実性モデルに基づいて、オブジェクトに関連付けられる推定される位置を決定するステップ、および車両に、少なくとも部分的に、車両に関連付けられる推定される位置およびオブジェクトに関連付けられる推定される位置に基づいて、1つまたは複数のアクションを実行させるステップを備える。
Y:段落Xに記載の方法であって、1つまたは複数のコンピューティングデバイスから不確実性モデルを受信することをさらに備え、不確実性モデルは、少なくとも部分的に、1つまたは複数の車両によって生成されたセンサーデータに基づいて生成される。
Z:段落XまたはYのいずれかに記載の方法であって、オブジェクトに関連付けられるパラメーターを決定することは、少なくとも部分的に、システムおよびセンサーデータの第2の部分に基づいて、オブジェクトに関連付けられるオブジェクトのタイプ、環境内のオブジェクトの位置、オブジェクトの速度、または環境内のオブジェクトの走行方向のうちの少なくとも一つを決定するステップを含む。
AA:段落X~Zのいずれか一つに記載の方法であって、車両に関連付けられる推定される位置を決定するステップは、少なくとも部分的に、車両のさらなるシステムおよびセンサーデータの第1の部分に基づいて、車両に関連付けられるパラメーターを決定するステップ、車両に関連付けられるパラメーターを決定するさらなるシステムに関連付けられるさらなる不確実性モデルを決定するステップ、および少なくとも部分的に、車両に関連付けられるパラメーターおよびさらなる不確実性モデルに基づいて、車両に関連付けられる推定される位置を決定するステップを含む。
AB:段落X~AAのいずれか一つに記載の方法であって、少なくとも部分的にパラメーターに基づいて、オブジェクトに関連付けられるさらなる推定される位置を決定するステップをさらに備え、オブジェクトに関連付けられる推定される位置を決定するステップは、少なくとも部分的に、オブジェクトに関連付けられるさらなる推定される位置および不確実性モデルに基づいて、オブジェクトに関連付けられる推定される位置を決定するステップを含む。
AC:段落X~ABのいずれか一つに記載の方法であって、オブジェクトに関連付けられる推定される位置を決定するステップは、少なくとも部分的に、オブジェクトに関連付けられるパラメーターおよび不確実性モデルに基づいて、オブジェクトに関連付けられる推定される位置の分布を決定するステップを含む。
AD:段落X~ACのいずれか一つに記載の方法であって、車両に関連付けられる推定される位置を決定するステップは、少なくとも部分的に、車両のさらなるシステムおよびセンサーデータの第1の部分に基づいて、車両に関連付けられるパラメーターを決定するステップ、車両に関連付けられるパラメーターを決定するさらなるシステムに関連付けられるさらなる不確実性モデルを決定するステップ、および少なくとも部分的に、車両に関連付けられるパラメーターおよびさらなる不確実性モデルに基づいて、車両に関連付けられる推定される位置の分布を決定するステップを含む。
AE:段落X~ADのいずれか一つに記載の方法であって、車両に関連付けられる推定される位置の分布とオブジェクトに関連付けられる推定される位置の分布との間の重複の量を決定するステップ、および少なくとも部分的に重複の量に基づいて、衝突の確率を決定するステップをさらに備え、車両に、1つまたは複数のアクションを実行させるステップは、少なくとも部分的に衝突の確率に基づいている。
AF:段落X~AEのいずれか一つに記載の方法であって、少なくとも部分的に、車両のさらなるシステムおよびセンサーデータの第3の部分に基づいて、オブジェクトに関連付けられるさらなるパラメーターを決定するステップ、およびオブジェクトに関連付けられるさらなるパラメーターを決定するさらなるシステムに関連付けられるさらなる不確実性モデルを決定するステップをさらに備え、オブジェクトに関連付けられる推定される位置を決定するステップは、少なくとも部分的に、さらなるパラメーターおよびさらなる不確実性モデルに基づいている。
AG:段落X~AFのいずれか一つに記載の方法であって、少なくとも部分的に、車両のさらなるシステムおよびセンサーデータの第2の部分に基づいてオブジェクトに関連付けられるさらなるパラメーターを決定するステップ、オブジェクトに関連付けられるさらなるパラメーターを決定するさらなるシステムに関連付けられるさらなる不確実性モデルを決定するステップ、および少なくとも部分的に、オブジェクトに関連付けられるさらなるパラメーターおよびさらなる不確実性モデルに基づいてオブジェクトに関連付けられる出力を決定するステップをさらに備え、オブジェクトに関連付けられるパラメーターを決定するステップは、少なくとも部分的に、車両のシステムおよび出力に基づいて、オブジェクトに関連付けられるパラメーターを決定するステップを含む。
AH:段落X~AGのいずれか一つに記載の方法であって、少なくとも部分的に、車両のシステムおよびセンサーデータの第3の部分に基づいて、さらなるオブジェクトに関連付けられるパラメーターを決定するステップ、さらなるオブジェクトに関連付けられるパラメーターを決定するシステムに関連付けられるさらなる不確実性モデルを決定するステップ、少なくとも部分的に、さらなるオブジェクトに関連付けられるパラメーターおよびさらなる不確実性モデルに基づいて、さらなるオブジェクトに関連付けられる推定される位置を決定するステップ、車両に1つまたは複数のアクションを実行させるステップは、少なくとも部分的に、さらなるオブジェクトに関連付けられる推定される位置にさらに基づいている。
AI:段落X~AHのいずれか一つに記載の方法であって、少なくとも部分的に、車両に関連付けられる推定される位置およびオブジェクトに関連付けられる推定される位置に基づいて、衝突の確率を決定するステップをさらに備え、車両に1つまたは複数のアクションを実行させるステップは、少なくとも部分的に衝突の確率に基づいて、車両に速度の変更またはルートの変更のうちの少なくとも1つをさせるステップを含む。
AJ:1つまたは複数の非一時的なコンピューター可読媒体は、1つまたは複数のプロセッサによって実行された場合に、1つまたは複数のコンピューティングデバイスに、車両に関連付けられるセンサーによって生成されるセンサーデータを受信すること、少なくとも部分的にセンサーデータの一部に基づいて、オブジェクトに関連付けられる推定される位置を決定すること、少なくとも部分的に推定される位置に基づいて、複数の不確実性モデルから不確実性モデルを決定すること、少なくとも部分的に、不確実性モデルおよび推定される位置に基づいて、オブジェクトに関連付けられる推定される位置の分布を決定すること、および少なくとも部分的に推定される位置の分布に基づいて車両をナビゲートするための1つまたは複数のアクションを決定することを含む動作を実行させる命令を格納する。
AK:段落AJに記載の1つまたは複数の非一時的なコンピューター可読媒体であって、動作は、少なくとも部分的にセンサーデータの一部に基づいて、車両に関連付けられるパラメーターを決定すること、および少なくとも部分的にパラメーターに基づいて推定される位置を決定することをさらに含み、不確実性モデルは、パラメーターに関連付けられる。
AL:段落AJまたはAKのいずれかに記載の1つまたは複数の非一時的なコンピューター可読媒体であって、動作は、少なくとも部分的に、センサーデータのさらなる部分に基づいて、車両に関連付けられる推定される位置を決定すること、少なくとも部分的に推定される位置に基づいて、複数の不確実性モデルからさらなる不確実性モデルを決定すること、および少なくとも部分的に、さらなる不確実性モデルおよび車両に関連付けられる推定される位置に基づいて車両に関連付けられる推定される位置の分布を決定することをさらに含み、1つまたは複数のアクションを決定することは、少なくとも部分的に、車両に関連付けられる推定される位置の分布に基づいている。
AM:段落AJ~ALのいずれか一つに記載の1つまたは複数の非一時的なコンピューター可読媒体であって、動作は、少なくとも部分的に、車両に関連付けられる推定される位置の分布およびオブジェクトに関連付けられる推定される位置の分布に基づいて衝突の確率を決定することをさらに含み、1つまたは複数のアクションを決定することは、少なくとも部分的に、衝突の確率に基づいている。
AN:段落AJ~AMのいずれか一つに記載の1つまたは複数の非一時的なコンピューター可読媒体であって、不確実性モデルを決定することは、少なくとも部分的に、オブジェクトの分類、オブジェクトの速度、オブジェクトのサイズ、環境におけるオブジェクトの数、環境における気象条件、時刻、または時期のうちの1つまたは複数にさらに基づいている。
Claims (15)
- 自律車両であって、
1つまたは複数のセンサーと、
1つまたは複数のプロセッサと、
1つまたは複数の前記プロセッサによって実行された場合に、1つまたは複数の前記プロセッサに、
1つまたは複数の前記センサーからセンサーデータを取得することと、
前記センサーデータの第1の部分の少なくとも一部分に基づいて、未来の時点での前記自律車両の推定される位置を決定することと、
前記自律車両のシステムおよび前記センサーデータの第2の部分の少なくとも一部分に基づいて、前記未来の時点でのオブジェクトの推定される位置を決定することと、
誤差モデルおよび前記オブジェクトの前記推定される位置の少なくとも一部分に基づいて、前記オブジェクトに関連付けられる推定される位置の分布を決定することであって、前記誤差モデルは、前記システムに関連付けられる誤差の確率を表現することと、
前記自律車両の前記推定される位置および前記オブジェクトに関連付けられる前記推定される位置の分布の少なくとも一部分に基づいて、前記自律車両と前記オブジェクトとの間の衝突の確率を決定することと、
前記衝突の確率の少なくとも一部分に基づいて、前記自律車両に1つまたは複数のアクションを実行させること
とを含む動作を実行させる1つまたは複数のコンピューター可読媒体とを備える、
自律車両。 - 前記動作は、1つまたは複数のコンピューティングデバイスから、前記誤差モデルを受信することをさらに含み、前記誤差モデルは、1つまたは複数の車両によって生成された少なくともセンサーデータを用いて生成される、
請求項1に記載の自律車両。 - 前記動作は、
さらなる誤差モデルおよび前記車両の前記推定される位置の少なくとも一部分に基づいて、前記自律車両に関連付けられる推定される位置の分布を決定することをさらに含み、
前記自律車両と前記オブジェクトとの間の前記衝突の確率を決定することは、少なくとも、
前記自律車両に関連付けられる前記推定される位置の分布と前記オブジェクトに関連付けられる前記推定される位置の分布との間の重複の量を決定することと、
少なくとも部分的に前記重複の量に基づいて、前記衝突の確率を決定することとを含む、
請求項1または2のいずれかに記載の自律車両。 - 前記未来の時点での前記オブジェクトの前記推定される位置は、前記自律車両のさらなるシステムの少なくとも一部分に基づいてさらに決定され、
前記推定される位置の分布は、さらなる誤差モデルの少なくとも一部分に基づいてさらに決定され、前記さらなる誤差モデルは、前記さらなるシステムに関連付けられる誤差分布を表現する、
請求項1ないし3のいずれか一項に記載の自律車両。 - 車両の1つまたは複数のセンサーからセンサーデータを受信するステップと、
前記センサーデータの第1の部分の少なくとも一部分に基づいて、時点での前記車両に関連付けられる推定される位置を決定するステップと、
前記車両のシステムおよび前記センサーデータの第2の部分の少なくとも一部分に基づいて、オブジェクトに関連付けられるパラメーターを決定するステップと、
誤差モデルおよび前記オブジェクトに関連付けられる前記パラメーターの少なくとも一部分に基づいて、前記時点での前記オブジェクトに関連付けられる推定される位置を決定するステップであって、前記誤差モデルは、前記システムに関連付けられる誤差の確率を表現するステップと、
前記車両に関連付けられる前記推定される位置および前記オブジェクトに関連付けられる前記推定される位置の少なくとも一部分に基づいて、前記車両に1つまたは複数のアクションを実行させるステップとを備える、
方法。 - 1つまたは複数のコンピューティングデバイスから、前記誤差モデルを受信するステップをさらに備え、前記誤差モデルは、1つまたは複数の車両によって生成された少なくともセンサーデータを用いて生成される、
請求項5に記載の方法。 - 前記パラメーターは、
前記オブジェクトに関連付けられるオブジェクトのタイプ、
環境内の前記オブジェクトの位置、
前記オブジェクトの速度、または
前記環境内の前記オブジェクトの走行方向のうちの少なくとも一つを含む、
請求項5または6のいずれかに記載の方法。 - 前記時点での前記車両に関連付けられる前記推定される位置を決定するステップは、少なくとも、
前記車両のさらなるシステムおよび前記センサーデータの前記第1の部分の少なくとも一部分に基づいて、前記車両に関連付けられるパラメーターを決定するステップと、
さらなる誤差モデルおよび前記車両に関連付けられる前記パラメーターの少なくとも一部分に基づいて、前記時点での前記車両に関連付けられる前記推定される位置を決定するステップであって、前記さらなる誤差モデルは、前記さらなるシステムに関連付けられる誤差の確率を表現するステップを含む、
請求項5ないし7のいずれか一項に記載の方法。 - 前記パラメーターの少なくとも一部分に基づいて、前記時点での前記オブジェクトに関連付けられるさらなる推定される位置を決定するステップをさらに備え、
前記時点での前記オブジェクトに関連付けられる前記推定される位置を決定するステップは、前記誤差モデルおよび前記オブジェクトに関連付けられる前記さらなる推定される位置の少なくとも一部分に基づいて、前記時点での前記オブジェクトに関連付けられる前記推定される位置を決定するステップを含む、
請求項5ないし8のいずれか一項に記載の方法。 - 前記時点での前記オブジェクトに関連付けられる前記推定される位置を決定するステップは、前記誤差モデルおよび前記オブジェクトに関連付けられる前記パラメーターの少なくとも一部分に基づいて、前記時点での前記オブジェクトに関連付けられる推定される位置の分布を決定するステップを含む、
請求項5ないし9のいずれか一項に記載の方法。 - 前記パラメーターの少なくとも一部分に基づいて、前記誤差モデルを選択するステップをさらに備える、
請求項5ないし10のいずれか一項に記載の方法。 - 前記車両のさらなるシステムおよび前記センサーデータの前記第2の部分の少なくとも一部分に基づいて、前記オブジェクトに関連付けられるさらなるパラメーターを決定するステップと、
さらなる誤差モデルおよび前記オブジェクトに関連付けられる前記さらなるパラメーターの少なくとも一部分に基づいて、前記オブジェクトに関連付けられる出力を決定するステップであって、前記さらなる誤差モデルは、前記さらなるシステムに関連付けられる誤差の確率を表現するステップと、
前記オブジェクトに関連付けられる前記パラメーターを決定するステップは、前記車両の前記システムおよび前記出力の少なくとも一部分に基づいて、前記オブジェクトに関連付けられる前記パラメーターを決定するステップとをさらに備え、
前記オブジェクトに関連付けられる前記パラメーターを決定するステップは、前記車両の前記システムおよび前記出力の少なくとも一部分に基づいて、前記オブジェクトに関連付けられる前記パラメーターを決定するステップを含む、
請求項5ないし11のいずれか一項に記載の方法。 - 前記センサーデータの前記第1の部分の少なくとも一部分に基づいて、前記時点よりも後のさらなる時点での前記車両に関連付けられるさらなる推定される位置を決定するステップと、
前記車両の前記システムおよび前記センサーデータの前記第2の部分の少なくとも一部分に基づいて、前記オブジェクトに関連付けられるさらなるパラメーターを決定するステップと、
前記誤差モデルおよび前記オブジェクトに関連付けられる前記さらなるパラメーターの少なくとも一部分に基づいて、前記さらなる時点での前記オブジェクトに関連付けられるさらなる推定される位置を決定するステップと、
前記車両に関連付けられる前記さらなる推定される位置および前記オブジェクトに関連付けられる前記さらなる推定される位置の少なくとも一部分に基づいて、前記車両に1つまたは複数のアクションを実行させるステップとをさらに備える、
請求項5ないし11のいずれか一項に記載の方法。 - 前記車両に関連付けられる前記推定される位置および前記オブジェクトに関連付けられる前記推定される位置の少なくとも一部分に基づいて、衝突の確率を決定するステップ
をさらに備え、
前記車両に1つまたは複数の前記アクションを実行させるステップは、前記衝突の確率の少なくとも一部分に基づいて、前記車両に速度の変更またはルートの変更のうちの少なくとも1つをさせるステップを含む、
請求項5ないし13のいずれか一項に記載の方法。 - 実行された場合に、1つまたは複数のプロセッサに、請求項5ないし14のいずれか一項に記載の方法を実行させる命令を格納する1つまたは複数の非一時的なコンピューター可読媒体。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/683,005 | 2019-11-13 | ||
US16/682,971 | 2019-11-13 | ||
US16/682,971 US11697412B2 (en) | 2019-11-13 | 2019-11-13 | Collision monitoring using statistic models |
US16/683,005 US11648939B2 (en) | 2019-11-13 | 2019-11-13 | Collision monitoring using system data |
PCT/US2020/060197 WO2021097070A1 (en) | 2019-11-13 | 2020-11-12 | Collision monitoring using statistic models |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2023502598A true JP2023502598A (ja) | 2023-01-25 |
JPWO2021097070A5 JPWO2021097070A5 (ja) | 2023-10-05 |
Family
ID=75912837
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022527669A Pending JP2023502598A (ja) | 2019-11-13 | 2020-11-12 | 統計モデルを用いる衝突モニタリング |
Country Status (4)
Country | Link |
---|---|
EP (1) | EP4059003A4 (ja) |
JP (1) | JP2023502598A (ja) |
CN (1) | CN114730521A (ja) |
WO (1) | WO2021097070A1 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB2612632B (en) * | 2021-11-08 | 2024-04-03 | Jaguar Land Rover Ltd | Control system for a vehicle and method thereof |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8509982B2 (en) * | 2010-10-05 | 2013-08-13 | Google Inc. | Zone driving |
US8457827B1 (en) * | 2012-03-15 | 2013-06-04 | Google Inc. | Modifying behavior of autonomous vehicle based on predicted behavior of other vehicles |
US9656667B2 (en) * | 2014-01-29 | 2017-05-23 | Continental Automotive Systems, Inc. | Method for minimizing automatic braking intrusion based on collision confidence |
WO2015155833A1 (ja) * | 2014-04-08 | 2015-10-15 | 三菱電機株式会社 | 衝突防止装置 |
JP6203381B2 (ja) * | 2014-04-10 | 2017-09-27 | 三菱電機株式会社 | 経路予測装置 |
JP6409680B2 (ja) * | 2015-05-29 | 2018-10-24 | 株式会社デンソー | 運転支援装置、運転支援方法 |
JP6481520B2 (ja) * | 2015-06-05 | 2019-03-13 | トヨタ自動車株式会社 | 車両の衝突回避支援装置 |
US10496766B2 (en) * | 2015-11-05 | 2019-12-03 | Zoox, Inc. | Simulation system and methods for autonomous vehicles |
US10029682B2 (en) * | 2016-01-22 | 2018-07-24 | Toyota Motor Engineering & Manufacturing North America, Inc. | Surrounding vehicle classification and path prediction |
US10699305B2 (en) * | 2016-11-21 | 2020-06-30 | Nio Usa, Inc. | Smart refill assistant for electric vehicles |
-
2020
- 2020-11-12 WO PCT/US2020/060197 patent/WO2021097070A1/en unknown
- 2020-11-12 CN CN202080078816.XA patent/CN114730521A/zh active Pending
- 2020-11-12 JP JP2022527669A patent/JP2023502598A/ja active Pending
- 2020-11-12 EP EP20887777.9A patent/EP4059003A4/en active Pending
Also Published As
Publication number | Publication date |
---|---|
EP4059003A4 (en) | 2023-11-22 |
CN114730521A (zh) | 2022-07-08 |
EP4059003A1 (en) | 2022-09-21 |
WO2021097070A1 (en) | 2021-05-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US12097844B2 (en) | Constraining vehicle operation based on uncertainty in perception and/or prediction | |
CN112204634B (zh) | 驱动包络确定 | |
US11648939B2 (en) | Collision monitoring using system data | |
US11697412B2 (en) | Collision monitoring using statistic models | |
US11574089B2 (en) | Synthetic scenario generator based on attributes | |
US11568100B2 (en) | Synthetic scenario simulator based on events | |
CN112789481A (zh) | 对自上而下场景的轨迹预测 | |
JP2022502306A (ja) | レーダ空間推定 | |
JP2022532920A (ja) | レーダーデータからのヨーレート | |
CN114072841A (zh) | 根据图像使深度精准化 | |
JP2023547988A (ja) | 衝突回避計画システム | |
US12056934B2 (en) | Three-dimensional object detection based on image data | |
CN117813230A (zh) | 基于对象轨迹的主动预测 | |
US20220266859A1 (en) | Simulated agents based on driving log data | |
US12061847B2 (en) | Agent conversions in driving simulations | |
CN118354949A (zh) | 基于中心的检测和跟踪 | |
US20230033177A1 (en) | Three-dimensional point clouds based on images and depth data | |
CN113544538A (zh) | 使用速度和位置信息识别雷达反射 | |
JP2023502598A (ja) | 統計モデルを用いる衝突モニタリング | |
US11915436B1 (en) | System for aligning sensor data with maps comprising covariances | |
CN117545674A (zh) | 用于识别路缘的技术 | |
CN115515835A (zh) | 轨迹分类 | |
US20240096232A1 (en) | Safety framework with calibration error injection | |
US20230095410A1 (en) | System for detecting objects in an environment | |
JP2024538543A (ja) | 環境中のオブジェクトを検出するシステム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230927 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230927 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20240628 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240806 |