JP2021535476A - 異常な車両イベントを検出および記録するためのシステムおよび方法 - Google Patents

異常な車両イベントを検出および記録するためのシステムおよび方法 Download PDF

Info

Publication number
JP2021535476A
JP2021535476A JP2021509200A JP2021509200A JP2021535476A JP 2021535476 A JP2021535476 A JP 2021535476A JP 2021509200 A JP2021509200 A JP 2021509200A JP 2021509200 A JP2021509200 A JP 2021509200A JP 2021535476 A JP2021535476 A JP 2021535476A
Authority
JP
Japan
Prior art keywords
vehicle
data
event
context data
interest
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021509200A
Other languages
English (en)
Inventor
クレメント、ロマイン
ルリー、ヘレン、ルース
オマリ、サミー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Lyft Inc
Original Assignee
Lyft Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Lyft Inc filed Critical Lyft Inc
Publication of JP2021535476A publication Critical patent/JP2021535476A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • B60W30/0956Predicting travel path or likelihood of collision the prediction being responsive to traffic or environmental parameters
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/10Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2520/00Input parameters relating to overall vehicle dynamics
    • B60W2520/06Direction of travel
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2520/00Input parameters relating to overall vehicle dynamics
    • B60W2520/10Longitudinal speed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/10Accelerator pedal position
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/12Brake pedal position
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle
    • B60W2556/50External transmission of data to or from the vehicle for navigation systems
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C5/00Registering or indicating the working of vehicles
    • G07C5/08Registering or indicating performance data other than driving, working, idle, or waiting time, with or without registering driving, working, idle or waiting time
    • G07C5/0841Registering performance data
    • G07C5/085Registering performance data using electronic data carriers

Abstract

一実施形態では、コンピューティングシステムは、人間の運転者によって動作される車両と関連付けられたコンテキストデータにアクセスする。コンテキストデータは、車両と関連付けられた1つ以上のセンサを使用して捕捉される。本システムは、いくつかの車両と関連付けられた予め記録されたコンテキストデータと関連付けられた情報に少なくとも基づいて、コンテキストデータを処理することによって1つ以上の予測される車両動作を決定する。本システムは、人間の運転者によってなされる1つ以上の車両動作を検出する。本システムは、人間の運転者によってなされる1つ以上の車両動作と1つ以上の予測される車両動作との比較に基づいて、関心イベントがコンテキストデータと関連付けられると決定する。本システムは、関心イベントと関連付けられた高解像度コンテキストデータを保存させる。

Description

現在の車両は、車両および環境を監視するための1つ以上のセンサまたは検知システムを含み得る。例えば、車両は、車両速度を測定するための速度センサを使用する場合があり、車両の場所を追跡するためにGPSを使用する場合がある。1つ以上のカメラまたはLiDARを使用して、車両の周辺の物体を検出することができる。車両は、1つ以上のコンピューティングシステム(例えば、内蔵コンピュータ)を使用して、センサからデータを収集し得る。コンピューティングシステムは、内蔵保存空間に収集されたデータを保存するか、または無線接続を使用するクラウドにデータをアップロードし得る。
しかしながら、車両のセンサは、大量のデータを生成する可能性があり、車両のコンピューティングシステムは、すべてのデータを保存するための内蔵保存空間が限定され、データを実時間でアップロードするための接続帯域幅が限定されている可能性がある。
保存空間および無線接続帯域幅が限定されている例示的な車両システムを例示する。
人間の運転者の予測動作に基づいて関心イベントを決定するための例示的な時系列を例示する。
異常なイベントを検出および分類するための例示的なエッジコンピューティング図表を例示する。
車両の異常なイベントを検出するための例示的な状況を例示する。
他の交通エージェントの行動を予測するための例示的な状況を例示する。
関心イベントを検出し、イベントと関連付けられた高解像度データを保存する例示的な方法を例示する。
例示的なデータ収集デバイスの様々な構成要素のブロック図表を例示する。
例示的なデータ収集デバイスの正面図を例示する。
例示的なデータ収集デバイスの背面図を例示する。
乗車要求者を自律走行車両とマッチングするための輸送管理環境の例示的なブロック図表を例示する。
例示的なコンピューティングシステムを例示する。
以下の説明では、様々な実施形態を記載する。説明のために、特定の構成および詳細は、実施形態の全体的な理解を提供するために記載される。しかしながら、実施形態が特定の詳細なしに実施され得ることも、当業者には明らかであろう。さらに、記載されている実施形態を不明瞭にしないために、周知の特徴は省略または単純化される場合がある。加えて、本明細書に開示されている実施形態は、単なる例示であり、本開示の範囲は、それらに限定されない。特定の実施形態は、上記に開示されている実施形態の構成要素、要素、特徴、機能、動作、または工程のすべて、いくつかを含み得るか、またはいずれも含まない可能性がある。本発明による実施形態は、方法、記憶媒体、システム、およびコンピュータプログラム製品を対象とする添付の特許請求の範囲に特に開示されており、1つの請求項のカテゴリ、例えば、方法に記述されているいずれの特徴も、別の請求項のカテゴリ、例えば、システムにおいても同様に請求され得る。添付の特許請求の範囲の従属または参照は、形式的な理由でのみ選択される。しかしながら、任意の先の請求項(特に複数の従属)への意図的な参照から生じるいかなる主題事項も、同様に請求され得、そのため、特許請求の範囲およびその特徴の任意の組み合わせが開示され、添付の特許請求の範囲で選択される従属に関わらず、請求され得る。請求され得る主題事項は、添付の特許請求の範囲で設定される特徴の組み合わせのみならず、特許請求の範囲における特徴の任意の他の組み合わせも含み、特許請求の範囲に記述される各特徴は、特許請求の範囲の任意の他の特徴または他の特徴の組み合わせと組み合わされ得る。さらに、本明細書に記載または図示される実施形態および特徴のいずれも、個別の請求項で、かつ/または本明細書に記載もしくは図示されている任意の実施形態もしくは特徴または添付の特許請求の範囲の特徴のいずれかとの任意の組み合わせで請求され得る。
車両システムは、車両と関連付けられた任意の数のセンサ(例えば、速度センサ、操舵角センサ、制動圧センサ、GPS、カメラ、LiDAR、レーダーなど)から膨大な量のデータを収集し得る。収集されたデータは、自律走行車両の運転または人間の運転の支援のための機械学習(ML)モデルの訓練などの多くの適用で使用され得る。車両システムは、内蔵記憶装置に収集されたデータを保存するか、または無線接続を通してクラウドにデータをアップロードし得る。しかしながら、車両システムは、内蔵保存空間および無線接続帯域幅が限定されているため、収集されたすべてのデータを保存またはアップロードするのは実行不可能である。車両システムは、収集されたデータを予め処理し、処理された代表的な結果(例えば、物体リストが生成する生の画像データではなく、物体検出結果からの物体リスト)を保存またはアップロードするのみである場合があり、そのようなアプローチでは、より豊富なデータが必要とされるシナリオのために収集されるデータの量が最適以下となるだろう。例えば、通常でない状態(例えば、他の車両の異常な軌道または攻撃的な動作)または事故への対応などの異常なイベントは、車両システムの機械学習モデルが操縦を学習する必要がある重要なエッジケースを構成し得る。エッジケースについてのデータ量が最適以下であると、そのようなエッジケースを取り扱うのに十分堅牢であるように機械学習モデルを効率的に訓練するのに十分な詳細を欠く可能性がある。
保存空間および無線接続帯域幅が限定されていることによって生じる問題を解決するために、車両システムの特定の実施形態は、収集されたデータ(例えば、物体識別、圧縮など)を予め処理し、事前処理前のデータよりも小さいサイズを有し、保存空間および伝送帯域幅をより必要としない事前処理結果(例えば、識別された物体リスト、圧縮されたデータなど)を保存/アップロードし得る。より豊富なエッジケースデータセットを捕捉するために、車両システムの特定の実施形態は、エッジコンピューティングを使用して、関心イベントを実時間で検出することができ、そのようなイベントの検出時に、別様に保存/アップロードされる、より豊富な対応するデータセットを保存/アップロードする。関心イベントは、閾値による車両システムの予測(例えば、予め記録された履歴データに基づく)から逸脱する異常なイベントであり得る。より豊富なデータセットは、異常でないイベントについて保存/アップロードされたデータ(例えば、事前処理済み圧縮データ)よりも多くの詳細情報を含む高解像度データであり得る。より豊富なデータセットは、例えば、生データ、完全解像度データ、または異常でないイベントについて保存/アップロードされたデータよりも高い解像度(例えば、例えば、より高い画素、より高いサンプリングレート)でのデータであり得る。エッジ計算は、異常なイベントを検出または分類するように設計された機械学習モデルまたは/および規則ベースのアルゴリズムを使用し得る。例えば、本システムは、現在の運転データを現在の状況下で予測される運転行動(例えば、機械学習モデルを使用した)と比較し得、現在の運転データが予測と矛盾する場合に異常なイベントを識別し得る。異常なイベントが検出された場合、本システムは、検出されたイベントに関連する、より豊富なデータセットを保存/アップロードし得る。
特定の実施形態は、識別されたイベントに基づいてデータを選択的に保存およびアップロードし、識別されたイベントに関連しない他のデータを前処理することによって、保存および帯域幅リソースに対するシステム要求を低減する。例えば、車両システムは、車両システムの保存および伝送帯域幅が限定されているにもかかわらず、機械学習訓練のために異常なイベントに関連するエッジケースデータおよび通常の動作データの両方を含むデータを効率的に収集することができる。さらに、車両システムの特定の実施形態は、車両を運転するか、または人間の運転を支援するための機械学習モデルの訓練など、より豊富なエッジケースデータセットおよびその後の下流使用のためのより良好なデータ品質を提供する。例えば、収集されたエッジケースデータは、圧縮または事前処理による損失のない、検出されたイベントの高解像度データを含むことができ、したがって、機械学習モデルを訓練するためにより効率的に使用することができる。
特定の実施形態では、車両システムは、車両(例えば、速度、操舵角、制動圧など)、車両経路(例えば、軌道、場所など)、人間の運転者(例えば、眼の動作、頭の動作など)、および車両の環境(例えば、バウンディングボックスを有する識別された物体、他の車両、歩行者など)を監視するための任意の数のセンサを有し得る。車両システムは、車両のコンテキストデータを収集するための1つ以上のコンピューティングシステム(例えば、データ収集デバイス、携帯電話、タブレット、モバイルコンピュータ、高性能コンピュータ)を含み得る。特定の実施形態では、車両のコンテキストデータは、人間の運転者と関連付けられた1つ以上のパラメータ、例えば、これらに限定されないが、頭の位置、頭の動作、手の位置、手の動作、足の位置、足の動作、視線方向、視点、人間の運転者の画像、しぐさ、声などを含み得る。人間の運転と関連付けられたパラメータは、車両と関連付けられる(例えば、マイクロフォンを有する車載カメラ)か、または車両のコンピューティングシステム(例えば、データ収集デバイス、携帯電話)と関連付けられる1つ以上の運転者対面カメラおよびマイクロフォンを使用して測定され得る。
特定の実施形態、車両のコンテキストデータは、車両と関連付けられた1つ以上のパラメータ、例えば、速度、移動方向、軌道、GPS調整、加速度(例えば、IMU出力に基づく)、回転速度(例えば、IMU/ジャイロスコープ出力に基づく)、制動ペダルにかかる圧力、加速ペダルにかかる圧力、ハンドルにかかる操舵力、車輪の方向、信号状況などを含み得る。車両と関連付けられたパラメータは、車両システムの1つ以上のセンサに基づいて決定され得る。特定の実施形態では、車両のコンテキストデータは、車両のナビゲーションデータ、例えば、ナビゲーションマップ、ナビゲート標的位置、経路、予定時刻、迂回路などを含み得る。特定の実施形態では、車両のコンテキストデータは、例えば、これらに限定されないが、ポイントクラウド、ビューの深度、環境の二次元プロファイル、環境の三次元プロファイル、場面の立体画、周囲物体までの相対位置(例えば、距離、角度)、道路線までの関連位置(例えば、距離、角度)、現在の環境での相対位置などを含む、カメラベースの場所データを含み得る。
特定の実施形態では、車両のコンテキストデータは、車両環境と関連付けられた1つ以上のメトリックを含み得る。環境メトリックは、例えば、これらに限定されないが、別の車両までの距離、別の車両との相対速度、歩行者までの距離、歩行者までの相対速度、交通信号の状況、交通信号までの距離、交差点までの距離、道路標識、道路標識までの距離、縁石までの距離、道路線との相対位置、車両の視野内の物体、交通状況(例えば、交通量が多い、交通量が少ない)、他の車両の軌道、他の交通エージェントの動作、他の交通エージェントの速度、他の交通エージェントの移動方向、他の車両の信号状況、他の交通エージェントの位置、他の車両の攻撃性メトリックなどを含み得る。車両の環境と関連付けられた1つ以上のメトリックは、1つ以上のカメラ、LiDARシステム、レーダーシステムなどを使用して決定され得る。一例として、限定されないが、車両システムは、ナビゲーションマップに加えて、車両の場所を正確に決定するために1つ以上の道路線との車両の相対位置を追跡し得る。別の例として、車両システムは、それらの速度、移動方向、加速度、軌道、他の物体または車両までの相対距離および相対位置を追跡することによって、他の車両の攻撃性を評価し得る。
図1は、保存空間および無線接続帯域幅が限定された例示的な車両システム100を例示する。車両システム100は、1つ以上のプロセッサ110、通信モジュール140、保存空間が限定された内蔵記憶装置120(例えば、ギガバイトまたはテラバイト)、クラウド150への帯域幅が限定された無線接続152などを含み得る。車両システム100は、車両の1つ以上のセンサ(例えば、速度センサ、操舵角センサ、制動圧センサ、GPS、カメラ、LiDAR、レーダーなど)から膨大な量のデータ160を収集し得る。特定の実施形態では、車両システム100は、人間の運転者によって運転される車両のコンテキストデータを収集することができ、収集されたデータを使用して、車両を運転するための(例えば、自律走行車両の運転、または安全警告および自動制動などの人間の運転者の支援を含む)機械学習(ML)モデルを訓練し得る。機械学習モデルの訓練は、膨大な運転シナリオおよび運転状況をカバーするデータを必要とし得る。訓練は、クラウド152に連結された訓練システム190で行われ得る。収集されたデータ160は、保存空間120および伝送帯域幅152の限界を超えることができる。車両システム100は、収集された生データの一部をクラウド150に直接保存およびアップロードして、訓練システム190において機械学習モデルを訓練し得る。しかしながら、保存空間および伝送帯域幅の限界に起因して、保存および/またはアップロードされ得るデータの量は、大きいサイズの生データに対して、非常に限定されており、したがって、機械学習モデルを訓練するためには十分でない可能性がある。
特定の実施形態では、車両システム100は、非揮発性記憶装置にデータをセーブするか、または有線もしくは無線接続を介してクラウドにデータをアップロードする前に、収集されたデータを凝縮形態に予め処理することができる。一例として限定されないが、車両システム100は、車両環境において交通エージェント(例えば、他の車両、歩行者、移動する物体)を検出するための1つ以上のエージェントモデラ(例えば、物体検出器、物体分類器)を含み得る。エージェントモデラは、1つ以上の機械学習モデル(例えば、ニューラル・ネットワーク)に基づき得る。車両システム100は、環境の二次元(例えば、カメラに基づく)および/または三次元(例えば、LiDARまたはステレオカメラに基づく)識別を使用して、交通エージェントを検出および追跡し得る(例えば、各検出された交通エージェントに対して3Dバウンディングボックスを置く、各交通エージェントを速度および移動方向でマークする)。車両システム100は、生データで捕捉された情報を表す事前処理結果データ、例えば、任意の数の検出された物体を含む検出された物体リストを凝縮形態で生成し得る。リスト内の各検出された物体には、例えば、これらに限定されないが、物体プロファイル、物体画像分割、意味テキスト説明、速度、移動方向、位置などを含む、任意の数の構成要素を含み得る。検出された物体と関連付けられた情報を含むデータは、対応する生データ(例えば、物体画像)よりも小さいサイズを有し得る。車両システム100は、検出された物体(例えば、他の車両、歩行者、移動する物体)およびそれらの関連するパラメータを含む、意味マップをさらに生成し得る。生データをセーブまたは送信する代わりに、車両システム100は、生データよりも小さい保存空間および伝送帯域幅を必要とする事前処理結果(例えば、物体リスト、意味マップ)をセーブまたは/およびアップロードし得る。次に、事前処理結果は、機械学習モデルの訓練、統計モデルの構築、または人間による分析を受けるなど、任意の下流適用のために使用され得る。
特定の実施形態では、車両システム100は、収集されたデータ(例えば、高解像度生画像)を1つ以上の圧縮フォーマット(例えば、JPEG、PNG)に圧縮して、保存空間および伝送帯域幅に対する要件を低減し得る。特定の実施形態では、車両システム100は、事前処理結果データをよりいっそう小さいサイズにさらに圧縮して、保存空間および伝送帯域幅に対する要件を低減することができる。車両システム100は、非揮発性記憶装置に圧縮されたデータをセーブし得るか、または/かつ実時間またはその後にクラウドにアップロードし得る。
特定の実施形態では、車両システム100は、事前処理データまたは/および圧縮データを使用して、機械学習モデルが車両運転を学習するように訓練することができる。事前処理データおよび圧縮データは、機械学習モデルを訓練するために有益な情報を多数保持することができるが、それらは、事前処理データまたは圧縮データよりもより高レベルの詳細を必要とし得る異常なイベント(例えば、事故、普通でない運転状態、履歴データに基づく予測から逸脱する動作など)についての十分な詳細を欠く可能性がある。異常なイベントは、機械学習モデルを訓練するための重要なエッジケースデータを含み得る。したがって、そのような万能型のアプローチ(例えば、事前処理データ、圧縮データ)では、より豊富なデータが必要とされるシナリオに対して収集されるデータの量が最適以下となる可能性がある。
特定の実施形態では、車両システムは、1つ以上のコンピューティングシステム(例えば、データ収集デバイス、高性能コンピュータ、タブレット、携帯電話など)を使用して、1つ以上の検出された関心イベントに基づいて、車両のコンテキストデータを選択的に収集することができる。図2は、人間の運転者の予測動作に基づいて関心イベントを決定するための例示的な時系列200を例示する。車両システムは、車両のコンテキストデータを継続的に収集し、最新のコンテキストデータ206を車両システムの揮発性メモリに保存し得る。揮発性メモリに保存された最新のコンテキストデータ206は、現在時刻T前に所定の期間TP2 202(例えば、2分、5分、10分)内に集められたデータを含み得る。揮発性メモリ内に保存されたコンテキストデータ206は、1つ以上のセンサからの高解像度データ、例えば、1つ以上のカメラからの一連のフル解像度生画像または他の非圧縮フル解像度生データを含み得る。非揮発性メモリは、メモリのサイズ制限に適応するために、より新しいデータに繰り返し上書きし、直近の時限(例えば、2分、5分、10分)の高解像度のみを保存することができる。
特定の実施形態では、車両システムは、揮発性メモリに保存された車両のコンテキストデータ206にアクセスし、予測モデルを使用して、現在時刻Tおよびその後の時限TP1 204(例えば、0.1秒、0.2秒、2秒、5秒)に、人間の運転者の予測動作208に関連する1つ以上のパラメータを予測し得る。予測動作208に関連するパラメータには、例えば、これらに限定されないが、操舵変更、ペダル動作、制動動作、信号変更などが含まれ得る。予測モデルは、車両情報、車両経路、または/および車両の環境に関連する1つ以上のパラメータを予測し得る。例えば、予測モデルは、車両または/および他の交通エージェントについて、速度、移動方向、加速度、位置、軌道、道路線との相対位置などを予測し得る。予測モデルは、多数の人間が運転する車両(例えば、人間の運転者の車隊で運転される)または自律走行車両と関連付けられた大量の(例えば、数百または数千の訓練サンプル)予め記録されたコンテキストデータによって訓練され得る。予測モデルは、多数の車両(例えば、人間が運転する車両または自律走行車両)と関連付けられた予め記録された車両動作によって訓練され得る。特定の実施形態では、予測モデルは、機械学習モデル(例えば、人工ニューラル・ネットワーク、回帰ニューラル・ネットワーク)の推論モデルであり得る。機械学習モデルは、多数の人間の運転者の予め記録されたコンテキストデータによって訓練され得る。特定の実施形態では、車両システムは、事前処理済みコンテキストデータ、圧縮コンテキストデータ、または高解像度コンテキストデータに基づいて、人間の運転者の予測動作および車両状態を予測し得る。
特定の実施形態では、車両システムは、時限TP1 204(例えば、0.1秒、0.2秒、2秒、5秒)に対する車両のコンテキストデータの収集を継続し、時限TP1 204中の人間の運転者の実際の動作210に関連するパラメータを決定し得る。例えば、車両システムは、時限TP1 204に対する車両情報、車両経路情報、および環境情報を決定し得る。車両システムは、時限TP1 204中の人間の運転者の実際の動作210と予測動作208とを比較して、関心イベントがその時限中に発生したどうかを決定し得る。車両システムは、人間の運転者の実際の動作210が所定の閾値について予測動作208から逸脱した場合に関心イベントが発生したと決定し得る。車両システムは、最新のコンテキストデータ206が検出された異常なイベントと関連付けられると決定し得る。例えば、予測モデルは、現在の運転状況に基づいて、車両が比較的低い速度(例えば、10mph〜30mph)で運転するべきであると予測し得るが、車両システムは、車両が60mphよりも高い速度で実際には運転しており、人間の運転者がまだアクセルペダルを踏んでいると見出している。結果として、車両システムは、それを異常なイベント(例えば、時間T 212に)としてフラグを立て、その異常なイベントに関連する高解像度データ206(例えば、フル解像度生データ)を保存し得る。
特定の実施形態では、関心イベントが生じた(例えば、時間T 212に)と決定した際に、車両システムは、関心イベントと関連付けられた車両の高解像度コンテキストデータ(例えば、コンテキストデータ206)を、車両システムの非揮発性記憶装置に保存し得る。一例として、限定されないが、車両システムは、揮発性メモリ内のコンテキストデータ206を、車両システムの非揮発性記憶装置に移動し得る。保存されたコンテキストデータ206は、高解像度データ(例えば、いかなる圧縮のない、一連のフル解像度生画像または生センサデータ)を含むことができ、したがって、関心イベントに関連する、より豊富な詳細を捕捉することができる。車両システムは、関心イベント(例えば、時間T 212で)後のさらなる時限TP3 214(例えば、数秒〜数分)に対応する高解像度データをさらに保存することができ、それにより、システムは、イベント前(例えば、時限TP4 216)およびイベント後(例えば、時限TP3 214)の両方でイベントの詳細を捕捉することができる。保存された高解像度データは、有線または無線接続を介して実時間でクラウドにアップロードされ得るか、またはその後のオフラインプロセスのために非揮発性記憶装置に保存され得る。関心イベントのみについて高解像度データを選択的に保存することによって、特定の実施形態は、保存および帯域幅リソースの少ない使用で、車両の1つ以上の運転状況に関連するエッジケースについてのより豊富なデータセットを捕捉する。高解像度データを使用して、機械学習モデルがそのようなエッジケースを構成するように訓練することができる。関心イベントに基づいて捕捉されたエッジケースデータは、車両運転モデルを訓練し、自律走行車両について運転モデルの準備ができているかを評価および試験するために重要であり得る。特定の実施形態では、車両システムは、関心イベントがコンテキストデータと関連付けられるとの決定に基づいて、保存される高解像度コンテキストデータを選択することができる。高解像度コンテキストデータは、対応するコンテキストデータが関心イベントと関連付けられないと決定された場合に通常保存されるデータよりも多くの情報を含み得るか、またはより長い時限に対応し得る。特定の実施形態では、車両システムは、関心イベントと関連付けられる高解像度コンテキストデータにフラグを立て(例えば、デジタルマークを使用して)、その後に見直しまたは分析することができる。
特定の実施形態では、車両システムによって保存/アップロードされた高解像度データは、異常でないイベントについて収集された低解像度データ(例えば、事前処理された圧縮データ)より多くの詳細な情報を含み得る。特定の実施形態では、高解像度データは、処理または圧縮をしない1つ以上のセンサからの生データであり得る。特定の実施形態では、高解像度データは、正規のまたは低解像度画像よりも各画像においてより高い画素を有し得る高解像度画像を含み得る。高解像度画像は、カメラの画像センサで入手可能なすべての画素を使用したフル解像度画像であり得る。特定の実施形態では、高解像度データは、より高いサンプリングレートを使用したセンサによって生成されるデータであり、したがって、イベントのより多くの詳細な情報を捕捉することができる。特定の実施形態では、高解像度データは、より大きな場面を捕捉するためにより大きな視野を有するセンサによって生成されるデータであり得る。
特定の実施形態では、高解像度コンテキストデータは、人間の運転者の注意に基づいて収集された、カスタマイズデータであり得る。車両システムは、人間の運転者の注意に基づいてリソース(例えば、時間、センサ、カメラ、伝送帯域幅、保存空間)を動的に割り当てることができる。車両システムは、人間の運転者が人間の運転者の状態または行動(例えば、頭の位置、頭の動作、視線方向)に基づいて注意を払っている、1つ以上の関心領域を決定し得る。車両システムは、これらの関心領域に、より多くのリソース(例えば、時間、センサ、カメラ、伝送帯域幅、保存空間)を割り当て、現在の状況により関連する、より豊富なデータセットを捕捉し得る。車両システムは、保存されることになる高解像度コンテキストデータに含まれるように、人間の運転者が注意を払っている領域と関連付けられたコンテキストデータのセットを選択し得る。一例として、限定されないが、人間の運転者が車両の運転中に特定の方向を見ている場合に、車両システムは、人間の運転者が見ている方向に、より多くのカメラおよび帯域幅リソースを割り当て得る。別の例として、人間の運転者が車両の運転中に特定の方向を見ている場合に、車両システムは、より高い解像度または/およびより高いサンプリングレートで画像を捕捉するために、カメラがその方向を向くよう構成することができる。
特定の実施形態では、車両システムは、エッジコンピューティングを使用して、関心イベントを実時間で検出および分類することができる。エッジコンピューティングは、クラウドの代わりに、車両システムのローカルコンピューティングシステム(例えば、データ収集デバイス、高性能コンピュータ)で実施される計算を指す場合がある。例えば、車両システムは、履歴データに基づく予測から逸脱する異常なイベントを検出および分類するために、ローカルプロセッサ(例えば、GPU、CPU、ML専用プロセッサ)で作動する機械学習モデルを含み得る。エッジコンピューティングを使用することによって、特定の実施形態は、車両システムに、クラウド内のサーバからの実時間での支援なしに、車両のコンテキストデータを選択的に収集させることを可能にし、したがって、車両システムの通信帯域幅に関する要件を低減し得る。異常なイベントを検出するための局所計算を使用することによって、特定の実施形態は、クラウドとの通信によって生じる遅延時間をなくすことによって、通常のおよび異常な動作イベントを検出するための応答時間を短くすることができる。
図3は、異常なイベントを検出および分類するための例示的なエッジコンピューティング図表300を例示する。特定の実施形態では、車両システム310は、車両システム310で局所的に作動する機械学習モデルであり得る予測モデル320Aを含み得る。特定の実施形態では、予測モデルは、多数の人間の運転者から収集される予め記録されたコンテキストデータを使用して訓練され得る。例えば、予測モデル320Aのコピーである予測モデル320Bは、通常の動作データベース342および異常なイベントデータベース344を使用したクラウド340を介して訓練され、利用可能となり得る。訓練データベース342および344は、それぞれ、多数の通常のイベントおよび多数の異常なイベントをカバーするコンテキストデータを含み得る。通常のイベントは、履歴データに基づいた予測と一致する動作を含み得る。通常のイベントに関連する動作は、車両の予測モデル(例えば、予測動作に対する閾値内)によって予測され得る。訓練データベース342および344は、人間によってラベルされる通常のおよび異常なイベントの最初のデータセット、ならびに/または機械学習モデルによって自動的に分類される通常のおよび異常なイベントの別のデータセットを含み得る。訓練データは、エッジケースデータが典型的には、通常の動作データと比較して少ないため、通常の動作データおよびエッジケースデータを示差的に重み付けすることによって構成および最適化され得る。例えば、エッジケースに関連するデータは、通常の動作に関連するデータよりも大きい重みを割り当てられ得る。重み付けされた通常の動作データおよびエッジケースデータによって訓練された機械学習モデルは、通常の動作状況およびエッジケース状況の両方を適切に取り扱うことができる。訓練結果は、有線または無線接続を介してクラウド340から車両システム310内のローカル予測モデル320Aに同期され得る。
特定の実施形態では、予測モデル320Aは、所定の時限(例えば、直近の5分)中に捕捉されたコンテキストデータ302または/および他の事前処理もしくは圧縮されたコンテキストデータに基づいて、車両の予測動作を決定し得る。運転モデルは、実時間または/および半実時間コンテキストデータを処理し、将来の時限または/および現在時刻に対して予測される運転動作322を生成し得る。予測される運転動作(例えば、操舵、制動、加速、駐車の命令、車両、車両経路、人間の運転者、または/および環境に関連するパラメータ)は、異常なイベントを決定するために、コンパレータ315によって人間の運転者の実際の動作306と比較され得る。コンパレータ315は、人間の運転者の実際の動作206が閾値量で予測動作322から逸脱する場合に、イベントを異常なイベント317として識別することができる。異常なイベントと決定すると、車両システム310は、検出された異常なイベントに関連する高解像度コンテキストデータ352を非揮発性記憶装置に保存し、または/および実時間もしくはその後に、高解像度コンテキストデータをクラウドにアップロードし得る。
一例として、限定されないが、車両が交差点で曲がる場合に、予測モデル320Aは、履歴データに基づいて車両の軌道を予測し得る。車両システム310は、GPSを使用して車両の場所を追跡し、LiDAR、カメラなどを使用して、周囲の物体との車両の相対位置を決定し得る。コンパレータ315は、車両位置が所定の閾値距離(例えば、5メートル、10メートル、15メートル)よりも大きい距離で予測される軌道から逸脱していると決定し得る。コンパレータ315は、それを異常なイベントとして識別し得る。異常なイベントを検出すると、車両システム310は、識別された異常なイベントに関連する高解像度コンテキストデータを非揮発性記憶装置に保存し、または/および高解像度データをクラウド340にアップロードし得る。
特定の実施形態では、車両システム310は、以前に検出された異常なイベントの1つ以上の識別されるカテゴリおよび現在検出されている関心イベントの1つ以上の特性に従って、各々検出される異常なイベント317を分類するためのイベント分類器330Aを含み得る。例えば、イベント分類器330Aは、異常な速度に関連するイベントを異常な速度イベントとして分類し得る。別の例として、イベント分類器330Aは、異常な軌道に関連するイベントを異常な軌道イベントとして分類し得る。イベント分類器300Aは、各々検出される異常なイベントに対する関心スコアをさらに決定し得る。イベント分類器330Aは、車両システム310に対して局所的に作動する別の機械学習モデルであり得る。特定の実施形態では、イベント分類器330Aは、クラウド340を介して訓練され、利用可能になり得る、イベント分類器330Bのコピーであり得る。イベント分類器330Bは、適切な分類でラベルされた異常なイベントの訓練サンプルを含み得る、異常なイベントデータベース344を使用して訓練され得る。訓練結果は、有線または無線接続を介して車両システム310内のクラウド340からローカル予測モデル330Aに同期され得る。
特定の実施形態では、イベント分類器330Aは、検出されたイベントに関連するコンテキストデータに基づいて決定される1つ以上のパラメータ(例えば、速度、軌道、場所、周囲の物体、加速度など)に基づいて、検出されたイベントを分類することができる。イベント分類器330Aは、検出されたイベントが特定のカテゴリに属するとの信頼水準を示す信頼スコアをさらに決定することができる。特定の実施形態では、イベント分類器330Aは、検出されたイベントの関心度を示すために、検出された異常なイベントに対する関心スコアをさらに決定し得る。イベント分類器330Aは、カテゴリに属する検出されたイベントの信頼スコアおよびそのカテゴリの対応する関心スコアに基づいて、関心スコアを計算し得る。例えば、検出されたイベントがカテゴリの帰属についてxの信頼スコアを有し、そのカテゴリがyの関心スコア(関心の程度を示す)を有する場合、検出されたイベントの関心スコアは、xとyの積によって決定され得る。特定の実施形態では、最初の異常なイベントセットの関心スコアは、手動で決定され、イベント分類器330Bを訓練するために人間によってラベルされ得る。イベント分類器330Aは、最初のデータセットおよび他の以前に検出された異常なイベントデータに基づいて、新たに検出された異常なイベントについて関心スコアを決定し得る。
特定の実施形態では、車両システム310は、コンパレータ315によって識別される各検出された異常なイベント317に関連する高解像度コンテキストデータを保存/アップロードし得る。特定の実施形態では、車両システム310は、イベント分類器330Aによって決定されるイベントの関心スコアに基づいて、異常なイベントに関連する高解像度コンテキストデータを保存/アップロードするべきかどうかを決定し得る。例えば、車両システム310は、関心スコアが閾値よりも高い場合のみに、異常なイベントに関連する高解像度コンテキストデータを保存/アップロードし得る。特定の実施形態では、車両システム310は、関連する異常なイベントの関心スコアに基づいて、保存/アップロードされるコンテキストデータの情報詳細レベルを決定し得る。例えば、車両システム310は、より低い関心スコアを有する異常なイベントよりも、より高い関心スコアを有する異常なイベントについて、より高い解像度を有するコンテキストデータを保存/アップロードし得る。
特定の実施形態では、イベント分類器は、検出された異常なイベントが任意の以前に検出されたイベントと類似しない(例えば、任意の既知の異常なイベントカテゴリに対して低い信頼スコアによって示される)ため、検出された異常なイベントを分類できない場合がある。この状況では、イベント分類器は、検出されたイベントに基づいて新たなカテゴリを作成し、すべての既知の異常なイベントと類似しないこと自体が例外を示しているため、検出されたイベントに高い関心スコアを割り当て得る。車両システムは、任意の分類不能なイベントに関連する、関連する高解像度データを収集およびセーブし得る。例えば、車両システムは、車両までの距離内で道路上に回転するタイヤを識別することができる。イベント分類器は、回転するタイヤのイベントを任意の既知のカテゴリとして分類できない可能性がある。イベント分類器は、新たなタイプの異常なイベントとしてそれを識別し、そのイベントに高い関心スコアを割り当て得る。
特定の実施形態では、予測モデル320Bおよび/またはイベント分類器330Bは、新たに収集されたデータに基づいてアップロードされ得る。特定の実施形態では、通常の動作および異常なイベントについての最初の訓練データセットは、人間によってラベルされ得る。車両システムが新たなコンテキストデータを収集する場合、新たに収集されたデータは、訓練データベース342、344にアップロードされ得る。例えば、車両システム310は、異常なイベント317に関連する高解像度コンテキストデータ352を収集し、収集された高解像度コンテキストデータ352を、クラウド340内の異常なイベントデータベース344にアップロードし得る。同様に、通常のイベントに関連すると決定されたコンテキストデータは、通常の動作データベース342にアップロードされ得る。予測モデル320Bおよびイベント分類器330Bの両方を含む機械学習モデルは、新たに収集されたデータによってさらに訓練され、したがって、異常なイベントを取り扱うための能力を経時的に改善し得る。訓練された予測モデル320Bおよびイベント分類器330Bは、車両システム310で局所的に作動する対応する予測モデル320Aおよびイベント分類器330Aに同期され得る。
図4Aは、車両の異常なイベントを検出するための例示的な状況400Aを例示する。車両402Aは、他の交通エージェント(例えば、402B、402C)、1つ以上の停止線(例えば、404A、404B)、複数の交通信号(例えば、410A、410B、410C、410D)、1つ以上の横断歩道406、縁石430、道路線440A〜Cなどを有する交差点490にアプローチし得る。人間の運転者によって運転される車両402Aは、1つ以上のセンサを使用して車両の環境をマップ化し、実時間センサ情報を使用してマップをローカライズし得るコンピューティングシステムを含み得る。コンピューティングシステムは、車両情報、例えば、速度、移動方向、加速度、停止線404までの距離、道路線440Aまでの距離などを監視し得る。コンピューティングシステムは、車両のコンテキストデータを収集し、収集されたコンテキストデータに基づいて車両動作を予測し得る。一例として、限定されないが、コンピューティングシステムは、ナビゲーションデバイス(例えば、携帯電話、GPS)を介して車両の計画された経路を監視し得る。予測モデルは、ナビゲートする経路の標的場所および車両の信号状況の変化(例えば、車両のCANバスを介してアクセスされる)に基づいて、車両402Aがこの交差点490で左折すると推論し得る。別の例として、予測モデルは、人間の運転者の動作(例えば、運転者が左折に対応する左前方向を向かって見ている)および他の環境因子(例えば、他の交通エージェントが交通信号に従って静止している、歩行者がいないなど)に基づいて、車両402Aが交差点490で左折をすると推論し得る。
一例として、限定されないが、コンピューティングシステムは、車両402Aが交差点490で左折をすると予測し得る。コンピューティングシステムは、予測モデルを使用して、車両402Aが線420Aと420Bとの間の軌道を有する可能性が高いと予測し得る。予測モデルは、この交差点490または他の交差点で車両によってなされる左折に関連する履歴データによって訓練され得る。例えば、左折をするための典型的な軌道は、運転者が曲がる予定の車道に応じた軌道422Aまたは422Bであり得る。コンピューティングシステムは、人間の運転の動作および車両402Aの状態を監視し続け得る。実際の左折プロセス中に、コンピューティングシステムは、車両402Aが420Aおよび420Bの予測される境界線を越える軌道422Cを使用して左折をしていると検出し得る。コンピューティングシステムは、異常なイベントとしてそれを識別し、新しいエッジケースデータとして関連する高解像度データをセーブし得る。コンピューティングシステムは、イベント分類器をさらに使用して、検出された異常なイベントを異常な軌道イベントとして分類し、イベントに高い関心スコアを割り当てることができる。
別の例として、コンピューティングシステムは、交通エージェント(例えば、車、トラック)または人(例えば、横断歩道406を歩行しているか、または自転車に乗っている)が、車両が高い速度で近づいているときに車両402Aの前にいると検出(例えば、1つ以上のエージェントモデラを使用して)し得る。コンピューティングシステムは、障害物に面しているときに車両によってなされる減速プロセスに関連する履歴データによって訓練される予測モデルを含み得る。コンピューティングシステムは、予測モデルを使用して、車両402Aが検出された交通エージェントまたは人との閾値距離を超えて減速すると予測し得る。しかしながら、コンピューティングシステムは、車両402Aが、車両が交通エージェントまたは人への閾値距離内に入った後に、高速で交通エージェントまたは人間に近づいていることを検出する。コンピューティングシステムは、異常なイベントとしてそれを識別し、関連する高解像度データを保存し得る。イベント分類器は、この異常なイベントを異常な速度イベントとして分類し、イベントに高い関心スコアを割り当てることができる。
別の例として、コンピューティングシステムは、車両402Aが左折信号を待っている交差点490で停止している間に、車両402Aの交通信号がちょうど青に変わったことを検出し得る。コンピューティングシステムは、予測モデルを使用して、車両402Aが、交通信号が青に変わった後の閾値時限(例えば、1秒、2秒)で左折するために前進すると予測し得る。予測モデルは、この交差点490または他の交差点で車両によってなされる左折に関連する履歴データによって訓練され得る。しかしながら、コンピューティングシステムは、車両402Aが、交通信号が青に変わった後の閾値時限(例えば、1秒、2秒)よりも長い期間(例えば、5秒、10秒、20秒、30秒)、交差点490に停止し続けていることを検出する。コンピューティングシステムは、異常なイベントとしてそれを識別し、関連する高解像度データを保存し得る。イベント分類器は、このイベントを異常な停止イベントとして分類し、イベントに高い関心スコアを割り当てることができる。
特定の実施形態では、コンピューティングシステムは、規則ベースのアルゴリズムを使用して、異常なイベントを検出することができる。例えば、コンピューティングシステムは、人間の運転者が制動ペダルをめったにないほど強く踏んでいると検出し、それを異常なイベントとして識別し得る。別の例として、コンピューティングシステムは、車両がナビゲーション標的とは異なる誤った場所に到着したと決定し、それを異常なイベントとして識別し得る。別の例として、コンピューティングシステムは、衝突事故が発生したと決定し(例えば、IMU出力、エアバッグ状態に基づいて)、それを異常なイベントとして識別し得る。特定の実施形態では、コンピューティングシステムは、異常なイベントを検出および分類するための規則ベースの検出およびモデルベースの検出のハイブリッドアプローチを採用し得る。
特定の実施形態では、コンピューティングシステムは、1つ以上の交通エージェントモデラを使用して、環境下での他の交通エージェント(例えば、402B、402C)を検出および分析し得る。エージェントモデラは、他の交通エージェント(例えば、車、バス、歩行者)を検出および識別し、彼らの行動(例えば、速度、軌道、位置)を予測し、彼らの行動の攻撃性を評価し得る。特定の実施形態では、エージェントモデラは、異なる交通エージェントを検出および分析するように訓練される1つ以上の機械学習モデルであり得る。エージェントモデラは、他の交通エージェント(例えば、402B、402C)とホスティング車両(例えば、402A)との間の相互作用をさらに分析および予測し得る。
図4Bは、他の交通エージェントの行動を予測するための例示的な状況400Bを例示する。車両402Aは、交差点490に近づく可能性があり、左折する予定である(例えば、軌道450に沿って)。エージェントモデラは、交通エージェントがいる車線、縁石または中央線までの交通エージェント間の距離、その交通エージェントの信号状況の変化などに基づいて、交通エージェントの行動を予測し得る。一例として、限定されないが、エージェントモデラは、交通エージェント402Bが道路の右車線内におり、縁石430に非常に近いと検出し得る。エージェントモデラは、交通エージェント402Bが軌道452に沿って右折する可能性が高いと予測し得る。しかしながら、エージェントモデラは、交通エージェント402Bのその左折信号が点滅していると検出し得る。コンピューティングシステムは、それを異常なイベントとして識別し得る。別の例として、エージェントモデラは、交通エージェント402Cが左の車線内におり、左折信号が点滅していると検出し得る。エージェントモデラは、交通エージェント402Cが軌道454に沿って左折するか、または軌道456に沿ってUターンするかのいずれかの可能性が高いと推論し得る。しかしながら、エージェントモデラは、交通エージェント402Cが、左折の代わりに直進する(例えば、経路458に沿って)と検出し、異常なイベントとしてそれを識別し得る。
別の例として、車両402Aが交差点490に近づいているとき、車両402Aのコンピューティングシステムは、エージェントモデラを使用して、交通エージェント402B(例えば、車)がめったにない高速で停止線404Bに近づいていると検出し得る。エージェントモデラは、交通エージェント402Bが減速しているが、交通エージェント402Bと停止線404Bとの間の速度が速く、距離が短いため、停止線404Bで安全な停止をする可能性が低いと予測し得る。コンピューティングシステムは、これを異常なイベントとして識別し、このイベントを攻撃的な交通エージェントのイベントとして分類し得る。別の例として、エージェントモデラは、認識または分類できない交通エージェントまたは物体を検出し得る。コンピューティングシステムは、認識不能な交通エージェントまたは物体を異常なイベントとして識別し得る。
特定の実施形態では、コンピューティングシステムは、マルチチャネル画像を使用して、車両の環境の離散化ビューを予測し得る。例えば、コンピューティングシステムは、(例えば、予測モデル、交通エージェントモデラ、機械学習モデルを使用して)車両環境(例えば、他の交通エージェント、歩行者など)および車両状態(例えば、場所、速度、移動方向、道路線との相対位置、周囲の物体との相対位置など)を予測するための一連のマルチチャネル画像を生成することができる。コンピューティングシステムは、車両がどこに向かっているか、および環境がどのように見えるかを短い時限(例えば、0.1秒、0.2秒、2秒、5秒、10秒など)で予測することができる。コンピューティングシステムは、対応する確率を有する仮説のセットに基づいて、車両の速度および移動方向を予測することができる。潜在的な仮説は、ネットワークに新たな情報を供給し得る、畳み込みニューラル・ネットワークまたは回帰ニューラル・ネットワークによって生成され得る。仮説は、道路の現在のビューおよび道路の以前のビューの両方に基づく可能性がある。例えば、コンピューティングシステムは、現在時刻Tまたは/および以前の時間(例えば、T−0.5秒、T−1秒)に複数のチャネル画像を生成し得る。特定の実施形態では、コンピューティングシステムは、車両の環境の予測される離散化ビューに少なくとも一部基づいて、車両動作を予測し得る。
特定の実施形態では、コンピューティングシステムは、車両、環境、または/および他の交通エージェントに関連する特徴の組み合わせを使用して、車両の環境を予測し得る(例えば、離散化または非離散化ビューで)。特徴の組み合わせは、例えば、これらに限定されないが、車両の現在位置、車両の過去の位置、車両の予測される位置、車両の現在速度、車両の過去の速度、車両の予測される速度、車両に関連する他の交通エージェントの速度および向き、互いに関連する他の交通エージェントの速度および向き、1つ以上のマップ要素に関連する他の交通エージェントの速度および向き(例えば、車線区分線、停止線、歩行者横断歩道、信号、道路標識、交差点、路肩、建物、踏切遮断機)などのうちの1つ以上を含み得る。コンピューティングシステムは、車両、環境、または/および他の交通エージェントに関連する1つ以上の特徴の組み合わせを生成し、特徴の組み合わせに基づいて、車両環境の離散化または非離散化ビューを予測し得る。特定の実施形態では、コンピューティングシステムは、車両環境の予測されるビューに少なくとも一部基づいて、車両動作を予測し得る。
特定の実施形態では、コンピューティングシステムは、交通エージェントの各個々の位置を見て、可能な環境状況を短期間で予測することができる。コンピューティングシステムは、エージェントモデラを使用して、車両の近くの交通エージェントおよび他の物体を識別し、予測モデルを使用して、交通エージェントがどこに向かう可能性があるか(例えば、場所、速度、移動方向、道路線との相対位置、周囲の物体との相対位置など)を予測することができる。コンピューティングシステムは、これらの交通エージェントに呼応する人間の運転者の動作に関連する車両のコンテキストデータを収集し、車両の収集されたコンテキストデータおよび人間の運転者の動作に基づいて、車両の状態(例えば、場所、速度、移動方向、道路線との相対位置、周囲の物体との相対位置など)を予測し得る。特定の実施形態では、交通エージェントモデラおよび予測モデルは、車両の履歴コンテキストデータによって訓練される機械学習モデルであり得る。特定の実施形態では、予測モデルは、車両および環境に関する多層情報を含む履歴マルチチャネル画像によって訓練され得る。
特定の実施形態では、コンピューティングシステムは、車両自体、停止線、道路線、他の交通関係者またはエージェントなどを含む、車両環境(例えば、交差点)についての1つ以上のマルチチャネル画像を生成し得る。各マルチチャネル画像は、トップビュー環境画像である可能性があり、環境についての異なる層の情報に対する複数のチャネルを有し得る。画像の第1のチャネルは、道路の境界を示す道路情報(例えば、どの領域が道路に属するか、およびどの領域が道路でないか)を含み得る。例えば、画像の第1のチャネルは、これらに限定されないが、道路線、横断歩道、縁石、歩道、道路を越えた路肩領域などを含み得る。画像の第2のチャネルは、交通および道路と関連付けられた情報、例えば、車両自体(例えば、場所、周囲の物体との相対位置)、他の交通エージェント(例えば、場所、周囲の物体との相対位置)、停止線、交通信号、道路標識などを含み得る。第3のチャネルは、交通エージェントに関連する情報、例えば、速度、移動方向、加速度、信号状況の変化、相互作用などを含み得る。機械学習モデルは、マルチチャネル画像を使用して、正確な場面がどのように見えるかを、世界の離散化ビューで、短期間(例えば、0.1秒、0.2秒)で予測し得る。コンピューティングシステムは、環境の一連のトップビューを生成して、環境の一連のさらなる場面を予測することができる。
特定の実施形態では、コンピューティングシステムは、予測される車両および環境状態と実際の車両および環境状態を比較し得る。コンピューティングシステムは、後に収集される車両のコンテキストデータを使用して決定される実際の車両および環境状態に基づいて、環境の実際のトップビューに対する一連のマルチ変化画像を生成し得る。コンピューティングシステムは、予測されるトップビュー画像と実際のトップビュー画像を比較し、実際のトップビュー画像が、閾値よりも大きい差で、その対応する予測されるトップビュー画像から逸脱する場合に、異常なイベントを決定することができる。コンピューティングシステムは、環境の予測されるトップビュー画像と実際のトップビュー画像との比較のために、マルチチャネル画像の1つ以上の情報層を使用し得る。一例として、限定されないが、コンピューティングシステムは、実際のおよび予測される環境のトップビュー画像に基づいて、車両の場所が、閾値距離よりも大きい距離(例えば、5メートル、10メートル、15メートル)で予測される場所から逸脱していると決定し得る。コンピューティングシステムは、異常なイベントとしてそれを決定し、検出される異常なイベントに関連する高解像度データを保存/アップロードし得る。別の例として、コンピューティングシステムは、実際のおよび予測される環境のトップビュー画像に基づいて、別の車両が閾値距離よりも大きい距離(例えば、5メートル、10メートル、15メートル、30メートル)でその車両の予測される軌道から逸脱していると決定し得る。コンピューティングシステムは、異常なイベントとしてそれを決定し、識別される異常なイベントに関連する高解像度データを保存/アップロードし得る。
図5は、関心イベントを検出し、イベントと関連する高解像度データを保存する例示的な方法を例示する。工程510では、車両システムは、車両システムと関連する1つ以上のセンサに基づいて、車両のコンテキストデータを収集し得る。収集されたコンテキストデータは、車両、車両経路、人間の運転者、および環境を監視するためのセンサからの高解像度データ(例えば、圧縮または事前処理なしのフル解像度生データ)を含み得る。工程520では、車両システムは、最新の高解像度データ(例えば、5分間のデータ)を揮発性メモリに保存し得る。揮発性メモリ内の高解像度データは、より新しいデータによって上書きされる可能性があり、揮発性メモリは、そのサイズ制限に適応するために、最新の5分間の高解像度のみを保存する場合がある。工程530では、車両システムは、車両システムの非揮発性記憶装置に低解像度データを保存し、低解像度データを実時間でクラウドにアップロードし得る。低解像度データは、高解像度コンテキストデータに基づいて生成される事前処理データ(例えば、物体識別結果)または圧縮データであり得る。工程540では、車両システムは、予測モデルを使用して、ある時限(例えば、0.1秒、0.2秒、2秒、5秒)の人間の運転者の将来の動作を予測し得る。予測モデルは、履歴データを使用して訓練される機械学習モデルであり得る。車両システムは、車両状態を監視し、車両のコンテキストデータを収集し続けることができる。工程550では、車両システムは、その時限(例えば、0.1秒、0.2秒、2秒、5秒)中の車両の収集されたデータに基づいて、人間の運転者の実際の動作を決定し得る。工程560では、車両システムは、人間の運転者の予測動作と実際の動作を比較して、関心イベントが発生したかどうかを決定し得る。
工程570では、人間の運転者の実際の動作が所定の閾値に対して予測される動作から逸脱する場合に、車両システムは、異常なイベントを識別し得る。人間の運転者の実際の動作が予測動作と一致する(例えば、所定の閾値内)場合、車両システムは、工程510に飛び、車両のコンテキストデータの収集を継続し得る。工程580では、車両システムは、識別された関心イベントに関連する高解像度データを非揮発性記憶装置に保存し得る。例えば、車両システムは、揮発性メモリ内の高解像度データを非揮発性記憶装置に移動(またはデータをクラウドにアップロード)し得る。揮発性メモリ内の高解像度データは、関心イベントの前の所定の時限(例えば、5分)の、より豊富なデータセットを含み得る。特定の実施形態では、車両システムは、関心イベントが発生した後の第2の期間(例えば、数秒〜数分)、高解像度データをさらに収集および保存し得る。工程590では、車両システムは、イベント分類器を使用して、検出された関心イベント(例えば、異常なイベント)を分類し、検出されたイベントの重要性および関心度を示す関心スコアを決定し得る。
特定の実施形態は、必要に応じて、図5の方法の1つ以上の工程を繰り返し得る。本開示は、図5の方法の特定の工程を特定の順序で生じるものとして記載および例示しているが、本開示は、図5の方法の任意の好適な工程が任意の好適な順序で生じることを企図している。さらに、本開示は、図5の方法の特定の工程を含む、関心イベントを検出し、イベントと関連付けられた高解像度データを保存するための例示的な方法を記載および例示しているが、本開示は、必要に応じて、図5の方法の工程のすべて、いくつかを含むか、またはいずれも含まない場合がある、任意の好適な工程を含む、関心イベントを検出し、イベントに関連する高解像度データを保存するための任意の好適な方法を企図している。さらに、本開示は、図5の方法の特定の工程を実施する特定の構成要素、デバイス、またはシステムを記載および例示しているが、本開示は、図5の方法の任意の好適な工程を実施する任意の好適な構成要素、デバイス、またはシステムの任意の好適な組み合わせを企図している。
図6Aは、例示的なデータ収集デバイス660の様々な構成要素のブロック図表を例示する。データ収集デバイス660はまた、輸送管理車両デバイスとも呼ばれ得る。特定の実施形態では、データ収集デバイス660は、内蔵デバイスとして車両と一体化され得るか、または着脱可能なシステムとして車両と関連付けられ得る。特定の実施形態では、データ収集デバイス660は、例えば、論理制御モジュール(例えば、プロセッサ618、入力/出力(I/O)インターフェース626)、データ保存モジュール(揮発性メモリ628、非揮発性記憶装置620)、検知モジュール(例えば、慣性計測ユニット632、カメラ634、センサ636)、通信モジュール624、ディスプレイモジュール(例えば、前方ディスプレイ604、後方ディスプレイ610、照明制御装置622)などを含む、いくつかのサブシステムおよびモジュールを含み得る。特定の実施形態では、プロセッサ618は、I/Oインターフェース626を制御して、データ収集デバイス660と一体化された一体型センサ(例えば、IMU632、カメラ634、センサ636)と、車両に関連付けられデータ収集デバイス660と通信する車両センサ(例えば、GPS642、カメラ644、センサ646)の両方からデータを収集することができる。データ収集デバイス660は、揮発性メモリ628(例えば、ランダムアクセスメモリ(RAM))または/および非揮発性記憶装置620(例えば、ハードディスクドライブ、ソリッドステートドライブ、フラッシュドライブ、コンパクトディスクなど)内に収集されたデータを保存し得る。データ収集デバイス660はまた、通信モジュール624を使用して、有線または無線接続652を介して、実時間またはその後に、収集されたデータをクラウド650にアップロードし得る。
特定の実施形態では、データ収集デバイス660は、かなりの計算リソースを必要とし得る1つ以上の機械学習モデル(例えば、予測モデル、運転モデル、イベント分類器、交通エージェントモデラなど)を含み得る。特定の実施形態では、データ収集デバイス660は、データを収集および処理(例えば、交通エージェントモデラの作動)するための別のコンピューティングシステム(例えば、携帯電話、タブレット、モバイルコンピュータ、高性能コンピュータ)と協働し得る。特定の実施形態では、データ収集デバイス660は、携帯電話またはモバイルコンピュータ上に、その携帯電話またはモバイルコンピュータのAPIを使用して実装され得る。特定の実施形態では、データ収集デバイス660は、機械学習モデル(例えば、ニューラル・ネットワーク)を作動させるように特に構成された1つ以上のGPUまたは他のプロセッサを含む、埋め込み型システムプラットフォーム上で実装され得る。
特定の実施形態では、車両システム600は、車両情報(例えば、速度、操舵角、制動圧など)、車両経路情報(例えば、軌道、場所など)、人間の運転者(例えば、目の動き、頭の動作など)、および車両の環境(例えば、バウンディングボックスを有する識別された物体、他の車両、歩行者など)を監視するための1つ以上のセンサを含み得る。特定の実施形態では、データ収集デバイス660は、1つ以上の一体型センサ、例えば、慣性計測ユニット632、カメラ634、センサ636などを含み得る。データ収集デバイス660は、車両と関連付けられるが、データ収集デバイス660の外部にある1つ以上のセンサ(例えば、GPS642、カメラ644、センサ646など)と通信し得る。車両システム600は、LiDARおよびレーダーシステムのような他の検知システムをさらに含み得る。センサまたは検知システムは、内部状態(例えば、車両自体、ならびに運転者および他の同乗者の着座のために設計および意図された車両の同乗者区画領域)と車両の外部環境の両方を監視することができる。例えば、データ収集デバイス660は、同乗者区画および内部の任意の同乗者を捕捉する後面広角カメラを含む場合がある。別の例として、データ収集デバイス660は、同乗者区画内の会話および/または音声を捕捉するマイクロフォンを含み得る。データ収集デバイスはまた、同乗者の動作および/または温度を検出することができる赤外線センサを含み得る。センサの他の例は、例えば、これらに限定されないが、可視データを捕捉するためのカメラ、可聴データを捕捉するためのマイクロフォン、同乗者によって発せられる熱を検出するための赤外線センサ、車両の動きを検出するためのジャイロスコープおよび加速度計、車両速度を検出するための速度センサ、操舵動作を測定するための操舵センサ、制動ペダルおよび加速ペダルに印加された圧力を測定するための圧力センサ、車両の場所を追跡するためのGPS、ならびに車両、人間の運転者、および環境を監視するのに好適な任意の他のセンサまたは検知システム(例えば、レーダーおよびLiDARシステム)を含み得る。
特定の実施形態では、そのようなセンサは、人間が運転する車両または自律走行車両であり得る車両システム600と一体化される場合がある。センサは、同乗者区画の上方角、ダッシュボード、座席、サイドドア、天井、バックミラー、中央コンソール、床、屋根、蓋、またはセンサが設計される信号の種類を検出するのに有効な任意の他の場所など、任意の好適な場所に配置され得る。特定の実施形態では、そのようなセンサは、車両(例えば、ダッシュボード上)に取り付けられた着脱可能なコンピューティングデバイス(例えば、携帯電話、タブレット、GPS、車載カメラ)と一体化され得る。
特定の実施形態では、通信モジュール624は、例えば、クラウド650、着脱可能なコンピューティングデバイス(例えば、携帯電話、タブレット)、車両、輸送管理システム、および第三者システム(例えば、音楽、娯楽、交通、および/またはマップ提供者)を含む他のシステムとデータ収集デバイス660の通信を管理することができる。特定の実施形態では、通信モジュール624は、WI‐FI、Bluetooth(登録商標)、NFC、RF、LTE、3G/4G/5Gブロードバンドセルラネットワーク、または任意の他の有線もしくは無線通信ネットワークもしくはプロトコルを介して通信するように構成される場合がある。特定の実施形態では、データ収集デバイス660は、通信モジュール624を介して車両と通信し、車両のセンサからデータを収集することができる。特定の実施形態では、データ収集デバイス660は、クラウド650にデータをアップロードし、クラウド650内で訓練された1つ以上の機械学習モデルに関連するパラメータを同期するために、通信モジュール624を介してクラウド650と通信し得る。
特定の実施形態では、データ収集デバイス624は、車両と通信し、車両から電力を得るために、車両と物理的に接続する(例えば、図6Cのコネクタ616を介して)ように構成される場合がある。例えば、コネクタ616は、コントローラエリアネットワーク(CAN)バスインターフェース、または車両と通信するための任意の他の好適な通信インターフェースもしくはプロトコルを実装する場合がある。CANバスインターフェースは、車両のオンボード・ダイアグノーシス(OBD)ポート(例えば、OBD‐Iポート、OBD‐IIポートなど)とインターフェースし得る。特定の実施形態では、コネクタは、1つ以上のユニバーサルシリアルバス(USB)ポート、ライトニングコネクタポート、またはユーザがそのデバイスをデータ収集デバイス660に直接接続する(例えば、データを交換、情報を評価、同定、電力を供給するなど)ことを可能にする他のポートを含み得る。特定の実施形態では、データ収集デバイス660は、車両の内蔵コンピュータに命令を出し(例えば、図6Cのコネクタ616を介して)、特定の車両構成を調節させることができる場合がある。特定の実施形態では、データ収集デバイス660は、前述の特徴のうちのいずれかの現在の構成、ならびに車両の速度、燃料レベル、タイヤ圧力、外部温度計、ナビゲーションシステム、および車両のコンピューティングシステムを介して利用可能な任意の他の情報など、特定のデータについて車両にクエリする(例えば、図6Cのコネクタ616を介して)ように構成され得る。
特定の実施形態では、データ収集デバイス660は、センサ、ユーザ、または/および車両からの入力を受信し、それらからの命令を出力するように構成された入力/出力インターフェース(I/O)626を含み得る。I/Oインターフェースは、通信および信号変換のための回路および構成要素(例えば、アナログデジタル変換器、デジタルアナログ変換器)を含み得る。I/Oインターフェース626は、これらのセンサに命令を送信し、これらのセンサからデータを受信するための一体型センサ(例えば、IMU632、カメラ634、センサ636)および車両センサ(例えば、GPS642、カメラ644、センサ646)に接続され得る。例えば、I/Oインターフェース626は、同乗者からの動作またはしぐさベースの入力を認識するように構成された画像捕捉デバイス、発せられたスピーチまたは会話を検出および記録するように構成されたマイクロフォン、同乗者区画の温度を検出するための熱センサ、および任意の他の好適なセンサに接続され得る。別の例として、I/Oインターフェース626は、音声出力(警告、命令、または他の情報など)をユーザに提供し、かつ/または音声認識システムまたは任意の他のコマンドインターフェースによって解釈され得る、音声コマンドなどの音声入力を受信するように構成された音声デバイスを含み得る。
特定の実施形態では、データ収集デバイス660は、図1に示すような1つ以上のディスプレイを含み得る。データ収集デバイス660は、前方ディスプレイ604、後方ディスプレイ610、および照明制御装置622を含み得る。前方ディスプレイ604は、例えば、乗車要求者に視認可能であるように車両の外側に面するように設計されている可能性があり、後方ディスプレイ610は、例えば、同乗者に視認可能であるように車両の内側に面するように設計され得る。プロセッサ618は、後方ディスプレイ610および前方ディスプレイ604上に表示される情報を制御することができる。本明細書に記載されるように、各ディスプレイは、ユーザおよびデータ収集デバイス660の位置決めに応じて、異なる意図されるユーザに情報を表示するように設計され得る。データ収集デバイス660は、データ収集デバイス660の表示データに基づいて、前方および後方ディスプレイ604および610を制御することができる。表示データは、保存された表示パターン、配列、色、テキスト、アニメーション、または前方および/もしくは後方ディスプレイ上に表示される他のデータを含み得る。表示データはまた、コンテンツを生成し、表示される方法を制御するためのアルゴリズムを含む場合がある。例えば、生成されたコンテンツは、輸送管理システム、任意の第三者システム、車両、ならびに提供者および/または要求者のコンピューティングデバイスから受信された情報に基づいて個別化され得る。特定の実施形態では、表示データは、揮発性メモリ628(例えば、ランダムアクセスメモリ(RAM))または/および非揮発性記憶装置620(例えば、ハードディスクドライブ、ソリッドステートドライブ、フラッシュドライブ、コンパクトディスクなど)に保存され得る。
図6Bは、例示的なデータ収集デバイス660の正面図である602を例示する。データ収集デバイス660の正面図である602は、前方ディスプレイ604を含み得る。特定の実施形態では、前方ディスプレイ604は、二次的領域または別個のディスプレイ606を含む場合がある。図6Bに示すように、前方ディスプレイ604は、これらに限定されないが、1つ以上の液晶ディスプレイ(LCD)、1つ以上の発光ダイオード(LED)の配列、AMOLED、または他の表示技術を含む、様々な表示技術を含み得る。特定の実施形態では、前方ディスプレイ604は、ディスプレイを複数の領域に分割するカバーを含み得る。特定の実施形態では、別個のディスプレイは、各領域と関連付けられ得る。特定の実施形態では、前方ディスプレイ604は、色、テキスト、アニメーション、パターン、色パターン、または要求者および提供者車両の外部の他のユーザへの任意の他の好適な識別情報を示すように構成され得る(例えば、一般的な乗車場所で、要求者は、そのそれぞれの乗車を素早く識別し、示された識別情報に基づいて残りを無視し得る)。特定の実施形態では、二次的な領域または別個のディスプレイ606は、前方ディスプレイ604と同じか、または対照的な情報を表示するように構成される場合がある。
図6Cは、例示的なデータ収集デバイス660の背面図である608を例示する。背面図である608は、後方ディスプレイ610、ボタン612、1つ以上の光源614、接続部616、およびもう1つのセンサ619を含み得る。前方ディスプレイ604と同様に、後方ディスプレイ610は、これらに限定されないが、1つ以上の液晶ディスプレイ(LCD)、1つ以上の発光ダイオード(LED)の配列、AMOLED、または他の表示技術を含む、様々な表示技術を含み得る。後方ディスプレイ610は、提供者、要求者、または車両の同乗者区画内の他の同乗者に情報を表示するように構成され得る。特定の実施形態では、後方ディスプレイ610は、提供者車両の外部および背後にいる人々に情報を提供するように構成され得る。情報は、例えば、スクロール文字、色、パターン、アニメーション、および任意の他の視覚表示を介して伝達され得る。図6Cにさらに示すように、データ収集デバイス660は、電源ボタン612またはデバイス660をオンもしくはオフにするために使用することができる任意の他の好適なユーザインターフェースを含み得る。特定の実施形態では、電源ボタン612は、電力がデータ収集デバイス660に提供されたかどうかを物理的に制御するバードウエアボタンまたはスイッチであり得る。代替的に、電源ボタン612は、ソフトウエアおよび/またはファームウエア命令によって管理されるスタートアップ/シャットダウン手順を軌道するソフトボタンであり得る。代替的に、データ収集デバイス660は、デバイス660に隣接する領域を照明し、かつ/またはステータス信号を提供するように構成された1つ以上の光特徴部614(1つ以上のLEDまたは他の光源など)を含み得る。
特定の実施形態では、データ収集デバイス660は、前方ディスプレイ604または/および後方ディスプレイ610によって表示される色および/または他の照明を制御するための照明制御装置を含む。照明制御装置は、意図する情報が伝達されるようにディスプレイを制御するための規則およびアルゴリズムを含み得る。例えば、マッチングする提供者および要求者の組が乗車場所で互いを発見する助けをするために、照明制御装置は、識別のために青色が使用されるべきとの命令を得る場合がある。それに応じて、前方ディスプレイ604は、青を表示し得、照明制御装置は、乗車提供者が探す色がわかるように、光特徴部614に青を表示させることができる。
図7は、乗車要求者を自律走行車両とマッチングするための輸送管理環境の例示的なブロック図表を例示する。特定の実施形態では、環境は、ユーザ701のユーザコンピューティングデバイス730(例えば、乗車提供者または要求者)、輸送管理システム760、自律走行車両740、および1つ以上の第三者システム770などの様々なコンピューティングエンティティを含み得る。コンピューティングエンティティは、任意の好適なネットワーク710を介して通信接続され得る。一例として、限定されないが、ネットワーク710の1つ以上の部分は、ホックネットワーク、エクストラネット、仮想専用網(VPN)、ローカルエリアネットワーク(LAN)、無線LAN(WLAN)、ワイドエリアネットワーク(WAN)、無線WAN(WWAN)、メトロポリタンエリアネットワーク(MAN)、インターネットの一部分、公衆電話交換網(PSTN)の一部分、セルラネットワーク、または上記のうちのいずれかの組み合わせを含み得る。特定の実施形態では、コンピューティングエンティティが互いに通信することを可能にする任意の好適なネットワーク配置およびプロトコルを使用することができる。図7は、単一のユーザデバイス730、単一の輸送管理システム760、単一の車両740、複数の第三者システム770、および単一のネットワーク710を例示しているが、本開示は、これらのエンティティの各々の任意の好適な数を企図している。一例として、限定されないが、ネットワーク環境は、複数のユーザ701、ユーザデバイス730、輸送管理システム760、自律走行車両740、第三者システム770、およびネットワーク710を含み得る。
ユーザデバイス730、輸送管理システム760、自律走行車両740、および第三者システム770は、全部または一部が、互いに通信接続または共同設置される場合がある。これらのコンピューティングエンティティは、異なる伝送技術およびネットワークタイプを介して通信することができる。例えば、ユーザデバイス730および車両740は、ケーブルまたは短距離無線通信(例えば、Bluetooth、NFC、WI‐FIなど)を介して互いに通信することができ、同時に、それらはデバイスのいずれか1つにアクセス可能なセルラネットワークを介してインターネットに接続され得る(例えば、ユーザデバイス730は、LTE接続によるスマートフォンであり得る)。他方、輸送管理システム760および第三者システム770は、そのそれぞれのLAN/WLANネットワークおよびインターネットサービス提供者(ISP)を介してインターネットに接続される場合がある。図7は、ユーザデバイス730、自律走行車両740、輸送管理システム760、および第三者システム770を通信ネットワーク710に接続する伝送リンク750を例示している。本開示は、例えば、配線接続(例えば、USB、ライトニング、デジタル加入者回線(DSL)またはケーブルによるデータサービスインターフェース標準(DOCSIS))、無線接続(例えば、WI‐FI、WiMAX、セルラ、衛星、NFC、Bluetooth)、光接続(例えば、同期光通信網(SONET)、同期デジタルハイアラーキ(SDH))、任意の他の無線通信技術、およびそれらの任意の組み合わせを含む、任意の好適な伝送リンク750を企図している。特定の実施形態では、1つ以上のリンク750は、例えば、アドホックネットワーク、イントラネット、エクストラネット、VPN、LAN、WLAN、WAN、WWAN、MAN、PSTN、セルラネットワーク、衛星ネットワーク、またはそれらの任意の組み合わせを一部含み得る、1つ以上のネットワーク710に接続し得る。コンピューティングエンティティは、同じ種類の伝送リンク750を使用する必要は必ずしもない。例えば、ユーザデバイス730は、セルラネットワークおよびインターネットを介して輸送管理システムと通信し得るが、Bluetoothまたは物理的な配線接続を介して自律走行車両740と通信することができる。
特定の実施形態では、輸送管理システム760は、好適な車両を派遣することによって、1つ以上のユーザ701のための乗車要求を満たすことができる。輸送管理システム760は、任意の数の乗車要求者701から任意の数の乗車要求を受信し得る。特定の実施形態では、乗車要求者701からの乗車要求は、システム760内で乗車要求者を識別する識別子を含み得る。輸送管理システム760は、識別子を使用して、要求者701のプライバシー設定に従って、乗車要求者701の情報にアクセスし、これを保存することができる。乗車要求者701の情報は、輸送管理システム760と関連付けられ、これにアクセス可能な1つ以上のデータストア(例えば、リレーショナルデータベースシステム)に保存され得る。特定の実施形態では、乗車要求者の情報は、特定の乗車要求者701についてのプロファイル情報を含み得る。特定の実施形態では、乗車要求者701は、1つ以上のカテゴリまたは種類と関連付けられ得、それを通して、乗車要求者701は、これらのカテゴリまたは種類の特定の乗車要求者についての情報集合体と関連付けられ得る。乗車情報は、例えば、好ましい乗車および下車場所、運転嗜好(例えば、安全快適レベル、好ましい速度、加速/減速の割合、様々な速度、経路などを走行する際の他の車両からの安全距離など)、娯楽嗜好および設定(例えば、好ましい音楽ジャンルまたはプレイリスト、音量、表示輝度など)、温度設定、運転者との会話が受け入れられているか、よく行く目的地、履歴乗車パターン(例えば、走行、開始、および終了場所の時刻など)、好ましい言語、年齢、性別、または任意の他の好適な情報を含み得る。特定の実施形態では、輸送管理システム760は、ユーザ701についての既知の情報に基づいて(例えば、機械学習分類器を使用した)ユーザ701を分類し、分類を使用して、そのクラスと関連付けられた関連する情報集合体を検索し得る。例えば、システム760は、ユーザ701を若年成人として分類し、若年成人が一般に好む音楽の種類など、若年成人と関連付けられた関連する情報集合体を検索し得る。
輸送管理システム760はまた、乗車情報を保存およびアクセスし得る。乗車情報は、乗車に関連する場所、交通データ、経路オプション、乗車のための乗車または下車場所、または乗車と関連付けられた任意の他の好適な情報を含み得る。一例として、限定されないが、輸送管理システム760がサンフランシスコ国際航空(SFO)からカリフォルニアのパロアルトまで走行するように要求を受信した場合、システム760は、この特定の乗車要求のために任意の関連する乗車情報にアクセスまたは生成し得る。乗車情報は、例えば、SFOでの好ましい乗車場所、乗車場所が乗車要求者と両立しない(例えば、乗車要求者が障がい者であり得、乗車場所にアクセスできない)または乗車場所が、そうでなければ、建設工事、交通渋滞、乗車/下車規則の変更、もしくは任意の他の理由に起因して利用できないというイベントでの代替的な乗車場所、SFOからパロアルトまでのナビゲーションのための1つ以上の経路、ユーザの種類に対する好ましいオフランプ、または乗車と関連付けられた任意の他の好適な情報を含み得る。特定の実施形態では、乗車情報の部分は、システム760によって促進される乗車履歴と関連付けられた履歴データに基づき得る。例えば、履歴データは、本明細書で記載される任意の乗車情報ならびに自律走行車両および/またはユーザデバイス内でセンサによって収集されたテレメトリデータを含み得る、過去の乗車情報に基づいて生成された情報集合体を含み得る。履歴データは、特定のユーザ(例えば、特定のユーザの嗜好、共通の経路など)、ユーザのカテゴリ/クラス(例えば、人口統計に基づく)、および/またはシステム760のすべてのユーザと関連付けられ得る。例えば、1人間のユーザに専用の履歴データは、ユーザが乗車および下車される場所、ユーザが好んで聞く音楽、乗車と関連付けられた交通情報、ユーザが最もよく乗車する時刻、およびユーザに専用の任意の他の好適な情報を含む、特定のユーザが行う過去の乗車についての情報を含み得る。別の例として、ユーザのカテゴリ/クラスと関連付けられた履歴データは、例えば、10代が好むポップミュージック、金融街によく通勤する乗車要求者はニュースを聞くのを好み得るなど、そのカテゴリ/クラスにおけるユーザの一般的または人気の乗車嗜好を含み得る。また別の例として、すべてのユーザと関連付けられた履歴データは、交通および乗車パターンなどの一般的な使用傾向を含み得る。履歴データを使用して、システム760は、特定の実施形態では、乗車要求に応じて、乗車提案を予測および提供することができる。特定の実施形態では、システム760は、ニューラル・ネットワーク、回帰アルゴリズム、実例ベースのアルゴリズム(例えば、k最近傍)、決定樹アルゴリズム、ベイズ理論アルゴリズム、クラスタリング・アルゴリズム、相関ルール学習アルゴリズム、ディープラーニングアルゴリズム、次元縮小アルゴリズム、アンサンブルアルゴリズム、当業者に周知の任意の他の好適な機械学習アルゴリズムなどの機械学習を使用することができる。機械学習モデルは、ラベル付き訓練データに基づく教師付き学習、ラベルなし訓練データに基づく教師なし学習、および/またはラベル付きおよびラベルなし訓練データの混合に基づく半教師付き学習を含む、任意の好適な訓練アルゴリズムを使用して訓練され得る。
特定の実施形態では、輸送管理システム760は、1つ以上のサーバコンピュータを含み得る。各サーバは、単一のサーバ、または複数のコンピュータもしくは複数のデータセンターにまたがる分散サーバであり得る。サーバは、例えば、限定されないが、ウエブサーバ、ニュースサーバ、メールサーバ、メッセージサーバ、広告サーバ、ファイルサーバ、アプリケーションサーバ、交換サーバ、データベースサーバ、プロキシサーバ、本明細書に記載の機能もしくはプロセスを行うために好適な別のサーバ、またはそれらの任意の組み合わせなど、様々な種類からなり得る。特定の実施形態では、各サーバは、ハードウエア、ソフトウエア、もしくは埋め込み型論理構成要素、またはサーバによって実装もしくは支持される適切な機能性を実行するための2つ以上のそのような構成要素の組み合わせを含み得る。特定の実施形態では、輸送管理システム760は、1つ以上のデータストアを含み得る。データストアは、乗車情報、乗車要求者情報、乗車提供者情報,履歴情報、第三者情報、または任意の他の好適な種類の情報などの様々な種類の情報を保存するために使用され得る。特定の実施形態では、データストアに保存された情報は、特定のデータ構造に従って体系化され得る。特定の実施形態では、各データストアは、リレーショナル、柱状、相関、または任意の他の好適な種類のデータベースシステムであり得る。本開示は、特定の種類のデータベースを記載または例示しているが、本開示は、任意の好適な種類のデータベースを企図している。特定の実施形態は、ユーザデバイス730(乗車要求者または提供者に属する場合がある)、輸送管理システム760、車両システム740、または第三者システム770が、データストアに保存された情報を処理、変換、管理、検索、変更、追加、または削除することを可能にするインターフェースを提供することができる。
特定の実施形態では、輸送管理システム760は、ユーザ701が、それらの情報および動作を輸送管理システム760によってログ、記録、もしくは検知させるか、または他のシステム(例えば、第三者システム770)と共有させることをオプトインまたはオプトアウトすることを可能にする認証サーバ(または任意の他の好適な構成要素(複数可))を含み得る。特定の実施形態では、ユーザ701は、適切なプライバシー設定を設定することによってオプトインまたはオプトアウトすることができる。ユーザのプライバシー設定は、ユーザと関連付けられた何の情報がログされ得るか、ユーザと関連付けられた情報がどのようにログされ得るか、ユーザと関連付けられた情報がいつログされ得るか、ユーザと関連付けられた情報を誰がログし得るか、ユーザと関連付けられた情報が誰と共有され得るか、およびユーザと関連付けられた情報が何の目的でログまたは共有され得るかを決定し得る。認証サーバは、ブロック、データハッシュ、匿名化、必要に応じて他の好適な技術を介して、輸送管理システム760のユーザ701の1つ以上のプライバシー設定を実施するために使用され得る。
特定の実施形態では、第三者システム770は、HDマップまたはホストGPSマップ、カスタマレビュー、音楽もしくはコンテンツ、気象情報、または任意の他の好適な種類の情報を提供し得る、ネットワークアドレス可能なコンピューティングシステムであり得る。第三者システム770は、例えば、マップデータ、カスタマレビューウエブサイトからのカスタマレビューデータ、気象データ、または任意の他の好適な種類のデータなどの関連するデータを生成、保存、受信、および送信し得る。第三者システム770は、直接またはネットワーク710を介してのいずれかでネットワーク環境の他のコンピューティングエンティティによってアクセスされ得る。例えば、ユーザデバイス730は、ネットワーク710または輸送管理システム760を介して第三者システム770にアクセスし得る。後者のケースでは、第三者システム770にアクセスするために認証情報が必要とされる場合、ユーザ701は、第三者システム770からのコンテンツにアクセスするためのプロキシとして機能し得る輸送管理システム760に、そのような情報を提供し得る。
特定の実施形態では、ユーザデバイス730は、スマートフォン、タブレットコンピュータ、またはラップトップコンピュータなどのモバイルコンピューティングデバイスであり得る。ユーザデバイス730は、1つ以上のプロセッサ(例えば、CPUおよび/またはGPU)、メモリ、および記憶装置を含み得る。オペレーティングシステムおよびアプリケーションは、例えば、輸送管理システム760と関連付けられた輸送アプリケーション、第三者システム770と関連付けられたアプリケーション、およびオペレーティングシステムと関連付けられたアプリケーションなどのユーザデバイス730に搭載され得る。ユーザデバイス730は、GPS、コンパス、ジャイロスコープ、または加速度計などの一体型センサに基づいて、その場所、方向、または向きを決定するための機能性を含み得る。ユーザデバイス730はまた、無線通信のための無線トランシーバを含む場合があり、Bluetooth、近距離無線通信(NFC)、赤外線(IR)通信、WI‐FI、および/または2G/3G/4G/LTEモバイル通信規格などの無線通信プロトコルを支持し得る。ユーザデバイス730はまた、1つ以上のカメラ、スキャナ、タッチスクリーン、マイクロフォン、スピーカ、および任意の他の好適な入力出力デバイスを含み得る。
特定の実施形態では、車両740は、自律走行車両である場合があり、センサ744のアレイ、ナビゲーションシステム746、および乗車サービスコンピューティングデバイス748を搭載し得る。特定の実施形態では、自律走行車両740の車隊は、輸送管理システム760によって管理され得る。自律走行車両740の車隊は、全部または一部が、輸送管理システム760と関連付けられたエンティティによって所有され得るか、または輸送管理システム760に関連する第三者エンティティによって所有され得る。いずれかの場合、輸送管理システム760は、例えば、乗車要求を満たすために選択車両740を派遣すること、選択動作を行うように車両740に指示すること(例えば、サービスセンターまたは充電/燃料補給所に向かう、片側に寄せる、即時停止する、自己診断する、コンパートメントをロック/アンロックする、音楽ステーションを変更する、温度を変更する、および任意の他の好適な動作)、および選択動作モードに入るように車両740に指示すること(例えば、通常動作する、減速で運転する、人間の操作者の命令下で運転する、および任意の他の好適な動作モード)を含む、自律走行車両740の動作を制御し得る。
特定の実施形態では、自律走行車両740は、輸送管理システム760および第三者システム770からデータを受信し、そこへデータを送信することができる。受信されるデータの例には、例えば、命令、新しいソフトウエアまたはソフトウエアのアップデート、マップ、3Dモデル、訓練された、または訓練されていない機械学習モデル、場所情報(例えば、乗車要求者の場所、自律走行車両740自体、他の自律走行車両740、サービスセンターなどの標的目的地)、ナビゲーション情報、交通情報、気象情報、娯楽コンテンツ(例えば、音楽、ビデオ、およびニュース)、乗車要求者の情報、乗車情報、および任意の他の好適な情報が含まれ得る。自律走行車両740から送信されるデータの例には、例えば、テレメトリおよびセンサデータ、そのようなデータに基づく決定/決意、車両状況または状態(例えば、バッテリ/燃料レベル、タイヤおよびブレーキ状況、センサ状況、速度、走行距離計など)、場所、ナビゲーションデータ、同乗者入力(例えば、車両740内のユーザインターフェースを介して、同乗者は、輸送管理システム760および/または第三者システム770にデータを送信/受信し得る)、および任意の他の好適なデータを含み得る。
特定の実施形態では、自律走行車両740はまた、互いに、ならびに輸送管理システム760によって管理されているものも管理されていないものも含む、他の従来の人間が運転する車両と通信することができる。例えば、1つの車両740は、そのそれぞれの場所、状況、状態、センサ読み取り、および任意の他の好適な情報に関する別の車両データと通信し得る。特定の実施形態では、車両間通信は、直接単距離無線接続(例えば、WI-FI、Bluetooth、NFC)および/またはネットワーク(例えば、インターネット、または輸送管理システム760もしくは第三者システム770を介して)を介して生じ得る。
特定の実施形態では、自律走行車両740は、センサ/テレメトリデータを取得および処理することができる。そのようなデータは、任意の好適なセンサによって捕捉され得る。例えば、車両740は、パルスレーザ光を発し、車両740を囲む物体から反射された光を測定する、360°回転するように構成された複数のLiDARトランシーバの光検出および測距(LiDAR)センサアレイを有し得る。特定の実施形態では、LiDAR送信信号は、光回折の原理を使用して光ビームを方向付けるMEMデバイスであり得る、ゲート型光バルブの使用により操舵され得る。そのようなデバイスは、自律走行車両の周りを360°で光ビームを操舵するためにジンバル付きミラーを使用しなくてもよい。むしろ、ゲート型光バルブは、光ビームが自律走行車両の周りの多くの個別の位置に方向付けられ得るように配列され得る、いくつかの光ファイバのうちの1つに光ビームを方向付けることができる。したがって、データは、自律走行車両の周りを360°で捕捉され得るが、回転部は必要ない可能性がある。LiDARは、標的までの距離を測定するのに有効なセンサであり、そのため、自律走行車両740の外部環境の三次元(3D)モデルを生成するために使用され得る。一例として、限定されないが、3Dモデルは、他の車、縁石、デブリ、物体、および歩行者などの物体を含む外部環境を、センサ配列の最大範囲まで(例えば、50、100、または200メートル)表すことができる。別の例として、自律走行車両740は、異なる方向を向く複数の光カメラを有し得る。カメラは、例えば、道路、車線区分線、道路標識、交通信号、警官、他の車両、および任意の他の視認可能な関心物体を認識するために使用され得る。車両740を夜間に「見る」ことを可能にするために、赤外線カメラが搭載される場合がある。特定の実施形態では、車両は、例えば、道路上の歩行者または木の枝などのスポッティングハザードのためのステレオビジョンを装備している場合がある。別の例として、車両740は、例えば、遠方にある他の車両および/またはハザードを検出するためのレーダーを有する場合がある。さらに、車両740は、例えば、駐車および障害物検出のための超音波機器を有する場合がある。車両740がその周りの外部世界を検出、測定、および理解することを可能にするセンサに加えて、車両740は、車両自体の状態および状況を検出および自己診断するためのセンサをさらに装備している場合がある。例えば、車両740は、例えば、速度を測定するための車輪センサ、例えば、車両の現在の測位を決定するための全地球測位システム(GPS)、ならびに/または移動または動作検出のための慣性計測ユニット、加速度計、ジャイロスコープ、および/もしくは走行距離計を有し得る。これらのセンサの説明は、実用性の特定の例を提供しているが、当業者であれば、センサの実用性がこれらの例に限定されないことを理解するだろう。さらに、実用性の例は、特定の種類のセンサに関して記載され得るが、実用性は、センサの任意の組み合わせを使用して達成され得ることが理解されるべきである。例えば、自律走行車両740は、輸送管理システム760または第三者システム770から得られた予め生成されたマップと共に、そのLiDAR、レーダー、ソナー、およびカメラからのデータに基づいてその周囲の3Dモデルを構築することができる。センサ744は、図7の自律走行車両740上の特定の場所に現れているが、センサ744は、自律走行車両740内または上の任意の好適な場所に配置され得る。センサの例示的な場所には、前および後バンパー、ドア、前フロントガラス、側パネル上、または任意の他の好適な場所が含まれる。
特定の実施形態では、自律走行車両740は、処理ユニット(例えば、1つ以上のCPUおよびGPU)、メモリ、および記憶装置が装備される場合がある。したがって、車両740は、センサデータの処理、有用な情報の抽出、それに応じた動作を含む、様々な計算および処理タスクを実行するために装備され得る。例えば、そのカメラおよびマシンビジョンモデルによって捕捉される画像に基づいて、車両740は、歩行者、他の車両、車線、縁石、および任意の他の関心物体など、画像によって捕捉される特定の種類の物体を識別することができる。
特定の実施形態では、自律走行車両740は、自律走行車両740を安全にナビゲートする役割を担うナビゲーションシステム746を有し得る。特定の実施形態では、ナビゲーションシステム746は、例えば、全地球測位システム(GPS)モジュール、慣性計測ユニット(IMU)、LiDARセンサ、光カメラ、無線周波数(RF)トランシーバ、または任意の他の好適なテレメトリもしくは知覚機構からの任意の種類のセンサデータを入力として取ることができる。ナビゲーションシステム746はまた、例えば、マップデータ、交通データ、事故レポート、気象レポート、命令、標的目的地、およびナビゲーション経路および特定の運転動作(例えば、減速、加速、停止、尻振りなど)を決定するための任意の他の好適な情報を利用することができる。特定の実施形態では、ナビゲーションシステム746は、その決定を使用して、車両740を制御し、所定の方法で動作し、他の物体に衝突することなく、自律走行車両740をその目的地に誘導することができる。ナビゲーションシステム746の物理的な実施形態(例えば、処理ユニット)は、図7の自律走行車両740上の特定の場所に現れているが、ナビゲーションシステム746は、自律走行車両740内または上の任意の好適な場所に配置され得る。ナビゲーションシステム746のための例示的な場所には、自律走行車両740のキャビンもしくは同乗者区画の内側、エンジン/バッテリの近く、前座席、後座席の近く、または任意の他の好適な場所が含まれる。
特定の実施形態では、自律走行車両740は、ユーザが自律走行車両740、輸送管理システム760、他のユーザ701、または第三者システム770と相互作用することを可能にするために、タブレットまたは輸送管理システム760によって搭載された任意の他の好適なデバイスであり得る、乗車サービスコンピューティングデバイス748を装備している場合がある。特定の実施形態では、乗車サービスコンピューティングデバイス748の搭載は、乗車サービスコンピューティングデバイス748を自律走行車両740の内側に置き、配線または無線接続を介して(例えば、Bluetoothを介して)車両740と通信するようにそれを構成することによって達成され得る。図7は、自律走行車両740の特定の場所での単一の乗車サービスコンピューティングデバイス748を例示しているが、自律走行車両740は、車両内のいくつかの異なる場所にいくつかの乗車サービスコンピューティングデバイス748を含み得る。一例として、限定されないが、自律走行車両740は、以下の場所に配置された4つの乗車サービスコンピューティングデバイス748を含む場合がある:左前同乗者座席(例えば、従来の米国の自動車では運転者座席)の前に1つ、右前同乗者座席の前に1つ、左後および右後同乗者座席の各々の前に1つ。特定の実施形態では、乗車サービスコンピューティングデバイス748は、自律走行車両740の任意の構成要素から着脱可能であり得る。これにより、ユーザは、他のタブレットコンピューティングデバイスと矛盾しない方法で、乗車サービスコンピューティングデバイス748を取り扱うことができ得る。一例として、限定されないが、ユーザは、乗車サービスコンピューティングデバイス748を自律走行車両740のキャビンもしくは同乗者区画内の任意の場所に移動させることができ、乗車サービスコンピューティングデバイス748を保持し得、または乗車サービスコンピューティングデバイス748を任意の他の好適な方法で取り扱うことができる。本開示は、特定のコンピューティングデバイスを特定の方法で提供することを記載しているが、本開示は、任意の好適なコンピューティングデバイスを任意の好適な方法で提供することを企図している。
図8は、例示的なコンピュータシステム800を例示する。特定の実施形態では、1つ以上のコンピュータシステム800は、本明細書に記載または例示されている1つ以上の方法の1つ以上の段階を行う。特定の実施形態では、1つ以上のコンピュータシステム800は、本明細書に記載および例示されている機能性を提供する。特定の実施形態では、1つ以上のコンピュータシステム800上で作動するソフトウエアは、本明細書に記載もしくは例示される1つ以上の方法の1つ以上の工程を行うか、または本明細書に記載もしくは例示される機能性を提供する。特定の実施形態は、1つ以上のコンピュータシステム800の1つ以上の部分を含む。本明細書では、コンピュータシステムへの参照は、コンピューティングデバイスを包含する場合があり、必要に応じて、逆も同様である。さらに、コンピュータシステムへの参照は、必要に応じて、1つ以上のコンピュータシステムを包含し得る。
本開示は、任意の好適な数のコンピュータシステム800を企図している。本開示は、任意の好適な物理的形態を取るコンピュータシステム800を企図している。一例として、限定されないが、コンピュータシステム800は、埋め込み型コンピュータシステム、システムオンチップ(SOC)、単一ボードコンピュータシステム(SBC)(例えば、コンピュータオンモジュール(COM)またはシステムオンモジュール(SOM)など)、デスクトップコンピュータシステム、ラップトップもしくはノートブックコンピュータシステム、インターネット・キオスク、メインフレーム、コンピュータシステム網、モバイルテレフォン、携帯情報端末(PDA)、サーバ、タブレットコンピュータシステム、拡張/仮想現実デバイス、またはこれらの2つ以上の組み合わせであり得る。必要に応じて、コンピュータシステム800は、1つ以上のコンピュータシステム800を含み、単一または分散型であり、複数の場所にまたがり、複数の機械にまたがり、複数のデータセンターにまたがり、または1つ以上のネットワーク内の1つ以上のクラウド構成要素を含み得るクラウド内に存在し得る。必要に応じて、1つ以上のコンピュータシステム800は、本明細書に記載または例示されている1つ以上の方法の1つ以上の工程を、実質的な空間的または時間的制限なく行うことができる。一例として、限定されないが、1つ以上のコンピュータシステム800は、本明細書に記載または例示されている1つ以上の方法の1つ以上の工程を、実時間またはバッチモードで行うことができる。1つ以上のコンピュータシステム800は、必要に応じて、本明細書に記載または例示されている1つ以上の方法の1つ以上の工程を異なる時間または異なる場所で行うことができる。
特定の実施形態では、コンピュータシステム800は、プロセッサ802、メモリ804、記憶装置806、入力/出力(I/O)インターフェース808、通信インターフェース810、およびバス812を含む。本開示は、特定の配列で特定の構成要素の特定の数を有する特定のコンピュータシステムを記載および例示しているが、本開示は、任意の好適な配列で任意の好適な構成要素の任意の好適な数を有する任意の好適なコンピュータシステムを企図している。
特定の実施形態では、プロセッサ802は、コンピュータプログラムを構成するものなど、命令を実施するためのハードウエアを含む。一例として、限定されないが、命令を実施するために、プロセッサ802は、内部レジスタ、内部キャッシュ、メモリ804、または記憶装置806からの命令を検索(または取り出し)、それらをデコードおよび実施し、1つ以上の結果を、内部レジスタ、内部キャッシュ、メモリ804、または記憶装置806に書き込むことができる。特定の実施形態では、プロセッサ802は、データ、命令、またはアドレス用の1つ以上の内部キャッシュを含み得る。本開示は、必要に応じて、任意の好適な内部キャッシュの任意の好適な数を含むプロセッサ802を企図している。一例として、限定されないが、プロセッサ802は、1つ以上の命令キャッシュ、1つ以上のデータキャッシュ、および1つ以上のトランスレーション・ルックアサイド・バッファ(TLB)を含み得る。命令キャッシュ内の命令は、メモリ804または記憶装置806内の命令のコピーであり得、命令キャッシュは、プロセッサ802によってこれらの命令の検索を加速することができる。データキャッシュ内のデータは、コンピュータ命令によって動作されるメモリ804もしくは記憶装置806内のデータのコピー、その後の命令にアクセス可能な、またはメモリ804もしくは記憶装置806に書き込むためのプロセッサ802によって実行される以前の命令の結果、あるいは任意の他の好適なデータであり得る。データキャッシュは、プロセッサ802によって動作の読み取りまたは書き込みを加速することができる。TLBは、プロセッサ802のための仮想アドレス変換を加速することができる。特定の実施形態では、プロセッサ802は、データ、命令、またはアドレス用の1つ以上の内部レジスタを含み得る。本開示は、必要に応じて、任意の好適な内部レジスタの任意の好適な数を含む、プロセッサ802を企図している。必要に応じて、プロセッサ802は、1つ以上の演算論理回路(ALU)を含み、マルチコアプロセッサであり、または1つ以上のプロセッサ802を含み得る。本開示は、特定のプロセッサを記載および例示しているが、本開示は、任意の好適なプロセッサを企図している。
特定の実施形態では、メモリ804は、プロセッサ802が実施するための命令、またはプロセッサ802が動作するためのデータを保存するためのメインメモリを含む。一例として、限定されないが、コンピュータシステム800は、記憶装置806または別のソース(別のコンピュータシステム800など)からメモリ804に命令をロードし得る。次に、プロセッサ802は、メモリ804から内部レジスタまたは内部キャッシュに命令をロードし得る。命令を実施するために、プロセッサ802は、内部レジスタまたは内部キャッシュから命令を検索し、それらをデコードし得る。命令の実施中または後、プロセッサ802は、1つ以上の結果(中間または最終結果であり得る)を内部レジスタまたは内部キャッシュに書き込み得る。次に、プロセッサ802は、これらの結果の1つ以上をメモリ804に書き込み得る。特定の実施形態では、プロセッサ802は、1つ以上の内部レジスタまたは内部キャッシュまたはメモリ804内の命令のみを実施し(記憶装置806または他とは対照的に)、1つ以上の内部レジスタまたは内部キャッシュまたはメモリ804内のデータに対してのみ動作する(記憶装置806または他とは対照的に)。1つ以上のメモリバス(アドレスバスおよびデータバスを各々含み得る)は、プロセッサ802をメモリ804に連結し得る。バス812は、以下にさらに詳細に記載するように、1つ以上のメモリバスを含み得る。特定の実施形態では、1つ以上のメモリ管理ユニット(MMU)は、プロセッサ802とメモリ804との間に存在し、プロセッサ802によって要求されるメモリ804へのアクセスを容易にする。特定の実施形態では、メモリ804は、ランダムアクセスメモリ(RAM)を含む。このRAMは、必要に応じて、揮発性メモリであり得る。必要に応じて、このRAMは、動的RAM(DRAM)または静的RAM(SRAM)であり得る。さらに、必要に応じて、このRAMは、単一ポートまたはマルチポートRAMであり得る。本開示は、任意の好適なRAMを企図している。メモリ804は、必要に応じて、1つ以上のメモリ804を含み得る。本開示は、特定のメモリを記載および例示しているが、本開示は、任意の好適なメモリを企図している。
特定の実施形態では、記憶装置806は、データまたは命令のための大容量記憶装置を含む。一例として、限定されないが、記憶装置806は、ハードディスクドライブ(HDD)、フロッピーディスクドライブ、フラシュメモリ、光ディスク、光磁気ディスク、磁気テープ、またはユニバーサルシリアルバス(USB)ドライブ、またはこれらの2つ以上の組み合わせを含み得る。記憶装置806は、必要に応じて、取り外し可能または取り外し不能(または固定の)媒体を含み得る。記憶装置806は、必要に応じて、コンピュータシステム800の内部または外部にある場合がある。特定の実施形態では、記憶装置806は、非揮発性のソリッドステートメモリである。特定の実施形態では、記憶装置806は、読み取り専用メモリ(ROM)を含む。必要に応じて、このROMは、マスクプログラムされたROM、プログラム可能ROM(PROM)、消去可能PROM(EPROM)、電気的消去可能PROM(EEPROM)、電気的可変ROM(EAROM)またはフラッシュメモリ、またはこれらの2つ以上の組み合わせであり得る。本開示は、任意の好適な物理的形態を取る大容量記憶装置806を企図している。記憶装置806は、必要に応じて、プロセッサ802と記憶装置806との間の通信を促進する1つ以上の記憶制御ユニットを含み得る。必要に応じて、記憶装置806は、1つ以上の記憶装置806を含み得る。本開示は、特定の記憶装置を記載および例示しているが、本開示は、任意の好適な記憶装置を企図している。
特定の実施形態では、I/Oインターフェース808は、コンピュータシステム800と1つ以上のI/Oデバイスとの間の通信のための1つ以上のインターフェースを提供する、ハードウエア、ソフトウエア、または両方を含む。コンピュータシステム800は、必要に応じて、これらのI/Oデバイスの1つ以上を含み得る。これらのI/Oデバイスの1つ以上は、人とコンピュータシステム800との間の通信を可能にし得る。一例として、限定されないが、I/Oデバイスは、キーボード、キーパッド、マイクロフォン、監視、マウス、プリンタ、スキャナ、スピーカ、スチールカメラ、スタイラス、タブレット、タッチスクリーン、トラックボール、ビデオカメラ、別の好適なI/Oデバイス、またはこれらの2つ以上の組み合わせを含み得る。I/Oデバイスは、1つ以上のセンサを含み得る。本開示は、任意の好適なI/Oデバイスおよびそれらのための任意の好適なI/Oインターフェース808を企図している。必要に応じて、I/Oインターフェース808は、プロセッサ802がこれらのI/Oデバイスの1つ以上を駆動させることを可能にする1つ以上のデバイスまたはソフトウエアドライバを含み得る。I/Oインターフェース808は、必要に応じて、1つ以上のI/Oインターフェース808を含み得る。本開示は、特定のI/Oインターフェースを記載および例示しているが、本開示は、任意の好適なI/Oインターフェースを企図している。
特定の実施形態では、通信インターフェース810は、コンピュータシステム800と1つ以上の他のコンピュータシステム800または1つ以上のネットワークとの間の通信(例えば、パケットベースの通信など)のための1つ以上のインターフェースを提供する、ハードウエア、ソフトウエア、または両方を含む。一例として、限定されないが、通信インターフェース810は、イーサネット(登録商標)または任意の他の配線ベースのネットワークと通信するためのネットワークインターフェイスコントローラ(NIC)もしくはネットワークアダプタ、またはWI‐FIネットワークなどの無線ネットワークと通信するための無線NIC(WNIC)もしくは無線アダプタを含み得る。本開示は、そのための任意の好適なネットワークおよび任意の好適な通信インターフェース810を企図している。一例として、限定されないが、コンピュータシステム800は、アドホックネットワーク、パーソナルエリアネットワーク(PAN)、ローカルエリアネットワーク(LAN)、ワイドエリアネットワーク(WAN)、メトロポリタンエリアネットワーク(MAN)、またはインターネットの1つ以上の部分、またはこれらの2つ以上の組み合わせと通信することができる。これらのネットワークの1つ以上の1つ以上の部分は、有線または無線であり得る。一例として、コンピュータシステム800は、無線PAN(WPAN)(例えば、Bluetooth WPANなど)、WI‐FIネットワーク、WI‐MAXネットワーク、携帯電話ネットワーク(例えば、モバイル通信(GSM(登録商標))ネットワークのためのグローバルシステムなど)、または任意の他の好適な無線ネットワーク、またはこれらの2つ以上の組み合わせと通信することができる。コンピュータシステム800は、必要に応じて、これらのネットワークのいずれかのための任意の好適な通信インターフェース810を含み得る。通信インターフェース810は、必要に応じて、1つ以上の通信インターフェース810を含み得る。本開示は、特定の通信インターフェースを記載および例示しているが、本開示は、任意の好適な通信インターフェースを企図している。
特定の実施形態では、バス812は、コンピュータシステム800の構成要素を互いに連結させる、ハードウエア、ソフトウエア、または両方を含む。一例として、限定されないが、バス812は、アクセラレーテッドグラフィックスポート(AGP)または任意の他のグラフィックスバス、エンハンスドインダストリスタンダードアーキテクチャ(EISA)バス、フロントサイドバス(FSB)、HYPERTRANSPORT(HT)インターコネクト、業界標準アーキテクチャ(ISA)バス、INFINIBANDインターコネクト、Low−Pin−Count(LPC)バス、メモリバス、マイクロチャネルアーキテクチャ(MCA)バス、周辺構成要素相互接続(PCI)バス、PCIエクスプレス(PCIe)バス、リアル・アドバンスト・テクノロジ・アタッチメント(SATA)バス、ビデオエレクトロニクス・スタンダーズ・アソシエーションローカル(VLB)バス、または別の好適なバス、またはこれらの2つ以上の組み合わせを含み得る。バス812は、必要に応じて、1つ以上のバス812を含み得る。本開示は、特定のバスを記載および例示しているが、本開示は、任意の好適なバスまたは相互接続を企図している。
本明細書では、コンピュータ可読非一時的な記憶媒体(複数可)は、1つ以上の半導体ベースの、もしくは他の種類の集積回路(IC)(例えば、フィールドプログラマブルゲートアレイ(FPGA)または特定用途向け集積回路(ASIC)など)、ハードディスクドライブ(HDD)、ハイブリッドハードドライブ(HHD)、光ディスク、光ディスクドライブ(ODD)、光磁気ディスク、フロッピーディスケット、フロッピーディスクドライブ(FDD)、磁気テープ、ソリッドステートドライブ(SSD)、RAMドライブ、セキュアデジタルカードもしくはドライブ、任意の他の好適なコンピュータ可読非一時的な記憶媒体、または必要に応じて、これらの2つ以上の任意の好適な組み合わせを含み得る。コンピュータ可読非一時的な記憶媒体は、必要に応じて、揮発性、非揮発性、または揮発性および非揮発性の組み合わせであり得る。
本明細書では、「または」は、別段明示的に示されない限り、または文脈によって別段示されない限り、包括的であり、排他的ではない。したがって、本明細書では、別段明示的に示されない限り、または文脈によって別段示されない限り、「AまたはB」は、「A、B、または両方」を意味する。さらに、別段明示的に示されない限り、または文脈によって別段示されない限り、「および」は、共同かつ別個の両方である。したがって、本明細書では、別段明示的に示されない限り、または文脈によって別段示されない限り、「AおよびB」は、共同で、または別個に「AおよびB」を意味する。
本開示の範囲は、当業者が理解する、本明細書に記載または例示される例示的な実施形態へのすべての変更、置換、変形、代替、および改変を包含する。本開示の範囲は、本明細書に記載および例示される例示的な実施形態に限定されない。さらに、本開示は、特定の構成要素、要素、特徴、機能、動作、または工程を含むものとして、本明細書にそれぞれの実施形態を記載および例示しているが、これらの実施形態のいずれも、当業者が理解する本明細書のいずれかに記載または例示されている構成要素、要素、特徴、機能、動作、または工程のいずれかの任意の組み合わせまたは順列を含み得る。さらに、添付の特許請求の範囲における、特定の機能を行うように適合され、配列され、行うことができ、構成され、可能とされ、実施可能であり、または動作可能である、装置もしくはシステム、または装置もしくはシステムの構成要素への言及は、その装置、システム、または構成要素が、そのように適合され、配列され、行うことができ、構成され、可能とされ、実施可能であり、または動作可能である限り、それまたはその特定の機能が作動され、オンにされ、またはアンロックされているかにかかわらず、その装置、システム、構成要素を包含する。追加的に、本開示は、特定の利点を提供するものとして特定の実施形態を記載または例示しているが、特定の実施形態は、これらの利点のいずれかも提供しないか、そのいくつか、またはすべてを提供する可能性がある。

Claims (20)

  1. 方法であって、コンピューティングシステムによって、
    人間の運転者によって動作される車両と関連付けられたコンテキストデータにアクセスする段階であって、前記コンテキストデータが、前記車両と関連付けられた1つ以上のセンサを使用して捕捉される、アクセスする段階と、
    複数の車両と関連付けられた予め記録されたコンテキストデータと関連付けられた情報に少なくとも基づいて前記コンテキストデータを処理することによって1つ以上の予測される車両動作を決定する段階と、
    前記人間の運転者によってなされる1つ以上の車両動作を検出する段階と、
    前記人間の運転者によってなされる前記1つ以上の車両動作と前記1つ以上の予測される車両動作との比較に基づいて、関心イベントが前記コンテキストデータと関連付けられると決定する段階と、
    前記関心イベントと関連付けられた高解像度コンテキストデータを保存させる段階と、を含む、方法。
  2. 前記人間の運転者の前記1つ以上の車両動作が予め決定された閾値による前記1つ以上の予測される車両動作から逸脱するとの決定に基づいて、前記関心イベントが決定される、請求項1に記載の方法。
  3. 前記予め記録されたコンテキストデータと関連付けられた情報が、予測モデルを含み、前記予測モデルが、前記複数の車両と関連付けられた前記予め記録されたコンテキストデータを使用して訓練される機械学習モデルである、請求項1または2に記載の方法。
  4. イベント分類器を使用して、前記関心イベントを、先に検出された関心イベントに基づくカテゴリに分類する段階と、
    前記関心イベントに関心スコアを割り当てる段階であって、前記関心スコアが、前記カテゴリおよび前記関心イベントの1つ以上の特性に基づく、割り当てる段階と、をさらに含む、請求項1〜3のいずれか一項に記載の方法。
  5. 前記関心イベントが、前記イベント分類器が分類できない分類不能なイベントである、請求項4に記載の方法。
  6. 前記関心イベントが、エージェントモデラが認識できない認識不能な物体を含む、請求項4に記載の方法。
  7. 前記関心イベントと関連付けられた前記高解像度コンテキストデータを保存させる段階が、前記高解像度コンテキストデータを、前記コンピューティングシステムの揮発性メモリから非揮発性記憶装置に移動させる段階を含む、請求項1〜6のいずれか一項に記載の方法。
  8. 前記関心イベントと関連付けられた前記高解像度コンテキストデータを保存させる段階が、前記高解像度コンテキストデータをクラウドにアップロードする段階を含む、請求項1〜7のいずれか一項に記載の方法。
  9. 前記関心イベントと関連付けられる前記高解像度コンテキストデータにフラグを立てることをさらに含む、請求項1〜8のいずれか一項に記載の方法。
  10. 前記関心イベントが前記コンテキストデータと関連付けられるとの決定に基づいて、保存される前記高解像度コンテキストデータを選択する段階をさらに含み、前記高解像度コンテキストデータが、対応するコンテキストデータが前記関心イベントと関連付けられないと決定された場合に保存されるデータと比較して、より多くの情報を含むか、またはより長い期間に対応する、請求項1〜9のいずれか一項に記載の方法。
  11. 前記人間の運転者が注意を払う領域を決定する段階と、
    前記人間の運転者が注意を払う領域と関連付けられるコンテキストデータのセットを選択する段階であって、前記高解像度コンテキストデータが、選択された前記コンテキストデータのセットを含む、選択する段階と、をさらに含む、請求項1〜10のいずれか一項に記載の方法。
  12. 前記車両の前記コンテキストデータが、前記車両と関連付けられた1つ以上のパラメータを含み、前記車両と関連付けられた前記1つ以上のパラメータが、
    速度、
    移動方向、
    軌道、
    GPS調整、
    加速度、
    制動ペダルにかかる圧力、
    加速ペダルにかかる圧力、
    ハンドルにかかる操舵力、
    車輪の方向、
    信号の状態、
    ナビゲーションマップ、
    標的位置、
    経路、
    予定時刻、または
    迂回路を含む、請求項1〜11のいずれか一項に記載の方法。
  13. 前記車両の前記コンテキストデータが、前記車両の環境と関連付けられた1つ以上のメトリックを含み、前記車両の前記環境と関連付けられた前記1つ以上のメトリックが、
    別の車両までの距離、
    別の車両との相対速度、
    歩行者までの距離、
    歩行者との相対速度、
    交通信号の状況、
    交通信号までの距離、
    交差点までの距離、
    道路標識、
    道路標識までの距離、
    縁石までの距離、
    道路線との相対位置、
    前記車両の視野内の物体、
    交通状況、
    別の車両の軌道、
    別の交通エージェントの動作、
    別の交通エージェントの速度、
    別の交通エージェントの移動方向、
    別の車両の信号状況、
    別の交通エージェントの位置、または
    他の車両の攻撃性メトリックを含む、請求項1〜12のいずれか一項に記載の方法。
  14. 前記車両の前記環境と関連付けられた前記1つ以上のメトリックが、もう1つのカメラまたはLiDARシステムに基づいて決定される、請求項13に記載の方法。
  15. 前記車両の前記コンテキストデータが、前記人間の運転者と関連付けられた1つ以上のパラメータを含み、前記人間の運転者と関連付けられた前記1つ以上のパラメータが、
    前記人間の運転者の頭の位置、
    前記人間の運転者の頭の移動、
    前記人間の運転者の手の位置、
    前記人間の運転者の手の移動、
    前記人間の運転者の足の位置、
    前記人間の運転者の足の移動、
    前記人間の運転者の視線方向、
    前記人間の運転者の視点、
    前記人間の運転者の画像、
    前記人間の運転者のしぐさ、または
    前記人間の運転者の声を含む、請求項1〜14のいずれか一項に記載の方法。
  16. 機械学習モデルによって、前記車両の前記コンテキストデータに基づいて、1つ以上のマルチチャネル画像を生成する段階であって、各マルチチャネル画像が、前記車両の前記コンテキストデータの異なる情報層に対応する複数のチャネルを有する、生成する段階と、
    前記1つ以上のマルチチャネル画像に基づいて、前記車両の環境の離散化ビューを予測する段階であって、前記1つ以上の予測される車両動作が、前記車両の前記環境の予測される前記離散化ビューに少なくとも一部基づく、予測する段階と、をさらに含む、請求項1〜15のいずれか一項に記載の方法。
  17. 前記車両に関連する特徴の組み合わせに基づいて、前記車両の環境の離散化ビューを予測することをさらに含み、前記1つ以上の予測される車両動作が、前記車両の前記環境の前記予測される離散化ビューに少なくとも一部基づき、前記車両に関連する特徴の組み合わせが、
    前記車両の現在位置、
    前記車両の過去の位置、
    前記車両の予測される位置、
    前記車両の現在の速度、
    前記車両の過去の速度、
    前記車両の予測される速度、
    前記車両に対する他の交通エージェントの速度および向き、
    他の交通エージェントの互いに対する速度および向き、または
    1つ以上のマップ要素に対する他の交通エージェントの速度および向きのうちの1つ以上を含む、請求項1〜16のいずれか一項に記載の方法。
  18. 前記検出された関心イベントに関連する前記車両の保存された前記高解像度コンテキストデータを使用して予測モデルを訓練することをさらに含み、前記予測モデルが、前記検出された関心イベントに関連する訓練データに基づいて経時的に向上する、請求項1〜17のいずれか一項に記載の方法。
  19. コンピュータに、
    人間の運転者によって動作される車両と関連付けられたコンテキストデータにアクセスする手順であって、前記コンテキストデータが、前記車両と関連付けられた1つ以上のセンサを使用して捕捉される、アクセスする手順と、
    複数の車両と関連付けられた予め記録されたコンテキストデータと関連付けられた情報に少なくとも基づいて、前記コンテキストデータを処理することによって1つ以上の予測される車両動作を決定する手順と、
    前記人間の運転者によってなされる1つ以上の車両動作を検出する手順と、
    前記人間の運転者によってなされる前記1つ以上の車両動作と前記1つ以上の予測される車両動作との比較に基づいて、関心イベントが前記コンテキストデータと関連付けられると決定する手順と、
    前記関心イベントと関連する高解像度コンテキストデータを保存させる手順と、を実行させるプログラム。
  20. システムであって、
    命令を具現化する1つ以上の非一時的なコンピュータ可読記憶媒体と、
    前記非一時的なコンピュータ可読記憶媒体に連結され、
    人間の運転者によって動作される車両と関連付けられたコンテキストデータにアクセスする段階であって、前記コンテキストデータが、前記車両と関連付けられた1つ以上のセンサを使用して捕捉される、アクセスする段階と、
    複数の車両と関連付けられた予め記録されたコンテキストデータと関連付けられた情報に少なくとも基づいて前記コンテキストデータを処理することによって1つ以上の予測される車両動作を決定する段階と、
    前記人間の運転者によってなされる1つ以上の車両動作を検出する段階と、
    前記人間の運転者によってなされる前記1つ以上の車両動作と前記1つ以上の予測される車両動作との比較に基づいて、関心イベントが前記コンテキストデータと関連付けられると決定する段階と、
    前記関心イベントと関連付けられた高解像度コンテキストデータを保存させる段階と、
    を行うように前記命令を実施するように動作可能である、1つ以上のプロセッサと、を備える、システム。
JP2021509200A 2018-08-21 2019-08-06 異常な車両イベントを検出および記録するためのシステムおよび方法 Pending JP2021535476A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US16/107,986 US11861458B2 (en) 2018-08-21 2018-08-21 Systems and methods for detecting and recording anomalous vehicle events
US16/107,986 2018-08-21
PCT/US2019/045204 WO2020040975A1 (en) 2018-08-21 2019-08-06 Systems and methods for detecting and recording anomalous vehicle events

Publications (1)

Publication Number Publication Date
JP2021535476A true JP2021535476A (ja) 2021-12-16

Family

ID=69586301

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021509200A Pending JP2021535476A (ja) 2018-08-21 2019-08-06 異常な車両イベントを検出および記録するためのシステムおよび方法

Country Status (11)

Country Link
US (1) US11861458B2 (ja)
EP (1) EP3823874A4 (ja)
JP (1) JP2021535476A (ja)
KR (1) KR20210035296A (ja)
CN (1) CN112888611A (ja)
AU (1) AU2019325161A1 (ja)
CA (1) CA3109917A1 (ja)
IL (1) IL280986A (ja)
MX (1) MX2021001950A (ja)
SG (1) SG11202101582PA (ja)
WO (1) WO2020040975A1 (ja)

Families Citing this family (64)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10678244B2 (en) 2017-03-23 2020-06-09 Tesla, Inc. Data synthesis for autonomous control systems
US10671349B2 (en) 2017-07-24 2020-06-02 Tesla, Inc. Accelerated mathematical engine
US11409692B2 (en) 2017-07-24 2022-08-09 Tesla, Inc. Vector computational unit
US11893393B2 (en) 2017-07-24 2024-02-06 Tesla, Inc. Computational array microprocessor system with hardware arbiter managing memory requests
US11157441B2 (en) 2017-07-24 2021-10-26 Tesla, Inc. Computational array microprocessor system using non-consecutive data formatting
US11561791B2 (en) 2018-02-01 2023-01-24 Tesla, Inc. Vector computational unit receiving data elements in parallel from a last row of a computational array
US11215999B2 (en) 2018-06-20 2022-01-04 Tesla, Inc. Data pipeline and deep learning system for autonomous driving
US20210312725A1 (en) * 2018-07-14 2021-10-07 Moove.Ai Vehicle-data analytics
US11361457B2 (en) 2018-07-20 2022-06-14 Tesla, Inc. Annotation cross-labeling for autonomous control systems
US11636333B2 (en) 2018-07-26 2023-04-25 Tesla, Inc. Optimizing neural network structures for embedded systems
US11562231B2 (en) 2018-09-03 2023-01-24 Tesla, Inc. Neural networks for embedded devices
CA3115784A1 (en) 2018-10-11 2020-04-16 Matthew John COOPER Systems and methods for training machine models with augmented data
US11196678B2 (en) 2018-10-25 2021-12-07 Tesla, Inc. QOS manager for system on a chip communications
US11577750B2 (en) * 2018-11-08 2023-02-14 Bayerische Motoren Werke Aktiengesellschaft Method and apparatus for determining a vehicle comfort metric for a prediction of a driving maneuver of a target vehicle
US20220001858A1 (en) * 2018-11-13 2022-01-06 Nec Corporation Dangerous scene prediction device, dangerous scene prediction method, and dangerous scene prediction program
US10824913B1 (en) * 2018-11-21 2020-11-03 Amazon Technologies, LLC Training machine learning models for physical agents and robotic controls with simulations
US11829870B2 (en) * 2018-11-26 2023-11-28 Uber Technologies, Inc. Deep reinforcement learning based models for hard-exploration problems
US11816585B2 (en) 2018-12-03 2023-11-14 Tesla, Inc. Machine learning models operating at different frequencies for autonomous vehicles
US11580687B2 (en) 2018-12-04 2023-02-14 Ottopia Technologies Ltd. Transferring data from autonomous vehicles
US11537811B2 (en) 2018-12-04 2022-12-27 Tesla, Inc. Enhanced object detection for autonomous vehicles based on field view
US11908253B2 (en) * 2018-12-12 2024-02-20 Gm Cruise Holdings Llc Dynamic data preservation based on autonomous vehicle performance needs
US11275374B2 (en) * 2018-12-18 2022-03-15 Zoox, Inc. Event-based data logging
US10831209B2 (en) * 2018-12-19 2020-11-10 Fca Us Llc Using a long-term recurrent convolutional network to plan a sequence of lateral controls in autonomous driving
US11610117B2 (en) 2018-12-27 2023-03-21 Tesla, Inc. System and method for adapting a neural network model on a hardware platform
US10997461B2 (en) 2019-02-01 2021-05-04 Tesla, Inc. Generating ground truth for machine learning from time series elements
US11567514B2 (en) 2019-02-11 2023-01-31 Tesla, Inc. Autonomous and user controlled vehicle summon to a target
US10956755B2 (en) 2019-02-19 2021-03-23 Tesla, Inc. Estimating object properties using visual image data
US11335189B2 (en) * 2019-04-04 2022-05-17 Geotab Inc. Method for defining road networks
US10699564B1 (en) 2019-04-04 2020-06-30 Geotab Inc. Method for defining intersections using machine learning
US11403938B2 (en) 2019-04-04 2022-08-02 Geotab Inc. Method for determining traffic metrics of a road network
US11335191B2 (en) 2019-04-04 2022-05-17 Geotab Inc. Intelligent telematics system for defining road networks
US11341846B2 (en) 2019-04-04 2022-05-24 Geotab Inc. Traffic analytics system for defining road networks
US11100329B1 (en) * 2019-08-14 2021-08-24 Lytx, Inc. Ranging system data utilization for marking of video data of interest
US11386670B2 (en) * 2019-10-03 2022-07-12 Toyota Motor Engineering & Manufacturing North America, Inc. Methods and systems for tracking non-connected vehicles
DE102019217225A1 (de) * 2019-11-07 2021-05-12 Robert Bosch Gmbh Verfahren zum Trainieren eines maschinellen Lernsystems für eine Objekterkennungsvorrichtung
US11590969B1 (en) * 2019-12-04 2023-02-28 Zoox, Inc. Event detection based on vehicle data
TWI753334B (zh) * 2019-12-13 2022-01-21 財團法人車輛研究測試中心 自駕車遠端監控系統及其方法
US11415992B2 (en) * 2019-12-27 2022-08-16 Woven Planet North America, Inc. Resource prioritization based on travel path relevance
US11069232B1 (en) * 2020-01-16 2021-07-20 Toyota Motor North America, Inc. Systems and methods for determining levels of congestion at establishments
US11416959B1 (en) * 2020-02-10 2022-08-16 Zoox, Inc. Vision architecture
US20210287530A1 (en) * 2020-03-11 2021-09-16 Allstate Insurance Company Applying machine learning to telematics data to predict accident outcomes
US11430091B2 (en) * 2020-03-27 2022-08-30 Snap Inc. Location mapping for large scale augmented-reality
US20210358233A1 (en) * 2020-05-14 2021-11-18 HopSkipDrive, Inc. Ride monitoring system
JP7372876B2 (ja) 2020-05-25 2023-11-01 株式会社日立製作所 異常検出システム、異常検出装置及び異常検出方法
US11403943B2 (en) * 2020-07-14 2022-08-02 Argo AI, LLC Method and system for vehicle navigation using information from smart node
US11473917B2 (en) 2020-07-14 2022-10-18 Argo AI, LLC System for augmenting autonomous vehicle perception using smart nodes
US20220028187A1 (en) * 2020-07-23 2022-01-27 Denso International America, Inc. Method and system of managing a vehicle abnormality of a fleet vehicle
US11736501B2 (en) * 2020-07-24 2023-08-22 Amida Technology Solutions, Inc. Method, system, and apparatus for security assurance, protection, monitoring and analysis of integrated circuits and electronic systems using machine learning instruments and machine learning analysis
US11954919B2 (en) * 2020-10-08 2024-04-09 Toyota Research Institute, Inc. Traffic light active learning pipeline
US20220116052A1 (en) * 2020-10-12 2022-04-14 Uatc, Llc Systems and Methods for Compressing and Storing Sensor Data Collected by an Autonomous Vehicle
CN112751910A (zh) * 2020-12-14 2021-05-04 北京小马慧行科技有限公司 一种信息收集方法和装置
CN114694368A (zh) * 2020-12-28 2022-07-01 比亚迪股份有限公司 车辆的管控系统
US11858514B2 (en) 2021-03-30 2024-01-02 Zoox, Inc. Top-down scene discrimination
US11810225B2 (en) * 2021-03-30 2023-11-07 Zoox, Inc. Top-down scene generation
US11907857B2 (en) 2021-06-03 2024-02-20 International Business Machines Corporation Dynamic selection of parameter threshold values
CN113570853B (zh) * 2021-06-17 2022-07-29 长安大学 一种城市快速路出口违法驶入车辆的检测系统和方法
US11898871B2 (en) 2021-09-15 2024-02-13 Here Global B.V. Apparatus and methods for providing a map layer of one or more temporary dynamic obstructions
US11520576B1 (en) * 2022-01-07 2022-12-06 Plusai, Inc. Methods and apparatus for automatically labeling data processing events in autonomous driving vehicles via machine learning
CN114419893B (zh) * 2022-01-30 2023-02-28 重庆长安汽车股份有限公司 一种基于车端数据的道路问题检测方法及可读存储介质
WO2023175505A1 (en) * 2022-03-15 2023-09-21 Aggarwal Kamal System for determining drive related information for commutation being carried out by user in vehicle
DE102022106338A1 (de) 2022-03-18 2023-09-21 Joynext Gmbh Anpassen eines Fahrverhaltens eines autonomen Fahrzeugs
US20230351736A1 (en) * 2022-04-27 2023-11-02 Canoo Technologies Inc. Active data collection, sampling, and generation for use in training machine learning models for automotive or other applications
DE102022111969A1 (de) 2022-05-12 2023-11-16 Cariad Se System und Verfahren zum Bereitstellen einer Zeitverzögerungsprognose einer Verkehrsbehinderung
CN117076711A (zh) * 2023-10-12 2023-11-17 北京汇通天下物联科技有限公司 驾驶行为识别模型的训练方法、识别方法、装置及设备

Family Cites Families (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070132773A1 (en) * 2005-12-08 2007-06-14 Smartdrive Systems Inc Multi-stage memory buffer and automatic transfers in vehicle event recording systems
JP2010182287A (ja) * 2008-07-17 2010-08-19 Steven C Kays 適応型インテリジェント・デザイン
US8270733B2 (en) * 2009-08-31 2012-09-18 Behavioral Recognition Systems, Inc. Identifying anomalous object types during classification
US9298575B2 (en) 2011-10-12 2016-03-29 Lytx, Inc. Drive event capturing based on geolocation
EP2770489B1 (en) 2011-10-21 2019-11-20 Toyota Jidosha Kabushiki Kaisha Data recording apparatus for a vehicle
CN105072986B (zh) 2013-03-22 2018-12-04 丰田自动车株式会社 驾驶支援装置及方法、信息提供装置及方法、导航装置及方法
US9165477B2 (en) 2013-12-06 2015-10-20 Vehicle Data Science Corporation Systems and methods for building road models, driver models, and vehicle models and making predictions therefrom
AU2013273784B2 (en) 2013-12-20 2016-06-02 Canon Kabushiki Kaisha Method, system and apparatus for updating a scene model
CN103854267B (zh) 2014-03-12 2016-09-07 昆明理工大学 一种基于变分与分数阶微分的图像融合与超分辨率实现方法
US20160267335A1 (en) 2015-03-13 2016-09-15 Harman International Industries, Incorporated Driver distraction detection system
CN107409051B (zh) * 2015-03-31 2021-02-26 深圳市大疆创新科技有限公司 用于生成飞行管制的认证系统和方法
US20210272207A1 (en) * 2015-08-28 2021-09-02 State Farm Mutual Automobile Insurance Company Vehicular driver profiles and discounts
US20200234582A1 (en) * 2016-01-03 2020-07-23 Yosef Mintz Integrative system and methods to apply predictive dynamic city-traffic load balancing and perdictive parking control that may further contribute to cooperative safe driving
US9996992B2 (en) * 2016-02-04 2018-06-12 R. Albitz, Llc Vehicular event monitoring system
EP3219564B1 (en) 2016-03-14 2018-12-05 IMRA Europe S.A.S. Driving prediction with a deep neural network
AU2017250112B2 (en) * 2016-04-12 2020-09-17 Quidient, Llc Quotidian scene reconstruction engine
US10370102B2 (en) * 2016-05-09 2019-08-06 Coban Technologies, Inc. Systems, apparatuses and methods for unmanned aerial vehicle
US10664750B2 (en) 2016-08-10 2020-05-26 Google Llc Deep machine learning to predict and prevent adverse conditions at structural assets
US11120353B2 (en) * 2016-08-16 2021-09-14 Toyota Jidosha Kabushiki Kaisha Efficient driver action prediction system based on temporal fusion of sensor data using deep (bidirectional) recurrent neural network
JP6853494B2 (ja) * 2016-09-05 2021-03-31 日本電気株式会社 ドライブレコーダ
JP2018084854A (ja) 2016-11-21 2018-05-31 日本電気株式会社 センサデータ処理方法
US20180170392A1 (en) 2016-12-20 2018-06-21 Baidu Usa Llc Method and System to Recognize Individual Driving Preference for Autonomous Vehicles
SG11201907082SA (en) * 2017-02-02 2019-08-27 Yosef Mintz Integrative system and methods to apply predictive dynamic city-traffic load balancing and perdictive parking control that may further contribute to cooperative safe driving
CN107735838B (zh) 2017-03-02 2021-04-09 香港应用科技研究院有限公司 在多种设置下用于医学样品的异常检测
GB2562049A (en) 2017-05-02 2018-11-07 Kompetenzzentrum Das Virtuelle Fahrzeug Improved pedestrian prediction by using enhanced map data in automated vehicles
US20190113919A1 (en) * 2017-10-18 2019-04-18 Luminar Technologies, Inc. Controlling an autonomous vehicle using smart control architecture selection
US10908614B2 (en) * 2017-12-19 2021-02-02 Here Global B.V. Method and apparatus for providing unknown moving object detection
US11282385B2 (en) * 2018-04-24 2022-03-22 Qualcomm Incorproated System and method of object-based navigation
US11675359B2 (en) * 2018-06-13 2023-06-13 Nvidia Corporation Path detection for autonomous machines using deep neural networks
WO2020014683A1 (en) * 2018-07-13 2020-01-16 Kache.AI Systems and methods for autonomous object detection and vehicle following

Also Published As

Publication number Publication date
AU2019325161A1 (en) 2021-03-11
CA3109917A1 (en) 2020-02-27
IL280986A (en) 2021-04-29
US20200065711A1 (en) 2020-02-27
SG11202101582PA (en) 2021-03-30
CN112888611A (zh) 2021-06-01
EP3823874A1 (en) 2021-05-26
MX2021001950A (es) 2021-07-15
WO2020040975A1 (en) 2020-02-27
KR20210035296A (ko) 2021-03-31
EP3823874A4 (en) 2022-04-27
US11861458B2 (en) 2024-01-02

Similar Documents

Publication Publication Date Title
JP2021535476A (ja) 異常な車両イベントを検出および記録するためのシステムおよび方法
US11077850B2 (en) Systems and methods for determining individualized driving behaviors of vehicles
US20230132889A1 (en) Generation and Update of HD Maps Using Data from Heterogeneous Sources
US10625748B1 (en) Approaches for encoding environmental information
US11718305B2 (en) Evaluating driving control systems for elegant driving
US20220048535A1 (en) Generating Goal States for Prioritizing Path Planning
US20210304018A1 (en) Systems and methods for predicting agent trajectory
US11157655B2 (en) Determining vehicle data integrity
US11076022B2 (en) Systems and methods for implementing robotics frameworks
US11634161B2 (en) Path planning using delta cost volume generated from movement restrictions and observed driving behavior
US20240085191A1 (en) Mapping and determining scenarios for geographic regions
US11157007B2 (en) Approaches for encoding environmental information
US20210124355A1 (en) Approaches for encoding environmental information
US11402840B2 (en) Independent trajectory validation system for vehicles
US11816900B2 (en) Approaches for encoding environmental information
US20230110659A1 (en) Approaches for encoding environmental information
US20220375278A1 (en) Approaches for managing vehicles