JP7499256B2 - ドライバの挙動を分類するためのシステムおよび方法 - Google Patents

ドライバの挙動を分類するためのシステムおよび方法 Download PDF

Info

Publication number
JP7499256B2
JP7499256B2 JP2021536674A JP2021536674A JP7499256B2 JP 7499256 B2 JP7499256 B2 JP 7499256B2 JP 2021536674 A JP2021536674 A JP 2021536674A JP 2021536674 A JP2021536674 A JP 2021536674A JP 7499256 B2 JP7499256 B2 JP 7499256B2
Authority
JP
Japan
Prior art keywords
events
interest
vehicle
data
velocity
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021536674A
Other languages
English (en)
Other versions
JPWO2020051168A5 (ja
JP2021536648A (ja
Inventor
バラクリシュナン、ハリ
ロス マッデン、サミュエル
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Cambridge Mobile Telematics Inc
Original Assignee
Cambridge Mobile Telematics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Cambridge Mobile Telematics Inc filed Critical Cambridge Mobile Telematics Inc
Publication of JP2021536648A publication Critical patent/JP2021536648A/ja
Publication of JPWO2020051168A5 publication Critical patent/JPWO2020051168A5/ja
Application granted granted Critical
Publication of JP7499256B2 publication Critical patent/JP7499256B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/55Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/28Databases characterised by their database models, e.g. relational or object models
    • G06F16/284Relational databases
    • G06F16/285Clustering or classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/56Information retrieval; Database structures therefor; File system structures therefor of still image data having vectorial format
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Library & Information Science (AREA)
  • Computational Linguistics (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Description

本開示は、一般に、テレマティクス、より詳細には車両テレマティクスを記載する。
テレマティクスとは、通信デバイス、グローバルポジショニングデバイス(GPS)、または他のそうしたセンサであって、それらのセンサに関連するリモートデバイスを観察する、解析する、またはそのリモートデバイスと対話するためのセンサに関するデータを送信、受信および記憶する分野を意味することがある。いくつかの場合では、テレマティクスデータを提供する1つまたは複数のセンサは、自動車などの車両に関することが可能である。センサによって提供されたテレマティクスデータは、車両および車両のドライバ(運転者)の挙動を観察するように用いられることが可能である。
1つの態様では、データ処理システムが提供される。データ処理システムは、画像データをキャプチャするように構成されたカメラと、テレマティクスデータをキャプチャするように構成された1つまたは複数のセンサと、フィーチャベクトル用の分類尺度を、1つまたは複数の動作を行うことによって生成するように構成されたフィーチャ分類エンジンと、を備える。前記1つまたは複数の動作は、少なくとも部分的には前記画像データおよび前記テレマティクスデータに基づいて、前記画像データおよび前記テレマティクスデータの対象のイベントを表すフィーチャを含む前記フィーチャベクトルを生成することを含む。前記1つまたは複数の動作は、機械学習論理を用いて、前記フィーチャベクトルの各フィーチャについて分類尺度を決定することを含む。前記データ処理システムは、生じた前記対象のイベントのうちの1つの予測された見込みを示す予測値を、1つまたは複数の動作を行うことによって、生成するように構成された予測エンジンを備える。前記1つまたは複数の動作は、少なくとも部分的には前記それぞれのフィーチャの前記分類尺度に基づいて、各フィーチャに対し予測の重みを割り当てることを含む。前記1つまたは複数の動作は、少なくとも部分的には予測の重みに基づいて、前記予測値を前記フィーチャベクトルの残りのフィーチャについて決定することを含む。
前記対象のイベントは、相対速度超過イベント、車間距離イベント、交通密度イベント、ローリングイベント、不停止イベント、旋回挙動イベント、急停止イベント、低下した視認性イベント、または横断歩道挙動イベントのうちの1つまたは複数を含むことが可能である。前記フィーチャは、街路灯、車両、道路標識、路面表示、歩行者、自転車に乗る人、または動物のうちの1つまたは複数を含むことが可能である。前記テレマティクスデータは、加速データ、位置データ、および無線信号強度データのうちの1つまたは複数を含むことが可能である。前記画像データは、1つの画像もしくは一連の画像、またはビデオのうちの1つまたは複数を含むことが可能である。
前記予測エンジンは、少なくとも部分的には前記予測値に基づいてドライバに関連付けられた危険スコアを生成するように構成されることが可能である。前記予測エンジンおよび前記フィーチャ分類エンジンは、モバイルデバイスの一部であることが可能である。前記予測エンジンおよび前記フィーチャ分類エンジンは、車両の一部であることが可能である。前記予測エンジンおよび前記フィーチャ分類エンジンは、モバイルデバイスが通信するリモートコンピュータサービスの一部であることも可能である。
これらのおよび他の態様、特徴、および実装は、方法、装置、システム、コンポーネント、プログラム製品、営業方法、機能を行うための手段または工程、および他の手法により示されることが可能であり、特許請求の範囲を含む以下の記載から明らかとなる。
本明細書に記載される方法およびシステムの実装は、以下の利点のうちの1つまたは複数を含む。テレマティクスデータを用いてドライバの挙動を評価するための従来の技術とは対照的に、画像データ(例えば、ビデオデータ)が、ドライバの挙動を評価するためのテレマティクスデータ用のコンテキストを提供するように処理され分類される。例えば、スマートフォンセンサ、車載センサ、およびアフターマーケットテレマティクスデバイスからの位置、速度、および加速データは、本明細書に記載される処理システムによって運転品質をスコアリングするように分類されるテレマティクスデータを提供する。例えば、より高いスコアは、安全および/またはより少ない危険の運転挙動(例えば、運転挙動における増加した危険を示す、より低いスコアに対して)に対応する。ドライバ挙動は、電話による注意散漫、過度の速度超過、(例えば、記載された速度制限を超える15マイル毎時(24キロメートル毎時))、急停止または厳しい停止(例えば、制動)イベント(例えば、車両の速度を1秒以内に7マイル毎時(11.2キロメートル毎時)減少させる、車両の速度を1秒以内に20マイル毎時(32キロメートル毎時)減少させる、など)、粗暴な加速(例えば、車両を速度において1秒以内に8マイル毎時(12.8キロメートル毎時)に増加させる)または急カーブを切ること、運転された走行距離、運転の期間、運転の時刻などの要因に基づいて分類されスコアリングされる。そうしたドライバの動作は、テレマティクスデータから識別され、ドライバのスコアに悪影響を与える得る危険な挙動として標識される。従来の技術と比較したとき、テレマティクスデータを標識することの精度を増加させるように、テレマティクスデータ(例えば、位置データ、速度データ、加速データなど)は、画像データとともに処理され分類される。データ処理システムは、例えば、危険な挙動を示すテレマティクスデータがドライバスコアに悪影響を及ぼすか否か、および/またはどのくらい及ぼすかを続けて決定することによって、増加した信用によりテレマティクスデータを危険なドライバ挙動を示すものと分類するように、画像データからの追加のコンテキストを用いる。画像データは、ドライバが不適切な危険を冒しているか、またはドライバが適切に環境に応じているかを決定するように、テレマティクスデータにコンテキストを提供する。例えば、ドライバは、ドライバが別の車両に非常に近接して追尾していたために突然制動をかける必要がある場合があるが、ドライバは、停止標識を無視する別のドライバを避けるように突然制動をかける必要がある場合もある。画像データは、ドライバに責任があるか、部分的に責任があるか、またはドライバが適切に運転していたかを決定するのに必要なコンテキストを提供することが可能である。
本開示の1つまたは複数の実装の詳細が、添付の図面および以下の記載において説明される。本開示の他の特徴、目的、および利点は、記載および図面から、また特許請求の範囲から明らかとなる。
ドライバの挙動をコンテキストにより分類するためのデータを処理するための例示的なシステムを示す図。 ドライバの挙動をコンテキストにより分類するためのデータを処理する方法を示す図。 例示的な画像データを示す図。 対象のイベントを検出するように機械学習演算を行うためのデータ処理システムの一例を示す図。
様々な図面における同様の参照符号は、同様の要素を示す。
本開示は、車両がドライバによってどのように操作されるかを分類するように自動車などの車両に関連付けられたテレマティクスデータを処理するためのデータ処理技術およびシステムを記載する。画像データは、センサ(例えば、スマートフォンセンサ、埋め込みテレマティクスデバイス、または車両における同様のデバイスのセンサなど)によって取得されたテレマティクスデータ(例えば、位置データ、速度データ、加速データなど)と併せて処理される。画像データ(例えば、ビデオデータ)は、テレマティクスデータ用のコンテキストを提供するように、処理システムによって処理され用いられる。画像データおよびテレマティクスデータは、ドライバの運転挙動を識別するように、生じている運転操作、ドライバの運転品質のスコア付け、またはそれらの組合せを決定するように、処理システムによって分類される。
ドライバの挙動を識別し分類する1つの例示的な応用は、自動車保険ポリシーについての危険評価のためであることが可能であり、ここで、より多くの危険操作を伴うドライバは、衝突に対するより大きい危険にさらされると示されている。本明細書に記載されるシステムおよび処理は、衝突の危険を予測するためのドライバについての運転スコアを決定する。例えば、ドライバについてのスコアは、そのドライバが衝突に巻き込まれる可能性を示すことが可能である。本明細書に記載されるシステムおよび方法によって生成されたスコアは、安全運転、安全運転コンテキストの走行について割引および報酬を提供する保険料を設定すること、およびドライバが自身の運転を向上させることが可能であるようにドライバに対しフィードバックおよび見識を提供することなど、複数の他の応用にとって有用であることも可能である。
本明細書に記載されるシステムおよび方法は、ドライバの挙動を分類する際に使用するための画像(例えば、ビデオ)データを収集し、処理し、記憶するように構成される。本明細書に記載されるシステムおよび方法は、特に、画像コンテキストをテレマティクスデータに提供するために必要とされる量のデータを収集し、処理し、記憶し、送信することの困難を克服する。システムは、ビデオデータをリモートコンピュータ環境(例えば、クラウドコンピュータ環境)に対し送信するためのバンド幅の要求を低減させるように、ビデオデータを車両に対してローカルに処理するように構成されることが可能である。これは、すべてのキャプチャされた画像データをサーバに対し無線ネットワークを介して送ることは、いくつかの場合には、相当なネットワーク帯域幅および電話上のストレージを消費し得るため、システムがコンテキスト用の画像データを解析することを可能とする。本明細書に記載されるシステムおよび方法は、以前のシステムおよび技術において必要とされたコンピュータ処理の量を減少させ、コンテキストをテレマティクスデータに提供するのに必要とされる電力を減少させることが可能である。例えば、コンピュータ電力を減少させることは、データを処理し得るモバイルデバイスのバッテリの消耗を減少させることが可能であり、したがって、デバイスにとってより長い動作時間を可能とする。
本明細書は、以前のシステムおよび技術とは対照的に、画像データから新たに識別されることが可能である様々なコンテキストの挙動を記載する。本明細書は、危険をコンテキストの挙動に帰属させるための、画像データからコンテキストを推測するための、またはその両方のためのシステムおよび方法を記載する。
図1は、ドライバの挙動をコンテキストにより分類するようにデータを処理するための例示的なシステム100を示す。システム100は、画像データ112をキャプチャするように構成されたカメラ102を備える。画像データ112は、データ処理用の個々の画像、ビデオ、一連のバースト画像などを表すことが可能である。システム100は、センサデータ114(例えば、テレマティクスデータ)を集める1つまたは複数のセンサ104を備える。センサ104は、加速度計、位置センサ(例えば、GPSセンサ)、測距センサ、音響センサ、紫外線(UV)検出センサ、赤外線センサなどのうちの1つまたは複数を含む。まとめると、センサデータ114および画像データ112は、集合データ108を生成するように組み合わせられることが可能である。車両118は、集合データ108の記憶および処理用のオンボード(ローカル)コンピュータシステム(例えば、処理ユニット)106を備える。ローカルコンピュータシステムが集合データ108を処理すると、前処理された集合データ116が、リモートコンピュータ環境110(例えば、クラウドコンピュータ環境)に対し送信される。車両118は、ナビゲーションを行う、典型的には車両におけるオペレータによって運転されている、任意の輸送デバイスを含むことが可能である。車両118は、車、トラック、バンなどを含むことが可能である。
カメラ102は、車両118の周りの環境の画像データ112(例えば、図3を参照)をキャプチャするように構成されることが可能である。カメラ102は、センサ104によって集められたセンサデータ114に対しコンテキストを提供するのに適することが可能である画像データなどの、車両の周りの環境の画像データ112をキャプチャするように、車両118上または車両118内のどこにでも搭載されることが可能である。例えば、カメラ102は、車両118のドライバによって観察される場面をキャプチャするように、車両118の移動に対する長手方向を向くこと(例えば、前面ダッシュボードカメラまたは後面カメラ)が可能である。カメラ102には、ドライバの視野角(例えば、約130度)に類似する視野角を適応させるように、広角レンズが備えられることが可能である。レンズによって生じる画像の任意の光学的歪みは、画像処理によって補正されることが可能である。いくつかの実装では、カメラは広角レンズを備えず、歪み補正が行われない。いくつかの実装では、カメラ102は、車両の一部である。いくつかの実装では、カメラ102は、携帯電話などのモバイルコンピュータデバイスの一部、ダッシュボードカメラなどである。示される実装は1つのカメラ102しか示さないが、実装はそのように限定されない。いくつかの実装では、システム100は、2つ以上のカメラ102を備える。例えば、システムは、2つが車両118の移動に対し長手方向の両方に向き、2つが車両118の移動に対し側方方向の両方に向く、4つのカメラ102を備えることが可能である。
センサ104は、上記の通り、テレマティクスデータ114を車両118のコンピュータシステム106に対し提供することが可能である任意のセンサを含む。センサ104は、車両118自身に搭載される(例えば、車両コンピュータシステムの一部、図示せず)ことが可能である。いくつかの実装では、センサ104は、ローカル車両コンピュータシステム106の一部ではないモバイルコンピュータデバイス(例えば、スマートフォン)の一部である。そうした場合には、モバイルコンピュータデバイスは、1つまたは複数の通信プロトコルによって車両の動作システムとインタフェースされる。例えば、モバイルコンピュータデバイスは、Bluetooth(登録商標),TCP/IP,Zigbee(登録商標)または他のそうしたIEEE802.15.4通信プロトコルなどのプロトコルおよびハードワイヤ通信(例えば、ユニバーサルシリアルバス(USB)またはIEEE1394ファイヤワイヤプロトコルなど)を用いて車両118と通信してよい。
テレマティクスデータ114をキャプチャする際に便利であり得るモバイルコンピュータデバイス上にて利用可能なセンサは、位置センサ(例えば、グローバルポジショニングシステム、GPS)、3つの直交軸に沿って電話の加速を測定するための3軸加速度計、および3つの軸に沿って電話の角速度を測定するための3軸ジャイロスコープを含むが、これらに限定されない。
用語「モバイルデバイス」は、例えば、通信リンクに対する有線接続を必要とせず、ユーザが運転している間、運転することからユーザの注意散漫を生じ得るように用いられやすい、ユーザによって運ばれることが可能である任意の種類の機器を含むように用いられる。いくつかの実装では、モバイルデバイスは、携帯電話およびウェアラブルデバイス(例えば、スマートウォッチ)を含むが、タブレット、ラップトップ等を含むことも可能である。
車両118のローカルコンピュータシステム106は、図4について後にさらに詳細に記載される。ローカルコンピュータシステム106は、集合データ108を処理するための1つまたは複数の処理ユニットを備える。ローカルコンピュータシステム106は、集合データ108とその集合データ108を処理するために必要とされる任意の他のデータとを記憶するためのストレージを備える。ローカルコンピュータシステム106は、カメラ102、センサ104、モバイルデバイス、車両118のオンボードコンピュータデバイス、またはそれらの組合せなどと一体化されることが可能である。いくつかの実装では、ローカルコンピュータシステム106は、車両自身の一部であり、他の車両機能を制御することが可能である。いくつかの実装では、ローカルコンピュータシステム106は、モバイルデバイス(例えば、センサ104および/またはカメラ102のうちの1つまたは複数を備えるモバイルコンピュータデバイス)の一部である。
リモートコンピュータ環境110は、ローカルコンピュータシステム106からデータを送受信するように構成された1つまたは複数のネットワーク化された処理デバイスを備える。リモートコンピュータ環境110は、クラウド処理用のクラウドコンピュータ環境を含む。リモートコンピュータ環境110は、前処理されたテレマティクスデータ116などのデータをコンピュータシステム106から受信し、車両118のドライバについての危険スコアを決定するための追加の計算を行う。例えば、リモートコンピュータ環境110は、前処理されたテレマティクスデータ116に対し機械学習分類演算を行い、危険の量(例えば、危険の重み値)を示すデータを分類し、続けてドライバについてのスコアを生成し、ドライバについてのスコアを調節し、またはその両方を行ってよい。したがって、高水準にて、システム100は、センサデータ114(テレマティクスデータ114)および画像データ112をキャプチャするように、またキャプチャされたデータに少なくとも部分的には基づいてコンテキスト化された危険スコアを決定するように用いられることが可能である。
いくつかの実装では、ユーザ(例えば、車両118のドライバ)は、モバイルアプリケーション(アプリ)を携帯電話にインストールし、車両118におけるモバイルデバイス(例えば、車両118の一部に付加された)を伴って運転する。アプリケーションは、バックグラウンド状態において実行されることが可能であり、位置および携帯電話活動アプリケーションプログラミングインタフェース(API)からの情報(例えば、デバイスの動作システムによって提供される)を用いて、車両118の各移動の出発および停止を自動的に検出する。いくつかの実装では、位置データは、電話上の慣性センサからの情報により拡張される。いくつかの実装では、米国特許出願第2015/0312655号明細書(その全体が参照により本明細書に組み込まれる)に記載されるものなど、タグデバイスなどの車載デバイスからの無線信号が用いられることが可能である。
ローカルコンピュータシステム106は、ユーザ(電話の)が運転しているときに、センサデータ114をセンサ104から受信することができる。センサデータ114は、ローカルコンピュータシステム106(いくつかの実装では、携帯電話と一体化されている)によって解析され、最初に処理される。センサデータ114は、無線ネットワーク(例えば、Wi-Fi、セルラー、またはサーバに対する接続性を提供する任意の他のネットワーク)を通じてリモートコンピュータ環境110に対し送信される。リモートコンピュータ環境110にて、テレマティクスエンジン120は、車両の動力学と車両内の携帯電話の移動パターンとの両方を正確に評価するように、ローカルコンピュータシステム106からの前処理されたデータ116を処理する。いくつかの実装では、そうした計算は、データがリモートコンピュータ環境110に対し送信されずに、ローカルコンピュータシステム106自身の上において行われる。
センサ104からのデータは、センサデータ114から識別された「危険」イベントの種類について十分なコンテキストを提供するように、画像データ112によりコンテキスト化される。例えば、車両118の前方における動物のジャンプに起因する制動イベントは、ドライバが自身の電話によって注意散漫となり、結果として交通信号が赤色に変わったことを見逃したために生じる制動イベントと比べ、より低い危険の運転挙動に関連付けられてよい。歩行者または自転車に乗る人を予期しなかったドライバによって生じる急制動イベントは、人通りのない道の停止標識における急制動イベントよりも危険な挙動であると決定されてよい。
画像データ112からそうしたコンテキストを提供することによって、画像データ112を伴わないドライバの挙動測定システムについてのいくつかの欠点が克服される。例えば、システム100は、回避不可能である、したがって、実質的にドライバが示す危険な運転挙動によって生じているのではないイベントを識別することができる。例えば、動物の存在に応答した急制動イベントまたは厳しい制動イベントの場合、または他の車の実勢速度が、掲示された速度制限を十分に上回る環境における速度超過についてユーザにフラグを立てる場合には、危険な挙動と考えなくてもよい。
これに加えて、システム100は、過度の加速または速度超過イベントとして視認できない危険な状況を識別することが可能である。例えば、2車線道路において頻繁に追い越すこと、雪の中の運転、またはローリングで停止標識を通過するなどの挙動が、画像データ112から識別されることが可能である。
システム100によるそうした解析は、危険を適切に測定し、より正確な危険評価を保険申込などのドライバ安全データの消費者に提供するシステム100の性能を強化することが可能である。これに加えて、危険評価技術を用いたドライバの体験が向上し、ドライバは、センサデータ114用のコンテキストの欠落に起因して危険と表示された回避不可能な操作について不公平に罰せられると感じることが多い場合がある。
さらに詳細に以下に記載されるように、車載カメラからの画像データとともにテレマティクスデータを拡張することによって、このコンテキスト情報を推測する手法を提供することが可能である。コンピュータ版アルゴリズムを用いて、運転中に遭遇する多数のオブジェクトおよびフィーチャが、より良いドライバ品質スコアリング用のコンテキスト情報を提供するように認識され標識されることが可能である。さらに、キャプチャされた画像データは、ユーザエンゲージメントおよびフィードバックを補助することが可能である。例えば、自身のスコアを低下させる挙動を示すユーザに対し、ビデオのセグメントを提供することによって、ユーザが危険な操作を思い出し、理解し、回避することを促進することが可能である。
図1を参照して前に記載されたように、カメラ102からの画像データ112は、センサ104(例えば、モバイルデバイス、車載電子コンポーネント、アフターマーケットデバイス、またはそれらの組合せ)からの他のセンサデータ114(例えば、テレマティクスデータ)と組み合わせられ、画像データ112からコンテキストにより関連するイベントを識別するように、または対象のイベントを含む画像データ112の位置をフィルタリングするように、ローカルコンピュータシステム106(モバイルデバイス、専用テレマティクスデバイス、機内コンピュータシステム、カメラ102、またはそれらの組合せと一体化されることが可能である)によって前処理される。前処理されたデータ116の特定の要素は、次いで、さらなる改良および処理のためにリモートコンピュータ環境110に対し送信される。様々な実装が可能である。いくつかの実装では、画像データ112のすべての処理およびキャプチャがカメラ102によって行われる。いくつかの実装では、センサデータ114のすべての処理およびキャプチャがセンサ104によって行われる。いくつかの実装では、車両118のローカルコンピュータシステム106は、リモートコンピュータ環境110を使用することなく、画像データ112およびセンサデータ114のすべての処理を行うことができる。
カメラ102によってキャプチャされた画像データ112から識別可能な特定の運転挙動およびコンテキスト情報のいくつかの例は、以下、すなわち、相対速度超過(例えば、ドライバが道路における他の車または掲示された速度制限よりも早くまたは遅く進行している)、道路における他の車両に対する車両の車間距離(例えば、テールゲーティング)、交通密度(例えば、車両118が交通渋滞において操作されているか、または車両118のごく近くの他の車両の数の測定)、停止標識または信号機における停止し損ないを識別すること(例えば、車両118が、示された停止標識または信号機における赤信号を通過する前に、完全停止になり損なうとき)、黄信号を通り過ぎる粗暴な加速(例えば、信号機にて黄信号に遭遇するときに車両118が加速する場合)、旋回挙動(例えば、右側運転の国において左折する前に車両118の左折信号が作動しないとき、または車両118が左折すべきときを示す左折信号を信号機が作動させる前に、車両118が信号機にて左折するとき)、コンテキスト化された急制動イベント(例えば、急制動イベントが人、動物、または他の車両の突然の出現に起因したかを認識する)、気象条件(例えば、車両118が雪、雨または霧の中を運転されているために、車両118のドライバの視認性が低下しているかを判定する)、周囲光条件、横断する歩行者または自転車に乗る人のために停止し損なったまたは速度を落とし損なったか、および車両118が歩行者または他の車両に対し非常に近くにて動作しているか、のうちの1つまたは複数を含む。
システム100は、後にさらに詳細に記載されるように、画像から上記の要素、加速、速度および位置データを推測するよう、1つまたは複数の方法を用いることが可能である。システム100は、オブジェクトおよびバウンディングボックス検出、ならびにYoloまたはSSDなどの画像フレームを処理するための認識モジュール(オブジェクト検出器と呼ばれることもある)を用いることが可能である。このオブジェクト検出器は、車、人、自転車、および交通標識/信号などのオブジェクトを識別することができ、各検出されたオブジェクトの周りの近似的なバウンディングボックスを提供する。さらに、エリック・ロイヤー(Eric Royer)、マキシム・ルイリエ(Maxime Lhuillier)、ミシェル・ドーム(Michel Dhome)、ジャンマルク・ラベスト(Jean-Marc Lavest)による、モバイルロボットローカリゼーションおよび自律ナビゲーション用の単眼ビジョン(Monocular Vision for Mobile Robot Localization and Autonomous Navigation)、コンピュータビジョンの国際ジャーナル,シュプリンガー出版社(Springer Verlag)、2007年、74(3)、237-260ページ(その全体が参照により本明細書に組み込まれる)に記載されるように、カメラ102が車両118における既知の固定された配向にあると仮定すると、オブジェクト検出器のオブジェクトを3Dに近似的に位置させる性能が想定される。オブジェクト検出器は、
オブジェクトクラス、時間、x位置、y位置、幅、高さ
の形態の、一連のオブジェクト検出を生成することができる。
ここで、x位置は、カメラ102の左(負)または右(正)への距離(例えば、メートルによる)を参照し、y位置はカメラ102の前の距離である。
さらに、検出が付与されると、例えば、機械学習(GOTURN)、光学フロー、または他の視覚的コヒーレンス方法のいずれかに基づくオブジェクト追跡方法は、オブジェクトを経時的に追うように用いられることが可能であり、時刻t1にて検出されたクラスCのオブジェクトが付与されると、時刻t2におけるオブジェクトクラスCの後の検出が同一のオブジェクトであるかを決定するように用いられることが可能である。
これに加えて、カメラ102を備える車両118の速度、位置、および方位の見積りは、規則的なサンプルレート(例えば、1秒に1回)にて入手可能であると想定される。これは、センサ114を用いて取得されることが可能である。
システム100が前に記載された8つのコンテキスト挙動を抽出するために用いられ得る方法が、これより説明される。
相対速度超過
相対速度超過は、車両118が、その車両118に近接する環境における他の車両の実勢速度にて、または実質的にその速度を超えてもしくはその速度以下にて動いているかとして定められる。他の車両よりも遥かに速くまたは遅く運転することは、危険であると推定され得る。コンテキストの速度超過を決定するための方法は、各オブジェクトの速度を、カメラ102からのオブジェクトの相対距離の変化を経時的に測定することによって見積ることを含むことが可能である。時刻T1にて位置D1にあるオブジェクトO(後に、時刻T2にて位置D2にある)が与えられると、車両118に対するOの速度は、(D2-D1)/(T2-T1)として定められることが可能である。
時間ウィンドウW[Ta,Tb](時刻TaとTbとの間)にわたる車両118の相対速度スコアは、以下の方法を用いて定められる。時間ウィンドウ中に観察された他の車両の相対速度のすべてを単純に平均化することは、非常に速くまたは非常に遅く動くいくつかの車両の寄与を重み付けしすぎる場合がある。したがって、車両118よりも大幅に速くまたは遅く動いている他の車両の一部をカウントする方法が所望されてよい。そのアプローチは、以下に係る疑似コードに記載されることが可能である。
カウント=0,閾値カウント=0に初期化
W中に2回以上検出された1組のすべての車両Vが付与されると、
Vにおける各別個のvについて、Wにおける時刻Tv1にて最初におよびWにおける時刻Tv2にて最後に、対応する「y軸」位置Dv1およびDv2(y軸の原点は観察する車両の位置である)とともに検出される。
Sv=(Dv2-Dv1)/(Tv2-TV1)とする。
カウント=カウント+1とする。
Sv>速度閾値の場合
閾値カウント=閾値カウント+1
Sv<-速度閾値の場合
閾値カウント=閾値カウント-1
相対速度スコア=閾値カウント/カウント
したがって、相対速度スコアは、特定の期間にわたって他の車両の一部が車両118よりも大幅に遅くまたは速く動いていることを示す、-1と1との間の数であることが可能である。総合的なドライバの危険を評価するためのこの尺度(メトリック;metric)の特定の使用は、後にさらに詳細に記載される。
車間距離
他の車両を、特に高速道路において非常に近くにて追尾すると、危険な挙動と推定され得る。車間距離は、相対速度超過と同様の方法により計算されることが可能である。例えば、車間距離の尺度は、ウィンドウ中の時間の一部が、車両118がその車両のいくつかの閾値距離以内(例えば、別の車両の後方にて10フィート(3メートル)未満)の別の車両の近くにて動作されていたときに、0と1との間の数字であることが可能である。
各車両検出では、検出された車両がほぼドライバの真正面にある場合(すなわち、いくらか小さい値の閾値Xについて、x位置が[閾値X,+閾値X]にある)、検出は検出ビン「検出セット」に加えられる。次いで、時間ウィンドウ[Ta,Tb]の間、車間距離がいくつかの閾値[閾値Y]未満であった時間の一部が、以下の疑似コードを用いて示されるように生成される。
近接カウント=0、カウント=0に初期化
ウィンドウW=[T1,T2]中に検出された検出セットにおける1組のすべての車両が付与される
検出セットにおける各vについて、d=v.y位置(すなわち、車両に対する距離)とする
d<閾値Xの場合
近接カウント=近接カウント+1とする
カウント=カウント+1とする。
車間距離尺度=近接カウント/カウント
総合的なドライバの危険を評価するためのこの尺度の特定の使用が後により詳細にように記載される。
交通密度
「交通規制の」状況は危険な傾向があり得るため、高い交通密度のエリアにおける運転は、衝突の見込みを増加させ得る。いくつかの実装では、交通密度は、付与された時間ウィンドウにおける車両118に近接した他の車両の数を測定することによって見積もられる。しかしながら、車両118に対し反対方向に進行する他の車両を測定することを避けるため、画像データ112およびセンサデータ114は、車両118と同一方向に進行する他の車両の数を測定するように用いられることが可能である。例えば、車両118に対し同一方向に進行する他の車両は、画像データ112においてある時間ウィンドウにおいて2回以上検出された他の車両を識別することによって測定されることが可能である。これは、多くの例において、車両118に対し反対方向に進行する他の車両は、少なくない画像フレームについて視認されそうもないという事実を利用する。特定の他の車両が閾値数のフレーム(例えば、動的または静的閾値)より多くのフレームに存在する場合、特定の他の車両が同一方向に進行すると識別されることが可能である。閾値は、車両118の速度および車両118の位置などの環境因子に依存して、動的に設定されることが可能である。例えば、車両119が動いていない(例えば、駐車している)場合、交通密度の尺度は無視されることが可能である。しかしながら、車両118が動いていないものの動くために示された車道区画にある場合、車両118は赤信号にて停止していると決定されることが可能であり(例えば、システム100は、車両118が、赤信号に起因して静止位置にあると決定することが可能である)、または、車両118が「交通渋滞」イベントにあると決定されることが可能である。以下の測定、すなわち
密度の危険=時間ウィンドウ中に2回以上検出された他の車両Vの数
を用いると、「交通密度危険スコア」が総合的なドライバの危険を評価するように用いられることが可能である。総合的なドライバの危険を評価するためのこの尺度の使用の例は、以下にさらに詳細に記載される。
ローリング停止/黄信号を走行
ローリングで停止標識を通過(例えば、車両118が停止標識を通過して前進する前に完全な停止にならないとき)および黄/赤信号を通り過ぎる加速は、両方とも、画像データ112から検出されることが可能である危険な操作と考えられ得る。車両118が停止標識または信号機を通過して前進するとき、システム100は、車両118がその停止標識または信号機を通過して前進する前に減速または停止し損なうかを決定することが可能である。例えば、システム100は、画像データ112を用いて停止標識または赤信号を識別し、次いで、標識または信号を観察して数秒以内に車両118が完全な停止になるかを決定することが可能である。いくつかの例では、停止標識は、システム100によって検出されてよいが、車両118の進行の方向にない場合がある。そうした例では、システム100は、停止標識または信号機を無視することが可能である。そうした決定は、他のデータに基づいて(車両118内または車両118上のカメラ102の配置/配向、画像データ112の後続のフレームにおける標識/信号の位置、車両118の位置などに基づいてなど)行われることが可能である。
時間ウィンドウが付与されると、このシステム100は、車両118が停止標識または赤信号に対して完全な停止になり損なった例の数を測定することが可能である。各例について、システム100は、し損ないの位置、し損ないが赤/黄信号機または停止標識に対応したか、し損ない中の速度分布(最小速度を含む)のうちの1つまたは複数を決定することが可能である。システム100は、後により詳細に記載されるように、危険スコアを各例に割り当てるよう、このデータを用いることが可能である。いくつかの実装では、車両118が黄信号を通過して前進するとき、システム100は、その黄信号からの車両118がいた距離を決定する。例えば、閾値数のフレーム以下である複数のフレームについて信号が黄である場合、システム100は、例えば、別の車両が車両118を追跡しており、追跡している車両のドライバは車両118が停止状態になることを予期しない場合など、118車両に突然停止状態にさせることがより危険な挙動であり得るため、黄信号を通過する前進に関連付けられた相対的に小さい危険しかない(または危険がない)と決定することが可能である。
旋回挙動
いくつかの例では、車両118を旋回させることは危険と考えられ得、対面交通に対する左折(右側運転の国において)は特に危険であり得る。画像データ112を用いると、システム100は、左折が「保護されない」とき(例えば、交通信号が旋回を特に認める左折矢印を示さない、また、車両118が旋回を完了させるために対面交通を横切る必要があるように対面交通が存在するとき)を識別することが可能である。
画像データ112とともに、位置および方位情報を含むセンサデータ114の時間ウィンドウWが付与されると、システム100は、反時計回り(左向き)方向におけるD度より大きい方位変化を伴う<K秒の期間として、方位情報における左折を識別することが可能であり、ここで、KおよびDは、構成可能な閾値(典型的には、30秒および60度)である。各旋回について、システム100は、旋回の開始前P秒から旋回後K秒まで(K秒を含む)の画像データ112を抽出することが可能である。
各旋回について、システム100は、画像データ112を用いて、1)画像データ112の画像フレームのいずれかに緑左折矢印が存在したか、および/または2)旋回中に観察される他の近づいてくる車両の速度および数、を識別することが可能である。特定の他の車両が近づいてくる車両であるかを決定する間、システム100は、同一の他の車両の連続した観察を識別することが可能であり、他の車両の相対位置(例えば、y距離)が経時的に減少するかを決定することが可能である。左折は完全に行われるのに数秒要するため、多くの近づいてくる車両は、複数の画像フレームにおいて観察される(交通密度の場合におけるものとは異なり、大半の近づいてくる車両は素早くフレームから出て行く)。付与されたウィンドウの間、危険な旋回はVを超える近づいてくる車両を伴う複数の左折を測定し、ここでVは構成可能な閾値(2など)である。この尺度が総合的なドライバの危険を評価するようにどのように用いられ得るかについてのさらなる詳細が、後に記載される。
コンテキスト化された急停止
車両118の経路に突然出現する動物などの予期できないイベントによる急制動イベントまたは厳しい制動イベントは、ドライバの将来的な危険の予兆とは必ずしもなり得ない。この理由のため、画像データから推測可能なコンテキストに基づいて、危険の様々なレベルを様々な急制動イベントまたは厳しい制動イベントに対し割り当てることが有益であり得る。
センサデータ114からシステム100によって検出された各急制動イベント(ここで、制動イベントは、1秒以内に7マイル毎時(11.27キロメートル毎時)など、いくらかの時間の間にいくつかの閾値を上回る減速として定義されてよい)について、システム100は、以下を含む動作を行うことが可能である。
イベント前のC秒におけるビデオデータVDを抽出する(例えば、C=2秒)。
検出されたオブジェクト=VDにおけるすべてのオブジェクトvとする。ここで、v.y距離<T1メートルかつ|v.x距離|<T2メートル(ここで、T1およびT2は構成可能な閾値、例えば、5メートルおよび2メートル)
コンテキスト停止尺度=危険関数(検出されたオブジェクト、イベント規模)とする。
危険関数によって、危険の様々なレベルが様々な種類のオブジェクトに対し割り当てられることを可能とする。例えば、他の動物と比較したとき比較的素早く動くことが可能である犬および鹿は、ドライバがそれらを必ずしも予期し得ないため、低い危険レベルに割り当てられてよい。一方、犬または鹿よりも予測可能に動くものの車道に予測不可能に入ることもある歩行者および自転車は、普通の危険レベルに割り当てられてよく、すべての他のオブジェクト(または0個のオブジェクト)は、危険の最高レベルに割り当てられてよい。この尺度が総合的なドライバの危険を評価するようにどのように用いられるかについてのさらなる詳細が、以下に記載される。
低下した視認性
厳しい天候は、視認性を低下させ得ることが多く、運転の危険を増加させる。カメラ102によってキャプチャされた画像データ112は、視認性を測定するように用いられることが可能である。例えば、システム100は、画像データ112によって示された総合的な歪みを評価すること、総合的な明るさおよび輝き(例えば、カメラ102の開口によって生じる変化を考慮する)を見積もること、またはその両方を行うことが可能である。いくつかの実装では、車両102のドライバが完全にオブジェクトを観察できないときの危険を帰属させるように、システム100は、時間ウィンドウWにおける検出された車両(またはオブジェクト)最大y距離と全時間にわたってすべての検出された車両のy距離のk番目のパーセンタイル値との比率を測定することが可能である(ここで、kは構成可能なパラメータであり、いくつかの実装では95である)。いくつかの実装では、システム100は、以下に係る動作を行う。
最大過去Y=y距離のすべての車両検出のうちk番目のパーセンタイル値とする。
ウィンドウ最大=0とする。
付与された時間ウィンドウW=[T1,T2]間、V=[T1,T2]におけるすべての車両検出とする。
Vにおける各vについて、v.y距離<ウィンドウ最大である場合、ウィンドウ最大=v.y距離とする。
視認性尺度=0とする。
ウィンドウ最大>0かつウィンドウ最大/最大過去Y<vis閾値である場合、
視認性尺度=log(1/ウィンドウ最大/最大過去Y)とする。
ここで、vis閾値は構成可能なパラメータであり、<1、典型的には0.9である。
したがって、いくつかの例では、視認性尺度は、時間ウィンドウにおける車両について検出された最大距離に反比例する。この尺度が、低下した視認性に起因するドライバの危険を評価するようにどのように用いられ得るかについてのさらなる詳細が、後に記載される。
横断歩道挙動
横断歩道における歩行者のために自身の車両を停止させないドライバは、歩行者の負傷を生じる危険があり得る。これに加えて、歩行者が居る横断歩道における停止し損ないは、ドライバの注意散漫、または焦燥(それ自身が危険な運転挙動に関連し得る)の表れであることもある。いくつかの実装では、システム100は、以下に係る挙動を検出する。
付与されたウィンドウW=[T1,T2]において
P=検出された各歩行者オブジェクトpとし、ここで横断歩道オブジェクトも存在し、歩行者と横断歩道とのy距離が互いのDメートル以内であり、ここでDは構成可能な閾値、典型的には1メートルであり、歩行者の検出されたバウンディングボックスが横断歩道の検出されたバウンディングボックスに重なり、歩行者が横断歩道にいることを示し、Pに対するy距離が<D横断であり、ここでD横断はドライバが横断歩道の近くにいる(典型的には10メートル)ことを示す構成可能なパラメータであり、ここでD横断は車両の速度に依存してよい。
Ped尺度=0、
Pの各pについて、減速を、車両がいくらかの速度<S横断(ここで、S横断は構成可能なパラメータ、典型的には5m/s)に減速しなかったかを示す、すなわち、横断歩道が近づくときに車両が減速したことを示す二進変数とする。
Ped尺度=Ped尺度+減速
したがって、歩行者尺度は、車両が減速し損なった、歩行者が居る横断歩道の数の測定であることが可能である。歩行者尺度が、ドライバの横断歩道関連危険についてスコア付けするようにどのように用いられるかに関するさらなる詳細が後に記載される。
挙動への危険の帰属
システム100は、各ドライバについて、特定の危険挙動に対する自身の露出の程度を示す危険スコアのベクトルを生成する例えば、危険ベクトルは、注意散漫の危険、制動の危険、および相対速度超過の危険のうちの1つまたは複数であることが可能である。
様々なドライバについてのそうした危険ベクトルの収集がそれらのドライバについての過去の事故頻度データとして付与されると、次いで、衝突または支払い要求の頻度をリスク変数から予測するように、モデルがデータにフィッティングされることが可能である。いくつかの実装では、機械学習エンジン300(例えば、後に図4に関して記載されるように)が、危険スコアを算出すべくイベントを分類/識別するように用いられることが可能である。
1.相対速度超過
システム100は、1つまたは複数の相対速度超過スコアを決定することができる。例えば、システム100は、ドライバが実勢速度以下において車両を運転する頻度に対して決定される低速スコア、およびドライバが実勢速度を超えて運転する頻度に対する高速スコアを計算することが可能である。
システム100は、相対速度超過挙動が最も関連すると決定される道路区画(例えば、ドライバが一般に、実勢速度制限にてまたはおよそその速度制限にて進行する幹線道路区画)を識別することができる。そうした道路区画は、車両118の軌道を、道路マップ上の区画がその区画の分類(例えば、高速道路、一般道路など)により標識される下層の道路マップに一致させること(例えば、米国特許8,457,880号明細書に記載され、参照によりその全体が本明細書に組み込まれる)を含むことが可能である。システム100は、車両118が、連続した一連のそうした区画を横断する期間を決定すること、また各そうした期間について相対速度超過尺度Mを決定する(上の相対速度超過の定義、例えば、-1と1との間の数を用いて)ことができる。1つのそうした尺度は、車両が動作されていたT分以下の各間隔について生成されることが可能であり、例えば、Tが5分であり、車両118が一連の幹線道路区画を20分間横断した場合、システム100は4つの尺度を生成することが可能である。各尺度Mについて、|M|>閾値(例えば、0.25)である場合、かつ、Mが正である場合、システム100は、ドライバの高速スコアを増加させることが可能である。対照的に、Mが負である場合、システム100は、ドライバの低速スコアを増加させることが可能である。ドライバの低速および高速相対速度の危険は、ユーザが低速/高速運転をする、より多くの頻度を蓄積する。いくつかの実装では、システム100は、運転の総量またはドライバが車両118を特定の道路上において動作させた時間の時間数について正規化をしない。
2.車間距離
車間距離についての危険スコアを計算することは、車両118が、他の車両を近接して「テールゲーティング」することが、他の区画(例えば、住宅地の道路)より危険である区画(例えば、高速道路区画)において動作していた期間を識別すること、次いでテールゲーティングに費やした時間の総量に基づいて「追尾危険スコア」を蓄積することを含むことが可能である。車両118が幹線道路区画(前に記載されたように、マップ一致により推測されることが可能である)を横断した一連の期間が与えられると、システム100は、それらの期間を最大T分のウィンドウへと分割することができ、各ウィンドウについて車間距離尺度を決定することができる。システム100は、車間距離尺度がいくつかの閾値(例えば、0.25)を超えたとき、各そうしたウィンドウについて総合的な追尾スコアを1増加させることができる。このようにして、システム100は、ドライバが車両118を経時的に他の車両に対し近接して動作させる(例えば、テールゲーティング)際に、車間距離危険尺度を蓄積することが可能である。
3.交通密度
システム100は、ドライバの運転時間のすべてを長さT以下の間隔へと分割し、密度尺度がD個の車両を超えたときにそうした間隔の数を測定することとによって、交通密度についての危険スコア決定することが可能である。値Dは、ピクセルの数に対して相当のばらつきが存在し得るため、使用時のカメラ102およびオブジェクト検出器の解像度に基づいて選択されることが可能である。特定の他の車両は異なるオブジェクト検出器によって識別されるように占有する必要がある。
4.不停止(ローリング停止/し損なった停止)
システム100は、スコアリング期間中(例えば、2週間)の不停止の数を測定することによって、し損なった/ローリング停止についての危険スコアを決定することが可能である。いくつかの実装では、いくつかの不停止は、他より高く重み付けされてよい。例えば、車両118が、停止標識を通過してある速度より速く(例えば、15マイル毎時(24キロメートル毎時))前進する場合、不停止は、車両118が黄信号を通過して前進するまたは停止標識を通過して遅く前進する(例えば、2マイル毎時(3.2キロメートル毎時))例よりも高く重み付けされることが可能である。
5.旋回挙動
システム100は、ドライバについて決定された算出された旋回尺度のすべてを合算することによって、安全でない旋回についての危険スコアを決定することが可能である。
6.コンテキスト化された急停止
システム100は、コンテキスト化された急停止を、コンテキスト化された急停止尺度のすべての急制動イベントにわたる合算として決定することが可能である。いくつかの実装では、このコンテキスト化された危険尺度は、非画像向上制動危険の代わりに、または非画像向上制動危険とともに用いられてよい。
7.低下した視認性
システム100は、運転時間をT分のウィンドウへと分割し、次いで視認性尺度をすべてのそうしたウィンドウにわたって合算することによって、視認性についての合計危険スコアを決定することが可能である。
8.横断歩道挙動
システム100は、横断歩道尺度をすべての運転時間にわたって合算することによって、横断歩道挙動についての合計危険スコアを決定することが可能である。いくつかの実装では、尺度は異なる道路の種類について別々に決定されることが可能であり、より速い車両を有するより大きい道路(例えば、軽い交通量を有する高速道路)は、より遅い車両を有するより小さい道路(例えば、住宅地区)よりも高く重み付けされるように、スケーリングされることが可能である。
モバイルコンピュータシステムにおける画像データの取扱い
スマートフォンベースの画像解析の困難は、カメラによって生成されたデータの容量をある帯域幅および電力効率にて扱うことに関連し得る。このデータを処理、送信、および記憶することは、スマートフォンのバッテリを激減させ、貴重なネットワーク帯域幅を使用し、またサーバ上の大容量のストレージを消費することがある。
前に記載された方法が、あるエネルギーにより、また計算効率よく実行されることを依然として可能としながら、これらの問題を監査するのに役立つことが可能である、画像データ112を処理するための方法が本明細書に記載される。
すべての画像データ112をリモートコンピュータ環境110に対し送信するよりも、むしろシステム100は、加速、速度、および位置データをローカルコンピュータシステム106上にて処理し、対象の時間範囲を識別し、対象の時間範囲に対応するセンサデータ114をリモートコンピュータ環境110に対し送信することが可能である。帯域幅をさらに減少させるように、リモートコンピュータ環境110に対し送信する前に、ローカル処理アルゴリズムがデータ(例えば、携帯電話上の)に適用されることが可能である。例えば、目的が交通密度を識別することである場合、システム100は、電話上のプロセッサを用いて他の車両を識別し、次いで、車の数および各車に対する近接(電話上にて処理することによって識別される)に関連する情報をリモートコンピュータ環境110に対し送信することが可能である。
いくつかの実装では、処理アルゴリズムは計算的に高価であり得るため、ローカルコンピュータシステム106かリモートコンピュータ環境か、どちらにおいて処理することがより安価であるかを決定する1つのアプローチが、ローカルコンピュータシステム106の処理能力に基づいて決定されることが可能である。例えば、システム100は、ローカルコンピュータシステム106とリモートコンピュータ環境110との各々について計算時間を示すプロファイルを生成することが可能である。
図2を参照すると、ドライバの挙動をコンテキストにより分類するためのテレマティクスデータの画像処理のための方法200が示される。コンピュータシステム106(例えば、携帯電話)は、ビデオデータをローカルに、すなわちカメラ上またはデバイスストレージ上にキャプチャし記憶する(202)。これに加えて、コンピュータシステム106は、位置、速度、加速、および回転(ジャイロ)データなどの他のテレマティクスデータをキャプチャする。他のデータ104は、処理用にリモートコンピュータ環境110にアップロードされ(204)、ユーザが急制動イベントまたは過度な速度超過をした場所などの、1組の「対象である」期間が、コンピュータシステム106に送信し返される(206)。
対象の期間からのビデオは、ローカルに処理され(208)、その処理の結果もしくはローカルデータ、またはその両方は、さらなる処理のためにリモートコンピュータ環境110に対し送信される(210)。ローカルに適用される処理の種類の決定は、電話の能力だけでなく、行われている特定の解析(例えば、尺度が上記のように算出されている)に依存する。
具体的には、ローカルコンピュータシステム106においてローカルに処理することを適用するか、リモートコンピュータ環境110においてリモートに処理することを適用するかを選択する方法は、以下のように動作する。電話からサーバに対し送信するためのコスト(ドルまたはエネルギーにおける)T(D)を有する一連のビデオ、Dが存在するとする。さらに、このデータを、電話上のいくつかのローカル処理アルゴリズムにより処理し、電話からサーバに対し送信するためのコストT(D’)により、減少したデータセットD’を生成するためのコストP(D)が存在するとする。T(D)およびP(D)は、例えば、少量のデータをローカルに送信/処理することと、エネルギー消費におけるOSレベル尺度を観察することとによって見積もられることが可能である。次いで、この方法は、T(D)>T(D’)+P(D)であるとき、データをローカルに処理し、D’を送信することを選び、そうでない場合は、Dを直接処理用のサーバに対し送る。
いくつかの例では、図2を参照して前に記載された方法200は、いくつかの対象のイベントを欠いている場合がある。例えば、方法200は、極度の加速イベントとしてフラグを立てられない、車両118が黄信号を通り過ぎて加速しているイベントを欠いていることがある。例えば、いくつかの例では、携帯電話は計算的必要性に起因してビデオのすべてのフレームを処理せず、したがって、携帯電話は処理用のビデオフレームを優先させることが可能である。
この潜在的な制限を克服するように、コンピュータシステム106は、図2を参照して前に記載された方法200におけるように、「対象のイベント」を含まなくても、ビデオフレームの一部分における電話上検出を行うように構成される。したがって、システム100は、検出アルゴリズムを適用するためのフレームの一部分を選ぶように構成されることが可能である。
運転状況における大半の対象のオブジェクトおよび挙動は、特に、厳しい減速(例えば、衝突に起因する)が存在しないときに、数秒間のビデオにおいて生じる。例えば、停止標識および信号機は、ドライバが停止標識および信号機に接近すると、通常、数秒間視認できる。したがって、ビデオ(30fps以上にてキャプチャされてよい)のすべてのフレームを解析する必要はなくてよく、代わりに、システム100は、フレームが停止標識または信号機を含むかを決定するように、数秒ごとにフレームを処理するように構成されることが可能である。
いくつかの場合、センサデータ104は、対象のイベントが画像データ112において生じるところについてコンテキストを提供することが可能である。例えば、停止標識は、一般に幹線道路にないが、動物は、一般に都会環境に存在し得ず、ドライバは一般に停止標識に接近したとき減速し得る。この一般的な認識は、画像データ112に含まれるフレームまたはフレームの群について重み付けを生成するように用いられることが可能である。重み付けは、処理用の画像フレームを優先させるように用いられることが可能である。
例えば、これらの観察は、他の近くのフレームが解析されているかに基づいて、様々なオブジェクトの種類の頻度に関する観察された統計に基づいて、またはその両方に基づいて、各フレームに対し値を割り当てる総合的な方法に導くことが可能である。これらの値は、バッテリ消費を制限するように、または電話に電力供給される(例えば、電源に接続される)ときのみ、フレームのあるレートまで割り当てられることが可能である。
そうした値を割り当てる処理は、以下の疑似コードに従って記載されることが可能である。
電話または処理デバイスが十分な電力を有する(例えば、接続されている)とき
V=いくつかの規則的な間隔(例えば、毎秒1回)にてサンプリングされたビデオフレームの組とする
Vにおける各未処理フレームfについて
E=fの周りの対象のイベント(例えば、粗暴な制動、速度超過など)とする
C=fの周りの運転コンテキスト(例えば、高速道路対非高速道路、都会対田舎)とする
H=fの周りの検出器履歴(例えば、最後のものがK秒前に検出器を実行)
処理するか?(f、E,C,H)
D=検出器を選択(f、E,C,H)とする
fD=D(f)とする//検出器を実行
fDが空でない場合
fDを検出器として保存
fDをサーバに対する送信用に加える
fを処理済みとして表示
したがって、フレームを処理するかの選択は、フレームがキャプチャされた時刻におけるイベント、運転コンテキスト(例えば、車両118が高速道路を横断していたか)、およびフレームが解析された最後の時刻にてどのくらい前に何が検出されたかに依存する(例えば、車両118が密集した都会環境において低速にて動いているとき、車両118が田舎環境において高速に動いているときほど頻繁に新たなフレームを処理することは有益となり得ない)。使用のためのオブジェクト検出器の選択は、このコンテキスト情報に依存し得る。例えば、異なるオブジェクト検出器が、田舎環境に対して都会において用いられてよい。これは、検出器がオブジェクトのより多くまたはより大きい分類を検出できる必要があるときに、オブジェクト検出器が、オブジェクトを検出するのにより長い時間を必要とし得るため、またより遅くなることが可能であるため、重要であり得る。
図3は、例示的な画像データ300を示す。前向きカメラ102は、街路灯306、道路標識304、他の車両302をフィーチャとしてキャプチャする。車両118が前方に動くと、カメラ102によってキャプチャされた画像データ300の後続のフレームは、他の車両、車道、道路標識などをフレームにおける更新された位置にて示す。センサ104から集められた位置/速度データは、前に記載されたように、対象のイベントの決定を行うよう、1つのフレームから次のフレームに、画像データ300のフィーチャをマッピングするように用いられることが可能である。いくつかの実装では、これらのフィーチャは、図4を参照して後に記載されるものなどの機械学習技術を用いて画像データ300から抽出される。
図4は、機械学習動作を行うためのデータ処理システム400の一例を示す。いくつかの実装では、データ処理システム400は、ローカルコンピュータデバイス106とリモートコンピュータ環境110との一方または両方を含むことが可能である。データ処理システム400は、フィーチャ分類エンジン402および予測エンジン404を備える。フィーチャ分類エンジン402および予測エンジン404は、互いと、クライアントデバイス105と、またはその両方と通信していることが可能である。
識別された(前に記載されたように)危険イベントは、フィーチャ(特徴)ベクトル406のフィーチャによって表される。フィーチャベクトル406は、キャプチャされたデータ112,114の特性を簡潔に表し、ニューラルネットワークまたは他の機械学習技術を用いてなど、データ処理システム400によって処理されることが可能である。フィーチャベクトル406は、フィーチャベクトル論理408を用いて生成される。フィーチャベクトル論理408は、カメラ102およびセンサ104によってキャプチャされたデータ112,114(すなわち、集合データ108)を処理し、そのデータ112,114を、画像データ112およびセンサデータ114のフィーチャを表すフォーマットされたベクトルへと変換することができる。これらのフィーチャは、対象のイベントを識別するのに有用であり得る。示される例では、画像データ112の1群の赤ピクセルの検出は、停止標識または赤信号が画像フレームにおいて検出されたかを決定するように用いられるフィーチャであることが可能である。別の例では、加速値のベクトルは、急制動イベントを識別するように用いられることが可能である。
フィーチャベクトル406は、クライアントデバイスからデータ処理システム400のフィーチャ分類エンジン402に対し送られる。フィーチャ分類エンジン402は、フィーチャベクトル406を、予測エンジン404によってドライバについての対象のイベントの予測を行うように用いられることが可能であるフィーチャ分類データ414へと変換する論理を含む。フィーチャ分類エンジン402は、フィーチャ変換論理エンジン410および機械学習論理412を含む。
フィーチャ変換論理410は、フィーチャベクトルを機械学習論理412用の入力へと変換できる。例えば、フィーチャ変換論理410は、フィーチャベクトル406のフィーチャを、ニューラルネットワーク用の活性化入力などの機械学習論理412によって認識されることが可能である値に正規化することが可能である。いくつかの実装では、機械学習論理412は、サポートベクトルマシンである。いくつかの実装では、フィーチャベクトル406のフィーチャは、非線形変換により0と1との間の値へと変換され、ここで、正規化された値はニューラルネットワーク用の活性化レベルを表し、正規化されたスケールは正規化処理前のフィーチャの値の非線形表示である。フィーチャが変換された値は、用いられている機械学習論理の種類、および機械学習論理に関連付けられた重み付けスキームに依存することが可能である。
機械学習論理412(例えば、ニューラルネットワーク、サポートベクトルマシンなど)は、フィーチャベクトル406の正規化されたフィーチャを受信することと、深層学習処理を通じてなど、分類データ414を計算することとができる。例えば、ニューラルネットワーク論理は、フィーチャベクトル406のフィーチャ間の依存性を追跡する長・短期記憶ニューラルネットワークを含むことが可能である。他の回帰型ニューラルネットワークは、他の機械学習分類器とともに用いられることが可能である。
フィーチャ分類器データ414は、フィーチャライブラリからなど、既知のフィーチャの対象を基準に評価するように、フィーチャベクトル406のフィーチャのうちの1つまたは複数についての分類尺度を含む。例えば、パーセンテージ分類が各フィーチャについて計算されることが可能である。予測エンジン404は、フィーチャ分類データ414の分類値を閾値分類と比較し、不十分な分類を有するフィーチャを廃棄することが可能である。フィーチャは互いに対する依存性を有することが可能であるため、分類尺度は、フィーチャが廃棄される前に決定されることが可能である。
いくつかの実装では、分類尺度の値は、フィーチャインデックスに記憶されることが可能である。インデックスは、インデックスの各フィーチャについての分類値を示すことができる。予測エンジン404は、分類値を用いて、各対象のイベントについての1つまたは複数の予測値を表す予測データ416を生成することができる。予測値が所定の閾値を超える場合、予測エンジン404は、対象のイベントが生じていることを予測することが可能である。例えば、所定の閾値が50%を超える予測値であることが可能である。いくつかの実装では、誤った正または誤った負を減少させるように、所定の閾値は、50%よりも高いパーセンテージまたは低いパーセンテージであることが可能である。
本明細書において用いられる際、用語「車両」は、例えば、車、トラック、バス、自転車、オートバイ、またはレクリエーション用車両などの、任意の種類の地上運搬を含むように広く定義される。
説明のため、ドライバは人間ドライバの場合において記載されているが、実装はそのように限定されない。例えば、ドライバは、オンボードコンピュータ(例えば、自動運転)、または人間ドライバとオンボードコンピュータの組合せ(例えば、半自動運転)を参照することが可能である。
他の実装は、本記載および請求項の範囲および趣旨内である。これに加えて、ソフトウェアの性質に起因して、上記の機能はソフトウェア、ハードウェア、ファームウェア、ハードワイヤ、またはそれらの任意の組合せを用いて実装されることが可能である。機能を実装するフィーチャは、機能の一部が様々な物理的位置にて実装されるように、分散していることを含む、様々な位置に物理的に位置してもよい。本明細書において用いられる際、用語「1つの(a)」の使用は、減点するように用いられるのではなく、したがって、用語「1つの(a)」について複数の意味または「1つまたは複数」の意味を排除する意図ではない。これに加えて、仮出願に対し主張される優先権の範囲に、仮出願が限定されるのではなく、本明細書に記載される技術がどのように実装され得るかの例を含むと理解される。
他の実施形態は、以下の請求項の範囲内である。

Claims (14)

  1. データ処理システムであって、
    1つまたは複数のプロセッサと、
    (a)1つまたは複数の時間の間に車両にて生じ得る1つ以上の対象のイベントの、前記車両における1つまたは複数のセンサによってキャプチャされた位置、速度、または加速データからの検出と、(b)前記1つまたは複数の時間の間に前記車両における前記1つまたは複数のセンサによってキャプチャされた前記位置、速度、または加速データと、前記1つまたは複数の時間の間に前記車両におけるカメラによってキャプチャされた画像データと、の組合せの処理と、の対応付けを行って、前記1つ以上の対象のイベントが生じることの予測見込みを決定するように、前記1つまたは複数のプロセッサによって実行可能な命令を記憶しているメモリと、を備え、
    前記(a)と前記(b)との対応付けを行うように前記1つまたは複数のプロセッサによって実行可能な記憶された前記命令は、前記1つまたは複数のプロセッサによって、
    前記車両における前記1つまたは複数のセンサによってキャプチャされた前記位置、速度、または加速データを電子的に受信する工程と、
    前記1つまたは複数の時間の間に前記車両において生じ得る1つ以上の対象のイベントを示すデータを検出するように、前記位置、速度、または加速データを処理する工程と、
    前記1つ以上の対象のイベントを示す前記データを検出した後にのみ、前記1つまたは複数の時間の間に前記車両における前記1つまたは複数のセンサによってキャプチャされた前記位置、速度、または加速データと、前記1つまたは複数の時間の間に前記車両における前記カメラによってキャプチャされた前記画像データと、の組合せを処理する組合せ処理工程であって、
    前記1つ以上の対象のイベントを示す前記データを検出した後にのみ、前記1つまたは複数の時間の間に前記車両における前記カメラによってキャプチャされた前記画像データを電子的に受信する工程と、
    電子的に受信された前記画像データと、前記1つまたは複数の時間の間にキャプチャされた前記位置、速度、または加速データとを組み合わせて、前記1つ以上の対象のイベントを表す集合データを生成し電子的に記憶する工程と、
    電子的に記憶された前記集合データに少なくとも部分的に基づいて、前記1つ以上の対象のイベントのコンテキストを決定する工程と、を含む、組合せ処理工程と、
    少なくとも部分的には前記コンテキストおよび前記1つ以上の対象のイベントに基づいて、前記車両または前記車両のドライバに関連付けられた危険スコアを生成する工程であって、前記1つ以上の対象のイベントは危険に関連付けられており、前記危険は前記車両の前記ドライバについての前記危険スコアを生成するように、前記コンテキストに基づいて調節される、工程と、を行うように実行可能な記憶された命令を含む、システム。
  2. 前記対象のイベントは、相対速度超過イベント、車間距離イベント、交通密度イベント、ローリングイベント、不停止イベント、旋回挙動イベント、急停止イベント、低下した視認性イベント、または横断歩道挙動イベントを含む、請求項1に記載のシステム。
  3. 前記画像データは、1つの画像および一連の画像のうちの一方または両方を含む、請求項1に記載のシステム。
  4. 前記1つまたは複数のプロセッサは、モバイルデバイスまたは車両デバイスの一部である、請求項1に記載のシステム。
  5. コンピュータ実装方法であって、
    車両における1つまたは複数のセンサによってキャプチャされた位置、速度、また加速データを受信する工程と、
    前記車両における1つ以上の対象のイベントが1つまたは複数の時間の間に生じ得ることを示すデータを検出するように、前記位置、速度、または加速データを処理する工程と、
    前記1つ以上の対象のイベントを示す前記データを検出した後にのみ、前記1つまたは複数の時間の間に前記車両における前記1つまたは複数のセンサによってキャプチャされた前記位置、速度、または加速データと、前記1つまたは複数の時間の間に前記車両におけるカメラによってキャプチャされた画像データと、の組合せを処理する組合せ処理工程であって、
    前記1つ以上の対象のイベントを示す前記データを検出した後にのみ、前記1つまたは複数の時間の間に前記車両における前記カメラによってキャプチャされた前記画像データを受信する工程と、
    受信された前記画像データと前記1つまたは複数の時間の間にキャプチャされた前記位置、速度、または加速データとを組み合わせて、前記1つ以上の対象のイベントを表す集合データを生成し記憶する工程と、
    記憶された前記集合データに少なくとも部分的に基づいて、前記1つ以上の対象のイベントのコンテキストを生成する工程と、を含む、組合せ処理工程と、
    少なくとも部分的には前記コンテキストおよび前記1つ以上の対象のイベントに基づいて、前記車両または前記車両のドライバに関連付けられた危険スコアを生成する工程であって、前記1つ以上の対象のイベントは危険に関連付けられており、前記危険は前記車両の前記ドライバについての前記危険スコアを生成するように、前記コンテキストに基づいて調節される、工程と、を備える、方法。
  6. 前記画像データおよび前記位置、速度、または加速データのうちの1つまたは複数は、前処理されたデータを生成するようにモバイルデバイスによって処理され、前記前処理されたデータは、さらなる処理のためにリモートコンピュータ環境に対し送られる、請求項に記載の方法。
  7. 前記1つ以上の対象のイベントは、相対速度超過イベント、車間距離イベント、交通密度イベント、ローリングイベント、不停止イベント、旋回挙動イベント、急停止イベント、低下した視認性イベント、または横断歩道挙動イベントのうちの1つまたは複数を含む、請求項に記載の方法。
  8. 1つまたは複数のプロセッサによって実行可能な命令を有する非一時的なコンピュータ可読記憶媒体であって、前記命令は、前記プロセッサに、
    車両における1つまたは複数のセンサによってキャプチャされた位置、速度、また加速データを電子的に受信する工程と、
    1つまたは複数の時間の間に前記車両において生じ得る1つ以上の対象のイベントを示すデータを検出するように、前記位置、速度、または加速データを処理する工程と、
    前記1つ以上の対象のイベントを示す前記データを検出した後にのみ、前記1つまたは複数の時間の間に前記車両における前記1つまたは複数のセンサによってキャプチャされた前記位置、速度、または加速データと、前記1つまたは複数の時間の間に前記車両におけるカメラによってキャプチャされた画像データと、の組合せを処理する組合せ処理工程であって、
    前記1つ以上の対象のイベントを示す前記データを検出した後にのみ、前記1つまたは複数の時間の間に前記車両における前記カメラによってキャプチャされた前記画像データを電子的に受信する工程と、
    電子的に受信された前記画像データと前記位置、速度、または加速データとを組み合わせて、前記1つ以上の対象のイベントを表す集合データを生成し電子的に記憶する工程と、
    電子的に記憶された前記集合データに少なくとも部分的に基づいて、前記1つ以上の対象のイベントのコンテキストを生成する工程と、を含む、組合せ処理工程と、
    少なくとも部分的には前記コンテキストおよび前記1つ以上の対象のイベントに基づいて、前記車両または前記車両のドライバに関連付けられた危険スコアを生成する工程であって、前記1つ以上の対象のイベントは危険に関連付けられており、前記危険は前記車両の前記ドライバについての前記危険スコアを生成するように、前記コンテキストに基づいて調節される、工程と、を備える動作を行わせる、非一時的なコンピュータ可読記憶媒体。
  9. 前記画像データおよび前記位置、速度、または加速データのうちの1つまたは複数は、前処理されたデータを生成するようにモバイルデバイスによって処理され、前記前処理されたデータは、さらなる処理のためにリモートコンピュータ環境に対し送られる、請求項に記載の非一時的なコンピュータ可読記憶媒体。
  10. 前記1つ以上の対象のイベントは、相対速度超過イベント、車間距離イベント、交通密度イベント、ローリングイベント、不停止イベント、旋回挙動イベント、急停止イベント、低下した視認性イベント、または横断歩道挙動イベントを含む、請求項に記載の非一時的なコンピュータ可読記憶媒体。
  11. 前記1つまたは複数のプロセッサは、
    前記1つまたは複数の時間の前に、前記車両における前記コンテキストに関する情報を受信する工程と、
    前記1つまたは複数の時間の前に、前記車両における前記コンテキストに関する前記情報に少なくとも部分的に基づいて、前記1つまたは複数の時間の間に前記車両における前記カメラによってキャプチャされる前記画像データを処理するかを決定する工程と、を行うように構成されている、請求項1に記載のシステム。
  12. データ処理システムであって、
    1つまたは複数のプロセッサと、
    (a)1つまたは複数の時間の間に車両にて生じ得る1つ以上の対象のイベントの、前記車両における1つまたは複数のセンサによってキャプチャされた位置、速度、または加速データからの検出と、(b)前記1つまたは複数の時間の間に前記車両における前記1つまたは複数のセンサによってキャプチャされた前記位置、速度、または加速データと、前記1つまたは複数の時間の間に前記車両におけるカメラによってキャプチャされた画像データと、の組合せの処理と、の対応付けを行って、前記1つ以上の対象のイベントが生じることの予測見込みを決定するように、前記1つまたは複数のプロセッサによって実行可能な命令を記憶しているメモリと、を備え、
    前記(a)と前記(b)との対応付けを行うように前記1つまたは複数のプロセッサによって実行可能な記憶された前記命令は、前記1つまたは複数のプロセッサによって、
    前記車両における前記1つまたは複数のセンサによってキャプチャされた前記位置、速度、または加速データを電子的に受信する工程と、
    前記1つまたは複数の時間の間に前記車両において生じ得る1つ以上の対象のイベントを示すデータを検出するように、前記位置、速度、または加速データを処理する工程と、
    前記1つ以上の対象のイベントを示す前記データを検出した後にのみ、前記1つまたは複数の時間の間に前記車両における前記1つまたは複数のセンサによってキャプチャされた前記位置、速度、または加速データと、前記1つまたは複数の時間の間に前記車両における前記カメラによってキャプチャされた前記画像データと、の組合せを処理する組合せ処理工程であって、
    前記1つ以上の対象のイベントを示す前記データを検出した後にのみ、前記1つまたは複数の時間の間に前記車両における前記カメラによってキャプチャされた前記画像データを電子的に受信する工程と、
    電子的に受信された前記画像データと、前記1つまたは複数の時間の間にキャプチャされた前記位置、速度、または加速データとを組み合わせて、前記1つ以上の対象のイベントを表す集合データを生成し電子的に記憶する工程と、
    電子的に記憶された前記集合データに少なくとも部分的に基づいて、前記1つ以上の対象のイベントのコンテキストを決定する工程と、を含む、組合せ処理工程と、
    1つ以上の対象のイベントを表す前記集合データのフィーチャを表すフィーチャベクトルを生成する工程と、
    機械学習論理を用いて、前記フィーチャベクトルの各フィーチャについて重み付け用の尺度を決定する工程と、
    少なくとも部分的には前記フィーチャそれぞれの重み付け用の前記尺度に基づいて、各フィーチャに対し予測の重みを割り当てる工程と、
    少なくとも部分的には前記集合データおよび前記予測の重みに基づいて、前記1つ以上の対象のイベントのコンテキストを決定する工程と、を行うように実行可能な記憶された命令を含む、システム。
  13. コンピュータ実装方法であって、
    車両における1つまたは複数のセンサによってキャプチャされた位置、速度、また加速データを受信する工程と、
    前記車両における1つ以上の対象のイベントが1つまたは複数の時間の間に生じ得ることを示すデータを検出するように、前記位置、速度、または加速データを処理する工程と、
    前記1つ以上の対象のイベントを示す前記データを検出した後にのみ、前記1つまたは複数の時間の間に前記車両における前記1つまたは複数のセンサによってキャプチャされた前記位置、速度、または加速データと、前記1つまたは複数の時間の間に前記車両におけるカメラによってキャプチャされた画像データと、の組合せを処理する組合せ処理工程であって、
    前記1つ以上の対象のイベントを示す前記データを検出した後にのみ、前記1つまたは複数の時間の間に前記車両における前記カメラによってキャプチャされた前記画像データを受信する工程と、
    受信された前記画像データと前記1つまたは複数の時間の間にキャプチャされた前記位置、速度、または加速データとを組み合わせて、前記1つ以上の対象のイベントを表す集合データを生成し記憶する工程と、
    記憶された前記集合データに少なくとも部分的に基づいて、前記1つ以上の対象のイベントのコンテキストを生成する工程と、を含む、組合せ処理工程と、
    1つ以上の対象のイベントを表す前記集合データのフィーチャを表すフィーチャベクトルを生成する工程と、
    機械学習論理を用いて、前記フィーチャベクトルの各フィーチャについて重み付け用の尺度を決定する工程と、
    少なくとも部分的には前記フィーチャそれぞれの重み付け用の前記尺度に基づいて、各フィーチャに対し予測の重みを割り当てる工程と、
    少なくとも部分的には前記集合データおよび前記予測の重みに基づいて、前記1つ以上の対象のイベントのコンテキストを決定する工程と、を備える、方法。
  14. 1つまたは複数のプロセッサによって実行可能な命令を有する非一時的なコンピュータ可読記憶媒体であって、前記命令は、前記プロセッサに、
    車両における1つまたは複数のセンサによってキャプチャされた位置、速度、また加速データを電子的に受信する工程と、
    1つまたは複数の時間の間に前記車両において生じ得る1つ以上の対象のイベントを示すデータを検出するように、前記位置、速度、または加速データを処理する工程と、
    前記1つ以上の対象のイベントを示す前記データを検出した後にのみ、前記1つまたは複数の時間の間に前記車両における前記1つまたは複数のセンサによってキャプチャされた前記位置、速度、または加速データと、前記1つまたは複数の時間の間に前記車両におけるカメラによってキャプチャされた画像データと、の組合せを処理する組合せ処理工程であって、
    前記1つ以上の対象のイベントを示す前記データを検出した後にのみ、前記1つまたは複数の時間の間に前記車両における前記カメラによってキャプチャされた前記画像データを電子的に受信する工程と、
    電子的に受信された前記画像データと前記位置、速度、または加速データとを組み合わせて、前記1つ以上の対象のイベントを表す集合データを生成し電子的に記憶する工程と、
    電子的に記憶された前記集合データに少なくとも部分的に基づいて、前記1つ以上の対象のイベントのコンテキストを生成する工程と、を含む、組合せ処理工程と、
    1つ以上の対象のイベントを表す前記集合データのフィーチャを表すフィーチャベクトルを生成する工程と、
    機械学習論理を用いて、前記フィーチャベクトルの各フィーチャについて重み付け用の尺度を決定する工程と、
    少なくとも部分的には前記フィーチャそれぞれの重み付け用の前記尺度に基づいて、各フィーチャに対し予測の重みを割り当てる工程と、
    少なくとも部分的には前記集合データおよび前記予測の重みに基づいて、前記1つ以上の対象のイベントのコンテキストを決定する工程と、を備える動作を行わせる、非一時的なコンピュータ可読記憶媒体。
JP2021536674A 2018-09-04 2019-09-04 ドライバの挙動を分類するためのシステムおよび方法 Active JP7499256B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201862726916P 2018-09-04 2018-09-04
US62/726,916 2018-09-04
PCT/US2019/049418 WO2020051168A1 (en) 2018-09-04 2019-09-04 Systems and methods for classifying driver behavior

Publications (3)

Publication Number Publication Date
JP2021536648A JP2021536648A (ja) 2021-12-27
JPWO2020051168A5 JPWO2020051168A5 (ja) 2022-10-04
JP7499256B2 true JP7499256B2 (ja) 2024-06-13

Family

ID=69641352

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021536674A Active JP7499256B2 (ja) 2018-09-04 2019-09-04 ドライバの挙動を分類するためのシステムおよび方法

Country Status (9)

Country Link
US (2) US11315026B2 (ja)
EP (1) EP3847070A4 (ja)
JP (1) JP7499256B2 (ja)
AU (1) AU2019337091A1 (ja)
CA (1) CA3110109A1 (ja)
MX (1) MX2021002238A (ja)
SG (1) SG11202101641YA (ja)
WO (1) WO2020051168A1 (ja)
ZA (1) ZA202101299B (ja)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10096067B1 (en) * 2014-01-24 2018-10-09 Allstate Insurance Company Reward system related to a vehicle-to-vehicle communication system
US11978074B2 (en) * 2018-09-05 2024-05-07 Mastercard International Incorporated Driver monitoring system and method
US10999374B2 (en) 2019-04-26 2021-05-04 Samsara Inc. Event detection system
US11080568B2 (en) 2019-04-26 2021-08-03 Samsara Inc. Object-model based event detection system
US11713047B2 (en) * 2020-02-21 2023-08-01 Calamp Corp. Technologies for driver behavior assessment
US11900657B2 (en) * 2020-05-21 2024-02-13 Verizon Connect Development Limited System for automatic stop sign violation identification
US11679773B2 (en) * 2020-10-23 2023-06-20 ANI Technologies Private Limited Augmenting transport services using real-time event detection
WO2022226283A1 (en) * 2021-04-22 2022-10-27 NetraDyne, Inc. Anomalous road signs
US11898865B1 (en) 2021-06-03 2024-02-13 Allstate Insurance Company Using context based machine learning for generation of customized driving outputs
US20230035856A1 (en) * 2021-07-20 2023-02-02 Cambridge Mobile Telematics Inc. Identifying unreliable global navigation satellite system (gnss) data
US20230267491A1 (en) * 2022-02-22 2023-08-24 BlueOwl, LLC Systems and methods for managing insurance
US11936700B1 (en) * 2023-02-16 2024-03-19 GM Global Technology Operations LLC Vehicle video streaming system and method

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016126756A (ja) 2014-12-26 2016-07-11 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 危険判定方法、危険判定装置、危険出力装置及び危険判定システム
JP2017117005A (ja) 2015-12-21 2017-06-29 株式会社オートネットワーク技術研究所 事故通知システム、通知システム、車載通知装置及び事故通知方法
JP2018124823A (ja) 2017-02-01 2018-08-09 株式会社デンソーテン 運転情報記録装置、運転情報表示処理システム、運転情報記録方法、表示処理方法、及び、プログラム

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090228172A1 (en) * 2008-03-05 2009-09-10 Gm Global Technology Operations, Inc. Vehicle-to-vehicle position awareness system and related operating method
US9953468B2 (en) * 2011-03-31 2018-04-24 United Parcel Service Of America, Inc. Segmenting operational data
EP2705664A2 (en) 2011-05-03 2014-03-12 Atsmon, Alon Automatic image content analysis method and system
US8457880B1 (en) 2012-11-28 2013-06-04 Cambridge Mobile Telematics Telematics using personal mobile devices
US20150053093A1 (en) 2013-08-21 2015-02-26 Peter Chung-Yuan Chang Combination Counter Top Toaster and Food Warmer
EP2887276A1 (en) 2013-12-20 2015-06-24 Telefonica Digital España, S.L.U. Method for predicting reactiveness of users of mobile devices for mobile messaging
ZA201407981B (en) 2014-04-29 2015-11-25 Cambridge Mobile Telematics A system and method for obtaining vehicle telematics data
US10599155B1 (en) * 2014-05-20 2020-03-24 State Farm Mutual Automobile Insurance Company Autonomous vehicle operation feature monitoring and evaluation of effectiveness
US9836062B1 (en) * 2015-01-20 2017-12-05 State Farm Mutual Automobile Insurance Company Analyzing telematics data to determine travel events and corrective actions
US10460600B2 (en) * 2016-01-11 2019-10-29 NetraDyne, Inc. Driver behavior monitoring
US10747234B1 (en) * 2016-01-22 2020-08-18 State Farm Mutual Automobile Insurance Company Method and system for enhancing the functionality of a vehicle
US10189479B2 (en) 2016-04-06 2019-01-29 At&T Intellectual Property I, L.P. Methods and apparatus for vehicle operation analysis
US20170329332A1 (en) * 2016-05-10 2017-11-16 Uber Technologies, Inc. Control system to adjust operation of an autonomous vehicle based on a probability of interference by a dynamic object
US10611379B2 (en) * 2016-08-16 2020-04-07 Toyota Jidosha Kabushiki Kaisha Integrative cognition of driver behavior
WO2018046102A1 (en) 2016-09-10 2018-03-15 Swiss Reinsurance Company Ltd. Automated, telematics-based system with score-driven triggering and operation of automated sharing economy risk-transfer systems and corresponding method thereof
US10262471B2 (en) * 2017-05-23 2019-04-16 Uber Technologies, Inc. Autonomous vehicle degradation level monitoring

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016126756A (ja) 2014-12-26 2016-07-11 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 危険判定方法、危険判定装置、危険出力装置及び危険判定システム
JP2017117005A (ja) 2015-12-21 2017-06-29 株式会社オートネットワーク技術研究所 事故通知システム、通知システム、車載通知装置及び事故通知方法
JP2018124823A (ja) 2017-02-01 2018-08-09 株式会社デンソーテン 運転情報記録装置、運転情報表示処理システム、運転情報記録方法、表示処理方法、及び、プログラム

Also Published As

Publication number Publication date
EP3847070A4 (en) 2021-11-10
BR112021003944A2 (pt) 2021-05-18
SG11202101641YA (en) 2021-03-30
WO2020051168A1 (en) 2020-03-12
US20220327406A1 (en) 2022-10-13
EP3847070A1 (en) 2021-07-14
JP2021536648A (ja) 2021-12-27
US11315026B2 (en) 2022-04-26
US20200074326A1 (en) 2020-03-05
ZA202101299B (en) 2022-10-26
MX2021002238A (es) 2021-08-11
AU2019337091A1 (en) 2021-03-11
CA3110109A1 (en) 2020-03-12

Similar Documents

Publication Publication Date Title
JP7499256B2 (ja) ドライバの挙動を分類するためのシステムおよび方法
US11990036B2 (en) Driver behavior monitoring
US20220262239A1 (en) Determining causation of traffic events and encouraging good driving behavior
US11688174B2 (en) System and method for determining vehicle data set familiarity
US10166934B2 (en) Capturing driving risk based on vehicle state and automatic detection of a state of a location
WO2017123665A1 (en) Driver behavior monitoring
US10839263B2 (en) System and method for evaluating a trained vehicle data set familiarity of a driver assitance system
CN111094095B (zh) 自动地感知行驶信号的方法、装置及运载工具
US20220238019A1 (en) Safety performance evaluation apparatus, safety performance evaluation method, information processing apparatus, and information processing method
JP2022532941A (ja) 車両信号を処理して挙動危険性の測度を計算するための装置及び方法
US20220114815A1 (en) Moving body collision avoidance device, collision avoidance method and electronic device
CN117416344A (zh) 自主驾驶系统中校车的状态估计
CN114333339B (zh) 深度神经网络功能模块去重复的方法
US20210405641A1 (en) Detecting positioning of a sensor system associated with a vehicle
CN114868381A (zh) 图像处理装置、图像处理方法以及程序
KR102340902B1 (ko) 스쿨존을 모니터링하는 장치 및 방법
BR112021003944B1 (pt) Sistema de processamento de dados e método implementado por computador e meio de armazenamento legível por computador não transitório

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220902

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220902

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220926

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20220926

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230104

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20230404

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20230605

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230703

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20231003

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240202

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20240328

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240507

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240603

R150 Certificate of patent or registration of utility model

Ref document number: 7499256

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150