JP2018028906A - ディープ(双方向)再帰型ニューラルネットワークを用いたセンサデータの時間融合に基づく効率的な運転者行動予測システム - Google Patents

ディープ(双方向)再帰型ニューラルネットワークを用いたセンサデータの時間融合に基づく効率的な運転者行動予測システム Download PDF

Info

Publication number
JP2018028906A
JP2018028906A JP2017151456A JP2017151456A JP2018028906A JP 2018028906 A JP2018028906 A JP 2018028906A JP 2017151456 A JP2017151456 A JP 2017151456A JP 2017151456 A JP2017151456 A JP 2017151456A JP 2018028906 A JP2018028906 A JP 2018028906A
Authority
JP
Japan
Prior art keywords
prediction
recognition
processing unit
network
sensor data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017151456A
Other languages
English (en)
Other versions
JP6369611B2 (ja
Inventor
オラビイ,オルワトビ
Olabiyi Oluwatobi
マーティンソン,エリック
Martinson Eric
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US15/238,646 external-priority patent/US10611379B2/en
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Publication of JP2018028906A publication Critical patent/JP2018028906A/ja
Application granted granted Critical
Publication of JP6369611B2 publication Critical patent/JP6369611B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models
    • G06N7/01Probabilistic graphical models, e.g. probabilistic networks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W40/09Driving style or behaviour
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/0097Predicting future conditions
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3833Creation or updating of map data characterised by the source of data
    • G01C21/3848Data obtained from both position sensors and additional sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0001Details of the control system
    • B60W2050/0019Control system elements or transfer functions
    • B60W2050/0028Mathematical models, e.g. for simulation
    • B60W2050/0029Mathematical model of the driver
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo or light sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • B60W2420/408
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/54Audio sensitive means, e.g. ultrasound
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/10Historical data
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle
    • B60W2556/55External transmission of data to or from the vehicle using telemetry
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle
    • B60W2556/65Data transmitted between vehicles

Abstract

【課題】ディープ(双方向)再帰型ニューラルネットワークを用いたセンサデータの時間融合に基づく効率的な運転者行動予測システム、を提供する。【解決手段】運転者行動予測エンジンは、過去のある時点における移動中の車両の特性を記述するセンサデータを受信する工程と、予測用特徴と認識用特徴とをセンサデータから抽出する工程と、予測用特徴を予測ネットワークに入力する工程と、過去の運転者行動に対する予測ラベルを、予測ネットワークを用いて予測用特徴に基づいて生成する工程と、認識用特徴を認識ネットワークに入力する工程と、過去の運転者行動に対する認識ラベルを、認識ネットワークを用いて認識用特徴に基づいて生成する工程と、予測ネットワークの1つ以上の予測ネットワーク重みを、認識ラベルと予測ラベルとを用いてトレーニングする工程とを含む。【選択図】図4

Description

[関連出願の相互参照]
本出願は、2016年8月16日に出願された"Integrative Cognition of Driver Behavior(運転挙動の総合的な認知)"という名称の米国特許出願第15/238,646号の一部継続出願で
ある。同特許出願は、その全体が参照によって本願明細書に組み込まれる。
[技術分野]
本開示は機械学習に関する。特に、本開示は移動プラットフォームに関係するユーザの行動の予測に関する。いくつかの例において、本開示は、車両(一般には乗り物)を運転するある具体的なユーザの行動を予想することに関する。
世界保健機関(WHO)の路上安全に関するグローバルステータスリポートならびに米国道路交通安全局の報告によると、交通事故による死者は全世界で年間120万人を超え、米国だけでも年間3万人を上回る。事故の原因の多くは危険な運転挙動(driving behaviors)にある。もしもこうした危険な挙動を予測することができ、たとえ数秒前であっ
ても運転者に警告を与える、かつ/または、状況を緩和する方策を事前に講じることができれば、多くの事故を予防できるかもしれない。一般に、最新の運転支援ソリューションは、そのシステムないしモデルがもつ制約のゆえに、高精度の運転挙動予測を高い費用対効果で実現することができない。
先進運転支援(Advance Driver Assistance)システムは、適応性に優れた高度な運転
者行動予測(DAP: Driver Action Prediction)システムの長所を活用することができる
。昨今の車両の安全機能の多く(例えば、自動制動や自動操舵)は、そうした機能を完全かつ安全に実行するために運転者の応答時間がどうしても必要となる。行動の数秒前に運転者行動を予測できれば、かかる先進運転支援システムの効率および有用性が大幅に改善されうる。特に、行動をもっと早くに、そしてより正確に予測できる先進運転支援システムは、先進運転支援システムにおいて新たな機能(例えば、自動方向転換や自動制動信号)を可能にし、路上安全をさらに高めることができると考えられる。
運転者行動を予測するこれまでの試みは、さまざまな問題に突き当たってきた。例えば、既存の技術は予測性能が限られており、したがって行動や事象を十分な時間的余裕をもって予測することができないうえ、十分に正確な予測を行うこともできない。一部の既存技術は運転者行動の予測(prediction)を運転者行動の認識(recognition)と独立して
扱うため、認識システムによる結果を用いて予測システムのトレーニングを行っても無駄である。また、既存技術のなかには、センサ特徴が予測と認識の両方に関連すること前提とするものがある。さらに、一部の既存技術は現在のセンサデータのみを使用し、予測システムがセンサデータ(例えば、格納されたセンサデータ)に直接アクセスすることをしない。したがって、既存の技術は効率に限界があり、わずかな検知手法(モダリティ)しか利用できないうえ、十分な時間的余裕をもって、または十分正確に、行動を予測することができない。
さらに、運転者行動の認識または検出が普遍的であるのに対し、運転者行動の事前予測は個人の運転挙動ならびに運転者の運転環境に大いに依存する。
一部の既存アプローチは、運転に関する限られたデータのみを用いて運転挙動の予測を
試みる。例えば、非特許文献1は、二重レイヤ隠れマルコフモデル(HMM)について記載している。このHMMは、行動認識を実行する低位レイヤの多次元ガウスHMMと、予想を実行する上位レイヤの多次元離散HMMとを含んでいる。しかし、このモデルはCAN(Controller Area Network)のデータ(例えば、制動、加速、および操舵)しか考慮
しておらず、運転に影響を与える重要な特徴(例えば、道路状況、土地勘、および運転者の操舵のパターン)を反映できない。さらに、このモデルでは認識レイヤと予測レイヤとを同時にトレーニングする必要がある。そのため、効率や性能が制限されるうえ、特徴が認識と予測の両方に関係していることが前提になっている。
いくつかのアプローチは、運転挙動の認識と予測の前に特徴抽出を必要とする。例えば、非特許文献2は、運転者の行動を自己回帰入出力HMM(AIO−HMM)を用いて予測するために、複雑な多重検知ドメインを考慮する。最初の工程において、非特許文献2は入力センサデータから特徴を抽出する工程(例えば、運転者の頭部姿勢を検出するために運転者に向けたカメラから上位レベルの特徴を抽出する、道路の混雑状況を決定するために道路に向けたカメラから物体特徴を抽出する、等)について記載している。しかし、非特許文献2の方法では人の関与がかなりの程度必要であり、動的なシステムにとって非実用的であるばかりか、場合によっては危険ですらある。また、非特許文献2が考えているセンサ入力の数は、人間の標準的な運転経験を代表していない。さらに、このモデルは、運転者の行動に影響を与える重要な特徴(例えば、操舵のパターンや土地勘等)を考慮することができない。
非特許文献3を初めとするいくつかのアプローチは、一群の運転者から得たデータを用いて開発した汎用モデルの使用について記載している。しかし、非特許文献3に記載されるようなモデルは運転挙動を十分にモデル化および予測することができず、そのため事故の発生リスクを低減することができない。特に、非特許文献3のモデルはLSTM(Long-Short Time Memory: 長期短期記憶)のリカーシブニューラルネットワーク(LSTM−RNN)に基づいており、BPTT(Backpropagation Through Time: 通時的逆伝播)アルゴリズムを用いてトレーニングを行う。しかし、このモデルのトレーニングは計算コストが高くなる可能性があるうえ、BPTTアルゴリズムのメモリ制約によって運転挙動予測で実現できる最大範囲(horizon)が制限される可能性がある。また、このモデルには
精度(precision)と再現性(recall)が両立しないという問題がある。さらに、このモ
デルは予想誤差を予測範囲内にわたって最小化することを試みるにすぎないため、設計や具体化の選択肢に関する柔軟性が低い。
特に、非特許文献3に記載されるモデルは従来の空間的な多重検知融合アーキテクチャである。これは、特徴的サイズが大きいシステム、もしくはサンプリングレートが高いシステムにまで拡張することができない。また、予測精度と予測範囲(どれくらい前の時点から予測できるか)はこのモデルでは制限される。なぜなら、空間的なセンサデータ融合しか行わないからである。このモデルは行動認識のデータを含まないため、データセット全体を人が手動でラベル付けしなければならない。そのため、このモデルは人の介入なしに任意の運転者行動を予測するように学習することができない。さらに、非特許文献3に記載されるモデルは限られた数のセンサ入力(例えば、操舵に関する検知手法のみ)しか使用できないため、予測システムによって使用される入力の数は人が運転中に経験するものよりはるかに少ないものとなる。
再帰型ニューラルネットワークを使用するためのいくつかのアプローチ、例えば、Bi−LSTM(双方向長期短期記憶)の再帰型ネットワークは予測に対して適合されていない。例えば、非特許文献4、および非特許文献5は、音声認識にBi−LSTMを使用することを考えている。しかし、これらの文献において、Bi−LSTMはトレーニングと実使用(deployment)とを同一に扱っている。その種の再帰型ニューラルネットワークは
予測に対して適合されていることが必要である。なぜなら、再帰型ニューラルネットワークは実使用時には未来のデータ系列が入手できないからである。したがって、現行の形態において、GravesのBi−LSTMは予測(とりわけ運転者行動予測)に使用することができない。
以上のように、高性能かつ順応性に優れた運転者行動予測システムが求められている。
He L., Zong C., and Wang C., "Driving intention recognition and behavior prediction based on a double-layer hidden Markov model" (Journal of Zhejiang University-SCIENCE C(Computers & Electronics), Vol. 13, No.3, 2012, 208-217) Jain A., Koppula S., Raghavan B., Soh S., and Saxena A. "Car that knows before you do:anticipating maneuvers via learning temporal driving models" (ICCV, 2015, 3182-3190) Jain A., Koppula S., Raghavan B., Soh S., and Saxena A. "Recurrent neural networks for driver activity anticipation via sensory-fusion architecture" (arXiv:1509.05016v1[cs.CV], 2015) A.Graves and J.Schmidhuber "Framewise Phoneme Classification with Bidirectional LSTM and Other Neural Network Architectures" (Neural Networks, Vol. 18, No. 5-6, pp. 602-610, July 2005) A.Graves, N.Jaitly, A.Mohamed "Hybrid Speech Recognition with Deep Bidirectional LSTM" (ASRU2013)
本明細書は、上記「背景技術」に記載したアプローチの欠点や限界を克服する。それは、少なくとも部分的には、ディープ(双方向)再帰型ニューラルネットワークを用いたセンサデータの時間融合に基づく、効率的な運転者行動予測システムのための新規技術の提供によって実現される。
本開示に記載する主題の革新的な一態様によると、本方法は、
格納されたセンサデータを1つ以上の計算装置によって受信する工程であって、格納されたセンサデータは過去のある時点における移動中の車両の特性を記述する、工程と、
予測用特徴と認識用特徴とを上記1つ以上の計算装置によって、格納されたセンサデータから抽出する工程と、
予測用特徴を上記1つ以上の計算装置によって予測ネットワークに入力する工程と、
過去の運転者行動に対する予測ラベル(predicted label)を上記1つ以上の計算装置
によって予測ネットワークを用いて予測用特徴に基づいて生成する工程と、
を含みうる。
上記方法は、
認識用特徴を1つ以上の計算装置によって認識ネットワークに入力する工程と、
過去の運転者行動に対する認識ラベル(recognized label)を上記1つ以上の計算装置によって認識ネットワークを用いて認識用特徴に基づいて生成する工程と、
予測ネットワークの1つ以上の予測ネットワーク重みを認識ラベルと予測ラベルとを用いて上記1つ以上の計算装置によってトレーニングする工程と、
をさらに含みうる。
本開示に記載する主題の革新的な別の態様によると、本コンピュータシステムは、
1つ以上のコンピュータプロセッサと、1つ以上のコンピュータプロセッサによって実行されるときに上記コンピュータシステムに動作を行わせる命令を格納する1つ以上の非一時的なメモリと、を備え、
上記動作は、
格納されたセンサデータであって、過去のある時点における移動中の車両の特性を記述する、格納されたセンサデータ、を受信することと、
格納されたセンサデータから予測用特徴と認識用特徴とを抽出することと、
予測用特徴を予測ネットワークに入力することと、
過去の運転者行動に対する予測ラベルを予測ネットワークを用いて予測用特徴に基づいて生成することと、
を含む。
上記動作は、
認識用特徴を認識ネットワークに入力することと、
過去の運転者行動に対する認識ラベルを認識ネットワークを用いて認識用特徴に基づいて生成することと、
予測ネットワークの1つ以上の予測ネットワーク重みを認識ラベルと予測ラベルとを用いてトレーニングすることと、
をさらに含みうる。
他の態様は、上記態様に関連して記載されるさまざまな動作を実行するように、および/またはさまざまなデータを格納するように構成された、対応する方法、システム、装置、およびコンピュータプログラムを含む。上記および他の態様(例えば、さまざまなデータ構造体)は、有形のコンピュータ記憶装置上に符号化されうる。例えば、上記態様の1つ以上は、次に示すことの1つ以上を含みうる:
予測ネットワークが1つ以上の再帰型ニューラルネットワークを含むことと;
現在のセンサデータを上記1つ以上の計算装置によって1つ以上のセンサから受信する工程であって、上記1つ以上の計算装置は上記1つ以上のセンサに電子的に通信可能に結合され、現在のセンサデータは現時点における移動中の車両の特性を記述するデータを含む、工程と;
現在の一群の予測用特徴を上記1つ以上の計算装置によって現在のセンサデータから抽出する工程と;
現在の一群の予測用特徴を上記1つ以上の計算装置によって予測ネットワークに入力する工程と;
予測される未来の運転者行動を、上記1つ以上の計算装置によって1つ以上の予測ネットワーク重み、現在の一群の予測用特徴、および予測ネットワークを用いて生成する工程と;
過去の運転者行動に対する予測ラベルを予測ネットワークを用いて予測用特徴に基づいて生成する上記工程が、
予測用特徴を上記1つ以上の計算装置によって逆方向系列処理部に入力する工程と、
予測用特徴を上記1つ以上の計算装置によって順方向系列処理部に入力する工程と、
逆方向系列処理部の出力と順方向系列処理部の出力とを上記1つ以上の計算装置によって時間融合処理部を用いて融合する工程と、
時間融合処理部の出力を過去の運転者行動に対する予測ラベルに上記1つ以上の計算装置によって分類器を用いてマッピングする工程と、
を含むことと;
逆方向系列処理部の出力と順方向系列処理部の出力とを融合する上記工程は、逆方向系列処理部の出力の時間的系列と、順方向系列処理部の出力の時間的系列と、を用いた時間的表現を、上記1つ以上の計算装置上で動作可能な時間融合処理部によって生成する工程を含むことと;
過去の運転者行動に対する認識ラベルを生成する上記工程は、認識用特徴を上記1つ以上の計算装置によって1つ以上の事前トレーニングした運転者行動認識モデルに入力する工程を含むことと;
予測ネットワークの上記1つ以上の予測ネットワーク重みをトレーニングする上記工程は、認識ラベルと予測ラベルとの間の誤差を決定する工程と、その誤差を打ち切り型通時的逆伝播アルゴリズムに入力する工程と、を含むこと。
本開示に記載する主題の革新的なさらに別の態様によると、本コンピュータシステムは、
センサデータを提供する1つ以上のセンサと、
データを格納してデータへのアクセスを提供する、1つ以上の非一時的なコンピュータメモリと、
データの格納と受信のために上記1つ以上の非一時的なコンピュータメモリに結合された1つ以上のコンピュータプロセッサと、
上記1つ以上の非一時的なコンピュータメモリによって記憶可能であり、かつ上記1つ以上のコンピュータプロセッサによって実行可能な特徴抽出処理部であって、センサデータから認識用特徴を抽出して認識用特徴を行動認識処理部に送信するように構成され、かつセンサデータから予測用特徴を抽出して予測用特徴を行動予測処理部に送信するように構成された、特徴抽出処理部と、
上記1つ以上の非一時的なコンピュータメモリによって記憶可能であり、かつ上記1つ以上のコンピュータプロセッサによって実行可能な上記行動認識処理部であって、過去のユーザ行動に対する認識ラベルを認識用特徴に基づいて認識ネットワークによって生成し、認識ラベルをトレーニング処理部に送信するように構成された、行動認識処理部と、
上記1つ以上の非一時的なコンピュータメモリによって記憶可能であり、かつ上記1つ以上のコンピュータプロセッサによって実行可能な上記行動予測処理部であって、過去のユーザ行動に対する予測ラベルを予測用特徴に基づいて予測ネットワークによって生成し、予測ラベルをトレーニング処理部に送信するように構成された、行動予測処理部と、
上記1つ以上の非一時的なコンピュータメモリによって記憶可能であり、かつ上記1つ以上のコンピュータプロセッサによって実行可能な上記トレーニング処理部であって、行動予測処理部の1つ以上の予測ネットワーク重みを認識ラベルと予測ラベルとを用いてトレーニングネットワークによってトレーニングするように構成された、トレーニング処理部と、
を備える。
上記および他の実装は、次に挙げる特徴の1つ以上をさらに含みうる:
予測ネットワークは順方向系列処理部、逆方向系列処理部、および時間融合処理部を備えること;ならびに、
順方向系列処理部、逆方向系列処理部、および時間融合処理部のそれぞれは複数の再帰型ニューラルネットワークセルを含むこと。
本開示の全体を通して論じるように、上記およびさまざまな他の実装には多くの追加的特徴が含まれうる。
本開示の技術は多くの点において他の既存ソリューションよりも有利である。その非限定的な一例として、本明細書に記載する技術により、計算システムは、高性能で順応性に優れ、かつ車両のセンシング機能および計算リソースの使用を改善し、それによって上述した既存技術の限界を克服する、効率的な運転者行動予測システムを提供できる。例えば、本明細書に記載する技術のいくつかの実装は、ディープな再帰型ニューラルネットワークに基づく高性能の行動予測システムを備えている。これは、いくつかの例において、さ
まざまな運転者行動認識モデルを用いてトレーニング可能であり、より多くの検知手法が使用可能でありえ、かつ/または、かつてのソリューションよりもスケーラビリティに優れうる。上記および他の実装が提供する技術は、極めて高い認識精度、早い時点からの予測、極めて高い予測精度、および多数のセンサ入力を有しうるとともに、複雑さは中程度でしかなく、オンラインとオフライン両方のトレーニングオプションを有しえ、また非常に柔軟でありうる。
本明細書に記載する特徴および利点はすべてを網羅するものではなく、図面および説明に照らせば多くの追加的な特徴および利点が当業者には明らかだろう。また、本明細書に用いる文言は読みやすさや説明を考慮して選定したものであり、発明対象の範囲を限定するものではないことに留意するべきである。
本開示の内容は単なる例示であり、また添付の図面に限定されることもない。図中、同様の要素には同様の参照符号を付している。
運転挙動をモデル化するための例示的なシステムのブロック図である。
例示的な計算装置のブロック図である。
例示的な運転者行動予測エンジンのブロック図である。
運転者行動予測エンジンの実使用例のブロック図である。 運転者行動予測エンジンをトレーニングする例示的な実装のブロック図である。
運転者行動予測エンジンをトレーニングする例示的方法のフローチャートである。
未来の運転挙動の予想に運転者行動予測エンジンを用いる例示的方法のフローチャートである。
予測される未来の運転者行動を予測ネットワークを用いて生成する例示的方法のフローチャートである。
例示的な予測ネットワークのブロック図である。
例示的な認識ネットワークのブロック図である。
例示的なトレーニングネットワークのブロック図である。
センサデータの一例を示す図である。 センサデータの別の例を示す図である。 センサデータのさらに別の例を示す図である。 センサデータのさらに別の例を示す図である。 センサデータのさらに別の例を示す図である。
運転挙動のモデル化に影響を与える例示的な要因を示す図である。 運転挙動のモデル化に影響を与える例示的な要因を示す図である。
予測される運転者行動の生成例を示す図である。 予測される運転者行動の生成例を示す図である。
本明細書に記載する技術は、移動プラットフォーム101の内部および外部の環境を捕捉するセンサデータに基づいて、運転者の挙動を効率的かつ効果的にモデル化しうる。例えば、その技術は、運転に関する情報(例えば、運転者の運転の癖や運転環境にどの程度馴染みがあるかを記述するデータ)を処理し、処理した情報をモデル化し、そのモデル化に基づいて正確な運転予測を生成する。いくつかの実装において、モデル化は空間的および時間的パターンを認識することに基づく。これについては別途詳述する。
本開示のいくつかの実装によると、新規の運転者行動予測エンジン(driver action prediction engine)105(例えば、図1に示すシステム100に含まれるもの)が記載
されている。運転者行動予測エンジン105は、ディープ(例えば、双方向)再帰型ニューラルネットワーク(deep (e.g, bidirectional) recurrent neural network)を用いたセンサデータの時間融合(temporal fusion of sensor data)に基づく。本明細書に記載する技術は、事前トレーニングした単純な運転者行動認識モデルを用いてトレーニングラベルまたはターゲットを生成することによってニューラルネットワークをトレーニングするという新規の方法をも含みうる。いくつかの実装において、その技術は、上記に加えて、または上記の代わりに、予測ネットワーク705のトレーニングに未来のセンサ情報(future sensing information)を組み込んでもよい。
いくつかの実装において、運転者行動予測エンジン105は、予測ネットワーク(例えば、図7Aに示す予測ネットワーク705)を運転者行動認識ネットワーク(例えば、運転者行動認識ネットワーク731)から得られる結果を用いてトレーニングする。これは、予測ネットワーク705のトレーニングにおける人の関与を大幅に低減または不要にすることができるうえ、それによってより多くの検知モダリティが使用可能になりうる。これについては本明細書中で適宜さらに詳細に説明している。例えば、運転者行動予測エンジン105は、広く認識可能な任意の運転者行動を予測するように学習することが可能である。特に、それによって、本技術は、システムを大幅に複雑化することなく、大規模で高頻度の検知モダリティを扱えるようになる。
本明細書に記載する技法の改善点のなかで、運転者行動予測エンジン105は、センサデータの時間的系列について遡及的に推論する(retrospectively reason)。それにより、システムは、認識された運転者行動の原因を決定することができる。したがって、学習されたそれらの原因が将来再び発生した場合に、同技術は、直後の運転者行動(impending driver action)を予測することができる。特に、一部の既存ソリューションは、未来
の運転者行動を予測するために、認識された運転者行動の系列における時間的な相関関係を学習しようとするのに対し、本明細書に記載する技法による運転者行動予測エンジン105は、行動認識に関係するセンサデータと予測に関係するセンサデータとを分離でき、予測ネットワーク705のトレーニングにおいては、行動に特化したいくつかの認識ネットワーク731からの結果を使用する。
図を参照するにあたり、図中の構成要素を指すために参照符号を用いうる。なお、説明中の図にその参照符号が書かれているとは限らない。また、ある参照符号に、複数ある類似構成要素の1つを指す文字がある場合(例えば、構成要素000a、000b、……、000n)、類似構成要素の1つまたはすべてを指すために、かかる文字のない形式で参照符号を用いることがある。
本明細書に記載する実装は車両を代表例とする乗り物(vehicle)の運転に関する場合
が多いが、本明細書に記載する技術は他の好適な分野(例えば、機械操作、列車操作、機関車操作、航空機操作、フォークリフト操作、船舶操作、または任意の他の好適なプラットフォームの操作)にも適用可能である。なお、本開示に記載するいくつかの実装において、ユーザ115のことを「運転者(driver)」と表記することがあるが、「運転者」の語を使用することが本開示に記載する技法の範囲を限定すると解釈するべきではない。また、構成要素の個数については本明細書を通して必ずしも記載していないが、状況に応じて複数を適宜含みうる。
図1は、例示的な先進運転支援(ADA)システム100のブロック図である。図に示すように、ADAシステム100は、モデリングサーバ121、地図サーバ131、クライアントデバイス117、および移動プラットフォーム101を含みうる。ADAシステム100の実体要素(entity)どうしはネットワーク111を介して通信可能に結合される。なお、図1に示すADAシステム100は例示にすぎず、ADAシステム100および/または本開示が想定する他のシステムは、追加的な構成要素を含んでいてもよく、含まれる構成要素が記載のものより少なくてもよく、複数の構成要素を組み合わせてもよく、構成要素の1つ以上を追加的な構成要素に分割するなどしてもよい。例えば、ADAシステム100は、任意の数の移動プラットフォーム101・クライアントデバイス117・モデリングサーバ121・地図サーバ131を含んでもよい。それに加えて、またはその代わりに、ADAシステム100は、ユーザ115からの音声コマンドを受信して処理する音声サーバ、検索クエリにマッチする検索結果を返す検索サーバ、V2V(vehicle-to-vehicle)技術、およびV2I(vehicle-to-infrastructure)技術等を含んでもよい
ネットワーク111は有線および/または無線の従来タイプのものである。また、スター型、トークンリング型、または他の構成を含む、多様な構成を有してもよい。例えば、ネットワーク111は、1つ以上のLAN(ローカルエリアネットワーク)、WAN(ワイドエリアネットワーク)(例えば、インターネット)、公衆網、私設網、仮想ネットワーク、複数の車両間のメッシュネットワーク、ピアツーピアネットワーク、および/または、複数の装置がそれを介して通信しうる他の相互接続データ経路を含んでもよい。
ネットワーク111はデータを多様な通信プロトコルで送信するために、電気通信ネットワークにも結合されるか、または電気通信ネットワークの一部をも含む。いくつかの実装において、ネットワーク111は、Bluetooth(登録商標)通信網または移動体通信網
を含み、それにより、SMS(ショートメッセージサービス)、MMS(マルチメディアメッセージングサービス)、HTTP(ハイパーテキスト転送プロトコル)、直接的なデータ接続、WAP(ワイヤレスアプリケーションプロトコル)、電子メール等、を介するなどしたデータの送受信を可能とする。いくつかの実装において、ネットワーク111はワイヤレスネットワークであって、DSRC(dedicated short range communications)、WAVE(wireless access in vehicular environments)、802.11p、3G、4G、5G+ネットワーク、Wi-Fi(登録商標)、または任意の他のワイヤレスネットワーク等の接続を用いる。いくつかの実装において、移動プラットフォーム101間、および/または移動プラットフォーム101の外部にあるインフラ設備(例えば、交通システムや道路システム等)との間でデータ通信を行うために、ネットワーク111はV2Vおよび/またはV2I通信網を含んでもよい。図1では、モデリングサーバ121、地図サーバ131、クライアントデバイス117、および移動プラットフォーム101を結合するネットワーク111について1つのブロックしか描いていないが、ネットワーク111は実際には上述のように任意数のネットワークの組み合わせを含んでもよい。
モデリングサーバ121は、プロセッサと、メモリと、ネットワーク通信能力(例えば、通信ユニット)とを備えた、ハードウェアおよび/または仮想サーバを含む。信号線1
10によって表されるように、モデリングサーバ121はネットワーク111と通信可能に結合される。いくつかの実装において、モデリングサーバ121は、地図サーバ131、クライアントデバイス117、および移動プラットフォーム101の1つ以上との間で、データの送受信を行う。いくつかの実装において、モデリングサーバ121は、運転者行動予測エンジン(DAPエンジン)のインスタンス105cと認識データ記憶装置123とを含んでもよい。これについては本明細書において適宜さらに説明する。
認識データ記憶装置123は、ユーザの行動を記述するための用語データ(terminology data)(例えば、行動認識処理部255によって生成された認識ラベル)を格納する。なお、図1においてモデリングサーバ121は認識データ記憶装置123を備えるものとして描かれているが、それに加えて、またはその代わりに、移動プラットフォーム101および/またはクライアントデバイス117が認識データ記憶装置123を備えていてもよい。例えば、移動プラットフォーム101および/またはクライアントデバイス117は、認識データ記憶装置123のインスタンスを含んだり、認識データ記憶装置123からのデータをキャッシュしたりする(例えば、認識データをさまざまな時間間隔でダウンロードする)。例えば、いくつかの実装において、一部の認識データは、移動プラットフォーム101に予め格納ないしインストールされたり、セットアップ時もしくは最初の使用時に格納および/またはリフレッシュされたり、さまざまな時間間隔で複製されたりする。さらに他の実装において、認識データ記憶装置123からのデータは、実行時もしくはトレーニング時に要求されてダウンロードされる。他の好適な変形も可能であり、かかる変形も想定されている。
クライアントデバイス117は、プロセッサと、メモリと、通信ユニットと、を備えた計算装置である。クライアントデバイス117はネットワーク111と結合可能であり、モデリングサーバ121、地図サーバ131、および移動プラットフォーム101(および/またはネットワーク111に結合される任意の他の構成要素)の1つ以上との間で、データの送受信を行う。クライアントデバイス117の非限定的な例として、ラップトップコンピュータ、デスクトップコンピュータ、タブレット型コンピュータ、携帯電話機、PDA(携帯情報端末)、モバイル電子メール装置、沿道センサ、信号機、交通カメラ、組み込みシステム、専用装置、または情報処理およびネットワーク111へのアクセスが可能な任意の他の電子機器、が挙げられる。いくつかの実装において、クライアントデバイス117は、1つ以上のセンサ103b、ナビゲーションアプリケーション107b、および/または運転者行動予測エンジン105bを含む。
いくつかの実装において、クライアントデバイス117は、ナビゲーションアプリケーションのインスタンス107bを含む。これはナビゲーションの指示をユーザ115に提供、および/またはGPS情報を運転者行動予測エンジン105に提供する。信号線106によって示すように、ユーザ115はクライアントデバイス117とインタラクト可能である。図1にはクライアントデバイス117を1つしか描いていないが、ADAシステム100は複数のクライアントデバイス117を含んでもよい。
移動プラットフォーム101は、プロセッサと、メモリと、通信ユニットと、を備えた計算装置を含む。かかる計算装置の例として、移動プラットフォーム101の他の構成要素(例えば、それぞれ1つ以上のセンサ103a、アクチュエータ、モチベータ等)と結合された電子制御装置(ECU)または他の好適なプロセッサが挙げられる。移動プラットフォーム101は、信号線102を介してネットワーク111と結合されるほか、モデリングサーバ121、地図サーバ131、およびクライアントデバイス117の1つ以上との間で、データの送受信を行ってもよい。いくつかの実装において、移動プラットフォーム101は、ある地点から別の地点へ人もしくは物を輸送可能である。移動プラットフォーム101の非限定的な例として、乗り物(vehicle)、自動車(automobile)、バス
、船、航空機、生物工学的移植片(bionic implant)、またはコンピュータ電子部品(例えば、プロセッサ、メモリ、または任意に組み合わせられた非一時的なコンピュータ電子部品)を備えた任意の他の移動プラットフォーム、が挙げられる。信号線104によって表されるように、ユーザ115は移動プラットフォーム101とインタラクト可能である。ユーザ115は、移動プラットフォーム101を操作する人間ユーザである。例えば、ユーザ115は、乗り物の運転者であってよい。
移動プラットフォーム101は、1つ以上のセンサ103a、CAN(Controller Area Network)データ記憶装置109、運転者行動予測エンジン105a、および/またはナビゲーションアプリケーションのインスタンス107aを含む。図1には移動プラットフォーム101を1つしか描いていないが、ADAシステム100は複数の移動プラットフォーム101を含んでもよい。例えば、いくつかの実装において、複数の移動プラットフォーム101が互いに通信を行うことによってセンサ103からのセンサデータを共有可能である。
CANデータ記憶装置109は、ある所与の移動プラットフォーム101の各種構成要素間でCANを用いて通信される、さまざまな種類の車両動作データ(「車両CANデータ」とも称する)を格納する。これについては本明細書中で適宜説明するとおりである。いくつかの実装において、車両動作データは、移動プラットフォーム101の各種構成要素と結合される複数のセンサ103aから収集され、それらの構成要素の動作状態のモニタリングに使用される。車両CANデータの例として、変速機情報、速度、加速度、減速度、車輪速度(RPM:1分間の回転数)、車輪スリップ、トラクションコントロール情報、フロントワイパー制御情報、操舵角、制動力等が挙げられるが、これらには限定されない。いくつかの実装において、車両動作データは、移動プラットフォーム101の現在位置を記述する位置データ(例えば、GPS座標)をも含む。それ以外の標準的な車両動作データも想定される。いくつかの実装において、CANデータ記憶装置109は、データを格納してデータへのアクセスを提供するデータストレージシステム(例えば、標準的なデータないしデータベース管理システム)の一部であってもよい。
センサデータ記憶装置113は、ADAシステム100が将来に検索や使用できるように、センサ103からのセンサデータを格納する。例えば、トレーニング時には、格納されたセンサデータがセンサデータ記憶装置113から検索され、予測ラベルおよび/または認識ラベルの生成のために使用される。いくつかの実装において、センサデータ記憶装置113は、データを格納してデータへのアクセスを提供するデータストレージシステム(例えば、標準的なデータないしデータベース管理システム)の一部であってよい。なお、図ではセンサデータ記憶装置113は移動プラットフォーム101内にあるものとして描かれているが、それに加えて、またはその代わりに、センサデータ記憶装置113は、クライアントデバイス117、モデリングサーバ121、地図サーバ131に備わっていてもよいし、あるいはそれらの構成要素にわたって分散していてもよい。
センサ103aおよび/または103b(本明細書では総称して103とも表記する)は、移動プラットフォーム101および/またはクライアントデバイス117にとって好適な任意の種類のセンサを含みうる。センサ103は、移動プラットフォーム101の特性、その内部および外部の環境、および/またはユーザの行動を(例えば、直接的または間接的に)決定するのに好適な、任意の種類のセンサデータを収集するように構成されうる。センサ103の非限定的な例として、上述のような、各種光学センサ(CCD、CMOS、2D、3D、LIDAR(光検知測距)、カメラ等)、音感センサ、動き検出センサ、気圧計、高度計、熱電対、湿度センサ、赤外線センサ、レーダセンサ、その他の光センサ、ジャイロスコープ、加速度計、速度計、ステアリングセンサ、ブレーキセンサ、スイッチ、車両表示器センサ、フロントワイパーセンサ、地理位置センサ、送受信機、ソナ
ーセンサ、超音波センサ、タッチセンサ、近接センサ、CANデータに関係する任意のセンサ、等が挙げられる。
センサ103は1つ以上の光学センサを含み、当該光学センサは、移動プラットフォーム101の内部または外部環境の動画像および静止画像を含む画像を記録し、適用可能な任意のフレームレートを用いてビデオストリームのフレームを記録し、適用可能な任意の方法を用いて撮影した動画像および静止画像をエンコードおよび/または処理し、センシング範囲内の周囲環境の画像を撮影するように構成される。例えば、移動プラットフォーム101の文脈において、センサ103aは、移動プラットフォーム101の周りの環境(道路、沿道の構造物、建物、樹木、動的な路上物体(例えば、周囲の移動プラットフォーム101、歩行者、道路作業員等)、および/または静的な路上物体(例えば、車線、交通標識、路面標識、ロードコーン、バリケード等)などを含む)を撮影しうる。いくつかの実装において、センサ103は、移動プラットフォーム101の経路に対して任意の方向(前方、後方、側方、上方、下方、対向方向等)をセンシングするように搭載される。いくつかの実装において、1つ以上のセンサ103は多方向型(例えば、LIDAR)であってもよい。
センサ103は、それに加えて、および/またはその代わりに、ユーザの動作(例えば、移動プラットフォーム101の内部を見ているか外部を見ているか)の動画像および静止画像を含む画像を記録するように、適用可能な任意のフレームレートを用いてビデオストリームを記録し、および/または適用可能な任意の方法を用いて撮影した動画像および静止画像をエンコードおよび/または処理するように構成された、1つ以上の光学センサを含んでもよい。例えば、移動プラットフォーム101の文脈において、センサ103は、ユーザによる移動プラットフォーム101の操作(例えば、前進、制動、左折、右折、左への車線変更、右への車線変更、Uターン、停止、緊急停止、滑りやすい道での制御不能等)を取得する。いくつかの実装において、センサ103は、ユーザの操舵行動や制動動作等を取得することによって、移動プラットフォーム101の動作を決定可能である。1つ以上の実装において、センサ103は、移動プラットフォーム101の動きとは直接関係のない、ユーザの行動および動作(例えば、ユーザの顔の表情、頭部の向き、手の位置、およびユーザによる移動プラットフォーム101の操作に影響しうるかどうかによらない他の動作)を取得してもよい。さらに別の例として、センサ103は、は、移動プラットフォーム101および/またはユーザ115のある状況を反映した画像データを取得してもよい(例えば、ユーザの頭の動きをある時間にわたって一連の画像フレームにおいてモニタする等)。
センサ103は1つ以上の信号受信機を含んでもよく、当該信号受信機は、車両情報を(例えば、センサデータ記憶装置113に)記録してそれを周囲の他の移動プラットフォーム101に送信し、上記周囲の他の移動プラットフォーム101、クライアントデバイス117、遠隔デバイスのセンサ103等から情報を受信するように構成される。上記他の移動プラットフォーム101から受信した情報は、移動プラットフォーム101の他の構成要素(例えば、運転者行動予測エンジン105)が後続処理に利用できるようにこれら他の構成要素に通知される。
移動プラットフォーム101、モデリングサーバ121、および/またはクライアントデバイス117のプロセッサ213(例えば、図2A参照)は、センサ103(またはセンサデータ記憶装置113)からセンサデータを受信して処理する。移動プラットフォーム101の文脈において、プロセッサ213は、移動プラットフォーム101(例えば、車両)内に実装される電子制御装置(ECU)を含む。ただし、それ以外の移動プラットフォームタイプも想定される。ECUはセンサデータを車両動作データとして受信し、運転者行動予測エンジン105がアクセスおよび/または検索できるようにCANデータ記
憶装置109に格納する。いくつかの例において、車両動作データは(例えば、受信および/または処理時に車両のバスを介して、ECUを介して、等によって)運転者行動予測エンジン105に直接提供される。他の好適な変形も可能であり、かかる変形も想定されている。さらに別の例として、1つ以上のセンサ103は、移動プラットフォーム101を操作するユーザ115の、時間的に変化する画像データを取得する。このとき、画像データは、移動プラットフォーム101を操作しながら次の行動を準備するときのユーザ115の動作(例えば、左を見る、右を見る、右足をアクセルからブレーキペダルに移す、ステアリングホイール上で両手を動かす)を示している。運転者行動予測エンジン105は、センサ103やセンサデータ記憶装置113から得られるセンサデータ(例えば、リアルタイムビデオストリームや一連の静止画像等)を、(例えば、バスやECU経由等で)受信し、ユーザ115がこれから行うであろう行動を判定するために処理する。これについては本明細書において適宜さらに説明している。
モデリングサーバ121、移動プラットフォーム101、クライアントデバイス117の少なくともいずれかは、運転者行動予測エンジン105のインスタンス105a、105b、および105cを含む。一部の構成において、運転者行動予測エンジン105は、ネットワーク111内のまったく異なる位置にあるまったく異なるデバイスの間で分散してもよい。その場合、クライアントデバイス117、移動プラットフォーム101、モデリングサーバ121はそれぞれ運転者行動予測エンジン105のインスタンスもしくは運転者行動予測エンジン105のアスペクトを含みうる。例えば、運転者行動予測エンジンの各インスタンス105a、105b、および105cは、図2Bに示す下位構成要素(サブコンポーネント)やそれらの下位構成要素のさまざまな変形の1つ以上を含有しうる。これについては以下にさらに詳細に説明している。一部の構成において、運転者行動予測エンジン105は、例えば、図2Bに示す要素をすべて備えたアプリケーションである。
運転者行動予測エンジン105はコンピュータロジックを含み、当該コンピュータロジックは、センサ103からのセンサデータを受信もしくは検索して処理し、センサデータのパターンを認識し、予測される未来のユーザ行動を生成し、さらにいくつかの実装では、対策を生成して実行(例えば、警告を生成)し、および/または、ユーザ115・移動プラットフォーム101・関連する物体が直面するリスクを回避する補償行動を実装する、ように動作可能である。いくつかの実装において、運転者行動予測エンジン105は、1つ以上のコンピュータ装置の1つ以上のプロセッサによって実行可能なソフトウェアを用いて、ハードウェア(次のものに限定されないが、例えば、FPGA(フィールドプログラマブルゲートアレイ)、ASIC(特定用途向け集積回路)等)を用いて、および/またはハードウェアとソフトウェアの組み合わせ等を用いて、実現される。運転者行動予測エンジン105については以下により詳細に説明している。
ナビゲーションアプリケーション107(例えば、インスタンス107aまたは107bの1つ以上)はコンピュータロジックを含み、当該コンピュータロジックは、例えば、ナビゲーションの指示をユーザ115に提供したり、情報を表示したり、入力を受信したり、するように動作可能である。いくつかの実装において、ナビゲーションアプリケーション107は、1つ以上のコンピュータ装置の1つ以上のプロセッサによって実行可能なソフトウェアを用いて、ハードウェア(次のものに限定されないが、例えば、FPGA(フィールドプログラマブルゲートアレイ)、ASIC(特定用途向け集積回路)等)を用いて、および/またはハードウェアとソフトウェアの組み合わせ等を用いて、実現される。
ナビゲーションアプリケーション107は、センサ103から取得されるデータを利用するものであり、センサ103は、位置データ(例えば、GPS、三角測量、セルラー三
角測量等)を受信して対応する計算装置やセンサ103等に(例えば、センサデータとして)提供するように構成された地理位置送受信機(例えば、GPS送受信機、セルラー無線機、無線通信機等)等が含まれる。例えば、移動プラットフォーム101および/またはクライアントデバイス117は、かかる地理位置送受信機を搭載し、ナビゲーションアプリケーション107の対応するインスタンスは、かかる送受信機からの位置データを受信して処理するように構成される。ナビゲーションアプリケーション107については以下により詳細に説明している。
地図サーバ131は、プロセッサ、メモリ、およびネットワーク通信能力を有するハードウェアおよび/または仮想サーバを含む。いくつかの実装において、地図サーバ131は、モデリングサーバ121、移動プラットフォーム101、およびクライアントデバイス117の1つ以上との間でデータの送受信を行う。例えば、地図サーバ131は、地理空間的領域の地図を記述するデータを、運転者行動予測エンジン105とナビゲーションアプリケーション107の1つ以上に送信する。地図サーバ131は信号線112を介してネットワーク111と通信可能に結合されている。いくつかの実装において、地図サーバ131は、地図データベース132および関心地点(POI)データベース134を含みうる。
地図データベース132は、1つ以上の地理的地域に関連する地図を記述するデータを格納する。このデータは、時間および/または他のセンサデータとリンクされうるほか、センサデータとして使用ないし含有されうる。いくつかの実装において、地図データは1つ以上の地理的地域を街路レベルで記述する。例えば、地図データは、ある特定の道路に関連する1つ以上の車線を記述する情報を含む。より具体的には、地図データは、道路の進行方向、道路の車線数、その道路からの出口および道路への入口、1つ以上の車線が特殊な状態にある(例えば、カープール車線である)かどうか、それらの車線における道路状況、それらの車線における交通および/または事故データ、それらの車線に関連する交通規制(例えば、車線区分線、路面標示、交通信号、交通標識等)等を記述する。いくつかの実装において、地図データベース132は、データを格納してデータへのアクセスを提供するデータベース管理システム(DBMS)を含みうる、および/またはそのようなDBMSと関連する。
関心地点(POI)データベース134は、関心地点を記述するデータをさまざまな地理的地域について格納する。例えば、POIデータベース134は、さまざまな道路区画沿いにある観光名所、ホテル、レストラン、ガソリンスタンド、大学付属スタジアム、ランドマーク等を記述するデータを格納する。いくつかの実装において、POIデータベース134は、データを格納してデータへのアクセスを提供するデータベース管理システム(DBMS)を含む。
なお、図1に示すADAシステム100は例示的システムの代表であるにすぎず、この他にも多様なシステム環境および構成が想定されるうえ、それらはいずれも本開示の技術的思想の範囲内にある。例えば、さまざまな作用および/または機能をモデリングサーバ121からクライアントデバイス117もしくは移動プラットフォーム101に移動してもよい。あるいは、データを1台のデータ記憶装置に集約してもいいし、追加的なデータ記憶装置にさらに分散させてもよい。いくつかの実装は、追加的な計算装置、サーバ、および/またはネットワークを含んでもよく、あるいは含まれる計算装置、サーバ、および/またはネットワークが記載のものより少なくてもよい。また、さまざまな機能をクライアント側に実装しても、サーバ側に実装してもよい。さらに、システムのさまざまな実体要素を1つの計算装置もしくはシステムに統合してもいいし、追加的な計算装置もしくはシステムに分割するなどしてもいい。
図2Aは、例示的な計算装置200のブロック図である。これは、モデリングサーバ121、クライアントデバイス117、移動プラットフォーム101、または地図サーバ131のアーキテクチャを表しうる。
図に示すように、計算装置200は、1つ以上のプロセッサ213と、1つ以上のメモリ215と、1つ以上の通信ユニット217と、1つ以上の入力デバイス219と、1つ以上の出力デバイス221と、1つ以上のデータ記憶装置223と、を備えている。計算装置200の構成要素は、バス210を介して通信可能に結合されている。計算装置200がサーバ101、クライアントデバイス117、または移動プラットフォーム101を表すいくつかの実装において、計算装置200は、1つ以上の運転者行動予測エンジン105、1つ以上のセンサ103、および/または1つ以上のナビゲーションアプリケーション107等を含みうる。
図2Aに示す計算装置200は例示にすぎず、本開示の範囲を逸脱することなく他の形態を取りえ、また追加的な構成要素を含んでもいいし、含まれる構成要素が図示のものより少なくてもよい。例えば、図示していないが、計算装置200は、さまざまなオペレーティングシステム、ソフトウェア、ハードウェアコンポーネント、および他の物理構成を含みうる。
計算装置200が移動プラットフォーム101に含まれる(組み込まれる)いくつかの実装において、計算装置200は、移動プラットフォーム101のさまざまなプラットフォームコンポーネント(例えば、プラットフォームバス(例えば、図8Eに関連して記載されるCAN)、1つ以上のセンサ103(例えば、車載センサ、音響センサ、映像センサ、化学センサ、バイオメトリックセンサ、位置センサ(例えば、GPS、コンパス、加速度計、ジャイロスコープ等)、スイッチ、およびコントローラ)、カメラ等、内燃機関、電気モータ、パワートレイン部品、サスペンション要素、計器類、空気調和機、および/または移動プラットフォーム101の任意の他の電気的、機械的、構造的、および機械的部品)を含んでもよいし、および/またはこれらの要素に結合されてもよい。これらの実装において、計算装置200はECU、ECM、PCM等を実現してもよいし、それらに組み込まれてもよいし、またはそれらを含んでもよい。さらに他の実装において、計算装置200は、移動プラットフォーム101に組み込まれる組み込みシステムを含んでもよい。
プロセッサ213は、さまざまな入出力動作、論理演算、および/または数学的演算を実行することによってソフトウェア命令を実行可能である。プロセッサ213は、データ信号処理を行うさまざまな計算アーキテクチャを有する。これには例えば、CISC(複雑命令セットコンピュータ)アーキテクチャ、RISC(縮小命令セットコンピュータ)アーキテクチャ、および/または命令セットの組み合わせを実装するアーキテクチャ、が挙げられる。プロセッサ213は物理プロセッサおよび/または仮想プロセッサであってよい。また、シングルコアであってもよいし、複数の処理装置および/またはコアを含んでもよい。いくつかの実装において、プロセッサ213は、電子表示信号の生成、電子表示信号の表示装置(図示せず)への提供、画像表示のサポート、画像のキャプチャおよび送信、さまざまなタイプの特徴抽出およびサンプリングを含む複雑なタスクの実行、等が可能である。いくつかの実装において、プロセッサ213はバス210を介してメモリ215に結合され、それにより、メモリ215内部のデータおよび命令へのアクセスならびにメモリ215内部へのデータの格納を行う。バス210は、プロセッサ213を、計算装置200の他の構成要素(例えば、メモリ215、通信ユニット217、センサ103、運転者行動予測エンジン105、ナビゲーションアプリケーション107、入力デバイス219、出力デバイス221、および/またはデータ記憶装置223を含む)に結合する。
メモリ215は、データを格納するとともに、計算装置200の他の構成要素に対してデータへのアクセスを提供する。いくつかの実装において、メモリ215は、プロセッサ213によって実行される命令および/またはデータを格納する。例えば、計算装置200の構成に応じて、メモリ215は、運転者行動予測エンジン105の1つ以上のインスタンス、および/またはナビゲーションアプリケーション107の1つ以上のインスタンスを格納する。メモリ215は、他の命令およびデータ(例えば、本発明中に記載されるさまざまなデータ、オペレーティングシステム、ハードウェアドライバ、他のソフトウェアアプリケーション、データベース等)を格納することもできる。プロセッサ213および計算装置200の他の構成要素と通信するため、メモリ215はバス210に結合される。
メモリ215は、コンピュータで使用可能(例えば、読み取り可能、書き込み可能等)な1つ以上の非一時的媒体を含む。その媒体は、プロセッサ213による処理やプロセッサ213と関連して処理するための命令・データ・コンピュータプログラム・ソフトウェア・コード・ルーチン等を含有・格納・通信・伝達・搬送が可能な任意の有形な非一時的な装置もしくはデバイスであってよい。いくつかの実装において、メモリ215は、揮発性メモリおよび不揮発性メモリの1つ以上を含む。例えば、メモリ215は、DRAM(ダイナミックランダムアクセスメモリ)デバイス、SRAM(スタティックランダムアクセスメモリ)デバイス、ディスクリートメモリデバイス(例えば、PROM、FPROM、ROM)、ハードディスクドライブ、光ディスクドライブ(CD、DVD、Blu−ray(登録商標)ディスク等)の1つ以上を含むが、これらには限定されない。なお、メモリ215は単一のデバイスであってもいいし、複数種類のデバイスおよび構成を含んでいてもよい。
通信ユニット217は、無線および/または有線接続を用いて(例えば、ネットワーク111を介して)通信可能に結合された他の計算装置との間でデータを送受信する。通信ユニット217は、データを送受信するために1つ以上の有線インタフェースおよび/またはワイヤレス送受信機を備える。通信ユニット217は、ネットワーク111と結合されて他のコンピューティングノード(例えば、クライアントデバイス117、移動プラットフォーム101、および/またはサーバ121もしくは131等(構成によって異なる))と通信する。通信ユニット217は、上述したような標準的な通信方法を用いて他のコンピューティングノードとの間でデータを交換する。
バス210は、計算装置200の構成要素間または計算装置間でデータを転送するための通信バス、ネットワーク111および/またはその一部を含むネットワークバスシステム、プロセッサメッシュ、その組み合わせ等を含む。いくつかの実装において、バス210は、ISA(インダストリスタンダードアーキテクチャ)バス、PCI(ペリフェラルコンポーネントインターコネクト)バス、USB(ユニバーサルシリアルバス)、または同様の機能を提供することが知られている他のバスを含む、1つ以上のバスを表しうる。それに加えて、および/またはその代わりに、計算装置200のさまざまな構成要素は、バス210に関連して実装されるソフトウェア通信メカニズムを介して協調および通信しうる。ソフトウェア通信メカニズムは、例えば、プロセス間通信、ローカル関数もしくはプロシージャ呼び出し、リモートプロシージャ呼び出し、オブジェクトブローカ(例えば、CORBA)、ソフトウェアモジュール間の直接的なソケット通信(例えば、TCP/IPソケット)、UDPによるブロードキャストと受信、HTTP接続等を含み、および/または促進する。さらに、任意の通信はセキュアにできうる(例えば、SSH、HTTPS等)。
データ記憶装置223は、データを格納する非一時的な記憶媒体を含む。非一時的な記
憶媒体の非限定的な例として、DRAM(ダイナミックランダムアクセスメモリ)デバイス、SRAM(スタティックランダムアクセスメモリ)デバイス、フラッシュメモリ、ハードディスクドライブ、フロッピーディスクドライブ、ディスク型メモリデバイス(例えば、CD、DVD、Blu−ray(登録商標)ディスク等)、フラッシュメモリデバイス、または何らかの既知の有形かつ揮発性もしくは不揮発性の記憶装置が挙げられうる。データ記憶装置223は、図2Aに示す計算装置200の具体的な構成に応じて、CANデータ記憶装置109、認識データ記憶装置123、POIデータベース134、地図データベース132、およびセンサデータ記憶装置113の1つ以上を表しうるが、他のタイプのデータ記憶装置も可能であり、かかるタイプのものも想定されている。
データ記憶装置223は、計算装置200の1つ以上のメモリ215内に含まれうるか、または計算装置200とは異なるが計算装置200と結合される、もしくは計算装置200によってアクセス可能な、別の計算装置および/またはストレージシステム内に含まれうる。いくつかの実装において、データ記憶装置223は、モデリングサーバ121、地図サーバ131、移動プラットフォーム101、および/またはクライアントデバイス117によって操作可能なDBMSに関連するデータを格納しうる。例えば、DBMSは、SQL(structured query language)に対応したDBMS、NoSQL型のDMBS
、等を含むことが可能でありうる。いくつかの例において、DBMSは、行と列で構成される多次元テーブルの形態でデータを格納しうるうえ、プログラム操作を用いてデータ行の操作(例えば、挿入、クエリ、更新、および/または削除)を行いうる。
入力デバイス219は、ユーザ115もしくは他のデバイスからの多様な制御入力(例えば、ジェスチャ、音声指示)を受信するように構成された、任意の標準的デバイスを含みうる。入力デバイス219の非限定的な例として、テキスト情報の入力・選択の指定・ユーザ115とのインタラクトを行うタッチスクリーン(例えば、LEDベースのディスプレイ)、動き検出入力デバイス、オーディオ入力デバイス、他のタッチ型入力デバイス、キーボード、ポインティングデバイス、インジケータ、および/またはユーザ115もしくは上記の他のデバイスとの通信および/またはインタラクションを促進する任意の他の入力構成要素、が挙げられる。入力デバイス219は、ユーザ115および/またはセンサ103から受信される入力ないし信号を中継するために、直接もしくは仲介コントローラを介して、計算装置200と結合されうる。
出力デバイス221は、ユーザ115もしくは他のデバイスに情報を出力もしくは表示するように構成された、任意の標準的デバイスを含みうる。出力デバイス221の非限定的な例として、ナビゲーション情報をユーザ115に表示するタッチスクリーン(例えば、LEDベースのディスプレイ)、音声情報をユーザ115に届けるオーディオ再生装置(例えば、スピーカ)、テキスト情報ないしグラフィック情報をユーザ115に提示する表示装置ないしモニタ等、が挙げられる。出力される情報は、テキスト、グラフィック、触覚的、音声、動画、およびユーザ115もしくは上記の他のデバイスによって理解されうる他の情報でありうるか、あるいは、移動プラットフォーム101および/または他の計算装置のオペレーティングシステムによって読み取り可能なデータ、ロジック、プログラミングでありうる。出力デバイス221は、直接もしくは仲介コントローラを介して計算装置200と結合されうる。
図2Bは、例示的な運転者行動予測エンジン105のブロック図である。図に示すように、運転者行動予測エンジン105は、さまざまな下位構成要素(サブコンポーネント)(例えば、センサデータ処理部251、1つ以上の特徴抽出処理部253、行動認識処理部255、行動予測処理部257、および/またはトレーニング処理部259)を含みうる。
センサデータ処理部251、特徴抽出処理部253、行動認識処理部255、行動予測処理部257、および/またはトレーニング処理部259は、ソフトウェア、ハードウェア、または両者の組み合わせとして実現されうる。いくつかの実装において、センサデータ処理部251、特徴抽出処理部253、行動認識処理部255、行動予測処理部257、および/またはトレーニング処理部259は、バス210および/またはプロセッサ213によって、互いに、および/または計算装置200の他の構成要素と、通信可能に結合されうる。いくつかの実装において、構成要素251、253、255、257、および259の1つ以上は、プロセッサ213によって実行可能な命令群である。さらに他の実装において、構成要素251、253、255、257、および259の1つ以上はメモリ215内に格納可能であり、プロセッサ213によってアクセスおよび実行可能である。上記実装のいずれにおいても、これらの構成要素251、253、255、257、および259は、プロセッサ213および計算装置200の他の構成要素と協調および通信するように適合される。
センサデータ処理部251は、特徴抽出処理部253に入力するためにセンサデータを処理するように動作するコンピュータロジックを含む。いくつかの実装において、センサデータ処理部251は、移動プラットフォーム101の環境に関係するセンサ103を扱う。移動プラットフォーム101の環境の例として、例えば、車両の内部もしくは外部や運転者の行動のほか、他の移動プラットフォームもしくはインフラ設置センサ(例えば、道路センサや交通センサ等)による、車両に関するセンシング情報が挙げられる。センサデータ処理部251は、特徴抽出処理部253がパターン認識を行えるよう、センサデータのフィルタリング、構造化、および/またはフォーマッティングを行う。いくつかの実装において、センサ103によって生成されるセンサデータは、ノイズおよび/または不要情報を含みうる。センサデータ処理部251は、受信したセンサデータを解析してセンサデータ内のノイズおよび/または不要情報を除去することも好ましい。いくつかの実装において、センサ103によって受信されるセンサデータは、異なる特徴および/またはフォーマットを有しうる。センサデータ処理部251はさまざまな特徴をフィルタリングし、かつ/またはそれら異なるフォーマットを正規化して、特徴抽出処理部253に適合可能とすることも好ましい。
センサデータ処理部251は、移動プラットフォーム101に関連するセンサデータを受信するために、センサ103、データ記憶装置223、および/または計算装置200の他の構成要素と結合される。いくつかの実装において、センサデータ処理部251は、移動プラットフォーム101に関連するセンサデータをセンサ103および/またはセンサデータ記憶装置113から受信した後、受信したセンサデータを処理する。これについては本明細書中で適宜説明している。データ処理の後、センサデータ処理部251は、処理したセンサデータを特徴抽出処理部253に転送するか、または運転者行動予測エンジン105の他の構成要素が検索できるようにそのデータを非一時的なメモリ(例えば、センサデータ記憶装置113)に格納する。いくつかの実装において、特徴抽出処理部253は何ら処理を行うことなくセンサデータを扱ってよく、したがって、センサデータ処理部251は受信したセンサデータを特徴抽出処理部253にそのまま転送してもよいし、特徴抽出処理部253がセンサデータを直接受信してもよい。
特徴抽出処理部253は、センサデータから特徴を抽出するように動作するコンピュータロジックを含む。いくつかの実装において、特徴抽出処理部253は、ユーザ行動を独立して認識および/または予測するために使用できる特徴を抽出する。いくつかの実装において、特徴抽出処理部253は、センサ103、センサデータ処理部251、および/またはセンサデータ記憶装置113から直接受信したセンサデータから特徴を抽出する。例えば、特徴抽出処理部253は、格納されたセンサデータに、および/またはセンサ103から受信中のセンサデータに、直接アクセスする。
一部の従来技術は、センサデータ内の特徴が予測と認識の両方に関係(relevant)することを前提としていた。しかし、本明細書に記載する技法のいくつかの実装では、特徴抽出処理部253は、認識用特徴の抽出と予測用特徴の抽出とを独立に行う。これについては本明細書中で適宜説明している。
特徴抽出処理部253は、プロセッサ213、メモリ215、および/または計算装置200の他の構成要素とバス210を介して協調および通信するように適合される。いくつかの実装において、特徴抽出処理部253は、データ記憶装置223に格納される予測用特徴および/または認識用特徴等のデータを格納し、および/またはかかる特徴を運転者行動予測エンジン105の他の構成要素の1つ以上に送信する。例えば、特徴抽出処理部253は、認識用特徴を出力するために行動認識処理部255と、また予測用特徴を出力するために行動予測処理部257と、結合される。
行動認識処理部255は、センサデータおよび/または特徴に基づいて行動を認識するように動作するコンピュータロジックを含む。いくつかの実装において、行動認識処理部255は、ユーザ行動を認識するために認識目的で抽出した(例えば、特徴抽出処理部253やデータ記憶装置223等から直接受信した)特徴を基に、認識ネットワーク731を稼働させる。いくつかの実装において、認識ネットワーク731は、行動認識処理部255のアルゴリズムモデルコンポーネント(algorithmic model component)を含み、当
該コンポーネントは、抽出された特徴やセンサデータから、ユーザ行動を認識または検出する。例えば、ADAシステム100は、認識ネットワーク731を利用して、検知されたユーザ行動に基づく予測ネットワーク705トレーニングのためのラベルを生成する。ユーザ行動に関するラベル作成を人間の分類者のみが行っていた従来技術に比べ、認識ネットワーク731を使用することは特に有利である。認識ネットワーク731は、本明細書において(例えば図7Bを参照して)適宜さらに詳細に説明している。
行動予測処理部257は、センサデータおよび/または特徴に基づいて行動を予測するように動作するコンピュータロジックを含む。いくつかの実装において、行動予測処理部257は、ユーザ行動を予測するために予測目的で抽出した(例えば、特徴抽出処理部253やデータ記憶装置223等から直接受信した)特徴を基に、予測ネットワーク705を稼働させる。例えば、いくつかの例において、行動予測処理部257は、予測目的で抽出された特徴をリアルタイムで受信しながら、当該特徴に基づいて予測ネットワークモデル705を実行することによって、未来の運転者行動を継続的に予測する。
いくつかの実装において、予測ネットワーク705は、行動予測処理部257のアルゴリズムモデルコンポーネントを含み、当該コンポーネントは、抽出された特徴やセンサデータから、運転者行動を認識または検出する。例えば、予測ネットワーク705は、センサデータ、またはディープ再帰型ニューラルネットワーク(deep recurrent neural network)を用いて予測目的で抽出した特徴、の時間融合(temporal fusion)を使用しうる。ただし、本発明では他の好適なアプローチも可能であり、かかるアプローチも想定されている。予測ネットワーク705については、本明細書において(例えば図7Aを参照して)適宜さらに詳細に説明している。
トレーニング処理部259は、コンピュータロジックを含み、当該ロジックは、例えば予測モデルおよび/またはその重みをトレーニングするように動作する。いくつかの実装において、トレーニング処理部259は、(例えば、処理部255および/または257やデータ記憶装置223等から直接受信される)行動認識処理部255および/または行動予測処理部257の出力を基に、トレーニングネットワーク761を稼働させる。いくつかの実装において、トレーニング処理部259は、予測目的で抽出した特徴と認識され
た行動ラベルとを(例えば、過去に遡って)組み合わせて、学習データ(training example)を生成する。学習データは後に予測ネットワークモデル705のトレーニングに使用される。
本明細書に記載する技法のいくつかの実装によると、トレーニングにおいて、認識ネットワーク731に影響を与えることなく予測ネットワーク705のみを更新しうる。他方、一部の従来技術では認識モデルと予測モデルを両方同時に更新する必要があり、システムがそれだけ複雑化するとともに、計算リソースも多く消費する。
いくつかの実装において、トレーニングネットワーク761は、トレーニング処理部259のアルゴリズム用モデルコンポーネントを含みうる。なお、予測ネットワーク705は人が作成したユーザ行動用のラベルを用いてトレーニングできるが、本発明で提案するシステムの大きな利点のひとつは、認識ネットワーク731によって生成されたラベルを用いることによって予測ネットワーク705を容易にトレーニングできることにある。トレーニングネットワーク761については本明細書において(例えば図7Cを参照して)適宜さらに詳細に説明している。
図3Aは、運転者行動予測エンジン105(図示せず)の実使用例のブロック図300である。ブロック図300に示す例において、運転者行動予測エンジン105はセンサデータ301を受信する。センサデータ301は移動プラットフォーム101(例えば、車両307)に関連するセンサ103(図示せず)によって提供される。センサデータ301は、環境センシングデータ、車内センシングデータ、または他の種類のセンシングデータを含む。例えば、環境センシングデータは、カメラ(例えば、外部を撮影するもの)、LIDAR、レーダ、GPS等によるデータを含んでもよく;車内センシングデータは、カメラ(例えば、内部を撮影するもの)、マイクロフォン、CANバスによるデータ(例えば、本明細書に適宜記載されるようなもの)等を含み;上記他の種類のセンシングデータは、直接的な行動センシング(例えば、ユーザ行動のダイレクトセンサ)、V2Vセンシング(例えば、ある車両から別の車両に提供されるセンサデータ)、V2Iセンシング(例えば、インフラ設備(例えば、道路センサや交通センサ等)から提供されるセンサデータ)等によるデータを含む。
特徴抽出処理部253は次に、ステップ303において、予測用特徴をセンサデータ301に基づいて抽出する。ステップ305において、行動予測処理部257は、予測ネットワーク(PN:prediction network)モデル705(本明細書において例えば図7Aを参照して適宜説明されるもの)を用いて未来の運転者行動を予測する。いくつかの実装において、予測される未来の運転者行動は車両307の他のシステムに返され、動作(例えば、自動操舵、制動、信号発信等)や警告(例えば、運転者向けのアラーム)を提供するために用いられる。
図3Bは、トレーニング時の運転者行動予測エンジン105の例のブロック図350である。ブロック図350に示す例において、特徴抽出処理部253は、格納センサデータ(例えば、過去のある時点に収集されメモリに格納されたセンサデータ)をステップ351において受信もしくは検索する。特徴抽出処理部253は、ステップ353において、認識用特徴を格納センサデータから抽出し、ステップ355において、認識ネットワーク(RN:recognition network)モデル731を用いて(例えば、図7Bを参照して説明
するように)運転者行動を認識する。さらに、特徴抽出処理部253はステップ357において予測用特徴を抽出する。ステップ359において、トレーニング処理部259は、予測用に抽出した特徴および認識された運転者行動を用いて学習データを生成し、ステップ361において、トレーニングネットワーク761を用いて予測ネットワークモデル705をトレーニングする。これについては本明細書で(例えば図7Cを参照して)適宜説
明するとおりである。
図4は、運転者行動予測エンジン105をトレーニングする例示的方法400のフローチャートである。ステップ401において、センサデータ処理部251または特徴抽出処理部253は、過去のある時点における移動中の車両の特性を記述する格納データ(例えば、センサ103もしくはセンサデータ記憶装置113に格納されたデータ)を受信する。例えば、車両(例えば、本明細書中に適宜記載される移動プラットフォーム101)が(可能性として移動時や運転者行動の受信時等において)センサデータを記録したときに、センサデータは、過去のある期間にわたって(例えば、センサデータ処理部251によって)記録されてリンクされる。センサデータは、運転者行動、および/またはその運転者行動を引き起こしうる環境要因、を記述する。
ステップ403において、特徴抽出処理部253は、予測用特徴および/または認識用特徴を、格納センサデータから抽出する。いくつかの実装において、予測用特徴および認識用特徴は、同じ特徴であってもいいし、異なる特徴であってもよく、またその組み合わせであってもよい。例えば、認識用特徴は、運転者がある一定速度で直進した後に急ブレーキをかけることを含みうるのに対し、予測用特徴は、運転者がある一定速度で直進し、運転者の車両の前に別の車両が割り込んでくることを含みうる。
ステップ405において、行動予測処理部257は、予測用特徴を予測ネットワーク705(例えば、1つ以上の再帰型ニューラルネットワークを含む)に入力し、ステップ407において、行動予測処理部257は、過去の運転者行動に対する1つ以上の予測ラベルを、予測ネットワーク705(例えば、図7Aを参照して説明されるもの)を用いて予測用特徴に基づいて生成する(例えば、予測ラベルは1つ以上の予測される運転者行動を記述する)。
ステップ409において、認識用特徴は(例えば、行動認識処理部255によって)認識ネットワーク731に入力され、ステップ411において、過去の運転者行動に対する認識ラベルを、認識ネットワーク731を用いて認識用特徴に基づいて生成する。いくつかの実装において、行動認識処理部255は、1つ以上の事前トレーニングした運転者行動認識モデルに認識用特徴を入力することによって過去の運転者行動に対する認識ラベルを生成する。例えば、事前トレーニングした運転者行動認識モデルは、閾値、SVM(サポートベクターマシン)、ロジット(例えば、ロジット回帰モデル)、または浅いCNN(畳み込みニューラルネットワーク)等を含みうる。
ステップ413において、トレーニング処理部259は、予測ネットワーク705の予測ネットワーク重みを、認識ラベルと予測ラベルとを用いてトレーニングする。例えば、予測ネットワーク705の1つ以上の予測ネットワーク重みのトレーニングは、認識ラベルと予測ラベルとの間の誤差を決定することを含む。いくつかの実装において、トレーニング処理部259は、次に、決定された誤差を打ち切り型通時的逆伝播アルゴリズム(truncated back-propagation through time algorithm)に入力することによって重みを決
定する。いくつかの実装において、トレーニングは、図7Cを参照して説明する例示的なトレーニングネットワーク761を用いて実施される。
図5は、未来の運転挙動の予想に運転者行動予測エンジン105を用いる例示的方法500のフローチャートである。ステップ501において、センサデータ処理部251および/または特徴抽出処理部253は、現在のセンサデータを1つ以上のセンサ103から受信する。現在のセンサデータは、検出時にセンサ103によって提供されるデータ、最近のある期間にわたって収集されたデータ(例えば、過去のN個のレコード)、あるクロックサイクルでリフレッシュされるデータ等でありうる。例えば、現在のセンサデータは
、センサ103および/またはセンサデータ記憶装置113からリアルタイムで受信される。例えば、現在のセンサデータは、現在移動中の車両(例えば、移動プラットフォーム101)の特性、環境、ユーザ行動等を記述するデータを含む。いくつかの実装において、センサデータの受信速度を最適化するために、運転者行動予測エンジン105は、1つ以上のセンサ103と電子的に通信可能に結合されている。ただし、他の変形(例えば、信号速度が低い場合には、介入型構成要素を備える実装)も可能である。
ステップ503において、特徴抽出処理部253は、現在の一群の予測用特徴を現在のセンサデータから抽出し、ステップ505において、行動予測処理部257は上記現在の一群の予測用特徴を予測ネットワーク705に入力する。上記現在の一群の予測用特徴は、現在移動中の車両を記述する。
ステップ507において、行動予測処理部257は、予測される未来の運転者行動を、1つ以上の予測ネットワーク重み(例えば、トレーニング処理部259によってトレーニングされたもの)、現在の一群の予測用特徴、および予測ネットワーク705(例えば、図7Aを参照して説明されるもの)を用いて生成する。
図6は、未来の運転者行動予測を予測ネットワーク705を用いて生成する例示的方法600のフローチャートである。ステップ601において、行動予測処理部257は予測用特徴を逆方向系列処理部(backward sequence processor)711に入力し、ステップ
603において、行動予測処理部257は予測用特徴を順方向系列処理部(forward sequence processor)709に入力する。これについては図7Aに示しており、また図7Aを参照してさらに詳細に説明する。
ステップ605において、行動予測処理部257は、逆方向系列処理部711の出力と順方向系列処理部709の出力とを時間融合処理部713を用いて融合(fuse)する。いくつかの実装において、逆方向系列処理部711の出力と順方向系列処理部709の出力との融合は、逆方向系列処理部711の出力の時間的系列と、順方向系列処理部709の出力の時間的系列と、の時間的表現を時間融合処理部(temporal fusing processor)7
13によって生成することを含む。
ステップ607において、行動予測処理部257は、分類器715を用いて、時間融合処理部713の出力を、運転者行動の予測ラベルにマッピングする。これについては、本明細書において適宜さらに詳細に説明している。
図7Aは、予測ネットワーク705の例示的な実装を含むブロック図である。701において、センサデータ処理部251および/または特徴抽出処理部253は、センサデータをセンサ103から受信する。703において、特徴抽出処理部253は、予測用特徴を、それに加えていくつかの例においては認識用特徴を、センサデータから抽出する。いくつかの実装においては、センサデータは、ユーザ行動の原因となりうる発生要因を含む。
行動予測処理部257は、予測用特徴を予測ネットワーク705に入力する。上述のように、予測ネットワーク705は、行動予測処理部257のアルゴリズム用モデルコンポーネントでありうる。行動予測処理部257は、将来のユーザ行動を、その行動が実行される前に、センサデータから抽出した予測用特徴を用いて予測する。いくつかの実装において、予測ネットワーク705は、ディープな(例えば、双方向の)再帰型ニューラルネットワーク(RNN)を用いて、センサデータまたはセンサデータから抽出した予測用特徴の時間融合を実施する。
いくつかの実装において、予測ネットワーク705は、順方向系列処理部(forward sequence processor)709、逆方向系列処理部(backward sequence processor)711
、時間融合処理部(temporal fusion processor)713、および分類器(classifier)
715を含む。処理部709、711、および713のそれぞれは、カスケード接続された1つ以上の再帰型ニューラルネットワークユニット、すなわちRNNセル707を含む。RNNセル707a、707b、707c、707d、707e、および/または707nのそれぞれは、例えば、基本的なRNN、長期短期記憶(LSTM)RNN、またはゲート付きRNNユニット(GRU)のセルなどである。
ディープな双方向のRNN構造を使用すること(例えば、順方向系列処理部709と逆方向系列処理部711の併用)は有用である。なぜなら、センサデータが確実に時間融合され、それにより、現在の最先端技術で得られるものよりも予測範囲(prediction horizon)が広がるためである。例えば、一部の従来技法は、入力データ系列を一方向のLSTMユニットによって一方向にしか処理できず、そのため、予測の時間スパンが長い場合に予測精度の面においてシステム性能が限られる。
トレーニング(例えば、遡及的(retroactive)トレーニング(本明細書において適宜
説明している))時には、完全な時間的コンテキストが利用可能であるため、順方向系列処理部709と逆方向系列処理部711とは入力系列(例えば、予測用特徴の系列)を逆の順序で処理しうる。したがって、順方向系列処理部709および逆方向系列処理部711は、いくつかの実装において、その演算方向に基づいて異なるセンサデータ表現を有する。実使用(deployment)(例えば、図3Aの例のような運転者行動の予測)時には、同一の入力ベクトル(例えば、予測用特徴および/またはセンサデータは、ベクトルとして表現される)が、順方向系列処理部709と逆方向系列処理部711によって処理される。例えば、実使用時において、順方向系列処理部709は入力ベクトルを時間の順に処理し、逆方向系列処理部711は上記入力ベクトル(例えば、順方向系列処理部709に入力したのと同じデータ)を時間遅延させたものを逆の順序で処理する。
トレーニング時および実使用時において入力ベクトルを順方向系列処理部709と逆方向系列処理部711とで異なる方向に処理できることは、本明細書に記載するさまざまな実装においてさらに有用である。一部の従来技術では、センサデータの空間融合を実現するために二重RNN(例えば、LSTM)が使用される(例えば、片方のRNNが車内データを処理し、もう1つのRNNが環境データを処理する)が、本明細書に記載する技法のいくつかの実装は、センサデータの時間融合に使用される双方向タイプのものが接続される。同様に、上記「背景技術」に記載した専用のRNNユニットを用いるさまざまな他の手法とは異なり、順方向系列処理部709および逆方向系列処理部711のいくつかの実装は、センサデータの空間融合に対する責任を共有する。
時間融合処理部713は、(例えば、センサデータの空間融合(spatial sensor data fusion)に限定されるのではなく)センサデータを時間的に融合する。それにより、逆方向系列処理部709の重みに未来のセンサデータを組み込むことが可能になる。これは、センサデータの空間融合のみを行う過去の技術に比べて予測精度および予測範囲を向上できる点で有用である。一部のケースにおいて、予測ネットワーク705は、順方向系列処理部709、逆方向系列処理部711、および時間融合処理部713を用いて入力系列(例えば、センサデータないし予測用特徴の系列)中の時間的な相関関係を学習できる。本明細書に記載する技法を用いてセンサデータを時間的に融合する能力は、運転者行動予測エンジン105を大きな特徴的サイズおよび高いサンプリングレートで用いることを可能にし、それによって予測精度と予測範囲が向上するという有用性をもつ。
いくつかの実装において、時間融合処理部713の出力は、分類器715を用いて運転
者行動予測にマッピングされる。いくつかの実装において、分類器715は、ロジット(例えば、ロジスティック回帰ユニット)ならびにシグモイド層もしくはソフトマックス層のいずれかを含みうるが、他のタイプも可能で、想定されており、かつ適用可能である。一例において、可能性が最も高い一群の相互排他的な運転者行動の予測にはソフトマックスを使用でき、一群の非相互排他的な運転者行動の確率の決定にはシグモイドを使用できる。分類器715は予測ラベル721を出力する。予測ラベル721は、センサデータがリアルタイム(もしくは実質的にリアルタイム)の場合には予測される未来の運転者行動もしくは事象を表し、センサデータが過去のある時点のものである場合(例えば、予測される運転者行動がすでに発生している場合)にはトレーニング用の予測運転者行動を表わす。いくつかの実装において、予測ラベルは、予測される行動の確率、かかる行動が発生する予測時間(例えば、秒や分等の範囲等)等をも含む。
図7Bは、認識ネットワーク731の例示的な実装のブロック図である。上述のように、認識ネットワーク731は、行動認識処理部255のアルゴリズム用モデルコンポーネントでありうる。行動認識処理部255は、センサデータから抽出した認識用特徴(例えば、図7Aの701および703で説明したもの)から運転者行動を認識または検出する。認識ネットワーク731の出力は、予測ネットワーク705の重みのトレーニングに用いる目標もしくはラベル(例えば、認識ラベル735)として機能する。したがって、認識ネットワーク731により、運転者行動予測エンジン105は人とのインタラクション(例えば、予測トレーニングデータの手動ラベル付け)がなくても任意の運転者行動を予測できるようになる。
一部の行動(例えば、ユーザが行う行動、および/またはかかる行動に影響を与える環境要因)(より具体的には、例えば、ペダルのポジション、操舵、方向指示器等)は直接的に視認可能であるが、一部の他の行動(例えば、実際の方向転換、車線変更、居眠り、頭部姿勢、注意力等)には追加処理が必要となりうる。本明細書に記載する認識ネットワーク731は、基本的行動(例えば、直接的に視認可能なもの)と、より高次の行動(例えば、上述のような追加処理を要する行動)との両方を検出するように構成されてもよい。なお、必ずしも常に必要なわけではないが、一部のケースでは、性能向上のため、関心のある行動をセンシングする専用のセンサを直接用いることによってかかる行動を直接センシングすることが有用である。認識ネットワーク731の性能は運転者行動予測エンジン105全体の性能を制限するため、行動を直接センシングすること、および/または誤差の閾値レベルに対して監視を行うことは有用である。
いくつかの実装において、認識ネットワーク731によって認識される行動は、当該移動プラットフォーム101内、他の移動プラットフォーム101内、および/または沿道のインフラ設備内で起こりうる。例えば、他の移動プラットフォーム101および/または沿道のインフラ設備は、ユーザの行動を直接センシングするセンサ103を有しうるとともに、行動認識サービスをも提供しうる。他の移動プラットフォーム101または沿道のインフラ設備からの、認識された行動の情報は、当該移動プラットフォーム101および/または運転者行動予測エンジン105に、V2VまたはV2I通信を介して提供されうる。
いくつかの実装において、認識ネットワーク731は、1つ以上の事前トレーニングした認識モデル733を含む。例えば、認識ネットワーク731は、事前トレーニングした多様な単純モデル(例えば、校正済みセンサ値の閾値、ロジスティック回帰、SVM(サポートベクターマシン)、浅い多層パーセプトロン、浅い畳み込みニューラルネットワーク等)を含みうる。いくつかの実装において、認識ネットワーク731は、事前トレーニングした運転者行動認識モデルを使用する。これは、かかる認識モデルが、当該移動プラットフォーム101、他の移動プラットフォーム101、またはインフラ設備によって直
接センシングされ、過去の試みに比べて運転者行動認識をかなり簡単化されるためである。
上記の事前トレーニングした認識モデルは、運転者行動予測エンジン105の他の構成要素(例えば、トレーニング処理部259)が使用するための認識ラベル735を出力する。
図7Cは、トレーニングネットワーク761の例示的な実装のブロック図である。上述のように、トレーニングネットワーク761はトレーニング処理部259のアルゴリズム用モデルコンポーネントを含みうる。トレーニング処理部259は、運転者行動予測エンジン105の構成要素の1つ以上(例えば、予測ネットワーク705)をトレーニングする。いくつかの実装において、トレーニングネットワーク761は、ロジット関数(Logit function)763、シグモイド関数(Sigmoid function)765、重み付き交差エントロピー損失関数(weighted cross-entropy loss function)767、およびターゲットラベル769を含みうる。これらの構成要素は、例えば、予測ネットワーク705の重み、および/またはトレーニングネットワーク761のパラメータ、をトレーニングするように構成される。
いくつかの実装において、トレーニングネットワーク761は、時間融合処理部713の出力、分類器715の出力(例えば、予測ラベル721)、および/または認識ネットワーク731の出力(例えば、認識ラベル735)、を入力として受け取る。なお、本発明で提案する予測ネットワーク705は、運転者行動に対して人が作成したラベルを用いたトレーニングが可能であるが、本明細書に記載する技法のいくつかの実装における有用性のひとつは、運転者行動予測エンジン105が認識ネットワーク731によって生成されたラベルを用いて予測ネットワーク705を容易にトレーニングできることにある。
いくつかの実装において、予測ネットワーク705の重みは、予測ネットワーク705の出力(例えば、予測ラベル721)と認識ネットワーク731の出力(例えば、認識ラベル735)との間の誤差を用いてトレーニングされる。例えば、このトレーニングは、(例えば、当該技術分野において、再帰ユニットを備えた他のディープニューラルネットワークのトレーニングに用いられうるような)打ち切り型通時的逆伝播アルゴリズムを用いて実施される。
図7Cに示す実装において、トレーニングネットワーク761は、損失重み分岐(loss
weight branch)を含む。損失重み分岐は、任意の時点において、予測ネットワーク705がどの程度予測誤差から学習するべきかを自動決定する、例えば、重み付き交差エントロピー損失関数767は、予測ネットワーク705をトレーニングするにあたり、ターゲットラベル769(例えば、認識ラベル735からのもの)と、時間融合処理部713の出力(例えば、ロジット関数763およびシグモイド関数765を用いて処理したもの)および予測ラベル721とを組み合わせる。この損失分岐により、トレーニングネットワーク761は、予測ネットワークのパラメータと認識された行動との間の関係の決定に寄与しないようなノイズ入り入力フレームを排除可能になる。
図8A〜図8Eに、センサデータのさまざまな例を示す。図8Aは、特に、移動プラットフォーム101の外部センサによって捕捉されて提供される例示的な画像データの図800である。図示した画像データは、移動プラットフォーム101のさまざまな外部環境を含んでいる。図示した例において、移動プラットフォーム101(車両802)は、片側2車線の4車線道路を北に向かって移動している。車両802の前方の道路状況をモニタするために、車両802にセンサ103(例えば、正面を向いた画像センサ)が搭載される。車両802が交差点808に近づく瞬間に画像データ(グレーの四角804で示し
たもの)がキャプチャされうる。この画像データは、その瞬間における車両802の正面の道路交通データ(例えば、交差点内を東に走行中の別の車両806を描いた一連のフレーム)を含む。
図8Bは、時間変化する画像データであって、移動プラットフォーム101の内側および/または外側の環境のモニタするために使用される画像データのさらなる例を示す図820である。画像データは、異なる時間に撮影された一連の画像を含む。例えば、画像822と824によって示される画像は、車両内部の運転者の頭部826の動きをモニタするために異なる時間に続けて撮影された2枚の画像をそれぞれ表している。画像822と824の違いは、運転者が頭部を左に回していることを示している。別の例として、画像832と834は、車両外部の交通信号をモニタするために異なる時間に続けて撮影された2枚の画像をそれぞれ表している。画像832と834の違いは、信号機836がちょうど緑(画像832)から赤(画像834)に変わったところであることを示している。
図8Cは例示的なセンサデータを示す。このセンサデータは、センサデータ処理部251が位置情報装置(例えば、GPSまたは他の好適な地理位置情報ユニット)から受信するナビゲーションデータを含む。いくつかの実装において、ナビゲーションアプリケーション107は、ナビゲーションの指示を運転者に提示するように位置情報装置によって操作されるが、ナビゲーションアプリケーション107の他の変形も可能であり、かかる変形も想定されている。これについては本明細書中で適宜説明しているとおりである。
図8Cのグレーの四角852の内側に示すように、ナビゲーションデータは、移動プラットフォーム101の過去、現在、および未来の位置に関する情報を含む。例えば、ナビゲーションデータは、移動プラットフォーム101の現在の状態に関する情報(例えば、速度、方向、現在の道路等)を含む。符号854、856、857、および860に示すように、ナビゲーションデータは、地図上のナビゲーション経路、予定目的地、どこをどう曲がるかの指示等に基づく、移動プラットフォーム101の未来の位置をも含む。それに加えて、またはその代わりに、ナビゲーションデータは地図データ、音声データ、および本明細書中で適宜説明している他のデータを含みうる。図8Dは、ユーザ115に対してどこをどう曲がるかを指示する例である。これは、ユーザに対して表示されるルートと関係する。この指示は1つ以上の出力デバイス221(例えば、スピーカや画面等)を介して視覚的および/または音声によってユーザ115に向けて出力される。
いくつかの実装において、センサデータによって受信される音声データは、移動プラットフォーム101の内部および/または外部で取得された任意の音声信号を含む。音声データの非限定的な例として、衝突音、緊急車両によって発せられる音、音声コマンド等が挙げられる。いくつかの実装において、センサデータは、時間変化する車両運転者の方向を含む。
図8Eは、CANデータを抽出される例示的なCANネットワーク870を示したものである。CANネットワーク870は、1つ以上のセンサデータ源(sensor source)を
含む。例えば、CANネットワーク870、および/またはCANネットワーク870によって取得されるデータを格納する非一時的なメモリが、1つの共同センサデータ源を含んでもいいし、あるいは、ネットワーク870に含まれてもいいし、センサ103を構成する各センサ群(例えば、874、876、878等)のそれぞれが、センサデータ源を含んでもよい。
CANネットワーク870は、メッセージベースのプロトコルであって、マイクロコントローラおよび装置がホストコンピュータなしで互いに通信することを可能にするプロトコルを用いる。CANネットワーク870は、信号をデータに変換して格納し、変換した
データをセンサデータ処理部251、ECU、非一時的メモリ、および/またはADAシステム100の他の構成要素、に送信する。センサデータは、車両に備わるマイクロコントローラおよび装置のいずれからも届く。マイクロコントローラおよび装置の例として、例えば、ユーザ制御装置878、ブレーキシステム876、エンジン制御装置874、パワーシート894、計器類892、バッテリ888、照明システム890、ステアリングセンサ103、電動ロック886、情報システム884(例えば、オーディオシステム、ビデオシステム、ナビゲーションシステム等)、変速機制御装置882、サスペンションシステム880等が挙げられる。
図8A〜図8Eを参照して説明した例示的なセンサデータに加えて、またはその代わりに、多種多様な他のセンサデータ(例えば、電子的なメッセージデータ、他のセンサデータ、他の移動プラットフォーム101からのデータ、所定のシステムからのデータ等)も使用できる。例えば、ある車両から受信するセンサデータは、対向方向から接近してくる別の車両から受信する、数秒後に左折しようとしていること、ないし左折が予想されることを知らせる電子的なメッセージデータを含む場合がある。
図9Aおよび図9Bに、運転挙動のモデル化に影響を与える要因例を示す。図9Aは、異なる運転者の異なる操舵癖900を例示した図である。画像902は、車両が前進しているときにステアリングホイール924を操作する運転者の基本姿勢を示している。運転者の左腕922と右腕920は、ステアリングホイール924の対称の位置(例えば、両手は10時と2時の位置)にある。画像904、906、および908は、左折時にステアリングホイールを操作する運転者のさまざまなパターンを示している。例えば、画像904において、運転者はステアリングホイール924を回すように両腕を動かして左折するところである。このときステアリングホイール924における両手の位置は変わっていない。これに対し、画像906および908では、運転者はまず片手もしくは両手の位置を変えてからステアリングホイール924を回す。例えば、画像906において、運転者は最初に左手926をステアリングホイール924の前側に移動してから左腕922を引き戻し、ステアリングホイール924を回す準備をする。画像908では、運転者は片手を放す、かつ/またはステアリングホイール924において片手の位置を変える。
いくつかの実装において、運転者行動予測エンジン105は、図9A(例えば、画像906および908)に示すパターンを認識するようにトレーニングされ、それらのパターンに基づいて未来の左折を予測できるようになる。運転者行動予測エンジン105は、次に、未来の結果(例えば、運転挙動)を正確に予想できるよう、ユーザのさまざまな癖に適合される。
図9Bは、その場所に馴染みがあるかどうかがユーザの運転挙動にどう影響するのかを示す例である。画像952および962は、見慣れた場所(familiar environment)950でのユーザの動作を撮影したものである。この場所950では、ユーザの頭部956は比較的不動の状態にあり、右足966はブレーキペダル968から離れて停止状態にある。
これに対し、画像954および964は、馴染みのない場所980でのユーザの動作を撮影したものである。例えば、画像データ954に示すように、ユーザは頭部956を絶えず左右に動かして、周囲の環境(例えば、道路信号機、街路名、出口等)を確認しようとする。それに加えて、またはその代わりに、画像データ964に示すように、ユーザは右足966をブレーキペダル968の近くに移動したり、右足966をブレーキペダル968の上の位置に保持したりする。この足の動作は、見慣れない場所においては予測できないリスクに対して即座に制動行動を行えるように備えることを示す。同様に、頭部の動きは馴染みのない場所980での右左折を示しうる。
運転者行動予測エンジン105は、センサデータからパターンを判定するときに、運転者のパターンと、その場所に馴染みがあるかどうかとを(例えば、上述したパターンと馴染みの有無とを)関連づける。さらに、トレーニング過程において、運転者行動予測エンジン105の構成要素はパターンを状況(例えば、見慣れた場所と馴染みのない場所)において考慮するように適合される。
図10Aおよび図10Bは、予測される運転者行動の生成例を示したものである。図10Aにおいて、車両1002は交差点に接近中である。複数群のセンサ103は、車両1002が交差点に接近しているときのセンサデータを複数セット取得しうる。センサデータは、別の車両が交差点内を東に移動していることを示す画像データ1004と、車両の位置から見た車両のルートを反映するGPSデータ1006および1008と、車両のブレーキペダル上にあるユーザ115の右足を撮影した画像データ1010と、ユーザ115が頭部を回転して左側の道路状況を確認する様子を捕らえた画像データ1012と、車両1002の右側の方向指示器が点灯していることを示すCANデータ1014と、を含む。運転者行動予測エンジン105が複数のモダリティ(例えば、上述の検知要素)を考慮することで予測精度が向上する。例えば、画像データ1004がなければ、運転者行動予測エンジン105が本明細書で説明する方法を用いて生成する未来の運転者行動予測は、ユーザ115が4秒後に右折することを示すものとなるかもしれない。これに対し、画像データ1004があれば、運転者行動予測エンジン105は、ユーザ115が5秒後に右折しうるという運転者行動予測を生成できる。この判断は、画像データ1004において車両が交差点を通過するのに要する時間に基づいて行われる。これはトレーニング過程を通して学習される。いくつかの実装において、ADAシステム100は、予測される運転者行動に基づいて行動を実行しうる。例えば、予測される時間に車両のサスペンション装置を右左折に対して適合させたり、より正確なナビゲーション指示(例えば、どこをどう曲がるかの指示)を与えたりすること等が挙げられる。
図10Bにおいて、車両1002は交差点に接近中である。複数のセンサ103は、車両1002が交差点に接近しているときのセンサデータを複数取得する。センサデータは、別の車両が交差点内を東に移動していることを示す画像データ1004と、ルートの方向を示すGPSデータ1008と、ブレーキペダル上にあるユーザ115の右足を撮影した画像データ1010と、正面を向くユーザを撮影した画像データ1042と、赤信号1022を示す画像データ1020と、を含む。以前のトレーニングならびに前の反復(iteration)で行われた学習に基づき、運転者行動予測エンジン105は、ユーザ115が
ある時点で前進を開始するという運転者行動予測を、受信した複数のセンサデータに基づいて生成する。この時間は、前の反復またはトレーニングにおいて赤信号が変わるのに要した時間の長さに基づいて決定されてもよい。ADAシステム100は、予想に関連する行動を実行する。これには例えば、車両および/またはさまざまなシステムの始動、サスペンション装置の適合、ギアチェンジの実行、更新されたナビゲーション指示の提供等が挙げられる。
本明細書に記載するシステムおよび技法のいくつかの実装は、ディープな(双方向の)再帰型ニューラルネットワークを用いたセンサデータの時間融合に基づく効率的な運転者行動予測システムについて記載している。これらのシステムおよび技法は、過去の技術に比べて高精度で高速な予測を実現できる。そうしたシステムおよび技法は、認識ネットワーク731からの結果を用いて予測ネットワーク705をトレーニングするという利点を活かし、例えば、より多くの検知モダリティを利用可能とし、より高いスケーラビリティを提供する。いくつかの例において、本明細書に記載する運転者行動予測システムは、格納されたセンサデータへの直接的なアクセスを実現し、それによって、単に認識ネットワーク731からの瞬間的な結果に基づくのではなく、予測ネットワーク705を事後に構
築することができる。さらに、本明細書に記載する技法は、センサの特徴が予測と認識の両方に関係することを前提としていない。本明細書に記載する要素の組み合わせにより、一部の過去の技術に対して多くの利点が提供される。
本明細書に記載する、提案の運転者行動予測システムのいくつかの実装は、記載した有用性(例えば、非常に高い認識精度、長期の予測範囲、非常に高い予測精度、中程度の複雑さ、オンラインとオフライン両方のトレーニングオプション、柔軟性、および多数のセンサ入力)の1つ以上を実現する。他の形態のコンピュータ学習にはないこれら多数の利点は、軽微な逸脱、誤差、または遅延が負傷や器物損害に至りうる移動プラットフォーム101環境において重要である。
以上の説明では、本発明を十分に理解できるように、多くの詳細について説明した。しかしながら、各実施形態はこれらの具体的な詳細無しでも良いことは当業者にとって明らかであろう。また、説明が不明瞭になることを避けるために、構造や装置をブロック図の形式で表すこともある。たとえば、一実施形態は、ユーザインタフェースおよび特定のハードウェアとともに説明される。しかし、ここでの説明は、データおよびコマンドを受信する任意のタイプの計算装置および任意の周辺機器について適用できる。
以上の詳細な説明の一部は、非一時的(non-transitory)なコンピュータ可読記憶媒体に記憶されたデータビットに対する動作のアルゴリズムおよび記号的表現として提供される。これらのアルゴリズム的な説明および表現は、データ処理技術分野の当業者によって、他の当業者に対して自らの成果の本質を最も効果的に説明するために用いられるものである。なお、本明細書において(また一般に)アルゴリズムとは、所望の結果を得るための論理的な手順を意味する。処理のステップは、物理量を物理的に操作するものである。必ずしも必須ではないが、通常は、これらの量は記憶・伝送・結合・比較およびその他の処理が可能な電気的または磁気的信号の形式を取る。通例にしたがって、これらの信号をビット・値・要素・エレメント・シンボル・キャラクタ・項・数値などとして称することが簡便である。
なお、これらの用語および類似する用語はいずれも、適切な物理量と関連付いているものであり、これら物理量に対する簡易的なラベルに過ぎないということに留意する必要がある。説明から明らかなように、特に断らない限りは、本明細書において「処理」「計算」「コンピュータ計算(処理)」「判断」「表示」等の用語を用いた説明は、コンピュータシステムや類似の電子的計算装置の動作および処理であって、コンピュータシステムのレジスタやメモリ内の物理的(電子的)量を、他のメモリやレジスタまたは同様の情報ストレージや通信装置、表示装置内の物理量として表される他のデータへ操作および変形する動作および処理を意味する。
本発明は、本明細書で説明される動作を実行する装置にも関する。この装置は要求される目的のために特別に製造されるものであっても良いし、汎用コンピュータを用いて構成しコンピュータ内に格納されるプログラムによって選択的に実行されたり再構成されたりするものであっても良い。このようなコンピュータプログラムは、コンピュータのシステムバスに接続可能な、例えばフロッピー(登録商標)ディスク・光ディスク・CD−ROM・MOディスク・磁気ディスクなど任意のタイプのディスク、読み込み専用メモリ(ROM)、ランダムアクセスメモリ(RAM)、EPROM、EEPROM、磁気カード、フラッシュメモリ、光学式カード、電子的命令を格納するために適した任意のタイプの媒体などの、非一時的なコンピュータ可読記憶媒体に記憶される。
発明の具体的な実施形態は、完全にハードウェアによって実現されるものでも良いし、完全にソフトウェアによって実現されるものでも良いし、ハードウェアとソフトウェアの
両方によって実現されるものでも良い。好ましい実施形態は、ソフトウェアによって実現される。ここでソフトウェアとは、ファームウェア、常駐ソフトウェア、マイクロコードやその他のソフトウェアを含むものである。さらに、ある実施形態は、コンピュータが利用あるいは読み込み可能な記憶媒体からアクセス可能なコンピュータプログラムプロダクトの形態を取る。この記憶媒体は、コンピュータや任意の命令実行システムによってあるいはそれらと共に利用されるプログラムコードを提供する。コンピュータが利用あるいは読み込み可能な記憶媒体とは、命令実行システムや装置によってあるいはそれらと共に利用されるプログラムを、保持、格納、通信、伝搬および転送可能な任意の装置を指す。
プログラムコードを格納・実行するために適したデータ処理システムは、システムバスを介して記憶素子に直接または間接的に接続された少なくとも1つのプロセッサを有する。記憶素子は、プログラムコードの実際の実行に際して使われるローカルメモリや、大容量記憶装置や、実行中に大容量記憶装置からデータを取得する回数を減らすためにいくつかのプログラムコードを一時的に記憶するキャッシュメモリなどを含む。
入力/出力(I/O)装置は、例えばキーボード、ディスプレイ、ポインティング装置などであるが、これらはI/Oコントローラを介して直接あるいは間接的にシステムに接続される。
システムにはネットワークアダプタも接続されており、これにより、私的ネットワークや公共ネットワークを介して他のデータ処理システムやリモートにあるプリンタや記憶装置に接続される。モデム、ケーブルモデム、イーサネット(登録商標)は、現在利用可能なネットワークアダプタのほんの一例である。
最後に、本明細書において提示されるアルゴリズムおよび表示は特定のコンピュータや他の装置と本来的に関連するものではない。本明細書における説明にしたがったプログラムを有する種々の汎用システムを用いることができるし、また要求された処理ステップを実行するための特定用途の装置を製作することが適した場合もある。これら種々のシステムに要求される構成は、以上の説明において明らかにされる。さらに、本発明は、特定のプログラミング言語と関連づけられるものではない。本明細書で説明される本発明の内容を実装するために種々のプログラミング言語を利用できることは明らかであろう。
実施形態の前述の説明は、例示と説明を目的として行われたものである。したがって、開示された実施形態が本発明の全てではないし、本発明を上記の実施形態に限定するものでもない。本発明は、上記の開示にしたがって、種々の変形が可能である。本発明の範囲は上述の実施形態に限定解釈されるべきではなく、特許請求の範囲にしたがって解釈されるべきである。本発明の技術に詳しい者であれば、本発明はその思想や本質的特徴から離れることなくその他の種々の形態で実現できることを理解できるであろう。同様に、モジュール・処理・特徴・属性・方法およびその他の本発明の態様に関する名前付けや分割方法は必須なものでものないし重要でもない。また、本発明やその特徴を実装する機構は異なる名前や分割方法や構成を備えていても構わない。
さらに、当業者であれば、モジュール・処理・特徴・属性・方法およびその他の本発明の態様は、ソフトウェア、ハードウェア、ファームウェアもしくはこれらの組合せとして実装できることを理解できるであろう。また、本発明をソフトウェアとして実装する場合には、モジュールなどの各要素は、どのような様式で実装されても良い。例えば、スタンドアローンのプログラム、大きなプログラムの一部、異なる複数のプログラム、静的あるいは動的なリンクライブラリー、カーネルローダブルモジュール、デバイスドライバー、その他コンピュータプログラミングの当業者にとって既知な方式として実装することができる。さらに、本発明の実装は特定のプログラミング言語に限定されるものではないし、特定のオペレーティングシステムや環境に限定されるものでもない。以上のように、上記
の本発明の説明は限定的なものではなく例示的なものであり、本発明の範囲は添付の特許請求の範囲にしたがって定められる。
100 先進運転支援システム
101 移動プラットフォーム
103 センサ
105 運転者行動予測エンジン
105 総合認知エンジン
107 ナビゲーションアプリケーション
109 CANデータ記憶装置
111 ネットワーク
113 センサデータ記憶装置
115 ユーザ
117 クライアントデバイス
121 モデリングサーバ
123 認識データ記憶装置
131 地図サーバ
132 地図データベース
134 POIデータベース

Claims (16)

  1. 1つ以上の計算装置が、過去のある時点における移動中の車両の特性を記述するセンサデータを受信する工程と、
    前記1つ以上の計算装置が、予測用特徴と認識用特徴とを前記センサデータから抽出する工程と、
    前記1つ以上の計算装置が、予測用特徴を予測ネットワークに入力する工程と、
    前記1つ以上の計算装置が、過去の運転者行動に対する予測ラベルを、前記予測ネットワークを用いて前記予測用特徴に基づいて生成する工程と、
    前記1つ以上の計算装置が、認識用特徴を認識ネットワークに入力する工程と、
    前記1つ以上の計算装置が、過去の運転者行動に対する認識ラベルを、前記認識ネットワークを用いて前記認識用特徴に基づいて生成する工程と、
    前記1つ以上の計算装置が、前記予測ネットワークの1つ以上の予測ネットワーク重みを、前記認識ラベルと前記予測ラベルとを用いてトレーニングする工程と、
    を含む、方法。
  2. 前記予測ネットワークは、1つ以上の再帰型ニューラルネットワークを含む、
    請求項1に記載の方法。
  3. 前記1つ以上の計算装置が、当該1つ以上の計算装置と電子的に通信可能に結合された1つ以上のセンサから、前記車両の現在の特性を記述する現在センサデータを受信する工程と、
    前記1つ以上の計算装置が、現在の予測用特徴を前記現在センサデータから抽出する工程と、
    前記1つ以上の計算装置が、前記現在の予測用特徴を前記予測ネットワークに入力する工程と、
    前記1つ以上の計算装置が、将来の運転者行動予測を、1つ以上の予測ネットワーク重み、前記現在の予測用特徴、および前記予測ネットワークを用いて生成する工程と、
    をさらに含む、請求項1または2に記載の方法。
  4. 前記予測ラベルを生成する工程は、
    前記1つ以上の計算装置が、前記予測用特徴を逆方向系列処理部に入力するステップと、
    前記1つ以上の計算装置が、前記予測用特徴を順方向系列処理部に入力するステップと、
    を含む、請求項1から3のいずれか1項に記載の方法。
  5. 前記予測ラベルを生成する工程は、
    前記1つ以上の計算装置が、前記逆方向系列処理部の出力と前記順方向系列処理部の出力とを時間融合処理部を用いて融合するステップと、
    前記1つ以上の計算装置が、分類器を用いて、前記時間融合処理部の出力を運転者行動の予測ラベルにマッピングするステップと、
    をさらに含む、請求項4に記載の方法。
  6. 前記逆方向系列処理部の出力と前記順方向系列処理部の出力とを前記融合するステップは、
    前記1つ以上の計算装置上で実行可能な時間融合処理部が、前記逆方向系列処理部の出力の時間的系列と前記順方向系列処理部の出力の時間的系列とを用いた時間的表現を生成するステップをさらに含む、
    請求項5に記載の方法。
  7. 前記過去の運転者行動に対する認識ラベルを生成する工程は、
    前記1つ以上の計算装置が、前記認識用特徴を、1つ以上の事前トレーニングされた運転者行動認識モデルに入力するステップを、を含む、
    請求項1から6のいずれか1項に記載の方法。
  8. 前記予測ネットワーク重みをトレーニングする工程は、
    前記認識ラベルと前記予測ラベルの間の誤差を決定するステップと、
    前記誤差を、打ち切り型通時的逆伝播アルゴリズムに入力するステップと、
    を含む、請求項1から7のいずれか1項に記載の方法。
  9. 前記逆方向系列処理部および前記順方向系列処理部に入力される前記予測用特徴は、所定期間のセンサデータから得られる時系列データであり、
    前記逆方向系列処理部は、複数の再帰型ニューラルネットワークがカスケード接続されたものであり、前記時系列データを逆方向に処理し、
    前記順方向系列処理部は、複数の再帰型ニューラルネットワークがカスケード接続されたものであり、前記時系列データを順方向に処理する、
    請求項4から6のいずれか1項に記載の方法。
  10. 請求項1から9のいずれか1項に記載の方法をコンピュータに実行させるプログラム。
  11. プロセッサと、
    請求項10に記載のプログラムを格納したメモリと、
    を備える、コンピュータシステム。
  12. 1つ以上のセンサから提供されるセンサデータを取得する取得手段と、
    前記センサから提供されるセンサデータから、認識用特徴と予測用特徴を抽出する特徴抽出手段と、
    前記認識用特徴に基づいて、行動認識を行う認識ネットワークを用いて認識ラベルを生成する行動認識手段と、
    前記予測用特徴に基づいて、行動予測を行う予測ネットワークを用いて予測ラベルを生成する行動予測手段と、
    前記予測ネットワークの1つ以上の予測ネットワーク重みを、前記認識ラベルと前記予測ラベルとを用いてトレーニングするトレーニング手段と、
    を備える、行動予測装置。
  13. 前記予測ネットワークは、1つ以上の再帰型ニューラルネットワークを含む、
    請求項12に記載の行動予測装置。
  14. 前記行動予測手段は、逆方向系列処理手段と順方向系列処理手段と時間融合処理手段と識別手段と、を含み、
    前記逆方向系列処理手段と前記順方向系列処理手段と前記時間融合処理手段とは、いずれも複数の再帰型ニューラルネットワークがカスケード接続されたものであり、
    前記逆方向系列処理手段および前記順方向系列処理手段に入力される前記予測用特徴は、所定期間のセンサデータから得られる時系列データであり、
    前記逆方向系列処理手段は、前記時系列データを逆方向に処理し、
    前記順方向系列処理手段は、前記時系列データを順方向に処理し、
    前記時間融合処理手段は、前記逆方向系列処理手段の出力の時間的系列と前記順方向系列処理手段の出力の時間的系列とを用いた時間的表現を生成し、
    前記識別手段は、前記時間融合処理手段の出力を行動の予測ラベルにマッピングする、
    請求項12または13に記載の行動予測装置。
  15. 前記トレーニング手段は、前記認識ラベルと前記予測ラベルの間の誤差に基づいて、打ち切り型通時的逆伝播アルゴリズムを利用して、前記予測ネットワークの重みを決定する、
    請求項12から14のいずれか1項に記載の行動予測装置。
  16. 前記行動認識手段の認識ネットワークは、事前トレーニングにより生成された行動認識モデルに基づいて、前記認識用特徴から前記認識ラベルを生成する、
    請求項12から15のいずれか1項に記載の行動予測装置。
JP2017151456A 2016-08-16 2017-08-04 ディープ(双方向)再帰型ニューラルネットワークを用いたセンサデータの時間融合に基づく効率的な運転者行動予測システム Expired - Fee Related JP6369611B2 (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US15/238,646 2016-08-16
US15/238,646 US10611379B2 (en) 2016-08-16 2016-08-16 Integrative cognition of driver behavior
US15/362,720 2016-11-28
US15/362,720 US11120353B2 (en) 2016-08-16 2016-11-28 Efficient driver action prediction system based on temporal fusion of sensor data using deep (bidirectional) recurrent neural network

Publications (2)

Publication Number Publication Date
JP2018028906A true JP2018028906A (ja) 2018-02-22
JP6369611B2 JP6369611B2 (ja) 2018-08-08

Family

ID=61191804

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017151456A Expired - Fee Related JP6369611B2 (ja) 2016-08-16 2017-08-04 ディープ(双方向)再帰型ニューラルネットワークを用いたセンサデータの時間融合に基づく効率的な運転者行動予測システム

Country Status (2)

Country Link
US (1) US11120353B2 (ja)
JP (1) JP6369611B2 (ja)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019175462A (ja) * 2018-03-29 2019-10-10 コリア インスティテュート オブ オーシャン サイエンス テクノロジー 教師なし学習方法を用いた船舶の異常運航状態自動識別システムおよびその方法
JP2019192228A (ja) * 2018-04-27 2019-10-31 本田技研工業株式会社 車線レベル危険予測のためのシステム及び方法
JP2020013547A (ja) * 2018-04-27 2020-01-23 タタ コンサルタンシー サービシズ リミテッドTATA Consultancy Services Limited ドメイン適応可能人間行動推論のための統合されたプラットフォーム
WO2020040975A1 (en) * 2018-08-21 2020-02-27 Lyft, Inc. Systems and methods for detecting and recording anomalous vehicle events
JP2020123333A (ja) * 2019-01-30 2020-08-13 株式会社ストラドビジョンStradvision,Inc. 走行途中に発生する走行シナリオを検出して、運転者の走行習慣を評価するための情報の提供する方法及び装置
JP2020126640A (ja) * 2019-01-31 2020-08-20 株式会社ストラドビジョンStradvision,Inc. 自律走行の安全性を提供するための方法及び装置
JP2021012686A (ja) * 2019-06-19 2021-02-04 アクセンチュア グローバル ソリューションズ リミテッド 拡大現実のための粒度の細かい2値化
JP2021092962A (ja) * 2019-12-10 2021-06-17 矢崎エナジーシステム株式会社 車載機、処理装置及びプログラム
WO2022049619A1 (ja) * 2020-09-01 2022-03-10 三菱電機株式会社 識別装置、学習装置およびモデル生成方法
US11636315B2 (en) 2018-07-26 2023-04-25 Kabushiki Kaisha Toshiba Synapse circuit and arithmetic device
US11644211B2 (en) 2019-03-20 2023-05-09 Fujitsu Limited Air conditioner control based on prediction from classification model

Families Citing this family (79)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU2017285130B2 (en) 2016-06-13 2022-04-21 Xevo Inc. Method and system for providing auto space management using virtuous cycle
JP6373323B2 (ja) * 2016-09-30 2018-08-15 本田技研工業株式会社 移動体制御装置、及び移動体
EP3559897A4 (en) * 2016-12-22 2020-08-12 Xevo Inc. METHOD AND SYSTEM FOR PROVIDING ARTIFICIAL INTELLIGENCE (AIA) ANALYTICAL SERVICES USING A USER'S FINGERPRINT AND CLOUD DATA
US10241520B2 (en) * 2016-12-22 2019-03-26 TCL Research America Inc. System and method for vision-based flight self-stabilization by deep gated recurrent Q-networks
US10061909B2 (en) * 2016-12-29 2018-08-28 Qualcomm Incorporated Device authentication based on behavior classification using convolution neural network
US11615285B2 (en) 2017-01-06 2023-03-28 Ecole Polytechnique Federale De Lausanne (Epfl) Generating and identifying functional subnetworks within structural networks
US20200257957A1 (en) * 2017-02-16 2020-08-13 Gopro, Inc. Systems and methods for classifying events monitored by sensors
US11190944B2 (en) 2017-05-05 2021-11-30 Ball Aerospace & Technologies Corp. Spectral sensing and allocation using deep machine learning
US11027741B2 (en) * 2017-11-15 2021-06-08 Electronics And Telecommunications Research Institute Apparatus and method for estimating driver readiness and method and system for assisting driver
US11328210B2 (en) 2017-12-29 2022-05-10 Micron Technology, Inc. Self-learning in distributed architecture for enhancing artificial neural network
CN109858046B (zh) * 2018-02-09 2024-03-08 谷歌有限责任公司 利用辅助损失来学习神经网络中的长期依赖性
US11501105B2 (en) * 2018-03-02 2022-11-15 Zoox, Inc. Automatic creation and updating of maps
US11934520B2 (en) * 2018-03-28 2024-03-19 Nvidia Corporation Detecting data anomalies on a data interface using machine learning
CN110321547A (zh) * 2018-03-30 2019-10-11 北京四维图新科技股份有限公司 一种命名实体确定方法及装置
US11328219B2 (en) * 2018-04-12 2022-05-10 Baidu Usa Llc System and method for training a machine learning model deployed on a simulation platform
US10522038B2 (en) 2018-04-19 2019-12-31 Micron Technology, Inc. Systems and methods for automatically warning nearby vehicles of potential hazards
CN108595428A (zh) * 2018-04-25 2018-09-28 杭州闪捷信息科技股份有限公司 基于双向循环神经网络进行分词的方法
CN108776779B (zh) * 2018-05-25 2022-09-23 西安电子科技大学 基于卷积循环网络的sar序列图像目标识别方法
TWI701174B (zh) * 2018-06-06 2020-08-11 緯創資通股份有限公司 駕駛預測方法及其處理裝置與系統
US11663478B2 (en) 2018-06-11 2023-05-30 Inait Sa Characterizing activity in a recurrent artificial neural network
US11972343B2 (en) 2018-06-11 2024-04-30 Inait Sa Encoding and decoding information
US11893471B2 (en) 2018-06-11 2024-02-06 Inait Sa Encoding and decoding information and artificial neural networks
EP3594859A1 (en) * 2018-07-09 2020-01-15 Tata Consultancy Services Limited Failed and censored instances based remaining useful life (rul) estimation of entities
CN110766163B (zh) * 2018-07-10 2023-08-29 第四范式(北京)技术有限公司 用于实施机器学习过程的系统
CN108875708A (zh) * 2018-07-18 2018-11-23 广东工业大学 基于视频的行为分析方法、装置、设备、系统及存储介质
EP3827417A4 (en) 2018-07-23 2022-04-27 Magic Leap, Inc. RECURRENT NEURAL NETWORK WITH DEPTH PREDICTOR FOR HEADPOST PREDICTION
US10678245B2 (en) * 2018-07-27 2020-06-09 GM Global Technology Operations LLC Systems and methods for predicting entity behavior
US11551139B1 (en) 2018-07-31 2023-01-10 Gridwise, Inc. Transportation activity classification system and method
US10902616B2 (en) * 2018-08-13 2021-01-26 Nvidia Corporation Scene embedding for visual navigation
US10981564B2 (en) * 2018-08-17 2021-04-20 Ford Global Technologies, Llc Vehicle path planning
US11514293B2 (en) * 2018-09-11 2022-11-29 Nvidia Corporation Future object trajectory predictions for autonomous machine applications
SE1851129A1 (en) * 2018-09-21 2019-06-17 Scania Cv Ab Method and control arrangement for model based vehicle applica-tions
SE1851126A1 (en) * 2018-09-21 2019-06-17 Scania Cv Ab Method and control arrangement for distributed training for vehi-cle model based decisions
US11040714B2 (en) * 2018-09-28 2021-06-22 Intel Corporation Vehicle controller and method for controlling a vehicle
US11182672B1 (en) * 2018-10-09 2021-11-23 Ball Aerospace & Technologies Corp. Optimized focal-plane electronics using vector-enhanced deep learning
US11061406B2 (en) * 2018-10-22 2021-07-13 Waymo Llc Object action classification for autonomous vehicles
KR102374448B1 (ko) * 2018-11-02 2022-03-15 서울대학교산학협력단 사용자의 의도 예측 방법 및 이를 수행하기 위한 장치
US11577750B2 (en) 2018-11-08 2023-02-14 Bayerische Motoren Werke Aktiengesellschaft Method and apparatus for determining a vehicle comfort metric for a prediction of a driving maneuver of a target vehicle
KR102125349B1 (ko) * 2018-11-30 2020-06-22 연세대학교 산학협력단 행동 패턴 추론 장치 및 방법
KR102592830B1 (ko) 2018-12-05 2023-10-23 현대자동차주식회사 차량용 센서퓨전 타겟 예측 장치 및 그의 센서 퓨전 타겟 예측 방법과 그를 포함하는 차량
CN109902565B (zh) * 2019-01-21 2020-05-05 深圳市烨嘉为技术有限公司 多特征融合的人体行为识别方法
US11851217B1 (en) * 2019-01-23 2023-12-26 Ball Aerospace & Technologies Corp. Star tracker using vector-based deep learning for enhanced performance
CN109886477B (zh) * 2019-01-25 2022-11-04 平安科技(深圳)有限公司 水污染的预测方法、装置及电子设备
US11373466B2 (en) 2019-01-31 2022-06-28 Micron Technology, Inc. Data recorders of autonomous vehicles
US11410475B2 (en) 2019-01-31 2022-08-09 Micron Technology, Inc. Autonomous vehicle data recorders
EP3696791B1 (en) 2019-02-13 2021-05-05 Fujitsu Limited Prediction of intention of path deviance for vehicles
CN113573939B (zh) * 2019-02-14 2023-08-22 华为技术有限公司 用于智能设备上的基于顺序微活动的驾驶员检测的方法和系统
EP3696734A1 (en) * 2019-02-15 2020-08-19 Siemens Aktiengesellschaft Tensor-train recurrent neural network supported autonomous and assisted driving
US11412124B1 (en) 2019-03-01 2022-08-09 Ball Aerospace & Technologies Corp. Microsequencer for reconfigurable focal plane control
US11569978B2 (en) 2019-03-18 2023-01-31 Inait Sa Encrypting and decrypting information
US11652603B2 (en) 2019-03-18 2023-05-16 Inait Sa Homomorphic encryption
US11488024B1 (en) 2019-05-29 2022-11-01 Ball Aerospace & Technologies Corp. Methods and systems for implementing deep reinforcement module networks for autonomous systems control
US11303348B1 (en) 2019-05-29 2022-04-12 Ball Aerospace & Technologies Corp. Systems and methods for enhancing communication network performance using vector based deep learning
US11131993B2 (en) 2019-05-29 2021-09-28 Argo AI, LLC Methods and systems for trajectory forecasting with recurrent neural networks using inertial behavioral rollout
CN110210454B (zh) * 2019-06-17 2020-12-29 合肥工业大学 一种基于数据融合的人体动作预判方法
US11526375B2 (en) * 2019-06-17 2022-12-13 Bank Of America Corporation Systems and methods for pre-executing idiosyncratic computation through the application of algorithmic prediction of user behavior patterns
WO2020261333A1 (ja) * 2019-06-24 2020-12-30 日本電気株式会社 学習装置、交通事象予測システム及び学習方法
US11392796B2 (en) 2019-08-20 2022-07-19 Micron Technology, Inc. Feature dictionary for bandwidth enhancement
US11636334B2 (en) 2019-08-20 2023-04-25 Micron Technology, Inc. Machine learning with feature obfuscation
US11755884B2 (en) 2019-08-20 2023-09-12 Micron Technology, Inc. Distributed machine learning with privacy protection
US11551488B2 (en) * 2019-08-22 2023-01-10 GM Global Technology Operations LLC Adaptive fault diagnostic system for motor vehicles
CN110717381A (zh) * 2019-08-28 2020-01-21 北京航空航天大学 面向人机协作的基于深度堆叠Bi-LSTM的人类意图理解方法
US11828598B1 (en) 2019-08-28 2023-11-28 Ball Aerospace & Technologies Corp. Systems and methods for the efficient detection and tracking of objects from a moving platform
US11590969B1 (en) * 2019-12-04 2023-02-28 Zoox, Inc. Event detection based on vehicle data
US10820166B1 (en) 2019-12-04 2020-10-27 Toyota Connected North America, Inc. Systems and methods for obtaining location intelligence
US11816553B2 (en) * 2019-12-11 2023-11-14 Inait Sa Output from a recurrent neural network
US11651210B2 (en) 2019-12-11 2023-05-16 Inait Sa Interpreting and improving the processing results of recurrent neural networks
US11580401B2 (en) 2019-12-11 2023-02-14 Inait Sa Distance metrics and clustering in recurrent neural networks
US11797827B2 (en) 2019-12-11 2023-10-24 Inait Sa Input into a neural network
WO2021134417A1 (zh) * 2019-12-31 2021-07-08 深圳市优必选科技股份有限公司 交互行为预测方法、智能装置和计算机可读存储介质
US11687778B2 (en) 2020-01-06 2023-06-27 The Research Foundation For The State University Of New York Fakecatcher: detection of synthetic portrait videos using biological signals
DE102020200911B3 (de) * 2020-01-27 2020-10-29 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren zum Erkennen von Objekten in einer Umgebung eines Fahrzeugs
US20220067443A1 (en) * 2020-09-02 2022-03-03 Oath Inc. System and method for model-agnostic meta-learner for noisy data with label errors
US11648965B2 (en) 2020-09-28 2023-05-16 Argo AI, LLC Method and system for using a reaction of other road users to ego-vehicle actions in autonomous driving
CN112558510B (zh) * 2020-10-20 2022-11-15 山东亦贝数据技术有限公司 一种智能网联汽车安全预警系统及预警方法
CN112434686B (zh) * 2020-11-16 2023-05-23 浙江大学 针对ocr图片的端到端含错文本分类识别仪
CN112519769A (zh) * 2020-11-20 2021-03-19 上善智城(苏州)信息科技有限公司 一种基于驾驶习惯智能学习技术的制动方法及装置
US20230091581A1 (en) * 2021-09-21 2023-03-23 Bank Of America Corporation Personal Data Discovery
CN115033676B (zh) * 2022-06-22 2024-04-26 支付宝(杭州)信息技术有限公司 一种意图识别模型训练及用户意图识别方法及装置

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0581228A (ja) * 1991-09-19 1993-04-02 Hitachi Ltd ニユーラルネツトワークの構成方法および学習/想起システム
JPH07101271A (ja) * 1993-08-10 1995-04-18 Mitsubishi Motors Corp 車両運転操作状態の推定方法および車両運転特性制御方法
US20030093209A1 (en) * 2001-10-15 2003-05-15 Hans Andersson Method and system for controlling a vehicle
JP2007122362A (ja) * 2005-10-27 2007-05-17 Toyota Motor Corp ニューラルネットワークを用いた状態推定方法及びニューラルネットワークを用いた状態推定装置
JP2009245149A (ja) * 2008-03-31 2009-10-22 Equos Research Co Ltd 運転支援装置及び運転支援方法
JP2010033549A (ja) * 2008-06-23 2010-02-12 Denso It Laboratory Inc 情報提供装置、情報提供方法、プログラムおよび情報提供システム
JP2012118741A (ja) * 2010-11-30 2012-06-21 Toyota Central R&D Labs Inc 可動物の目標状態決定装置及びプログラム
WO2016170786A1 (ja) * 2015-04-21 2016-10-27 パナソニックIpマネジメント株式会社 情報処理システム、情報処理方法、およびプログラム

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008033439A2 (en) * 2006-09-13 2008-03-20 Aurilab, Llc Robust pattern recognition system and method using socratic agents
JP2009234442A (ja) 2008-03-27 2009-10-15 Equos Research Co Ltd 運転操作支援装置
JP5385056B2 (ja) 2009-08-31 2014-01-08 株式会社デンソー 運転状況推定装置,運転支援装置
JP5440080B2 (ja) 2009-10-02 2014-03-12 ソニー株式会社 行動パターン解析システム、携帯端末、行動パターン解析方法、及びプログラム
US20140236386A1 (en) 2011-09-22 2014-08-21 Toyota Jidosha Kabushiki Kaisha Driving assistance apparatus
US9875445B2 (en) * 2014-02-25 2018-01-23 Sri International Dynamic hybrid models for multimodal analysis
JP2016119792A (ja) 2014-12-22 2016-06-30 三菱ふそうトラック・バス株式会社 発電制御装置
US10366158B2 (en) 2015-09-29 2019-07-30 Apple Inc. Efficient word encoding for recurrent neural network language models
US10611379B2 (en) 2016-08-16 2020-04-07 Toyota Jidosha Kabushiki Kaisha Integrative cognition of driver behavior

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0581228A (ja) * 1991-09-19 1993-04-02 Hitachi Ltd ニユーラルネツトワークの構成方法および学習/想起システム
JPH07101271A (ja) * 1993-08-10 1995-04-18 Mitsubishi Motors Corp 車両運転操作状態の推定方法および車両運転特性制御方法
US20030093209A1 (en) * 2001-10-15 2003-05-15 Hans Andersson Method and system for controlling a vehicle
JP2007122362A (ja) * 2005-10-27 2007-05-17 Toyota Motor Corp ニューラルネットワークを用いた状態推定方法及びニューラルネットワークを用いた状態推定装置
JP2009245149A (ja) * 2008-03-31 2009-10-22 Equos Research Co Ltd 運転支援装置及び運転支援方法
JP2010033549A (ja) * 2008-06-23 2010-02-12 Denso It Laboratory Inc 情報提供装置、情報提供方法、プログラムおよび情報提供システム
JP2012118741A (ja) * 2010-11-30 2012-06-21 Toyota Central R&D Labs Inc 可動物の目標状態決定装置及びプログラム
WO2016170786A1 (ja) * 2015-04-21 2016-10-27 パナソニックIpマネジメント株式会社 情報処理システム、情報処理方法、およびプログラム

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
和久屋 寛、外2名: "時系列信号処理を行う自己組織化マップのアーキテクチャと点字認識課題への応用", 電子情報通信学会論文誌, vol. 第J87−D−II巻,第3号, JPN6018021315, 1 March 2004 (2004-03-01), JP, pages 884 - 892, ISSN: 0003813125 *
得居 誠也: "ニューラルネットワークの実装 −深層学習フレームワークの構成とChainerの設計思想−", 人工知能, vol. 第31巻,第2号, JPN6018021316, 1 March 2016 (2016-03-01), JP, pages 216 - 222, ISSN: 0003813126 *

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019175462A (ja) * 2018-03-29 2019-10-10 コリア インスティテュート オブ オーシャン サイエンス テクノロジー 教師なし学習方法を用いた船舶の異常運航状態自動識別システムおよびその方法
JP2019192228A (ja) * 2018-04-27 2019-10-31 本田技研工業株式会社 車線レベル危険予測のためのシステム及び方法
JP2020013547A (ja) * 2018-04-27 2020-01-23 タタ コンサルタンシー サービシズ リミテッドTATA Consultancy Services Limited ドメイン適応可能人間行動推論のための統合されたプラットフォーム
JP7343869B2 (ja) 2018-04-27 2023-09-13 本田技研工業株式会社 車線レベル危険予測のためのシステム及び方法
US11636315B2 (en) 2018-07-26 2023-04-25 Kabushiki Kaisha Toshiba Synapse circuit and arithmetic device
WO2020040975A1 (en) * 2018-08-21 2020-02-27 Lyft, Inc. Systems and methods for detecting and recording anomalous vehicle events
US20200065711A1 (en) * 2018-08-21 2020-02-27 Lyft, Inc. Systems and methods for detecting and recording anomalous vehicle events
US11861458B2 (en) * 2018-08-21 2024-01-02 Lyft, Inc. Systems and methods for detecting and recording anomalous vehicle events
CN112888611A (zh) * 2018-08-21 2021-06-01 莱夫特公司 用于检测和记录异常车辆事件的系统和方法
JP2020123333A (ja) * 2019-01-30 2020-08-13 株式会社ストラドビジョンStradvision,Inc. 走行途中に発生する走行シナリオを検出して、運転者の走行習慣を評価するための情報の提供する方法及び装置
JP2020126640A (ja) * 2019-01-31 2020-08-20 株式会社ストラドビジョンStradvision,Inc. 自律走行の安全性を提供するための方法及び装置
US11644211B2 (en) 2019-03-20 2023-05-09 Fujitsu Limited Air conditioner control based on prediction from classification model
JP7042303B2 (ja) 2019-06-19 2022-03-25 アクセンチュア グローバル ソリューションズ リミテッド 拡大現実のための粒度の細かい2値化
US11586942B2 (en) 2019-06-19 2023-02-21 Accenture Global Solutions Limited Granular binarization for extended reality
JP2021012686A (ja) * 2019-06-19 2021-02-04 アクセンチュア グローバル ソリューションズ リミテッド 拡大現実のための粒度の細かい2値化
JP2021092962A (ja) * 2019-12-10 2021-06-17 矢崎エナジーシステム株式会社 車載機、処理装置及びプログラム
JP7295790B2 (ja) 2019-12-10 2023-06-21 矢崎エナジーシステム株式会社 車載機、処理装置及びプログラム
WO2022049619A1 (ja) * 2020-09-01 2022-03-10 三菱電機株式会社 識別装置、学習装置およびモデル生成方法
JPWO2022049619A1 (ja) * 2020-09-01 2022-03-10
JP7221454B2 (ja) 2020-09-01 2023-02-13 三菱電機株式会社 識別装置、学習装置およびモデル生成方法

Also Published As

Publication number Publication date
US20180053108A1 (en) 2018-02-22
US11120353B2 (en) 2021-09-14
JP6369611B2 (ja) 2018-08-08

Similar Documents

Publication Publication Date Title
JP6369611B2 (ja) ディープ(双方向)再帰型ニューラルネットワークを用いたセンサデータの時間融合に基づく効率的な運転者行動予測システム
US10611379B2 (en) Integrative cognition of driver behavior
US20180053102A1 (en) Individualized Adaptation of Driver Action Prediction Models
JP6738932B2 (ja) シミュレーションプラットフォームに配置された、機械学習モデルを訓練するためのシステム及び方法
JP6894471B2 (ja) 自動運転車(adv)のサブシステムによるパトロールカーのパトロール
JP6341311B2 (ja) ドライバの動的道路シーンに対する精通度インデックスのリアルタイム作成
JP6642744B2 (ja) 複数のコネクティッド車両による観測値を関連付ける方法
JP7399075B2 (ja) 情報処理装置、情報処理方法及びプログラム
KR102070527B1 (ko) 자율 주행 차량 교통 예측에서 예측되는 궤적에 대한 평가 프레임 워크
JP6684346B2 (ja) 車両の周囲の状況に基づいて車両の一つ又は複数の軌跡を予測する方法とシステム
US11055544B2 (en) Electronic device and control method thereof
CN109933062A (zh) 自动驾驶车辆的报警系统
JP2021506000A (ja) 多段画像ベースの物体検出および認識
JP2020004402A (ja) ニューラルネットワークに基づく自動運転車両用の安全監視システム
US9875583B2 (en) Vehicle operational data acquisition responsive to vehicle occupant voice inputs
CN116767245A (zh) 使用自主系统和应用的神经网络的地图信息对象数据管理
CN117058730A (zh) 用于机器学习模型的数据集生成和增强
US20230185992A1 (en) Managing states of a simulated environment
US20230196787A1 (en) Estimating object uncertainty using a pre-non-maximum suppression ensemble
US11904870B2 (en) Configuration management system for autonomous vehicle software stack
CN112825136B (zh) 自主机器应用中使用radar传感器检测障碍物的深度神经网络
US20230196731A1 (en) System and method for two-stage object detection and classification
US20240087450A1 (en) Emergency vehicle intent detection
US20230215134A1 (en) System and method for image comparison using multi-dimensional vectors
US20230194692A1 (en) Radar tracking association with velocity matching by leveraging kinematics priors

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180525

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180612

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180625

R151 Written notification of patent or utility model registration

Ref document number: 6369611

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees