JP6905433B2 - 車両行動予測装置、車両行動予測方法および車両行動予測用のニューラルネットワークの学習方法 - Google Patents

車両行動予測装置、車両行動予測方法および車両行動予測用のニューラルネットワークの学習方法 Download PDF

Info

Publication number
JP6905433B2
JP6905433B2 JP2017175485A JP2017175485A JP6905433B2 JP 6905433 B2 JP6905433 B2 JP 6905433B2 JP 2017175485 A JP2017175485 A JP 2017175485A JP 2017175485 A JP2017175485 A JP 2017175485A JP 6905433 B2 JP6905433 B2 JP 6905433B2
Authority
JP
Japan
Prior art keywords
vehicle
vehicle information
future
information
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017175485A
Other languages
English (en)
Other versions
JP2019053377A (ja
Inventor
育郎 佐藤
育郎 佐藤
国慶 劉
国慶 劉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso IT Laboratory Inc
Original Assignee
Denso IT Laboratory Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso IT Laboratory Inc filed Critical Denso IT Laboratory Inc
Priority to JP2017175485A priority Critical patent/JP6905433B2/ja
Publication of JP2019053377A publication Critical patent/JP2019053377A/ja
Application granted granted Critical
Publication of JP6905433B2 publication Critical patent/JP6905433B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は、未来における車両の行動を予測するための車両行動予測装置、車両行動予測方法および車両行動予測用のニューラルネットワークの学習方法に関する。
車載カメラなどのセンシング装置を使って歩行者を検知し、車両のドライバに報知するシステムが知られている。このようなシステムでは、車両の行動を予測し、車両から歩行者の近傍に到達するまでの時間を推定する必要がある。
非特許文献1では、車両の前方を撮影する単眼カメラを使って路上の対象オブジェクト(歩行者等)を検知し、該対象オブジェクトと衝突する危険性がある場合に、所定の数式モデルを適用して車両が対象オブジェクトと衝突するまでの時間を推定している。ところが、非特許文献1では、相対速度一定ないしは相対加速度一定を仮定しており、このような仮定が成立しない場合には精度よく衝突までの時間を推定できない。
そこで、数式モデルを適用するのではなく、予め運転挙動を学習した人工知能を利用して車両の行動を予測し、衝突までの時間を推定することも考えられる。しかしながら、通常の人工知能は最も可能性が高い1つの車両行動を予測するため、この予測が外れた場合には、そもそも必要とする時間の推定が行われない。
Raphael, E., Kiefer, R., Reisman, P., and Hayon, G., "Development of a Camera-Based Forward Collision Alert System," SAE Int. J. Passeng. Cars Mech. Syst. 4(1):467-478, 2011, doi:10.4271/2011-01-0579. Yichuan Tang and Ruslan R. Salahhutdinov, "Learning Stochastic Feedforward Neural Networhs", Advances in Neural Information Processing Systems 26 (NIPS 2013).
本発明はこのような問題点に鑑みてなされたものであり、本発明の課題は、対象オブジェクトの近傍に到達するまでの時間をより高精度に推定することを可能とする車両行動予測装置、車両行動予測方法および車両行動予測用のニューラルネットワークの学習方法を提供することである。
本発明の一態様によれば、過去の画像情報および過去の車両情報から未来における車両情報を出力するように予め学習が行われたニューラルネットワークを有し、特定車両についての過去の画像情報および車両情報に基づいて、未来における前記特定車両の複数パターンの車両情報を予測する学習器を備える車両行動予測装置が提供される。
複数パターンの車両情報を予測するため、想定し得る各パターンについて対象オブジェクトの近傍に到達するまでの時間を算出可能となり、推定が向上する。
前記学習器は、前記特定車両についての過去の画像情報を畳み込み処理する畳み込み層と、前記畳み込み層からの処理結果に応じた値が入力され、前記未来における車両情報を予測するために用いられる値を出力する全結合層と、を有し、前記全結合層は、入力される値に応じて、複数の値のうちのいずれかの値を確率的に出力する確率ニューロンを含むのが望ましい。
確率ニューロンが複数の値のうちのいずれかの値を確率的に出力することで、複数パターンの車両情報を予測できる。
具体的には、前記確率ニューロンは、前記確率ニューロンに入力される値と、予め行われた学習によって前記確率ニューロンに設定された重みと、に応じた確率で、第1の値または前記第1の値とは異なる第2の値を出力し、前記第1の値に対応して未来における1つのパターンの車両情報が予測され、前記第2の値に対応して未来における他のパターンの車両情報が予測されてもよい。
このような構成により、n個の確率ニューロンを設けることで、2nパターンの車両情報を予測できる。
前記学習器は、前記特定車両についての過去の画像情報を畳み込み処理する畳み込み層と、前記畳み込み層からの処理結果に応じた値が入力され、前記未来における車両情報を予測するために用いられる値を出力する全結合層と、を有し、前記全結合層は、入力される値に関わらず複数の値のうちのいずれかの値を順繰りに出力する確率ニューロンを含み、前記確率ニューロンから出力される各値に対応して、未来における各パターンの車両情報が予測されてもよい。
確率ニューロンが複数の値のうちのいずれかの値を順繰りに出力することで、複数パターンの車両情報を予測できる。
前記未来における車両情報は、前記特定車両の車速、舵角およびヨーレートとして表わされてもよい。
前記学習器は、前記未来における複数パターンの車両情報のそれぞれが実際に発生する確率を出力するのが望ましい。
この場合、前記未来における複数パターンの車両情報のそれぞれについて、前記特定車両の行動パターンを推定する行動パターン推定部と、前記行動パターンにおいて警報対象とすべきオブジェクトが存在する場合、前記確率を考慮して警報を発する警報部を備えてもよい。
また、前記未来における複数パターンの車両情報のそれぞれについて、前記特定車両の行動パターンを推定する行動パターン推定部と、前記行動パターンにおいて警報対象とすべきオブジェクトが存在する場合、前記オブジェクトの近傍に到達するまでの時間を算出する警報部を備えてもよい。
この構成により、車両の行動パターンが複数考えられる場合に、実際に対象オブジェクトの近傍に到達するまでの時間を精度よく算出できる。
また、本発明の別の態様によれば、人が運転する車両によって収集された画像情報および車両情報を学習データとして用いて、過去の画像情報および車両情報に基づいて、未来における複数パターンの車両情報を予測するためのニューラルネットワークの学習を行う、車両行動予測用ニューラルネットワークの学習方法が提供される。
人が運転する車両によって収集された画像情報および車両情報を学習データとすることで、簡易に学習を行うことができる。
前記ニューラルネットワークは、入力される画像情報を畳み込み処理する畳み込み層と、前記畳み込み層からの処理結果に応じた値が入力され、前記未来における車両情報を予測するために用いられる値を出力する全結合層と、を有し、前記全結合層は、入力される値に応じて、複数の値のうちのいずれかの値を確率的に出力する確率ニューロンを含んでもよい。
また、前記ニューラルネットワークは、入力される画像情報を畳み込み処理する畳み込み層と、前記畳み込み層からの処理結果に応じた値が入力され、前記未来における車両情報を予測するために用いられる値を出力する全結合層と、を有し、前記全結合層は、入力される値に関わらず複数の値のうちのいずれかの値を順繰りに出力する確率ニューロンを含み、前記確率ニューロンから出力される各値に対応して、未来における各パターンの車両情報が予測されてもよい。
また、本発明の別の態様によれば、人が運転する車両によって収集された画像情報および車両情報を学習データとして用いて、過去の画像情報および車両情報に基づいて、未来における複数パターンの車両情報を予測するためのニューラルネットワークの学習を行うステップと、前記学習が行われたニューラルネットワークを用いて、特定車両についての過去の画像情報および車両情報に基づいて、未来における前記特定車両の複数パターンの車両情報を予測するステップと、を備える車両行動予測方法が提供される。
未来における複数パターンの車両情報を予測するため、対象オブジェクトの近傍に到達するまでの時間をより高精度に推定することを可能となる。
本発明の概要を説明する図。 車両行動予測システムの概略構成を示すブロック図。 学習器32の入出力を模式的に説明する図。 学習器32におけるニューラルネットワーク構造の一例を模式的に示す図。
以下、本発明に係る実施形態について、図面を参照しながら具体的に説明する。
(第1の実施形態)
図1は、本発明の概要を説明する図である。車両200が三叉路に向かって走行しており、直進した先に歩行者Qがおり、左折した先に歩行者Rがいる状況を例示している(図1(a))。車両200の未来の行動パターンとしては、直進(図1(b))、左折(図1(c))、停車(図1(d))などが考えられる。車両200が直進するのであれば、車両200が歩行者Qの近傍(例えば、歩行者Qから半径所定距離内)に到達するまでの時間を推定する必要がある。一方、車両200が左折するのであれば、車両200が歩行者Rの近傍に到達するまでの時間を推定する必要がある。
通常の人工知能を利用した車両行動予測装置であれば、複数考えられる車両200の行動パターンのうち最も可能性が高い1つを予測する。例えば、車両200の車速がある程度速い場合、「直進」との予測結果を出力し、歩行者Qの近傍に到達するまでの時間を推定することとなる。
しかしながら、車速が速い場合、確かに直進する可能性が高いかもしれないが、急減速して左折する可能性もなくはない。左折する可能性を考えると、車両200が歩行者Rの近傍に到達するまでの時間も推定する必要があるが、行動パターンの予測結果が「直進」であると、そのような時間は推定されない。
このような例から分かるように、車両の行動パターンは本来的に複数あり得、唯一絶対の真値が定まるものではない。例えば、特定の道路を異なるドライバが運転する場合には、当然ながら運転挙動にドライバの個人差が現れるし、特定の道路を特定のドライバが運転する場合でも、ハンドル操作や加減速には人特有のゆらぎが含まれる。
そこで、本発明では、車両の行動パターンを複数予測することとする。
図2は、車両行動予測システムの概略構成を示すブロック図である。車両行動予測システムは、車載カメラ1と、車両情報取得部2と、車両行動予測装置3とを備えている。
車載カメラ1は車両に搭載され、その周囲(典型的には前方)を撮影する。撮影によって得られた複数の画像が画像情報として逐次車両行動予測装置3に供給される。
車両情報取得部2は1または複数の車載センサで構成され、車両情報を取得する。車両情報とは車両の行動を記述できる情報であり、例えば車輪速、ハンドル操作に応じた舵角、ヨーレート、車両の位置(緯度・経度)などであるが、これらに限られない。取得された車両情報は逐次車両行動予測装置3に供給される。
車両行動予測装置3は、オブジェクト検知部31と、学習器32と、行動パターン推定部33と、警報部34とを有する。車両行動予測装置3は、1つの装置であってもよいし、2以上に分散された装置であってもよい。また、車両行動予測装置3における各部の一部または全ては、ハードウェアで実装されてもよいし、プロセッサが所定のプログラムを実行することによって実現される機能であってもよい。
オブジェクト検知部31は、画像情報および/または車両情報に基づいて警報対象となり得るオブジェクト(歩行者や壁など)を検知し、検知したオブジェクトと車両との距離を推定する。図1(a)の例では、歩行者Q,Rを検知し、車両200と歩行者Q,Rとの各距離が推定される。得られたオブジェクトの位置や車両との距離は警報部34に供給される。なお、オブジェクト検知部31は公知のオブジェクト検知アルゴリズムを利用すればよい。
学習器32はニューラルネットワークを有し、予め、過去の画像情報および過去の車両情報から未来における車両情報を出力するよう学習が行われている。未知のシーンへの充分な汎化能力を得るためには、多種多様なシーンを走行して得られたデータを用いて学習が行われているのが望ましい。
そして、本実施形態におけるニューラルネットワークは確率ニューロン(後述)を含んでおり、学習器32は、車載カメラ1から供給される過去(より正確には、ある時点より前)の画像情報、および、車両情報取得部2から供給される過去の車両情報に基づいて、未来(より正確には、ある時点より後)における車両の複数パターンの車両情報を予測できる。
この車両情報は、未来における車両の行動パターン(直進、左折、停止など)を記述し得る情報であり、具体的には車輪速、ハンドル操作に応じた舵角、ヨーレート、車両の位置などである。学習器32が出力する車両情報は、車両情報取得部2が取得する車両情報と同じであってもよいし、異なっていてもよい。
また、学習器32は出力する各パターンの車両情報に対して、当該車両情報が実際に発生する確率を関連付けて出力してもよい。学習器32からの車両情報および確率は行動パターン推定部33に供給される。学習器32については後に詳しく説明する。
行動パターン推定部33は、学習器32が予測した複数パターンのそれぞれにつき、各パターンの車両情報に基づいて、車両の行動パターン(進路や加減速など)を推定する。図1の例では、学習器32から出力される、あるパターンの車両情報に基づく行動パターンが直進(図1(b))であり、別のパターンの車両情報に基づく行動パターンが左折(図1(c))であり、また別のパターンの車両情報に基づく行動パターンが停車(図1(d))である。
また、行動パターン推定部33は、推定された行動パターンと、その行動パターンが実際に発生する確率とを関連付ける。その行動パターンが実際に発生する確率とは、当該行動パターンの推定元となった車両情報に関連付けられた確率そのものである。確率が関連付けられた行動パターンが警報部34に供給される。
警報部34は、オブジェクト検知部31によって検知されたオブジェクトの情報と、行動パターン推定部33によって推定された各行動パターンとを比較し、各行動パターンにおいて警報対象とすべきオブジェクトの有無を判断する。警報対象とするオブジェクトが存在する場合、行動パターンに基づいて、警報部34は当該オブジェクトの近傍に車両が到達するまでの時間(近傍到達時間)を算出する。図1の例では、車両200が直進する場合に歩行者Qの近傍に車両200が到達するまでの時間と、車両200が左折する場合に歩行者Rの近傍に車両200が到達するまでの時間とが算出される。
そして、警報部34は、行動パターンに関連付けられた確率を考慮して警報を発する。例えば、警報部34は、確率が所定の閾値以上である場合に警報対象に関する警報を発してもよい。あるいは、警報部34は、多数の警報対象がある場合、確率が上位所定数の行動パターンにおける警報対象に関する警報を発してもよい。警報の内容は任意であるが、例えば当該オブジェクトのおおよその位置の通知であってもよいし、当該オブジェクトの近傍に到達するまでの時間の通知であってもよい。
図3は、学習器32の入出力を模式的に説明する図である。学習器32には、過去の(m+1)時刻分(t−m,t−m+1,・・・,t)の画像情報および過去の車両情報が入力される。なお、ここでの時刻は画像情報が入力される間隔を1としている。そして、学習器32は、未来のn時刻分(t+1,t+2,・・・,t+n、例えば数秒に相当)のk(予め定めた定数)パターンの車両情報1〜kと、各車両情報が発生する確率1〜kとの組がランダムに出力される。
図4は、学習器32におけるニューラルネットワーク構造の一例を模式的に示す図である。学習器32は複数段の畳み込み層41および複数段の全結合層42を有する。畳み込み層41は過去の画像情報および過去の車両情報を畳み込み処理する。全結合層42のそれぞれは、畳み込み層41からの処理結果に応じた値が入力され、未来の車両情報を予測するために用いられる値を出力する。より詳しくは以下のとおりである。
初段の畳み込み層41は、車載カメラ1からの画像情報に対してフィルタを適用して畳み込みを行い、次いで非線形写像を行う。続いて、不図示のプーリング層は、画像情報の解像度を下げるプーリング操作を行い、特徴マップを生成する。2段目以降の畳み込み層41は前段の畳み込み層41によって生成された特徴マップに対して同様の処理を行う。
初段の全結合層42には、最終段の畳み込み層41から出力される特徴マップと、車両情報とが入力される。2段目以降の全結合層42には、前段の全結合層42からの出力が入力される。最終段の全結合層42からの出力が、1つの未来の車両情報に相当する。
ここで、全結合層42のそれぞれは複数のニューロン43から構成される。各ニューロン43は、入力される値(列ベクトル)xと、各ニューロン43に設定された重み(行ベクトル)Wとの積和演算(必要に応じてバイアス値の加算)を行い、その結果Wxに対してシグモイド関数σを適用する。なお、重みWやバイアス値は後述する機械学習によって予め定められている。
ここで、少なくとも1つの全結合層42は、少なくとも1つ(図4では2つ)の確率ニューロン431,432を有する(以下、区別のため、他のニューロン43を「通常のニューロン43」と呼ぶこともある)点が本実施形態の特徴の1つと言える。通常のニューロン43は上記シグモイド関数σを適用した結果σ(Wx)を出力する。よって、通常のニューロン43による出力は、入力される値に応じて一意に定まる。
一方、確率ニューロン431,432による出力は、入力される値に応じて一意に定まるわけではなく、複数の値をとり得る。より具体的には、確率ニューロン431,432は、予め定められた複数の値のうちのいずれかを、入力される値に応じて確率的に出力する。さらに具体的には、確率ニューロン431,432は、0を下限とし、1を上限とする連続一様分布から乱数rを発生させ、r>σ(Wx)であれば0を出力し、r≦σ(Wx)であれば1を出力する。このことは、確率ニューロン431,432は、σ(Wx)の確率で1を出力し、1−σ(Wx)の確率で0を出力すると言い換えることができる。
このように確率ニューロン431,432が複数の値のうちのいずれかを確率的に出力するため、本学習器32は複数パターンの車両情報を予測できる。
一般に、全結合層42がn個の確率ニューロンを有する場合、2nパターンの車両情報が出力される(そのうちのいくつかが重複することもあり得る)。例えば、n=2である場合、図1の例において、2つの確率ニューロン431,432の出力が(0,0)または(0,1)である場合の車両情報に基づく行動パターンが「直進」であり、同(1,0)である場合の車両情報に基づく行動パターンが「左折」であり、同(1,1)である場合の車両情報に基づく行動パターンが「停車」であったりする。
また、n=2とし、確率ニューロン431,432への入力をそれぞれx1,x2とし、確率ニューロン431,432に設定された重みをそれぞれW1,W2とすると、
2つの確率ニューロン431,432の出力が(0,0)である確率
={1−σ(W1x1)}{1−σ(W2x2)}
2つの確率ニューロン431,432の出力が(0,1)である確率
={1−σ(W1x1)}σ(W2x2)
2つの確率ニューロン431,432の出力が(1,0)である確率
=σ(W1x1){1−σ(W2x2)}
2つの確率ニューロン431,432の出力が(1,1)である確率
=σ(W1x1)σ(W2x2)
である。上記の例では、2つの確率ニューロン431,432の出力が(0,0)または(0,1)である場合の行動パターンが「直進」であり、その確率は{1−σ(W1x1)}σ(W2x2)+{1−σ(W1x1)}σ(W2x2)である。同(1,0)である場合の行動パターンが「左折」であり、その確率はσ(W1x1){1−σ(W2x2)}である。同(1,1)である場合の行動パターンが「停車」であり、その確率はσ(W1x1)σ(W2x2)である。
以上のようにして学習器32は車両情報と、各車両情報が発生する確率とを出力できる。
続いて、学習器32のニューラルネットワークにおける重みWの学習について説明する(上記非特許文献2参照)。学習には、人が運転する車両によって収集された画像情報および車両情報を学習データとして活用するのが望ましい。ある時点までに収集された画像情報および車両情報を入力データとし、その時点以降に収集された車両情報を正解データとすることで、人手の加工不要で簡易に理想的な入力データと出力すべき正解データを得ることができるからである。加えて、同一である(とみなせる)画像情報および車両情報に対して、複数の未来の車両情報を収集できる。
その理由は、人の運転挙動が確率的だからである。仮に運転するシーンが同一(つまり、入力データである画像情報および車両情報が同一)であっても、その時その時で運転挙動(つまり、出力すべき車両情報)は確率的に異なる。運転者が異なれば運転挙動が異なるのは当然であるし、特定の運転者であっても運転挙動は異なり得る。例えば、必ずしも道路の同じ位置を同じ速度で車両が通過するとは限らないし、先行車両に追従するか追い抜くかも確率的である。交差点を右折するか、左折するか、直進するかの選択も確率的である。
学習データセットのある1つの学習データに着目すれば、入力データである画像情報および車両情報に対する、正解データとすべき車両情報は一意に定まっている。しかしながら、学習データセットには同一とみなせる似通ったシーンが多く含まれていると考えられる。そうすると、学習データセット全体としては、同一とみなせるシーンにおける車両の行動パターンが確率的と考えることができる。このことから、学習データセットには、入力データである同一とみなせる画像情報および車両情報に対して、正解データである未来の車両情報が複数パターン含まれる。
このような学習データセットを用いて学習を行う。学習とは各ニューロンに設定される重みを最適化することであり、重みが反復的に更新されることによって行われる。重みは、反復の度に、学習アルゴリズムに基づいてある更新量だけ変化する。
更新量は2種類の量の足し合わせとして計算することができる。1つの量は、「現状の(学習の中のある時点の)重みが推論する未来の車両情報(行動パターン)のうち、最も正解データに近い車両情報の発生確率を優先的に増大させる」ような量であり、他の1つの量は「現状の重みが推論する未来の車両情報のうち、最も正解データに近い車両情報を優先的に正解データ(=理想値=真値)に近づける」ような量である。より理想的な行動パターンの発生確率と出力の精度を相対的に高めようとする学習アルゴリズムと言える。
どのような出力(未来の車両情報)に対しても相応の更新量が発生する。各更新では、これら複数(または全部)の未来の車両情報を算出し、正解データと比較して相対的な精度の良さ(すなわち、正解データとの近さ)を算出する。そして、算出結果を、出力された未来の車両情報に対する重みとする。各更新では、未来の車両情報に対する重みづけがなされた、前述の2種類の量の総和を、その反復における更新量として重みを更新する。
今、ある入力データ(過去の画像情報および車両情報)に対する正解データが確率的な値(正確には、意味のある範囲内でランダムに変動する値であって、全く無意味な乱数ではない)を取るとき、この学習則を適用すると、最終的にニューラルネットワークが出力する未来の車両情報は正解データの発生パターンと見分けがつかなくなる。つまり、正解データの確率分布と、出力される未来の車両情報の確率分布とが一致するように学習を進めることができる。
このように、第1の実施形態では、予め学習が行われたニューラルネットワークを用いるため、相対速度一定あるいは相対加速度一定といった非現実的な仮定が不要であり、高精度に未来の車両情報や行動パターンを予測できる。そして、学習器32におけるニューラルネットワークが複数の値を確率的に出力する確率ニューロン431,432を含むことで、複数パターンの車両情報を予測できる。その結果、想定し得る各パターンについて近傍到達時間を算出可能となり、推定を向上できる。また、人が運転する車両によって収集された画像情報および車両情報を学習データとすることで、簡易に学習を行うことができる。
(第2の実施形態)
第1の実施形態では、確率ニューロン431,432が、入力される値に応じて複数の値のうちのいずれかを確率的に出力するものであった。
ところで、図4に示す学習器32において、畳み込み層41は、画像情報や特徴マップにおける各画素が処理対象であるため、重い処理が必要となる。これに対し、最終段の畳み込み層41からは十分に画素数(要素数)が減少した特徴マップが出力される。そのため、各全結合層42の計算負荷なそれほど大きくない。第2の実施形態ではこの点に着目している。以下、第1の実施形態との相違点を中心に説明する。
図4に示す学習器32において、確率ニューロン431,432は、入力される値に関わらず、出力の全組み合わせを網羅的に順繰りに出力する。具体例として、まず2つの確率ニューロン431,432は(0,0)を出力し、これに応じて1つの車両情報が予測される。続いて、2つの確率ニューロン431,432は(0,1)を出力し、これに応じて別の車両情報が予測される。続いて、2つの確率ニューロン431,432は(1,0)を出力し、これに応じてまた別つの車両情報が予測される。続いて、2つの確率ニューロン431,432は(1,1)を出力し、これに応じてさらに別の車両情報が予測される。
このように、第2の実施形態では、確率ニューロン431,432が複数の値を順繰りに出力することで、複数パターンの車両情報を予測できる。
上述した実施形態は、本発明が属する技術分野における通常の知識を有する者が本発明を実施できることを目的として記載されたものである。上記実施形態の種々の変形例は、当業者であれば当然になしうることであり、本発明の技術的思想は他の実施形態にも適用しうることである。したがって、本発明は、記載された実施形態に限定されることはなく、特許請求の範囲によって定義される技術的思想に従った最も広い範囲とすべきである。
1 車載カメラ
2 車両情報取得部
3 車両行動予測装置
31 オブジェクト検知部
32 学習器
33 行動パターン推定部
34 警報部
200 車両
Q,R 歩行者

Claims (11)

  1. 過去の画像情報および過去の車両情報から未来における車両情報を出力するように予め学習が行われたニューラルネットワークを有し、特定車両についての過去の画像情報および車両情報に基づいて、未来における前記特定車両の複数パターンの車両情報を予測する学習器を備え
    前記未来における車両情報は、前記特定車両の車速、舵角およびヨーレートとして表わされる車両行動予測装置。
  2. 前記学習器は、
    前記特定車両についての過去の画像情報を畳み込み処理する畳み込み層と、
    前記畳み込み層からの処理結果に応じた値が入力され、前記未来における車両情報を予測するために用いられる値を出力する全結合層と、を有し、
    前記全結合層は、入力される値に応じて、複数の値のうちのいずれかの値を確率的に出力する確率ニューロンを含む、請求項1に記載の車両行動予測装置。
  3. 前記確率ニューロンは、前記確率ニューロンに入力される値と、予め行われた学習によって前記確率ニューロンに設定された重みと、に応じた確率で、第1の値または前記第1の値とは異なる第2の値を出力し、
    前記第1の値に対応して未来における1つのパターンの車両情報が予測され、前記第2の値に対応して未来における他のパターンの車両情報が予測される、請求項2に記載の車両行動予測装置。
  4. 前記学習器は、
    前記特定車両についての過去の画像情報を畳み込み処理する畳み込み層と、
    前記畳み込み層からの処理結果に応じた値が入力され、前記未来における車両情報を予測するために用いられる値を出力する全結合層と、を有し、
    前記全結合層は、入力される値に関わらず複数の値のうちのいずれかの値を順繰りに出力する確率ニューロンを含み、
    前記確率ニューロンから出力される各値に対応して、未来における各パターンの車両情報が予測される、請求項1に記載の車両行動予測装置。
  5. 前記学習器は、前記未来における複数パターンの車両情報のそれぞれが実際に発生する確率を出力する、請求項1乃至のいずれかに記載の車両行動予測装置。
  6. 前記未来における複数パターンの車両情報のそれぞれについて、前記特定車両の行動パターンを推定する行動パターン推定部と、
    前記行動パターンにおいて警報対象とすべきオブジェクトが存在する場合、前記確率を考慮して警報を発する警報部を備える、請求項に記載の車両行動予測装置。
  7. 前記未来における複数パターンの車両情報のそれぞれについて、前記特定車両の行動パターンを推定する行動パターン推定部と、
    前記行動パターンにおいて警報対象とすべきオブジェクトが存在する場合、前記オブジェクトの近傍に到達するまでの時間を算出する警報部を備える、請求項1ないしのいずれかに記載の車両行動予測装置。
  8. 人が運転する車両によって収集された画像情報および車両情報を学習データとして用いて、過去の画像情報および車両情報に基づいて、未来における複数パターンの車両情報を予測するためのニューラルネットワークの学習を行い、
    前記未来における車両情報は、前記車両の車速、舵角およびヨーレートとして表わされる、車両行動予測用ニューラルネットワークの学習方法。
  9. 前記ニューラルネットワークは、
    入力される画像情報を畳み込み処理する畳み込み層と、
    前記畳み込み層からの処理結果に応じた値が入力され、前記未来における車両情報を予測するために用いられる値を出力する全結合層と、を有し、
    前記全結合層は、入力される値に応じて、複数の値のうちのいずれかの値を確率的に出力する確率ニューロンを含む、請求項に記載の車両行動予測用ニューラルネットワークの学習方法。
  10. 前記ニューラルネットワークは、
    入力される画像情報を畳み込み処理する畳み込み層と、
    前記畳み込み層からの処理結果に応じた値が入力され、前記未来における車両情報を予測するために用いられる値を出力する全結合層と、を有し、
    前記全結合層は、入力される値に関わらず複数の値のうちのいずれかの値を順繰りに出力する確率ニューロンを含み、
    前記確率ニューロンから出力される各値に対応して、未来における各パターンの車両情報が予測される、請求項に記載の車両行動予測用ニューラルネットワークの学習方法。
  11. 人が運転する車両によって収集された画像情報および車両情報を学習データとして用いて、過去の画像情報および車両情報に基づいて、未来における複数パターンの車両情報を予測するためのニューラルネットワークの学習を行うステップと、
    前記学習が行われたニューラルネットワークを用いて、特定車両についての過去の画像情報および車両情報に基づいて、未来における前記特定車両の複数パターンの車両情報を予測するステップと、を備え、
    前記未来における車両情報は、前記特定車両の車速、舵角およびヨーレートとして表わされる車両行動予測方法。
JP2017175485A 2017-09-13 2017-09-13 車両行動予測装置、車両行動予測方法および車両行動予測用のニューラルネットワークの学習方法 Active JP6905433B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017175485A JP6905433B2 (ja) 2017-09-13 2017-09-13 車両行動予測装置、車両行動予測方法および車両行動予測用のニューラルネットワークの学習方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017175485A JP6905433B2 (ja) 2017-09-13 2017-09-13 車両行動予測装置、車両行動予測方法および車両行動予測用のニューラルネットワークの学習方法

Publications (2)

Publication Number Publication Date
JP2019053377A JP2019053377A (ja) 2019-04-04
JP6905433B2 true JP6905433B2 (ja) 2021-07-21

Family

ID=66013399

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017175485A Active JP6905433B2 (ja) 2017-09-13 2017-09-13 車両行動予測装置、車両行動予測方法および車両行動予測用のニューラルネットワークの学習方法

Country Status (1)

Country Link
JP (1) JP6905433B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102019112625A1 (de) 2019-05-14 2020-11-19 Eyyes Gmbh Verfahren zum Anzeigen und/oder Berechnen einer Relativbewegung
CN113094967B (zh) * 2021-03-31 2023-01-20 北京理工大学 一种无人车位置预测方法及装置

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011014037A (ja) * 2009-07-03 2011-01-20 Fuji Heavy Ind Ltd リスク予測システム
JP5189157B2 (ja) * 2010-11-30 2013-04-24 株式会社豊田中央研究所 可動物の目標状態決定装置及びプログラム
CN107531244B (zh) * 2015-04-21 2020-04-21 松下知识产权经营株式会社 信息处理系统、信息处理方法、以及记录介质

Also Published As

Publication number Publication date
JP2019053377A (ja) 2019-04-04

Similar Documents

Publication Publication Date Title
US11645916B2 (en) Moving body behavior prediction device and moving body behavior prediction method
US20200369271A1 (en) Electronic apparatus for determining a dangerous situation of a vehicle and method of operating the same
US20200379461A1 (en) Methods and systems for trajectory forecasting with recurrent neural networks using inertial behavioral rollout
CN111258217B (zh) 实时对象行为预测
US20190147610A1 (en) End-to-End Tracking of Objects
US11587329B2 (en) Method and apparatus for predicting intent of vulnerable road users
JP2023511755A (ja) オブジェクト速度および/またはヨーレート検出およびトラッキング
CN115135548A (zh) 组合的跟踪置信度和分类模型
US11242050B2 (en) Reinforcement learning with scene decomposition for navigating complex environments
JP7089832B2 (ja) 状態推定器
US11400942B2 (en) Vehicle lane trajectory probability prediction utilizing kalman filtering with neural network derived noise
US11787438B2 (en) Collaborative vehicle path generation
KR102246706B1 (ko) 자율 주행 장치 및 이상 도로 상황에서 자율 주행 장치 운용 방법
US11610423B2 (en) Spatio-temporal-interactive networks
JP2020126634A (ja) 緊急車両をリアルタイムで検出し、緊急車両によって発生すると予想される状況に対処するための走行経路を計画する方法及び装置
US20230347979A1 (en) Methods and processors for controlling steering of self-driving car
JP6905433B2 (ja) 車両行動予測装置、車両行動予測方法および車両行動予測用のニューラルネットワークの学習方法
JP2021504218A (ja) 状態推定器
CN114846523A (zh) 使用记忆注意力的多对象跟踪
US20210287531A1 (en) Systems and methods for heterogeneous multi-agent multi-modal trajectory prediction with evolving interaction graphs
JP2010267134A (ja) リスク認識システム
EP4224434A1 (en) Apparatus and method for evaluating a machine learning model used for assisted or autonomous driving of a vehicle
US20240092359A1 (en) Vehicle camera-based prediction of change in pedestrian motion
EP4145352A1 (en) Systems and methods for training and using machine learning models and algorithms
US20240144663A1 (en) Fair neural networks

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200127

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210330

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210520

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210601

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210625

R150 Certificate of patent or registration of utility model

Ref document number: 6905433

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150