JP2022521881A - 車両のアクションの予測を取得するためのシステムおよび対応する方法 - Google Patents

車両のアクションの予測を取得するためのシステムおよび対応する方法 Download PDF

Info

Publication number
JP2022521881A
JP2022521881A JP2021538257A JP2021538257A JP2022521881A JP 2022521881 A JP2022521881 A JP 2022521881A JP 2021538257 A JP2021538257 A JP 2021538257A JP 2021538257 A JP2021538257 A JP 2021538257A JP 2022521881 A JP2022521881 A JP 2022521881A
Authority
JP
Japan
Prior art keywords
vehicle
neural network
time step
action
recurrent neural
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021538257A
Other languages
English (en)
Inventor
ステファノ、エリカ ディ
ファーラン、アクセル
フォンタナ、ダヴィデ
チャーヌクハ、イヴァン
サンギネト、エンバー
セベ、ニクラエ
Original Assignee
マレリ ヨーロッパ エス.ピー.エー.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by マレリ ヨーロッパ エス.ピー.エー. filed Critical マレリ ヨーロッパ エス.ピー.エー.
Publication of JP2022521881A publication Critical patent/JP2022521881A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/0097Predicting future conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0001Details of the control system
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle
    • B60W2556/50External transmission of data to or from the vehicle of positioning data, e.g. GPS [Global Positioning System] data
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2710/00Output or target parameters relating to a particular sub-units
    • B60W2710/20Steering systems
    • B60W2710/207Steering angle of wheels
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2720/00Output or target parameters relating to overall vehicle dynamics
    • B60W2720/10Longitudinal speed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2720/00Output or target parameters relating to overall vehicle dynamics
    • B60W2720/12Lateral speed

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Automation & Control Theory (AREA)
  • Software Systems (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Steering Control In Accordance With Driving Conditions (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Traffic Control Systems (AREA)

Abstract

車両(V)のアクション(at)の予測を取得するためのシステム(10;20)であって、上記車両(V)によって観察された、特に上記車両(V)の前方のダイナミックシーンの一連のイメージ(Ft)を取得するためのカメラと、上記車両(V)によって観察された上記ダイナミックシーンの上記一連のイメージ(Ft)における、各時間ステップ(t)におけるそれぞれの取得されたイメージ(Ft)について、対応するビジュアル特徴ベクトル(vt)を取得するよう構成された畳み込みニューラルネットワークビジュアルエンコーダ(50)と、同一の時間ステップ(t)における上記車両(V)の位置(st)を取得するよう構成された1または複数のセンサ(40)と、上記同一の時間ステップ(t)における、上記ビジュアル特徴ベクトル(vt)および上記車両の位置(st)を受信して、上記車両(V)の上記アクションの予測(at)を生成するよう構成された再帰型ニューラルネットワーク、特に、LSTMネットワーク(65;70)と、を備え、上記システム(20)は、上記車両(V)の操縦を表わす制御コマンドのセット(C)を入力として受信するよう構成され、上記再帰型ニューラルネットワーク(70)は、複数の再帰型ニューラルネットワークの分岐(701、702、703、704)を有し、各分岐は、前上記制御コマンドのセット(C)における制御コマンド(ci)に対応し、上記システム(20)は、制御コマンド(ci)を受信すると、上記再帰型ニューラルネットワーク(70)の上記対応する分岐(701、702、703、704)を選択するよう構成されたコマンド条件スイッチ(60)を備え、よって、上記システム(20)は、上記選択された対応する分岐(701、702、703、704)を操作して、上記時間ステップ(t)における上記ビジュアル特徴ベクトル(vt)および上記車両の位置(st)を処理して、上記車両(V)の上記アクションの上記予測(at)を取得するよう構成されている、システム。

Description

本説明は、車両、特に道路車両のアクションの予測を取得するための技術に関し、本発明は、
車両によって観察された、特に車両の前方のシーンダイナミクスの一連のイメージを取得するためのカメラと、
上記車両によって観察された上記シーンダイナミクスの上記一連のイメージ中の、各時間ステップにおけるそれぞれの取得されたイメージについて、対応するビジュアル特徴ベクトルを取得するよう構成された畳み込みニューラルネットワークビジュアルエンコーダと、
同一の時間ステップにおける、車両の位置(s)を取得するよう構成された1または複数のセンサと、
上記時間ステップにおける、上記ビジュアル特徴ベクトルおよび車両の位置を受信して、車両のアクションの予測を生成するよう構成された再帰型ニューラルネットワーク、特にLSTMネットワークを含む。
多くのディープラーニングベースの自律運転方法は、仲介認識アプローチおよび行動反射方法(またはエンドツーエンド)という2つの主なパラダイムに分類可能である。前者は、歩行者検出器、レーンセグメンテーション、信号機/標識検出器等の異なる別個の認識コンポーネントで構成される。対応する検出結果が、1つの中間の全体シーン表現に組み合わされ、これは、車両の次のアクションをプランニングするための意思決定システム(通常ルールベース)に入力される知識である。
一方、行動反射アプローチは、出現しつつあるパラダイムであり、それは、未加工データセンサを、車両のアクション決定へ直接マッピングすべく、ディープネットワークを訓練することで構成される。未加工データセンサ(例えば、イメージ)を入力として取り、車両アクションを出力するネットワークはまた、エンドツーエンドの訓練可能なものとして表されることもある。現在の行動反射アプローチは、畳み込みニューラルネットワーク(CNN)を用いて、例えば、回帰タスク用に訓練された単純なCNNを用いて、車両搭載カメラにより捕獲されたフレームからビジュアル情報を抽出し、出力ニューロンが、ステアリング角を予測する。この「CNNのみ」のアーキテクチャの持つ1つの課題は、あらゆる決定が現在フレームにのみ依存することである。過去フレームは全く表わされないので、観測されたシーンのダイナミクスに関する「メモリ」が存在しない。
例えば、Huazhe Xu、Yang Gao、Fisher Yu、およびTrevor Darrellによる文献「End-to-end learning of driving models from large-scale video datasets(大規模ビデオデータセットからの運転モデルのエンドツーエンド学習)」が知られている。CVPR 2017の3530~3538ページに、LSTM(Long Short Term Memory)ネットワークを用いた、ダイナミック表現のネットワークへの導入が記載されている。
具体的には、図1に示されるように、システム10、実際、実質的にニューラルネットワークであるシステム10は、2つの主なサブネットワークで構成され、1つは、ダイレート全畳み込みニューラルネットワークビジュアルエンコーダ、略してFCN50で、他のフレームとは独立して、各フレームから抽出されたビジュアル情報(静的)を表わす。FCN50は、時間ステップtにおいてフレームF入力が与えられると、特徴ベクトルvを用いてフレームFを表わす。具体的には、特徴ベクトルvは、FCN50の最後の層のニューロン活性化のベクトルに対応する。次に、特徴ベクトルvが現在の車両位置sに連結され(2次元ベクトルを用いて表現)、LSTMネットワーク65に入力される。この第2のサブネットワークは、その前の隠れ状態値を考慮して、最も可能性の高いアクションaを予測する。
回帰タスクおよび平均二乗誤差損失を用いて、連続的な予測が形成され得る。しかしながら、例えば、ターゲット分布がマルチモーダルである場合に、この損失は性能が低いことが様々な研究において広く観測されている。従って、このような解決手段においては、回帰の問題が、ターゲット値の範囲を表わす離散ビンを用いて、分類タスクに投じられる。より詳しくは、ステアリング角α([-90,90]度)の取り得る値の範囲が、N=181ビンに離散化される。同様に、車両速度mの取り得る値の範囲が、N=181ビンに離散化される。結果として、ネットワークの出力ニューロン数は2N=362であり、ここで各ニューロンは「ビンクラス」に対応し、適合された損失関数(以下の式1および2を参照)は、予測値と真クラス値との間の標準交差エントロピーである。式1において、ステアリング角損失H(pα,qα)を表わす際、qα(x)はネットワーク予測であり、pα(x)は訓練正解であり、同様に式2は、速度損失H(p,q)を表わす。
Figure 2022521881000002
Figure 2022521881000003
最終損失は、2つの交差エントロピー損失を均等に重み付けした和である。
劣悪な損失に加え、このような解決手段は、センサのみに基づく故に、ネットワーク動作の高レベル制御を欠いている。
1または複数の実施形態の目的は、先行技術で達成可能な解決手段に内在する制約を克服することである。
1または複数の実施形態によると、この目的は、請求項1に規定した特徴を有する方法により達成される。1または複数の実施形態は、対応するシステムを表わしてよい。
特許請求の範囲は、様々な実施形態に関しここに記載する技術的教示の不可欠な部分を形成する。
本明細書に記載された解決手段によると、システムは、車両の操縦を表わす制御コマンドのセットを入力として受信するよう構成されており、
再帰型ニューラルネットワークは、複数の再帰型ニューラルネットワーク分岐を有し、各分岐は、上記制御コマンドのセットにおける制御コマンドに対応し、
上記システムは、制御コマンドを受信すると、上記再帰型ニューラルネットワークの対応する分岐を選択するよう構成されたコマンド条件スイッチを備え、
よって、上記システムは、上記選択された対応する分岐を操作して、上記時間ステップにおける上記ビジュアル特徴ベクトルおよび車両の位置を処理し、車両のアクションの上記予測を取得するよう構成される。
本明細書に説明される解決手段はまた、車両のアクションを予測するための対応する方法も対象とする。
以下に、実施形態について、添付図面を参照して純粋に非限定的な例示として説明する。
上記内容で、既に説明した内容である。 本明細書に記載された解決手段の適用の文脈を示す。 本明細書に記載されたシステムのブロック模式図を表わす。 図3のシステムをより詳細に表わす。
以下の説明は、実施形態の深い理解を目的として、様々な具体的詳細について説明する。実施形態は、具体的な詳細のうち1または複数を省略して、または、他の方法、コンポーネント、材料等と共に、実装可能である。他の場合においては、実施形態の様々な様相が不明瞭にならないように、既知の構造、材料または操作については詳細に図示せず、または説明していない。
本明細書の枠組みにおいて、「一実施形態(an embodiment)」または「1つの実施形態(one embodiment)」という言及は、実施形態に関し記載された特定の構成、構造または特徴が、少なくとも1つの実施形態に含まれることを示すことを意味する。同様に、本明細書の随所に現れ得る「一実施形態において(in an embodiment」または「1つの実施形態において(in one embodiment)」等の文言は、必ずしも1つの同一の実施形態を指していない。さらに、特定の配置、構造または特徴は、1または複数の実施形態において適切に組み合わされてよい。
本明細書で用いられる参照符号は、便宜上に過ぎず、よって保護の範囲または実施形態の範囲を定義するものではない。
本明細書において、ネットワーク訓練された「エンドツーエンド」に基づく自律運転のディープラーニングベース方法に基づく、車両のアクションの予測を取得するためのシステムおよび方法について簡潔に説明する。本明細書に記載された解決手段は、車両の移動中に車両によって観測されたシーンダイナミクスと、例えば、搭乗者のゴール(すなわち、所望の行き先)を表わす高レベルコマンドを考慮するコマンド条件決定戦略とのジョイントモデリングを行う。シーンダイナミクスは、再帰型ニューラルネットワークを用いて(具体的には、LSTMを用いて)モデリングされる。しかしながら、本明細書に記載された解決手段は、システムおよび方法を、センサデータのみの関数である得られるネットワークを有するものではなく、搭乗者のゴールも考慮しつつシーンダイナミクスをモデリングするものとみなす。本明細書に記載された解決手段は、ネットワーク動作の高レベル制御を提供し、ネットワークへの追加の入力として外部提供される「コマンド」を活用して、ネットワーク動作を条件設定する。
例として、図2を参照すると、街路を含む道路地図が模式的に示されており、搭乗者、例えば、車両V、具体的には道路車両または陸上車両は、地点Aから地点Bに行きたいとする。ナビゲータは、経路Pに対応する以下の一連のコマンドを生成する。すなわち、次の交差点で右に曲がり(c。以下でより詳しく説明する)、次の交差点で左に曲がり(c)、道路をたどる(c)。ここで、ネットワーク関数がセンサおよびコマンドの関数により記述され、外部的に制御されてよい。コマンド、例えば左は、ネットワークに対し短期ポリシーをプランニングするよう要求する。短期ポリシーとは、すなわち、車両を次の交差点まで走らせた後、左に曲がることを可能にする一連のアクションに対応する車両操縦である。
本明細書に記載された解決手段により、車両Vのアクションaの予測を取得するためのシステム20が図3に示される。
ダイレート全畳み込みニューラルネットワークビジュアルエンコーダが50で示され、当該エンコーダは、時間ステップtにおける、車両Vに搭載されたフロントカメラ(不図示)により取得されたシーンの観測されたダイナミクスを表わすイメージフレームFを受信し、このようなイメージフレームFに基づき、例えば、フォアグラウンドピクセルおよびバックグラウンドピクセル等の対応するビジュアル表現vを抽出する。上記の通り、ダイレートFCN50は、例えば、周知のAlexNetから抽出されたCNNであり、最後の緻密層を、例えばXuらにより説明される1×1畳み込みフィルタで置換したものである。それは、ImageNetで予め訓練された後、ネットワークの残部で微調整される。ダイレートFCN50は、他のフレームとは独立して各フレームFから抽出されたビジュアル情報v、すなわち静的ビジュアル情報を表わすように構成されている。より具体的には、時間ステップtにおいて入力フレームFが与えられると、ダイレートFCN50は、その最後の層のニューロン活性化により取得された特徴ベクトルまたはビジュアルベクトルvを用いて、このようなフレームFを表わす。
ダイレートFCN50は、CNN特徴ベクトルvを、コマンド条件スイッチブロック60に出力し、コマンド条件スイッチブロックはまた、車両の現在位置sも受信する。現在の車両位置はs=(x,y)であり、x、yは、時間ステップtにおける車両Vの座標であり、エゴモーションセンサブロック40によって表されるエゴモーションセンサを用いて取得される。エゴモーションセンサとは、任意の固定参照フレームに対し車両運動を計測するセンサ(例えば、IMUセンサ)である。これらのセンサによって出力される軌跡は、各時間ステップtにおける位置を取得するように、カメラフレームと同期される。
次に、コマンドブロック60内のCNN特徴vは、車両の現在の位置sと連結され、2次元ベクトル(x,y)を用いてジョイント表現(s,v)で表される。LSTMネットワーク70は、複数のLSTM分岐70、70、70、70を含み、この例では4つである。コマンドブロック60は、制御コマンドcを受信すると、複数のLSTM分岐70、70、70、70から、かかる制御コマンドcに対応する1つのLSTM分岐に切り替えるよう構成されている。
具体的に、制御コマンドcは、分岐70、70、70、70の間のスイッチとして動作する。「フォーワードパス」の間、入力コマンドcに応じ、これら分岐のうちの1つのみが活性化される。その結果、ジョイント表現(s,v)の処理時に、分岐70、70、70、70のうちの現在値に対応するサブポリシーのみが関与する。好ましくは、ジョイント表現(s,v)が各LSTM分岐に入力されるが、選択された分岐のみがかかる入力を処理する。
制御コマンドcは、コマンドcの予め定義されたセットCに由来し、iは1から|C|までのインデックスで、例えば、C={c,c,c,c}であってよい、ここで、c,c,c,cはそれぞれ本明細書の例示において、続行、左、真っ直ぐ、右として示される。これらの制御コマンドcは、例えば、車両Vのナビゲータによって発せられてよい。
システム20は、マップ関数f(F,s,c)→aを出力、すなわち学習し、ここでaは、時間ステップtにおける予測された車両のアクションであり、すなわち、取得されたイメージFと、これは具体的に対応するCNN特徴vtにより表され、車両の現在位置sと、コマンドcとの関数としての予測された車両アクションのマップである。
連続的な出力が用いられるので、予測された車両のアクションaは、ステアリング角および速度マグニチュードのペア、a=(α,m)として定義され、ここでαはラジアンのステアリング角であり、mは車両速度値である。
強調すべきことは、短期ポリシーを選択するために、制御コマンドがシステム20またはネットワークへの入力として用いられる一方で、アクションは、システム10の瞬時出力であり、すなわちこのような短期ポリシーを構成する。
各LSTM分岐70は、ビジュアルダイナミクスを表わすその前の隠れ状態値ht-1を考慮して、最も可能性の高いアクションaを予測する。特記すべき重要なことは、図3は、1つのみの隠れ状態ht-1を示すが、実際には、それぞれの分岐の各LSTMは、その独自の隠れ状態ht-1を計算する。
図面には、システム20の一部がより詳しい態様で示されている。
各入力フレームFは、360×640ピクセルの解像度にサイズ設定され、3つのRGBチャネルで表される。FCN50は、96 11×11フィルタを持つ第1の畳み込み層CV1、次に3×3フィルタを持つMaxPool層MP、ストライド1での5×5フィルタを持つ第2の畳み込み層CV2 27×27×256、ストライド1、パディング1での384 3×3フィルタを持つ第3の畳み込み層、ストライド1、パディング1での384 3×3フィルタを持つ第4の畳み込み層CV4、ストライド1、パディング1での256 3×3フィルタを持つ[13×13×256]第5の畳み込み層、次に、第6の畳み込み層CV6、および4096 1×1フィルタを持つ第7の畳み込み層CV7を含む。各LSTM分岐70は、それぞれ64個のニューロンを含む2つの重ねられたLSTM層を有する。各分岐における最終出力層71は、362個のニューロンで構成され、具体的には、FC Softmax層64×362である。第6の畳み込み層CV6および第7の畳み込み層CV7の後は、正則化のため、0.5に等しいドロップアウトファクタを持つドロップアウト層が適用されてよい。
よって、まとめると、まさに説明された車両V、すなわち、道路車両または陸上車両のアクションの予測aを取得するためのシステム20は、車両Vにより観察された、具体的には車両の前方のシーンダイナミクスの一連のイメージFを取得するためのカメラであって、すなわちカメラは、車両Vの前方のイメージを撮像するカメラと、好ましくはダイレートFCNである、畳み込みニューラルネットワークビジュアルエンコーダ50であって、車両Vによって観察されたシーンダイナミクスの上記一連のイメージF中の、異なる時間tにおけるそれぞれの取得されたイメージFについて、各時間ステップtにおける対応するビジュアル特徴ベクトルvを取得し、例えば、フォアグラウンド、バックグラウンドおよびその他等のクラスにより、イメージのピクセルの分類を表わすよう構成された、畳み込みニューラルネットワークビジュアルエンコーダ50と、例えば、カメラにより取得されたイメージフレームを利用することで取得されるエゴモーションセンサ等の1または複数のセンサ40であって、同一の時間ステップにおける車両の位置sを取得するよう構成されている、1または複数のセンサ40と、再帰型ニューラルネットワーク、具体的には、LSTMネットワーク70であって、同一の時間ステップtにおける上記ビジュアル特徴ベクトルvおよび車両の位置sを受信して、前の隠れ状態ht-1を考慮して、車両(V)のアクションの予測aを生成するよう構成されている再帰型ニューラルネットワーク70と、を含み、かかるシステム20は、車両Vの操縦を表わす、具体的に一連のアクションに対応する制御コマンドのセットCを入力として受信するよう構成され、再帰型ニューラルネットワーク70は複数の再帰型ニューラルネットワーク分岐70、70、70、70を有し、各分岐は、上記制御コマンドのセットCにおける制御コマンドcに対応し、システム20は、制御コマンドcを受信すると、上記再帰型ニューラルネットワーク70の対応する分岐70、70、70、70を選択するよう構成されたコマンド条件スイッチ60を備え、よって、かかるシステム20は、スイッチ60によって選択された上記選択された対応する分岐70、70、70、70を操作して、入力、すなわち、上記時間ステップtにおける上記ビジュアル特徴ベクトルvおよび車両の位置sを処理することで車両Vのアクションの上記予測aを、具体的には、同一の特定の時間ステップtにおける取得されたイメージF、車両の位置s、および制御コマンドcのマップとして取得するよう構成される。上記の通り、好ましくは、システム20は、上記時間ステップtにおける上記ビジュアル特徴ベクトルvおよび車両の位置sを、それぞれの対応する分岐70、70、70、70に供給すると、選択された分岐のみが入力を処理し、これは、入力されたビジュアル特徴ベクトルvおよび車両の位置sを、選択された分岐のみに適用するよりも、単純な実装を表わす。
説明されたシステム20は、好ましくは、自律運転システムに含まれ、例えば、特定の経路Pをたどる車両によって実行されるべきアクションの予測を提供する。
図3および図4のシステム20の性能をより良く理解すべく、かかるシステム20に関連する損失関数について簡潔に説明する。
以下の式3において、システム20の損失関数(F,s,c)が示される。
Figure 2022521881000004
1番目の項は、ステアリング角αの交差エントロピー損失の和であり、2番目の項は、コマンドニムネ(command nimne)|C|にわたる速度mの交差エントロピー損失の和である。上記の通り、予測qα、およびpα、の関数は、訓練正解(training ground truth)である。分岐の数は、コマンド(|C|)の数、つまり、各項における損失要素の数に対応する。各分岐70は、コマンドcに対応する例からの学習を担う。従って、訓練正解コマンドcに関連付けられたサンプルのための1つの逆伝搬パスは、分岐70のみにおけるエラーを逆伝搬するのに貢献すべきであり、c=cである。式3において、これは、インジケータ関数1(c,c)によって表され、インジケータ関数1は、c=cの時かつその時に限り(if and only if)、1に等しい。効率性の理由のため、制御コマンドcはone‐hotベクトルとしてエンコーディングされる。
故に、ここで開示された方法およびシステムの利点は明確である。
上記の方法およびシステムは、コマンド条件ネットワークを用いてLSTM操作を改善し、アクションの予測を可能にする。
FCNおよびLMTSを用いる既知の解決手段は、再帰システムであり、当該LMTSは、ステアリング角または他のパラメータを、反応として、FCNエンコーダの出力に供給する。各LMTSが具体的な車両操縦のために訓練されているコマンド条件ネットワークを用いる上記の方法およびシステムは、搭乗者の最終行先(ネットワークへの一連のコマンドとしての入力として表現され、後者は車両のナビゲータによって提供される)を考慮して動作可能である。
また本明細書に記載された解決手段は、静的入力の代わりに、一連のイメージを起源とするダイナミック入力を、LSTM分岐のコマンド条件ネットワークに適用する。
もちろん、実施形態の原理を損なうことなく、構造の詳細および実施形態の詳細は、専ら例示としてここで説明および図示されたものに対し広く変わってよく、これにより、以降の特許請求の範囲に規定された本実施形態の範囲から逸脱することはない。
もちろん、システム、すなわち、本明細書で説明されたシステムのニューラルネットワークは、1または複数のプロセッサ若しくはマイクロプロセッサ、または任意の処理システム、具体的には、かかるニューラルネットワークをサポート可能な車両に配置される任意の処理システムによって実装されてよい。

Claims (11)

  1. 車両のアクションの予測を取得するためのシステムであって、
    前記車両によって観察された、特に前記車両の前方のシーンダイナミクスの一連のイメージを取得するためのカメラと、
    前記車両によって観察された前記シーンダイナミクスの前記一連のイメージにおける、各時間ステップにおけるそれぞれの取得されたイメージについて、対応するビジュアル特徴ベクトルを取得するよう構成された畳み込みニューラルネットワークビジュアルエンコーダと、
    同一の時間ステップにおける前記車両の位置を取得するよう構成された1または複数のセンサと、
    前記同一の時間ステップにおける、前記ビジュアル特徴ベクトルおよび前記車両の位置を受信して、前の隠れ状態を考慮して、前記車両の前記アクションの前記予測を生成するよう構成された再帰型ニューラルネットワーク、特に、LSTMネットワークと、を備え、
    前記システムは、前記車両の操縦を表わす制御コマンドのセットを入力として受信するよう構成され、
    前記再帰型ニューラルネットワークは、複数の再帰型ニューラルネットワークの分岐を有し、各分岐は、前記制御コマンドのセットにおける制御コマンドに対応し、
    前記システムは、制御コマンドを受信すると、前記再帰型ニューラルネットワークの前記対応する分岐を選択するよう構成されたコマンド条件スイッチを備え、
    よって、前記システムは、前記選択された対応する分岐を操作して、前記時間ステップにおける前記ビジュアル特徴ベクトルおよび前記車両の位置を処理して、前記車両の前記アクションの前記予測を取得するよう構成されている、システム。
  2. 前記再帰型ニューラルネットワークは、LSTMネットワークを含む、請求項1に記載のシステム。
  3. 前記畳み込みニューラルネットワークビジュアルエンコーダは、ダイレート全畳み込みニューラルネットワーク(dilated fully convolutional neural network)ビジュアルエンコーダである、請求項1に記載のシステム。
  4. 前記システムは、前記対応する分岐を操作して、前記車両の前記アクションの前記予測を、同一の特定の時間ステップにおける、前記取得されたイメージ、前記車両の位置および制御コマンドのマップとして取得するよう構成されている、請求項1に記載のシステム。
  5. 前記操縦は、前記車両のナビゲーションパスに含まれ、特にナビゲーションシステムによって提供される、請求項1に記載のシステム。
  6. 前記アクションは、ステアリング角および車両速度を含む、請求項1に記載のシステム。
  7. 前記システムは、前記車両の自律運転のためのシステムに含まれる、請求項1から6のいずれか一項に記載のシステム。
  8. 車両のアクションを予測する方法であって、
    前記車両によって観察される、特に前記車両の前方のシーンダイナミクスの一連のイメージを取得する段階と、
    畳み込みニューラルネットワーク、特にダイレート完全畳み込みニューラルネットワークビジュアルエンコーダを、対応する取得されたイメージに適用することで、各時間ステップにおけるビジュアル特徴ベクトルを取得する段階と、
    同一の時間ステップにおける前記車両の位置を取得する段階と、
    前記同一の時間ステップにおける、前記ビジュアル特徴ベクトルおよび前記車両の位置を、再帰型ニューラルネットワーク、特に、LSTMネットワークに供給する段階と、を備え、前記方法は、さらに、
    前記車両の操縦を表わす制御コマンドのセットを判定する段階と、
    前記再帰型ニューラルネットワークの複数の分岐を提供する段階であって、各分岐は、前記制御コマンドのセットにおける制御コマンドに対応する、段階と、
    制御コマンドが発行されるとき、前記再帰型ニューラルネットワークの前記対応する分岐を選択し、且つ、前記時間ステップにおける前記ビジュアル特徴ベクトルおよび前記車両の位置を、前記対応する分岐に供給する段階と、
    前記対応する分岐を操作して、前記車両の前記アクションの前記予測を取得する段階と、を備える、方法。
  9. 前記対応する分岐を操作して、前記車両の前記アクションの前記予測を取得する前記段階は、前記対応する分岐を操作して、同一の特定の時間ステップにおける、前記取得されたイメージ、前記車両の位置および制御コマンドのマップとして、前記車両の前記アクションの前記予測を取得する段階を含む、請求項8に記載の方法。
  10. 前記操縦は、前記車両のナビゲーションパスに含まれる、請求項8に記載の方法。
  11. 前記アクションは、ステアリング角および車両速度を含む、請求項8に記載の方法。
JP2021538257A 2019-02-27 2020-02-20 車両のアクションの予測を取得するためのシステムおよび対応する方法 Pending JP2022521881A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
IT102019000002853 2019-02-27
IT102019000002853A IT201900002853A1 (it) 2019-02-27 2019-02-27 "Sistema per ottenere la predizione di un’azione di un veicolo e procedimento corrispondente"
PCT/IB2020/051422 WO2020174327A1 (en) 2019-02-27 2020-02-20 System for obtaining a prediction of an action of a vehicle and corresponding method

Publications (1)

Publication Number Publication Date
JP2022521881A true JP2022521881A (ja) 2022-04-13

Family

ID=66589808

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021538257A Pending JP2022521881A (ja) 2019-02-27 2020-02-20 車両のアクションの予測を取得するためのシステムおよび対応する方法

Country Status (6)

Country Link
US (1) US11970175B2 (ja)
EP (1) EP3931058A1 (ja)
JP (1) JP2022521881A (ja)
CN (1) CN113382908A (ja)
IT (1) IT201900002853A1 (ja)
WO (1) WO2020174327A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220331962A1 (en) * 2019-09-15 2022-10-20 Google Llc Determining environment-conditioned action sequences for robotic tasks
US20200324794A1 (en) * 2020-06-25 2020-10-15 Intel Corporation Technology to apply driving norms for automated vehicle behavior prediction
CN115826627A (zh) * 2023-02-21 2023-03-21 白杨时代(北京)科技有限公司 一种编队指令的确定方法、系统、设备及存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017220197A (ja) * 2016-06-12 2017-12-14 バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド 車両制御方法と装置及び判断モジュールの獲得方法と装置
JP2018199473A (ja) * 2017-05-30 2018-12-20 株式会社Soken 操舵角決定装置、自動運転車
WO2019005547A1 (en) * 2017-06-28 2019-01-03 Panasonic Intellectual Property Corporation Of America MOBILE BODY CONTROL APPARATUS, MOBILE BODY CONTROL METHOD, AND LEARNING METHOD
JP2019028616A (ja) * 2017-07-27 2019-02-21 トヨタ自動車株式会社 識別装置

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10322829A1 (de) * 2003-05-19 2004-12-09 Daimlerchrysler Ag Steuerungssystem für ein Fahrzeug
WO2010096783A1 (en) * 2009-02-20 2010-08-26 The Trustees Of Columbia University In The City Of New York Dynamic contingency avoidance and mitigation system
US8229866B2 (en) * 2009-09-04 2012-07-24 Alex Alaniz Method and system for detecting correlation in data sets
US20160202670A1 (en) * 2015-01-08 2016-07-14 Northwestern University System and method for sequential action control for nonlinear systems
DE102016220945A1 (de) * 2015-11-06 2017-05-11 Ford Global Technologies, Llc Verfahren und Vorrichtung zum Unterstützen eines Manövriervorganges eines Kraftfahrzeuges
US9760806B1 (en) 2016-05-11 2017-09-12 TCL Research America Inc. Method and system for vision-centric deep-learning-based road situation analysis
US10402687B2 (en) * 2017-07-05 2019-09-03 Perceptive Automata, Inc. System and method of predicting human interaction with vehicles
US10578456B2 (en) 2018-03-28 2020-03-03 Intel Corporation Safety enhanced computer assisted driving method and apparatus

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017220197A (ja) * 2016-06-12 2017-12-14 バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド 車両制御方法と装置及び判断モジュールの獲得方法と装置
JP2018199473A (ja) * 2017-05-30 2018-12-20 株式会社Soken 操舵角決定装置、自動運転車
WO2019005547A1 (en) * 2017-06-28 2019-01-03 Panasonic Intellectual Property Corporation Of America MOBILE BODY CONTROL APPARATUS, MOBILE BODY CONTROL METHOD, AND LEARNING METHOD
JP2019028616A (ja) * 2017-07-27 2019-02-21 トヨタ自動車株式会社 識別装置

Also Published As

Publication number Publication date
WO2020174327A1 (en) 2020-09-03
US11970175B2 (en) 2024-04-30
EP3931058A1 (en) 2022-01-05
IT201900002853A1 (it) 2020-08-27
US20220126844A1 (en) 2022-04-28
CN113382908A (zh) 2021-09-10

Similar Documents

Publication Publication Date Title
Xiao et al. Multimodal end-to-end autonomous driving
CN111137292B (zh) 经执行器-评价网络架构学习车道变换策略的方法和系统
US20180157972A1 (en) Partially shared neural networks for multiple tasks
JP2022521881A (ja) 車両のアクションの予測を取得するためのシステムおよび対応する方法
US11636348B1 (en) Adaptive training of neural network models at model deployment destinations
Wang et al. End-to-end self-driving using deep neural networks with multi-auxiliary tasks
Shreyas et al. Self-driving cars: An overview of various autonomous driving systems
EP3752955A1 (en) Image segmentation
CN113409194B (zh) 泊车信息获取方法及装置、泊车方法及装置
Elkholy et al. Path planning of a self driving vehicle using artificial intelligence techniques and machine vision
WO2020187625A1 (en) Method for representing an environment of a mobile platform
Kim et al. Multi-task learning with future states for vision-based autonomous driving
US20230154198A1 (en) Computer-implemented method for multimodal egocentric future prediction
Forczmański et al. Deep learning approach to detection of preceding vehicle in advanced driver assistance
CN115705717A (zh) 预测载具的邻近区域的多个对象的特性的方法和系统
GB2605636A (en) A method for predicting at least one motion of at least one object in the surroundings of a motor vehicle as well as a corresponding detection system
Khosroshahi Learning, classification and prediction of maneuvers of surround vehicles at intersections using lstms
Munger et al. How many features is an image worth? multi-channel cnn for steering angle prediction in autonomous vehicles
Ferencz et al. End-to-end autonomous vehicle lateral control with deep learning
Samal et al. Machine Learning Components for Autonomous Navigation Systems
Zhang et al. A single-pathway biomimetic model for potential collision prediction
López Campos et al. Following and overtaking: a policy for autonomous car driving
US20230410469A1 (en) Systems and methods for image classification using a neural network combined with a correlation structure
Kottath et al. Independent Learning of Motion Parameters for Deep Visual Odometry
Supeno et al. Deep Imitation Learning Behavior Fusion Algorithm for Visual Based Autonomous Driving Scenario

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230206

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231205

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240301

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240521

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240816