JP7351814B2 - 車両応答予測装置、学習装置、方法、及びプログラム - Google Patents

車両応答予測装置、学習装置、方法、及びプログラム Download PDF

Info

Publication number
JP7351814B2
JP7351814B2 JP2020137639A JP2020137639A JP7351814B2 JP 7351814 B2 JP7351814 B2 JP 7351814B2 JP 2020137639 A JP2020137639 A JP 2020137639A JP 2020137639 A JP2020137639 A JP 2020137639A JP 7351814 B2 JP7351814 B2 JP 7351814B2
Authority
JP
Japan
Prior art keywords
vehicle
response
time series
learning
neural network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020137639A
Other languages
English (en)
Other versions
JP2022033640A (ja
Inventor
浩平 新谷
裕 佐々木
誠 三輪
晃平 牧野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota School Foundation
Toyota Motor Corp
Original Assignee
Toyota School Foundation
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota School Foundation, Toyota Motor Corp filed Critical Toyota School Foundation
Priority to JP2020137639A priority Critical patent/JP7351814B2/ja
Priority to US17/403,499 priority patent/US20220050944A1/en
Priority to CN202110936594.7A priority patent/CN114077769A/zh
Publication of JP2022033640A publication Critical patent/JP2022033640A/ja
Application granted granted Critical
Publication of JP7351814B2 publication Critical patent/JP7351814B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/20Design optimisation, verification or simulation
    • G06F30/27Design optimisation, verification or simulation using machine learning, e.g. artificial intelligence, neural networks, support vector machines [SVM] or training a model
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/10Geometric CAD
    • G06F30/15Vehicle, aircraft or watercraft design
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2119/00Details relating to the type or aim of the analysis or the optimisation
    • G06F2119/02Reliability analysis or reliability optimisation; Failure analysis, e.g. worst case scenario performance, failure mode and effects analysis [FMEA]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Geometry (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computational Mathematics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)

Description

本発明は、車両応答予測装置、学習装置、方法、及びプログラムに関する。
車両開発においては、車体の諸元から、コンピュータによるシミュレーションであるCAE(computer aided engineering)を用いて車両の走行時の挙動を推定し、当該推定に基づいて車両の性能を予測する研究が進められている。
また、CAEの代替モデルとして機械学習を用いるアプローチが知られており、例えば、非特許文献1には、ランダムフォレストを用いた手法が開示されている。
L'ubor Ladick'y, SoHyeon Jeong, Barbara Solenthaler, Marc Pollefeys, and Markus Gross. Data-driven fluid simulations using regression forests. ACM Trans. Graph., Vol. 34, No. 6, pp. 199:1-199:9, October 2015.
しかしながら、上記非特許文献1に記載のアプローチでは、時系列全体を考慮するようなモデルを用いておらず、車両運動性能のCAE解析のように一続きの時系列を考慮する必要がある対象への適用が困難である。
本発明は、上記事実を考慮し、車両に対する入力の時系列に対する車両の応答を精度よく予測可能な車両応答予測装置、学習装置、方法、及びプログラムを提供することを目的とする。
請求項1に記載の車両応答予測装置は、車両に対する入力の時系列と、前記車両の特性とを表す入力データを入力とし、車両の応答を予測するための予め学習された畳み込みニューラルネットワークモデルを用いて、予測対象の車両に対する入力の時系列と、前記予測対象の車両の特性とを表す入力データから、前記予測対象の車両の応答を予測する予測部を含む。ここで、車両の特性とは、車両の物理的構造に関するパラメータである。
請求項1に記載の車両応答予測装置によれば、予測部が、車両に対する入力の時系列と、前記車両の特性とを表す入力データを入力とし、車両の応答を予測するための畳み込みニューラルネットワークモデルを用いて予測対象の車両の応答を予測する。このとき、畳み込みニューラルネットワークモデルにおいて、車両に対する入力の時系列と、前記車両の特性とを表す入力データに対して畳み込み処理が行われる。これにより、車両に対する入力の時系列に対する車両の応答を精度よく予測することができる。
なお、請求項2に記載の車両応答予測装置のように、前記畳み込みニューラルネットワークモデルの少なくとも一つの畳み込み層は、一つ前の層の出力に基づく畳み込み結果と、一つ前の層の出力との和に、活性化関数を適用したものを出力としてもよい。これにより、畳み込みニューラルネットワークモデルを効率的に学習することができる。
また、請求項3に記載の車両応答予測装置のように、前記入力データを、前記車両に対する入力と前記車両の特性とを表すベクトルを、時系列順に並べた行列としてもよい。これにより、畳み込みニューラルネットワークモデルにおける畳み込み処理により、車両に対する入力の時系列を考慮して、車両の応答を予測することができる。
また、請求項4に記載の車両応答予測装置のように、前記畳み込み層のフィルタは、前記フィルタにより畳み込まれる値の時系列方向の間隔が異なる複数のフィルタを含むようにしてもよい。これにより、畳み込みニューラルネットワークモデルにおいて、異なる時間の粒度で、畳み込み処理を行うことができる。
また、請求項5に記載の学習装置は、車両に対する入力の時系列と前記車両の特性とに基づくシミュレーション結果として得られた車両の応答から、車両に対する入力の時系列と、前記車両の特性とを表す入力データ、及び車両の応答を表す学習用データを作成する作成部と、前記学習用データに基づいて、前記入力データを入力とし、前記車両の応答を予測するための畳み込みニューラルネットワークモデルを学習する学習部と、を含む。
請求項5に記載の学習装置によれば、作成部が、車両に対する入力の時系列と前記車両の特性とに基づくシミュレーション結果として得られた車両の応答から、車両に対する入力の時系列と、前記車両の特性とを表す入力データ、及び車両の応答を表す学習用データを作成する。学習部が、前記学習用データに基づいて、前記入力データを入力とし、前記車両の応答を予測するための畳み込みニューラルネットワークモデルを学習する。畳み込みニューラルネットワークモデルでは、車両に対する入力の時系列と、前記車両の特性とを表す入力データに対して畳み込み処理が行われる。これにより、車両に対する入力の時系列に対する車両の応答を精度よく予測することができる。
なお、請求項6に記載の学習装置のように、前記作成部は、車両に対する入力の時系列と前記車両の特性とに基づくシミュレーション結果として得られた、前記車両の状態の時系列及び前記車両の応答から、車両に対する入力の時系列と、前記車両の特性とを表す入力データ、前記車両の状態の時系列、及び前記車両の応答を表す学習用データを作成し、前記学習部は、前記畳み込みニューラルネットワークモデルの中間出力が、前記学習用データの前記車両の状態の時系列に対応し、かつ、前記畳み込みニューラルネットワークの最終出力が、前記学習用データの前記車両の応答に対応するように、前記畳み込みニューラルネットワークモデルを学習するようにしてもよい。これにより、シミュレーション結果として得られた、前記車両の状態の時系列を考慮した、畳み込みニューラルネットワークモデルを学習することができる。ここで、車両の状態の時系列とは、車両の位置、姿勢、又は走行状態の時系列である。
請求項7に記載の車両応答予測方法は、予測部が、車両に対する入力の時系列と、前記車両の特性とを表す入力データを入力とし、車両の応答を予測するための予め学習された畳み込みニューラルネットワークモデルを用いて、予測対象の車両に対する入力の時系列と、前記予測対象の車両の特性とを表す入力データから、前記予測対象の車両の応答を予測する。
請求項8に記載の学習方法は、作成部が、車両に対する入力の時系列と前記車両の特性とに基づくシミュレーション結果として得られた車両の応答から、車両に対する入力の時系列と、前記車両の特性とを表す入力データ、及び車両の応答を表す学習用データを作成し、学習部が、前記学習用データに基づいて、前記入力データを入力とし、前記車両の応答を予測するための畳み込みニューラルネットワークモデルを学習する。
請求項9に記載の車両応答予測プログラムは、車両に対する入力の時系列と、前記車両の特性とを表す入力データを入力とし、車両の応答を予測するための予め学習された畳み込みニューラルネットワークモデルを用いて、予測対象の車両に対する入力の時系列と、前記予測対象の車両の特性とを表す入力データから、前記予測対象の車両の応答を予測することをコンピュータに実行させるためのプログラムである。
請求項10に記載の学習プログラムは、車両に対する入力の時系列と前記車両の特性とに基づくシミュレーション結果として得られた車両の応答から、車両に対する入力の時系列と、前記車両の特性とを表す入力データ、及び車両の応答を表す学習用データを作成し、前記学習用データに基づいて、前記入力データを入力とし、前記車両の応答を予測するための畳み込みニューラルネットワークモデルを学習することをコンピュータに実行させるためのプログラムである。
以上説明したように、本発明に係る車両応答予測装置、学習装置、方法、及びプログラムによれば、車両に対する入力の時系列に対する車両の応答を精度よく予測することができる。
本発明の実施の形態に係る車両応答予測装置の具体的な構成の一例を示すブロック図である。 本発明の実施の形態に係るコンピュータの機能的な構成の一例を示すブロック図である。 畳み込みニューラルネットワークモデルの一例を示した概略図である。 畳み込みニューラルネットワークモデルのフィルタの一例を示した図である。 本発明の実施の形態に係るコンピュータによる学習処理を示すフローチャートである。 本発明の実施の形態に係るコンピュータによる予測処理を示すフローチャートである。 車両のロール安定性をテストするNCAP fishhook試験の走行軌跡の一例を示した概略図である。
以下、図1を用いて、本実施の形態に係る車両応答予測装置について説明する。図1は、本発明の実施の形態に係る車両応答予測装置10の具体的な構成の一例を示すブロック図である。
車両応答予測装置10は、コンピュータ30を含んで構成されている。コンピュータ30は、CPU32、ROM34、RAM36、及び入出力ポート38を備える。一例としてコンピュータ30は、エンジニアリングワークステーション、又はスーパーコンピュータ等の、高度な演算処理を高速で実行できる機種であることが望ましい。
コンピュータ30では、CPU32、ROM34、RAM36、及び入出力ポート38がアドレスバス、データバス、及び制御バス等の各種バスを介して互いに接続されている。入出力ポート38には、各種の入出力機器として、ディスプレイ40、マウス42、キーボード44、ハードディスク(HDD)46、及び各種ディスク(例えば、CD-ROMやDVD等)48から情報の読み出しを行うディスクドライブ50が各々接続されている。
また、入出力ポート38には、ネットワーク52が接続されており、ネットワーク52に接続された各種機器と情報の授受が可能とされている。本実施の形態では、ネットワーク52には、データベース(DB)54が接続されたデータサーバ56が接続されており、DB54に対して情報の授受が可能とされている。データサーバ56及びDB54は、コンピュータ30が兼ねてもよい。
DB54には、車両応答予測の対象となる車両の3D(三次元)モデルのデータ及び車両応答予測に係るCAEによるシミュレーション結果のデータ等が予め記憶される。DB54への情報の記憶は、コンピュータ30やデータサーバ56を介したデータの格納でもよいし、ネットワーク52に接続された他の機器を介したデータの格納でもよい。DB54に格納される3Dモデルのデータは、CAD(コンピュータ支援設計)による車両のデータでよいが、演算処理が容易なように、ジオメトリが予め調整されたデータでもよい。
DB54に格納されるシミュレーション結果のデータは、車両応答予測に係るCAEによるシミュレーションが行われた車両の特性と、車両に対する入力の時系列と、車両の特性及び入力の時系列に基づくシミュレーション結果として得られた車両の状態の時系列及び車両の応答とを含むデータである。
本実施の形態では、データサーバ56に接続されたDB54に、車両応答予測の対象となる車両の3Dモデルのデータ、車両応答予測に係るCAEによるシミュレーション結果のデータ等が記憶されるものとして説明するが、コンピュータ30に内蔵されたHDD46や外付けのハードディスク等の外部記憶装置にDB54の情報を記憶するようにしてもよい。
コンピュータ30のHDD46には、車両応答を予測する畳み込みニューラルネットワークモデルを学習するための学習プログラム46A及び車両応答を予測するための車両応答予測プログラム46Bがインストールされている。本実施の形態では、CPU32が学習プログラム46Aを実行することにより、車両応答を予測するための畳み込みニューラルネットワークモデルを学習する。また、CPU32が車両応答予測プログラム46Bを実行することにより、車両応答を予測する。また、CPU32は、予測結果をディスプレイ40に表示させる。なお、本実施の形態の学習プログラム46A及び車両応答予測プログラム46Bをコンピュータ30にインストールするには、幾つかの方法があるが、例えば、学習プログラム及び車両応答予測プログラムをCD-ROMやDVD等に記憶しておき、ディスクドライブ50にディスク48をセットし、CPU32に対してセットアッププログラムを実行することによりHDD46に学習プログラム46A及び車両応答予測プログラム46Bをインストールする。または、公衆電話回線やネットワーク52を介してコンピュータ30と接続される他の情報処理機器と通信することで、HDD46に学習プログラム46A及び車両応答予測プログラム46Bをインストールするようにしてもよい。
次に、コンピュータ30の機能構成について説明する。図2は、コンピュータ30の機能構成の例を示すブロック図である。
図2に示すように、コンピュータ30は、学習用データ作成部12、学習部14、モデル記憶部16、入力データ作成部18、及び予測部20を備える。
学習用データ作成部12は、DB54に格納されるシミュレーション結果のデータから、車両に対する入力の時系列と車両の特性とを表す入力データ、車両の状態の時系列、及び車両の応答を表す学習用データを作成する。例えば、車両に対する入力としてのステアリング角の時系列と車両の特性とを表す入力データ、車両の位置やロール角などの状態の時系列、及びロール角最大値などの車両の応答を表す学習用データを作成する。
学習部14は、学習用データに基づいて、入力データを入力とし、車両の応答を予測するための畳み込みニューラルネットワークモデルを学習する。具体的には、学習部14は、畳み込みニューラルネットワークモデルの中間出力が、学習用データの車両の状態の時系列に対応し、かつ、畳み込みニューラルネットワークモデルの最終出力が、学習用データの車両の応答に対応するように、畳み込みニューラルネットワークモデルを学習する。
ここで、畳み込みニューラルネットワークモデル(以下、CNN(Convolutional Neural Network)モデルと称する。)について説明する。図3に示すように、CNNモデル60は、入力部60A、シミュレータ部60B、及び演算部60Cを含んで構成されている。
入力部60Aは、車両に対する入力と車両の特性ベクトルとを表すベクトルを、時系列順に並べた行列を、入力データとして受け付ける。
具体的には、車両に対する入力であるステリング角度^δtと車両の特性ベクトルpとを表すベクトルxを、時系列順に並べた行列xを入力データとして受け付ける。各時刻tのベクトルxに含まれる特性ベクトルは、時間に応じて変化しないため、各時刻tで共通となっている。
例えば、ステリング角度δ(t=1,・・・,T)と、車両の特性ベクトルpと、ベクトルxと、行列xとが以下のように表される。なお、^Xは数式中では、記号X上に“^”であることを示す。


上記の例では、車両の特性ベクトルpがN次元の要素を有し、ベクトルxtが、20次元の要素を有し、行列xが、20×Tの要素を有している。
シミュレータ部60Bは、入力部60Aにより受け付けた入力データから、車両の状態の時系列を予測する。シミュレータ部60Bは、結合層と畳み込み層とを含んで構成される。まず、結合層によって入力データから特徴量を抽出する。その後の畳み込み層で特徴量を時系列方向に畳み込む。これにより、それぞれの時刻における特徴を抽出する。結合層をFCin(x)とし、L層の畳み込み層のうち、畳み込み幅Hのl番目の畳み込み層をConvseq (l)とし、l番目の重みを

とおくと、l層目の畳み込み層で畳み込んだ時の時刻tに対応する出力

は以下のように表される。

・・・(1)

・・・(2)
ただし、

はアダマール積であり、z[t-H:t]=[zt-H,zt-H+1,・・・z]であり、ReLU(x)=max(0,x)は要素ごとに演算する関数である。式(2)で1つ前の層から出力された特徴を足しているのは、残差接続(Residual Connection)で、勾配を伝えるためである(参考文献1参照)。また、この畳み込み層をDilated Convolutionとすることで、異なる時間の粒度での畳み込みができる(参考文献2参照)。例えば、2つの畳み込み層による畳み込み処理を畳み込み幅2で行い、それぞれのフィルタで畳み込まれる値の間隔であるDilationを1と2に設定しているので、合計では3ステップ前の時刻まで考慮してモデル化できる。
[参考文献1]Kaiming He, Xiangyu Zhang, Shaoqing Ren, and Jian Sun. Deep residual learning for image recognition. In Proceedings of the IEEE conference on computer vision and pattern recognition, pp. 770-778, 2016.
[参考文献2]Fisher Yu and Vladlen Koltun. Multi-scale context aggregation by dilated convolutions. In International Conference on Learning Representations (ICLR), May 2016.
最後の畳み込み層の出力z(L)を、結合層FCseq(x)に入力して、以下の式(3)に従って、時刻tの車両の状態の予測結果^sを予測することにより、車両の状態の時系列^sを予測する。

・・・(3)
演算部60Cは、予測された車両の状態の時系列^sから車両の応答を抽出する。
具体的には、演算部60Cは、シミュレータ部60Bで得られた車両の状態の時系列^sから、畳み込み層と最大値プーリング層を用いて、車両の状態の時系列^sを表す特徴量を抽出し、その特徴量から結合層を用いて車両の応答を計算する。
このとき、プーリングは一括に行わずに、それぞれM層の畳み込みと最大値プーリングによって徐々に車両の状態の時系列^sの特徴を抽出する。複数の畳み込み層のうちのm層目の畳み込み層をConvpool (m)(x)、複数の最大値プーリング層のうちのm層目の最大値プーリングをMaxPool(m)(x)とすると、m層目の最大値プーリング層の出力である中間表現h(m)は以下のように表せる。

・・・(4)

・・・(5)
抽出した時系列の特徴

から、結合層FCout(x)を用いて最終的な応答

を予測する。

・・・(6)
上記式(1)、(2)に示したとおり、本実施の形態では、CNNモデルの少なくとも一つの畳み込み層は、一つ前の層の出力に基づく畳み込み結果と、一つ前の層の出力との和に、活性化関数を適用したものを出力とする。このように、一つ前の層の出力を追加することで、モデル学習時の課題である勾配消失及び勾配爆発を回避することができる。その結果、モデル学習を効率化することができる為、モデルの予測精度を向上させることができる。
また、シミュレータ部60Bにおいて畳み込み演算を行うことで特徴量を抽出するとき、Dilated Convolutionを用いて、異なる時間粒度の畳み込みを行う。具体的には、図4に示すように、畳み込み層のフィルタは、フィルタにより畳み込む値の時系列方向の間隔が異なる。図4では、斜線の領域が、フィルタにより時系列方向に畳み込む値を示している。
その結果、車両の状態量として得られる「変位」の情報に加えて、「速度」、「加速度」、「加速度勾配(ジャーク)」の情報に着目した特徴量を得ることができるようになる。上記図4では、フィルタF(Dilation=0)が、現在の時刻と一つ前の時刻と一つ後の時刻との各々に対応する値に対して畳み込み処理をする例を示している。このフィルタにより、速度を考慮した特徴量を得ることができる。また、フィルタF(Dilation=1)が、現在の時刻と2時刻前と2時刻後との各々に対応する値に対して畳み込み処理をする例を示している。フィルタF2(Dilation=2)が、現在の時刻と3時刻前と3時刻後との各々の値に対して畳み込み処理をする例を示している。このように、フィルタF(Dilation=1)、フィルタF(Dilation=2)において、畳み込む値の間隔を広げているため、加速度や加速度勾配(ジャーク)などの情報を考慮した特徴量を得ることができる。このような物理的な意味のある情報を特徴量として考慮することで、モデルの予測精度を向上させる。
上述したCNNモデルの中間出力^sが、以下に示す学習用データの車両の状態の時系列sに対応し、かつ、畳み込みニューラルネットワークの最終出力oが、学習用データの車両の応答に対応するように、CNNモデルが学習される。
モデル記憶部16は、学習部14によって学習されたCNNモデルに関するパラメータを記憶する。
入力データ作成部18は、DB54に格納された、車両応答予測の対象となる車両の3Dモデルのデータから、車両応答予測の対象となる車両の特性を取得する。
入力データ作成部18は、予め設定された車両に対する入力の時系列と、取得した車両の特性とを表す入力データを作成する。具体的には、予め設定された、車両に対する入力であるステリング角度^δと、取得した車両の特性ベクトルpとを表すベクトルxを、時系列順に並べた行列xを、CNNモデルに対する入力データとして作成する。
予測部20は、学習部14によって学習されたCNNモデルを用いて、入力データ作成部18によって作成された入力データから、予測対象の車両の応答を予測する。
具体的には、学習部14によって学習されたCNNモデル60の入力部60Aに、入力データ作成部18によって作成された入力データを入力し、CNNモデル60の演算部60Cの出力を、予測対象の車両の応答の予測結果とし、ディスプレイ40により出力する。
<車両応答予測装置10の動作>
次に、本発明の実施の形態に係る車両応答予測装置10の動作について説明する。
まず、データサーバ56に接続されたDB54に、車両応答予測に係るCAEによるシミュレーション結果のデータが格納される。また、データサーバ56に接続されたDB54に、車両応答予測の対象となる車両の3Dモデルのデータが格納される。
そして、コンピュータ30によって、図5に示す学習処理ルーチンが実行される。
まず、ステップS100において、学習用データ作成部12は、DB54に格納されているシミュレーション結果のデータを取得する。学習用データ作成部12は、取得したシミュレーション結果のデータから、車両に対する入力の時系列と、車両の特性とを表す入力データ、車両の状態の時系列、及び車両の応答を表す学習用データを作成する。
ステップS102において、学習部14は、学習用データに基づいて、入力データを入力とし、車両の応答を予測するためのCNNモデルを学習し、学習されたCNNモデルに関するパラメータを記憶する。
そして、コンピュータ30によって、図6に示す予測処理ルーチンが実行される。
まず、ステップS110において、入力データ作成部18は、DB54に格納されている、車両応答予測の対象となる車両の3Dモデルのデータを取得する。入力データ作成部18は、取得した車両応答予測の対象となる車両の3Dモデルのデータから、車両応答予測の対象となる車両の特性を取得する。そして、入力データ作成部18は、予め設定された車両に対する入力の時系列と、取得した車両の特性とを表す入力データを作成する。
ステップS112において、予測部20は、学習部14によって学習されたCNNモデルを用いて、入力データ作成部18によって作成された入力データから、予測対象の車両の応答を予測する。
<実施例>
次に、上記の実施の形態で説明したCNNモデルを用いた車両応答予測方法の実施例について説明する。
図7は、車両のロール安定性をテストするNCAP fishhook試験の走行軌跡の一例を示した概略図である。図7の試験では、車速が一定時に、左右方向にステアリング操作した旋回時の車両の最大横加速度を予測した。教師データは、DOE(Design of experiments)を用いて752デザインを生成し、一例として、車両走行のシミュレータであるCarMaker(登録商標)を用いた。
また、上記の実施の形態で説明したCNNモデルを用いた予測方法と、参考文献3に記載のRNNモデルを用いた予測方法を比較し、検証をする。実験で用いたプログラムは、プログラム言語Python version3.6.9を用いて実装した。用いた機械学習フレームワークはPyTorch version1.3である。
[参考文献3]牧野晃平,三輪誠,新谷浩平,阿部充治,佐々木裕.「深層学習を用いた車両運動性能の代理モデルの開発」,日本機械学会第29回設計工学・システム部門講演会,2019.
データセットは、入力データと、CAE解析の途中で計算される車両の状態の時系列と、車両の応答とからなる。一つのデータは、例えば、19次元の車両の特性を表すパラメータp、車両に対する入力の時系列におけるステアリング角の最大値δmax、CAE解析の途中に計算される位置やロール角などの31次元の車両の状態の時系列、及びその時系列から最大値や最小値などの演算をして得られる最終的な5次元の応答から構成される。また、データセットの構成は、表2の通りである。
CNNモデルの詳細を、表3に示す。
表3のように、シミュレータ部60Bの畳み込み層はDilated Convolutionを用いている。これは、上述したように、異なる時間の粒度での畳み込みを行うためである。また、ID8の最大値プーリングについて、畳み込み幅などが定義されていないのは、時系列全体を対象としてプーリングするためである。
比較対象となる参考文献1に記載のRNNを用いたモデルは、上記の実施の形態のCNNモデルの畳み込み層を、RNNの一種であるLong Short-Term Memoryに置換したものである。
CNNモデルを用いた予測方法及びRNNモデルを用いた予測方法の精度は、平均平方誤差(Root Mean Square Error : RMSE)を用いて評価した。RMSEは、下記の式で表される。下記式中のDはデータの数である。
それぞれの応答パラメータにおける誤差e(i=1,2,・・・,5)は

となる。この誤差をそれぞれの評価値を対等に評価するためのスケーリングとして、訓練データの応答の平均μと分散σを用いて以下のように正規化した。
実験手順は、構築したモデルの重みをPyTorchの初期乱数で初期化し、学習した後にテストを行う。スコアは、1エポック毎に求め、応答の誤差の平均

が最も小さくなったときのスコアをその試行に対するスコアとし、5回試行した平均でスコアを定める。誤差は標準誤差を用いた。
上記の実施の形態で説明したCNNモデルを用いた予測方法による精度の向上の確認のため、参考文献1のRNNモデルを用いた予測方法と比較する。結果を表4に示した。表4の下線付きの数値の方が、誤差を少なく、精度よく推定できているということである。表4を見ると、応答o,oの予測については、CNNモデルの方が大幅に高い性能を示しているといえる。また、応答oの予測については大きな差はなく、応答o,oの予測については、RNNモデルの方が有効に予測できているといえる。以上の結果から、CNNモデルとRNNモデルでそれぞれ得意とするタスクが異なっていることが予測できる。ただし、平均をみるとCNNモデルの方が予測誤差が小さいことから、CNNモデルの方が効果的にモデル化できているといえる。
以上説明したように、本実施の形態によれば、車両応答予測装置の予測部が、車両に対する入力の時系列と、前記車両の特性とを表す入力データを入力とし、車両の応答を予測するためのCNNモデルを用いて予測対象の車両の応答を予測する。このとき、CNNモデルにおいて、車両に対する入力の時系列と、前記車両の特性とを表す入力データに対して畳み込み処理が行われる。これにより、車両に対する入力の時系列に対する車両の応答を精度よく予測することができる。
また、CAEシミュレータから得られる時系列の入出力結果から学習用データを作成し、CNNモデルを学習する。これにより、これまでCAEの専任者が工数・計算コストをかけて利用していたCAEシミュレーションを、誰もが時間やコストをかけることなく利用することが可能である。
また、CNNモデルを用いることにより、RNNモデルと比較して、並列化による高速な計算が可能となる。また、RNNモデルと比較して時系列全体よりも一部に着目してモデル化するという特徴がある。
また、CNNモデルのシミュレータ部により、時々刻々の状態量(変位など)を考慮することができる。また、開始時刻から終了時刻までの特徴量も考慮した下で、車両の応答を予測することができるため、予測精度が向上する。
<変形例>
上記の実施の形態では、予測処理と学習処理とを1つの装置で実現する場合を例に説明したが、これに限定されるものではなく、予測処理を行う車両応答予測装置と学習処理を行う学習装置とに分けて構成してもよい。この場合には、学習装置は、学習用データ作成部12、学習部14、及びモデル記憶部16を備える。車両応答予測装置は、入力データ作成部18、予測部20、及びモデル記憶部16を備える。
また、上記実施形態でCPU32がソフトウェア(プログラム)を読み込んで実行した各種処理を、CPU以外の各種のプロセッサが実行してもよい。この場合のプロセッサとしては、FPGA(Field-Programmable Gate Array)等の製造後に回路構成を変更可能なPLD(Programmable Logic Device)、及びASIC(Application Specific Integrated Circuit)等の特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路等が例示される。また、上述した学習処理及び予測処理を、これらの各種のプロセッサのうちの1つで実行してもよいし、同種又は異種の2つ以上のプロセッサの組み合わせ(例えば、複数のFPGA、及びCPUとFPGAとの組み合わせ等)で実行してもよい。また、これらの各種のプロセッサのハードウェア的な構造は、より具体的には、半導体素子等の回路素子を組み合わせた電気回路である。
また、上記実施形態において、各プログラムはコンピュータが読み取り可能な非一時的記録媒体に予め記憶(インストール)されている態様で説明した。例えば、学習プログラム46A及び車両応答予測プログラム46Bは、HDD46に予め記憶されている。しかしこれに限らず、各プログラムは、CD-ROM(Compact Disc Read Only Memory)、DVD-ROM(Digital Versatile Disc Read Only Memory)、及びUSB(Universal Serial Bus)メモリ等の非一時的記録媒体に記録された形態で提供されてもよい。また、プログラムは、ネットワークを介して外部装置からダウンロードされる形態としてもよい。
上記実施形態で説明した処理の流れも、一例であり、主旨を逸脱しない範囲内において不要なステップを削除したり、新たなステップを追加したり、処理順序を入れ替えたりしてもよい。
10 車両応答予測装置(学習装置)
12 学習用データ作成部(作成部)
14 学習部
16 モデル記憶部
18 入力データ作成部
20 予測部
30 コンピュータ
46A 学習プログラム
46B 車両応答予測プログラム
60 畳み込みニューラルネットワークモデル
60A 入力部
60B シミュレータ部
60C 演算部

Claims (8)

  1. 車両に対する入力の時系列と、前記車両の特性とを表す入力データを入力とし、車両の応答を予測するための予め学習された畳み込みニューラルネットワークモデルを用いて、
    予測対象の車両に対する入力の時系列と、前記予測対象の車両の特性とを表す入力データから、前記予測対象の車両の応答を予測する予測部
    を含み、
    前記畳み込みニューラルネットワークモデルの少なくとも一つの畳み込み層は、一つ前の層の出力に基づく畳み込み結果と、一つ前の層の出力との和に、活性化関数を適用したものを出力とする車両応答予測装置。
  2. 前記入力データは、前記車両に対する入力と前記車両の特性とを表すベクトルを、時系列順に並べた行列である請求項1記載の車両応答予測装置。
  3. 前記畳み込み層のフィルタは、前記フィルタにより畳み込まれる値の時系列方向の間隔が異なる複数のフィルタを含む請求項1又は2記載の車両応答予測装置。
  4. 車両に対する入力の時系列と前記車両の特性とに基づくシミュレーション結果として得られた車両の応答から、車両に対する入力の時系列と、前記車両の特性とを表す入力データ、及び車両の応答を表す学習用データを作成する作成部と、
    前記学習用データに基づいて、前記入力データを入力とし、前記車両の応答を予測するための畳み込みニューラルネットワークモデルを学習する学習部と、
    を含み、
    前記作成部は、
    車両に対する入力の時系列と前記車両の特性とに基づくシミュレーション結果として得られた、前記車両の状態の時系列及び前記車両の応答から、車両に対する入力の時系列と、前記車両の特性とを表す入力データ、前記車両の状態の時系列、及び前記車両の応答を表す学習用データを作成し、
    前記学習部は、前記畳み込みニューラルネットワークモデルの中間出力が、前記学習用データの前記車両の状態の時系列に対応し、かつ、前記畳み込みニューラルネットワークの最終出力が、前記学習用データの前記車両の応答に対応するように、前記畳み込みニューラルネットワークモデルを学習する学習装置。
  5. 予測部が、車両に対する入力の時系列と、前記車両の特性とを表す入力データを入力とし、車両の応答を予測するための予め学習された畳み込みニューラルネットワークモデルを用いて、
    予測対象の車両に対する入力の時系列と、前記予測対象の車両の特性とを表す入力データから、前記予測対象の車両の応答を予測する
    車両応答予測方法であって、
    前記畳み込みニューラルネットワークモデルの少なくとも一つの畳み込み層は、一つ前の層の出力に基づく畳み込み結果と、一つ前の層の出力との和に、活性化関数を適用したものを出力とする車両応答予測方法。
  6. 作成部が、車両に対する入力の時系列と前記車両の特性とに基づくシミュレーション結果として得られた車両の応答から、車両に対する入力の時系列と、前記車両の特性とを表す入力データ、及び車両の応答を表す学習用データを作成し、
    学習部が、前記学習用データに基づいて、前記入力データを入力とし、前記車両の応答を予測するための畳み込みニューラルネットワークモデルを学習する
    ことを含み、
    前記作成部が作成することでは、
    車両に対する入力の時系列と前記車両の特性とに基づくシミュレーション結果として得られた、前記車両の状態の時系列及び前記車両の応答から、車両に対する入力の時系列と、前記車両の特性とを表す入力データ、前記車両の状態の時系列、及び前記車両の応答を表す学習用データを作成し、
    前記学習部が学習することでは、前記畳み込みニューラルネットワークモデルの中間出力が、前記学習用データの前記車両の状態の時系列に対応し、かつ、前記畳み込みニューラルネットワークの最終出力が、前記学習用データの前記車両の応答に対応するように、前記畳み込みニューラルネットワークモデルを学習する
    学習方法。
  7. 車両に対する入力の時系列と、前記車両の特性とを表す入力データを入力とし、車両の応答を予測するための予め学習された畳み込みニューラルネットワークモデルを用いて、
    予測対象の車両に対する入力の時系列と、前記予測対象の車両の特性とを表す入力データから、前記予測対象の車両の応答を予測する
    ことをコンピュータに実行させるための車両応答予測プログラムであって、
    前記畳み込みニューラルネットワークモデルの少なくとも一つの畳み込み層は、一つ前の層の出力に基づく畳み込み結果と、一つ前の層の出力との和に、活性化関数を適用したものを出力とする車両応答予プログラム。
  8. 車両に対する入力の時系列と前記車両の特性とに基づくシミュレーション結果として得られた車両の応答から、車両に対する入力の時系列と、前記車両の特性とを表す入力データ、及び車両の応答を表す学習用データを作成し、
    前記学習用データに基づいて、前記入力データを入力とし、前記車両の応答を予測するための畳み込みニューラルネットワークモデルを学習する
    ことを含み、
    前記学習用データを作成することでは、
    車両に対する入力の時系列と前記車両の特性とに基づくシミュレーション結果として得られた、前記車両の状態の時系列及び前記車両の応答から、車両に対する入力の時系列と、前記車両の特性とを表す入力データ、前記車両の状態の時系列、及び前記車両の応答を表す学習用データを作成し、
    前記畳み込みニューラルネットワークモデルを学習することでは、前記畳み込みニューラルネットワークモデルの中間出力が、前記学習用データの前記車両の状態の時系列に対応し、かつ、前記畳み込みニューラルネットワークの最終出力が、前記学習用データの前記車両の応答に対応するように、前記畳み込みニューラルネットワークモデルを学習する
    ことをコンピュータに実行させるための学習プログラム。
JP2020137639A 2020-08-17 2020-08-17 車両応答予測装置、学習装置、方法、及びプログラム Active JP7351814B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2020137639A JP7351814B2 (ja) 2020-08-17 2020-08-17 車両応答予測装置、学習装置、方法、及びプログラム
US17/403,499 US20220050944A1 (en) 2020-08-17 2021-08-16 Vehicle response predicting device, training device, method and recording medium on which a program is recorded
CN202110936594.7A CN114077769A (zh) 2020-08-17 2021-08-16 车辆应答预测装置、学习装置及方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020137639A JP7351814B2 (ja) 2020-08-17 2020-08-17 車両応答予測装置、学習装置、方法、及びプログラム

Publications (2)

Publication Number Publication Date
JP2022033640A JP2022033640A (ja) 2022-03-02
JP7351814B2 true JP7351814B2 (ja) 2023-09-27

Family

ID=80223674

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020137639A Active JP7351814B2 (ja) 2020-08-17 2020-08-17 車両応答予測装置、学習装置、方法、及びプログラム

Country Status (3)

Country Link
US (1) US20220050944A1 (ja)
JP (1) JP7351814B2 (ja)
CN (1) CN114077769A (ja)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007091104A (ja) 2005-09-29 2007-04-12 Fuji Heavy Ind Ltd 車両挙動推定予測装置および車両安定化制御システム
WO2018163790A1 (ja) 2017-03-06 2018-09-13 ソニー株式会社 情報処理装置
JP2018195029A (ja) 2017-05-16 2018-12-06 富士通株式会社 推定プログラム、推定方法および推定装置
US20190050711A1 (en) 2017-08-08 2019-02-14 Neusoft Corporation Method, storage medium and electronic device for detecting vehicle crashes
JP2019153246A (ja) 2018-03-06 2019-09-12 オムロン株式会社 情報処理装置、情報処理方法、及びプログラム
WO2019220692A1 (ja) 2018-05-15 2019-11-21 三菱電機株式会社 演算装置
JP2019214249A (ja) 2018-06-11 2019-12-19 住友電気工業株式会社 検知装置、コンピュータプログラム、検知方法及び学習モデル
JP2020043270A (ja) 2018-09-12 2020-03-19 東京エレクトロン株式会社 学習装置、推論装置及び学習済みモデル

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007091104A (ja) 2005-09-29 2007-04-12 Fuji Heavy Ind Ltd 車両挙動推定予測装置および車両安定化制御システム
WO2018163790A1 (ja) 2017-03-06 2018-09-13 ソニー株式会社 情報処理装置
JP2018195029A (ja) 2017-05-16 2018-12-06 富士通株式会社 推定プログラム、推定方法および推定装置
US20190050711A1 (en) 2017-08-08 2019-02-14 Neusoft Corporation Method, storage medium and electronic device for detecting vehicle crashes
JP2019153246A (ja) 2018-03-06 2019-09-12 オムロン株式会社 情報処理装置、情報処理方法、及びプログラム
WO2019220692A1 (ja) 2018-05-15 2019-11-21 三菱電機株式会社 演算装置
JP2019214249A (ja) 2018-06-11 2019-12-19 住友電気工業株式会社 検知装置、コンピュータプログラム、検知方法及び学習モデル
JP2020043270A (ja) 2018-09-12 2020-03-19 東京エレクトロン株式会社 学習装置、推論装置及び学習済みモデル

Also Published As

Publication number Publication date
JP2022033640A (ja) 2022-03-02
US20220050944A1 (en) 2022-02-17
CN114077769A (zh) 2022-02-22

Similar Documents

Publication Publication Date Title
JP6771645B2 (ja) ドメイン分離ニューラルネットワーク
JP6654342B2 (ja) 組立工程においてツーリング作業を実行するための、リアルタイムのフィードバックコントロール
US20180130203A1 (en) Automated skin lesion segmentation using deep side layers
JP5411057B2 (ja) 有限要素解析法におけるビーム−面接触をシミュレートする改善方法およびシステム
US8504331B2 (en) Aerodynamic model identification process for aircraft simulation process
JP6614466B2 (ja) 能力付与データ生成装置
CN110059330B (zh) 用于创作模拟场景的方法和系统
TW202111613A (zh) 評估材料機械性質的機器學習技術
US10706205B2 (en) Detecting hotspots in physical design layout patterns utilizing hotspot detection model with data augmentation
US20210295167A1 (en) Generative networks for physics based simulations
CN114930336A (zh) 用于估计仿真的计算成本的方法和系统
US20210192111A1 (en) Neural Reparameterization for Optimization of Physical Designs
Luo et al. Deep convolutional neural networks for uncertainty propagation in random fields
Danglade et al. A priori evaluation of simulation models preparation processes using artificial intelligence techniques
WO2021025075A1 (ja) 訓練装置、推定装置、訓練方法、推定方法、プログラム及びコンピュータ読み取り可能な非一時的記憶媒体
EP3805995A1 (en) Method of and apparatus for processing data of a deep neural network
JP7351814B2 (ja) 車両応答予測装置、学習装置、方法、及びプログラム
EP4222665A1 (en) Automated generation of a machine learning model from computational simulation data
KR20190041388A (ko) 전자 장치 및 그 제어 방법
CN115346125B (zh) 一种基于深度学习的目标检测方法
KR20220076973A (ko) 인공 신경망을 이용한 유동 해석 방법
CN112242959A (zh) 微服务限流控制方法、装置、设备及计算机存储介质
US20210319312A1 (en) Deep learning acceleration of physics-based modeling
CN105468805B (zh) 一种表征数字模拟结果的图形表示的方法
US20220215145A1 (en) Machine learning for rapid automatic computer-aided engineering modeling

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220513

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230214

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230215

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230322

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230704

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230814

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230822

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230914

R151 Written notification of patent or utility model registration

Ref document number: 7351814

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151