JP6798571B2 - モデル集約装置及びモデル集約システム - Google Patents

モデル集約装置及びモデル集約システム Download PDF

Info

Publication number
JP6798571B2
JP6798571B2 JP2019042641A JP2019042641A JP6798571B2 JP 6798571 B2 JP6798571 B2 JP 6798571B2 JP 2019042641 A JP2019042641 A JP 2019042641A JP 2019042641 A JP2019042641 A JP 2019042641A JP 6798571 B2 JP6798571 B2 JP 6798571B2
Authority
JP
Japan
Prior art keywords
neural network
network model
model
input parameters
new
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2019042641A
Other languages
English (en)
Other versions
JP2020144775A (ja
Inventor
泰毅 森田
泰毅 森田
大樹 横山
大樹 横山
栄来 北川
栄来 北川
翠 栗橋
翠 栗橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2019042641A priority Critical patent/JP6798571B2/ja
Priority to DE102020103369.9A priority patent/DE102020103369A1/de
Priority to US16/801,152 priority patent/US11531350B2/en
Publication of JP2020144775A publication Critical patent/JP2020144775A/ja
Application granted granted Critical
Publication of JP6798571B2 publication Critical patent/JP6798571B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0221Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B13/00Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion
    • G05B13/02Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric
    • G05B13/0265Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric the criterion being a learning criterion
    • G05B13/027Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric the criterion being a learning criterion using neural networks only
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0276Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
    • G05D1/0285Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle using signals transmitted via a public communication network, e.g. GSM network
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models
    • G06N5/043Distributed expert systems; Blackboards

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Automation & Control Theory (AREA)
  • Computing Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Remote Sensing (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Feedback Control In General (AREA)
  • Combined Controls Of Internal Combustion Engines (AREA)

Description

本発明はモデル集約装置及びモデル集約システムに関する。
従来、所定の入力パラメータから所定の出力パラメータを出力するニューラルネットワークモデルを車両の制御のために用いることが知られている。例えば、特許文献1には、学習済みのニューラルネットワークモデルを用いて、車両に搭載された内燃機関の燃焼室に吸入される吸入ガスの流量を推定することが記載されている。
特開2012−112277号公報
ところで、ニューラルネットワークモデルの精度を向上させるためには、ニューラルネットワークモデルの学習を予め行う必要がある。ニューラルネットワークモデルの学習では、入力パラメータの実測値と出力パラメータの実測値との組合せから成る訓練データセットが用いられる。
入力パラメータ及び出力パラメータの実測値は車両の実際の走行中にセンサ等を用いて取得可能である。このため、車両において訓練データセットを作成し、車両においてニューラルネットワークモデルの学習を行うことが考えられる。また、ニューラルネットワークモデルを他の車両等に適用するためには、車両において学習されたニューラルネットワークモデルを集約して車両の外部の記憶装置に記憶させることが望ましい。
しかしながら、複数の車両から送信された全てのニューラルネットワークモデルを記憶装置に記憶させようとすると、記憶装置の記憶容量が早期に不足し、新たなニューラルネットワークモデルを記憶装置に記憶させることができなくなる。
そこで、上記課題に鑑みて、本発明の目的は、車両において学習されたニューラルネットワークモデルを集約して車両の外部の記憶装置に記憶させる場合に、記憶装置の記憶容量が不足することを抑制することにある。
本開示の要旨は以下のとおりである。
(1)ニューラルネットワークモデルの学習が行われる複数の車両と通信可能な通信装置と、前記複数の車両から送信されたニューラルネットワークモデルの一部を記憶する記憶装置と、制御装置とを備え、前記ニューラルネットワークモデルは複数の入力パラメータから少なくとも一つの出力パラメータを出力し、前記制御装置は、前記通信装置を介して前記複数の車両のうちの一つの車両から新たなニューラルネットワークモデルを受信した場合、該新たなニューラルネットワークモデルの学習に用いられた前記複数の入力パラメータのそれぞれの範囲と、前記記憶装置に記憶されている現在のニューラルネットワークモデルの学習に用いられた前記複数の入力パラメータのそれぞれの範囲とを比較することによって、前記現在のニューラルネットワークモデルを前記新たなニューラルネットワークモデルに置き換えるか否かを決定する、モデル集約装置。
(2)前記制御装置は、前記新たなニューラルネットワークモデルの学習に用いられた前記複数の入力パラメータのそれぞれの範囲が、前記現在のニューラルネットワークモデルの学習に用いられた前記複数の入力パラメータのそれぞれの範囲よりも広く、前記新たなニューラルネットワークモデルの学習に用いられた前記複数の入力パラメータの組合せの数が、前記現在のニューラルネットワークモデルの学習に用いられた前記複数の入力パラメータの組合せの数よりも少なく、且つ、前記新たなニューラルネットワークモデルの学習が完了した日時が、前記現在のニューラルネットワークモデルの学習が完了した日時よりも遅い場合には、前記現在のニューラルネットワークモデルを前記新たなニューラルネットワークモデルに置き換える、上記(1)に記載のモデル集約装置。
(3)前記制御装置は、前記新たなニューラルネットワークモデルの学習に用いられた前記複数の入力パラメータのそれぞれの範囲が、前記現在のニューラルネットワークモデルの学習に用いられた前記複数の入力パラメータのそれぞれの範囲よりも狭く、前記新たなニューラルネットワークモデルの学習に用いられた前記複数の入力パラメータの組合せの数が、前記現在のニューラルネットワークモデルの学習に用いられた前記複数の入力パラメータの組合せの数よりも多く、且つ、前記新たなニューラルネットワークモデルの学習が完了した日時が、前記現在のニューラルネットワークモデルの学習が完了した日時よりも遅い場合には、前記現在のニューラルネットワークモデルを前記新たなニューラルネットワークモデルに置き換える、上記(1)又は(2)に記載のモデル集約装置。
(4)前記制御装置は、前記新たなニューラルネットワークモデルの学習に用いられた前記複数の入力パラメータのそれぞれの範囲が、前記現在のニューラルネットワークモデルの学習に用いられた前記複数の入力パラメータのそれぞれの範囲よりも広い場合には、前記現在のニューラルネットワークモデルを前記新たなニューラルネットワークモデルに置き換える、上記(1)に記載のモデル集約装置。
(5)前記制御装置は、前記新たなニューラルネットワークモデルの学習に用いられた前記複数の入力パラメータのそれぞれの範囲が、前記現在のニューラルネットワークモデルの学習に用いられた前記複数の入力パラメータのそれぞれの範囲と等しい場合には、前記新たなニューラルネットワークモデルの学習に用いられた前記複数の入力パラメータの組合せの数が、前記現在のニューラルネットワークモデルの学習に用いられた前記複数の入力パラメータの組合せの数よりも多い場合に、前記現在のニューラルネットワークモデルを前記新たなニューラルネットワークモデルに置き換える、上記(1)から(4)のいずれか1つに記載のモデル集約装置。
(6)前記制御装置は、前記新たなニューラルネットワークモデルの学習に用いられた前記複数の入力パラメータの少なくとも一つの値が異常である場合には、前記現在のニューラルネットワークモデルを前記新たなニューラルネットワークモデルに置き換えない、上記(1)から(5)のいずれか1つに記載のモデル集約装置。
(7)サーバ及び複数の車両を備えるモデル集約システムであって、前記複数の車両は、それぞれ、前記サーバと通信可能な第1通信装置と、複数の入力パラメータから少なくとも一つの出力パラメータを出力するニューラルネットワークモデルの学習を行う第1制御装置とを備え、前記サーバは、前記複数の車両と通信可能な第2通信装置と、前記複数の車両から送信されたニューラルネットワークモデルの一部を記憶する記憶装置と、第2制御装置とを備え、前記第2制御装置は、前記第1通信装置及び前記第2通信装置を介して前記複数の車両のうちの一つの車両から新たなニューラルネットワークモデルを受信した場合、該新たなニューラルネットワークモデルの学習に用いられた前記複数の入力パラメータのそれぞれの範囲と、前記記憶装置に記憶されている現在のニューラルネットワークモデルの学習に用いられた前記複数の入力パラメータのそれぞれの範囲とを比較することによって、前記現在のニューラルネットワークモデルを前記新たなニューラルネットワークモデルに置き換えるか否かを決定する、モデル集約システム。
本発明によれば、車両において学習されたニューラルネットワークモデルを集約して車両の外部の記憶装置に記憶させる場合に、記憶装置の記憶容量が不足することを抑制することができる。
図1は、本発明の第一実施形態に係るモデル集約システムの概略的な構成図である。 図2は、車両の構成の一部を概略的に示す図である。 図3は、単純な構成を有するニューラルネットワークモデルの一例を示す。 図4は、第一実施形態におけるモデル置換処理の制御ルーチンを示すフローチャートである。 図5は、ニューラルネットワークモデルの学習に用いられた複数の入力パラメータの範囲を示す図である。 図6は、第二実施形態におけるモデル置換処理の制御ルーチンを示すフローチャートである。 図7は、第三実施形態におけるモデル置換処理の制御ルーチンを示すフローチャートである。 図8Aは、第四実施形態におけるモデル置換処理の制御ルーチンを示すフローチャートである。 図8Bは、第四実施形態におけるモデル置換処理の制御ルーチンを示すフローチャートである。 図8Cは、第四実施形態におけるモデル置換処理の制御ルーチンを示すフローチャートである。
以下、図面を参照して本発明の実施形態について詳細に説明する。なお、以下の説明では、同様な構成要素には同一の参照番号を付す。
<第一実施形態>
最初に、図1〜図5を参照して、本発明の第一実施形態について説明する。図1は、本発明の第一実施形態に係るモデル集約システムの概略的な構成図である。モデル集約システム1はサーバ2及び複数の車両3を備える。
図1に示されるように、サーバ2は、複数の車両3の外部に設けられ、通信インターフェース21、ストレージ装置22、メモリ23及びプロセッサ24を備える。なお、サーバ2は、キーボード及びマウスのような入力装置、ディスプレイのような出力装置等を更に備えていてもよい。また、サーバ2は複数のコンピュータから構成されていてもよい。サーバ2はモデル集約装置の一例である。
通信インターフェース21は、複数の車両3と通信可能であり、サーバ2が複数の車両3と通信することを可能とする。具体的には、通信インターフェース21は、サーバ2を通信ネットワーク5に接続するためのインターフェース回路を有する。サーバ2は、通信インターフェース21、通信ネットワーク5及び無線基地局6を介して複数の車両3と通信する。通信インターフェース21は通信装置の一例である。
ストレージ装置22は、例えば、ハードディスクドライブ(HDD)、ソリッドステートドライブ(SSD)又は光記録媒体を有する。ストレージ装置22は、各種データを記憶し、例えば、車両情報、プロセッサ24が各種処理を実行するためのコンピュータプログラム等を記憶する。ストレージ装置22は記憶装置の一例である。
メモリ23は、例えばランダムアクセスメモリ(RAM)のような半導体メモリを有する。メモリ23は、例えばプロセッサ24によって各種処理が実行されるときに使用される各種データ等を記憶する。
通信インターフェース21、ストレージ装置22及びメモリ23は、信号線を介してプロセッサ24に接続されている。プロセッサ24は、一つ又は複数のCPU及びその周辺回路を有し、各種処理を実行する。なお、プロセッサ24は、論理演算ユニット又は数値演算ユニットのような演算回路を更に有していてもよい。プロセッサ24は制御装置の一例である。
図2は、車両3の構成の一部を概略的に示す図である。車両3は電子制御ユニット(ECU(Electronic Control Unit))30を備える。ECU30は、通信インターフェース31、メモリ32及びプロセッサ33を含み、車両3の各種制御を実行する。なお、本実施形態では、一つのECU30が設けられているが、機能毎に複数のECUが設けられていてもよい。ECU30は制御装置の一例である。
通信インターフェース31は、CAN(Controller Area Network)等の規格に準拠した車内ネットワークにECU30を接続するためのインターフェース回路を有する。ECU30は通信インターフェース31を介して他の車載機器と通信する。
メモリ32は、例えば、揮発性の半導体メモリ(例えば、RAM)及び不揮発性の半導体メモリ(例えば、ROM)を有する。メモリ32は、プロセッサ33によって実行されるプログラム、プロセッサ33によって各種処理が実行されるときに使用される各種データ等を記憶する。
通信インターフェース31及びメモリ32は信号線を介してプロセッサ33に接続されている。プロセッサ33は、一つ又は複数のCPU(Central Processing Unit)及びその周辺回路を有し、各種処理を実行する。なお、プロセッサ33は、論理演算ユニット又は数値演算ユニットのような演算回路を更に有していてもよい。
また、車両3はサーバ2と通信可能な通信モジュール36を備える。通信モジュール36は、信号線を介してECU30に接続され、例えばデータ通信モジュール(DCM(Data communication module))として構成される。車両3は、通信モジュール36、無線基地局6及び通信ネットワーク5を介してサーバ2と通信する。通信モジュール36は通信装置の一例である。
モデル集約システム1は、上述したような構成を有し、複数の車両3からニューラルネットワークモデルを集約する。最初に、図3を参照して、ニューラルネットワークモデルの概要について説明する。図3は、単純な構成を有するニューラルネットワークモデルの一例を示す。
図3における丸印は人工ニューロンを表す。人工ニューロンは、通常、ノード又はユニットと称される(本明細書では、「ノード」と称す)。図3において、L=1は入力層を示し、L=2及びL=3は隠れ層を示し、L=4は出力層を示している。なお、隠れ層は中間層とも称される。
図3において、x1及びx2は入力層(L=1)の各ノード及びそのノードからの出力値を示しており、yは出力層(L=4)のノード及びその出力値を示している。同様に、z1 (L=2) 2 (L=2)及びz3 (L=2)は隠れ層(L=2)の各ノード及びそのノードからの出力値を示しており、z1 (L=3)及びz2 (L=3)は隠れ層(L=3)の各ノード及びそのノードからの出力値を示している。
入力層の各ノードでは入力がそのまま出力される。一方、隠れ層(L=2)の各ノードには、入力層の各ノードの出力値x1及びx2が入力され、隠れ層(L=2)の各ノードでは、それぞれ対応する重みw及びバイアスbを用いて総入力値uが算出される。例えば、図3において隠れ層(L=2)のzk (L=2)(k=1、2、3)で示される各ノードにおいて算出される総入力値uk (L=2)は、次式のようになる(Mは入力層のノードの数)。
Figure 0006798571
次いで、この総入力値uk (L=2)は活性化関数fにより変換され、隠れ層(L=2)のzk (L=2)で示されるノードから、出力値zk (L=2)(=f(uk (L=2)))として出力される。一方、隠れ層(L=3)の各ノードには、隠れ層(L=2)の各ノードの出力値z1 (L=2) 2 (L=2)及びz3 (L=2)が入力され、隠れ層(L=3)の各ノードでは、それぞれ対応する重みw及びバイアスbを用いて総入力値u(=Σz・w+b)が算出される。この総入力値uは同様に活性化関数により変換され、隠れ層(L=3)の各ノードから、出力値z1 (L=3)、z2 (L=3)として出力される、活性化関数は例えばシグモイド関数σである。
また、出力層(L=4)のノードには、隠れ層(L=3)の各ノードの出力値z1 (L=3)及びz2 (L=3)が入力され、出力層のノードでは、それぞれ対応する重みw及びバイアスbを用いて総入力値u(Σz・w+b)が算出され、又はそれぞれ対応する重みwのみを用いて総入力値u(Σz・w)が算出される。例えば、出力層のノードでは活性化関数として恒等関数が用いられる。この場合、出力層のノードにおいて算出された総入力値uが、そのまま出力値yとして出力層のノードから出力される。
本実施形態では、複数の入力パラメータ(入力値)から少なくとも一つの出力パラメータ(出力値)を出力するニューラルネットワークモデルが車両3の制御のために車両3において用いられる。斯かるニューラルネットワークモデルの入力パラメータ及び出力パラメータとして、車両3に搭載された内燃機関に関するパラメータ、車両3の走行環境に関するパラメータ等が用いられる。例えば、入力パラメータとして、機関回転数、スロットル弁の開度、吸入空気量(新気量とEGRガス量との合計)又は吸入空気圧、内燃機関の冷却水の温度、カムシャフトの角度、吸気温度、車速及び混合気の目標空燃比が用いられ、出力パラメータとして目標空燃比の補正量が用いられる。
また、車両3が、動力源として内燃機関及びモータを備えるハイブリッド車両(HV)又はプラグインハイブリッド車両(PHV)である場合、以下のような入力パラメータ及び出力パラメータが用いられる。例えば、入力パラメータとして、バッテリの充電率(SOC:State Of Charge)、車速、アクセル開度、内燃機関の冷却水の温度、バッテリの温度、エアコン等の使用による電気負荷、大気圧又は高度、緯度、経度、曜日、及び時間帯が用いられ、出力パラメータとしてHVモードにおけるバッテリの目標充放電量が用いられる。なお、HVモードでは、バッテリのSOCが目標値になるように内燃機関及びモータが駆動される。また、曜日が入力パラメータとして用いられる場合、曜日が数値化される。例えば、月曜〜日曜に1〜7が割り当てられる。
また、入力パラメータとして、バッテリのSOC、車速、アクセル開度、モータの温度又はインバータの温度、緯度及び経度が用いられ、出力パラメータとしてEVモードにおける内燃機関の始動判定結果が用いられてもよい。なお、EVモードでは、動力源としてモータのみが駆動される。この場合、例えば、ニューラルネットワークモデルからゼロが出力された場合に内燃機関が停止され、ニューラルネットワークモデルから1が出力された場合に内燃機関が始動される。
また、車両3が、動力源として内燃機関及びモータを備え且つ外部電源によってバッテリを充電可能なプラグインハイブリッド車両(PHV)である場合、以下のような入力パラメータ及び出力パラメータが用いられる。例えば、入力パラメータとして、バッテリのSOC、車速、アクセル開度、外気温、内燃機関の冷却水の温度、内燃機関を循環するオイルの温度、緯度、経度、曜日及び時間帯が用いられ、出力パラメータとして走行モード(EVモード又はHVモード)が用いられる。この場合、例えば、ニューラルネットワークモデルからゼロが出力された場合に走行モードがEVモードに設定され、ニューラルネットワークモデルから1が出力された場合に走行モードがHVモードに設定される。
車両3において用いられるニューラルネットワークモデルはECU30のメモリ32又は車両3に設けられた他の制御装置に記憶される。ECU30は、入力パラメータをニューラルネットワークモデルに入力することによってニューラルネットワークモデルに出力パラメータを出力させる。このとき、各入力パラメータの値として、例えば、車両3に設けられたセンサ等によって検出された値又はECU30において算出された値が用いられる。ニューラルネットワークモデルを用いることによって、所定値の入力パラメータに対応する適切な出力パラメータの値を得ることができる。
ニューラルネットワークモデルの精度を向上させるためには、ニューラルネットワークモデルの学習を予め行う必要がある。本実施形態では、車両3のECU30がニューラルネットワークモデルの学習を行う。すなわち、サーバ2ではなく車両3においてニューラルネットワークモデルの学習が行われる。
ニューラルネットワークモデルの学習では、複数の入力パラメータの実測値と、これら実測値に対応する少なくとも一つの出力パラメータの実測値(正解データ)との組合せから成る訓練データセットが用いられる。このため、ECU30は、複数の入力パラメータの実測値と、これら実測値に対応する少なくとも一つの出力パラメータの実測値とを取得する。入力パラメータ及び出力パラメータの実測値は、例えば、車両3に設けられたセンサ等によって検出された値又はECU30において算出又は決定された値として取得される。これら実測値を組み合わせることによって作成された訓練データセットは、ECU30のメモリ32又は車両3に設けられた他の制御装置に記憶される。
ECU30は多数の訓練データセットを用いてニューラルネットワークモデルの学習を行う。例えば、ECU30は、ニューラルネットワークモデルの出力値と出力パラメータの実測値との差が小さくなるように、公知の誤差逆伝播法によってニューラルネットワークモデルにおける重みw及びバイアスbを繰り返し更新する。この結果、ニューラルネットワークモデルが学習され、学習済みのニューラルネットワークモデルが生成される。学習済みのニューラルネットワークモデルの情報(モデルの構造、重みw、バイアスb等)は、ECU30のメモリ32又は車両3に設けられた他の制御装置に記憶される。
ニューラルネットワークモデルを他の車両等に適用するためには、車両において学習されたニューラルネットワークモデルを集約してサーバ2のストレージ装置22に記憶させることが望ましい。このため、学習済みのニューラルネットワークモデル(具体的には学習済みのニューラルネットワークモデルの情報)が車両3からサーバ2に送信される。その後、サーバ2は学習済みのニューラルネットワークモデルを他の車両に送信する。このことによって、ニューラルネットワークモデルの学習が行われない車両においても、ニューラルネットワークモデルを効果的に利用することができる。また、車両において用いられるニューラルネットワークモデルを、サーバ2から送信された高精度のニューラルネットワークモデルに置き換えることができる。
しかしながら、複数の車両3から送信された全てのニューラルネットワークモデルをサーバ2のストレージ装置22に記憶させようとすると、ストレージ装置22の記憶容量が早期に不足し、新たなニューラルネットワークモデルをストレージ装置22に記憶させることができなくなる。このため、本実施形態では、複数の車両3において学習が行われたニューラルネットワークモデルの一部をストレージ装置22に記憶させる。
具体的には、サーバ2のプロセッサ24は、車両3の通信モジュール及びサーバ2の通信インターフェース21を介して複数の車両3のうちの一つの車両から新たなニューラルネットワークモデルを受信した場合、新たなニューラルネットワークモデルの学習に用いられた複数の入力パラメータのそれぞれの範囲と、ストレージ装置22に記憶されている現在のニューラルネットワークモデルの学習に用いられた複数の入力パラメータのそれぞれの範囲とを比較することによって、現在のニューラルネットワークモデルを新たなニューラルネットワークモデルに置き換えるか否かを決定する。このことによって、ストレージ装置22に記憶されるニューラルネットワークモデルが選別されるため、ストレージ装置22の記憶容量が不足することを抑制することができる。
また、ストレージ装置22に記憶されるニューラルネットワークモデルとして、高精度のニューラルネットワークモデルを選別することが望ましい。通常、ニューラルネットワークモデルを用いて様々な値の入力パラメータから適切な出力パラメータの値を出力させるためには、広い範囲の入力パラメータを含む訓練データセットを用いてニューラルネットワークモデルの学習を行う必要がある。このため、ニューラルネットワークモデルの学習に用いられた入力パラメータの範囲が広いほど、ニューラルネットワークモデルの精度が高いと考えられる。
そこで、本実施形態では、サーバ2のプロセッサ24は、新たなニューラルネットワークモデルの学習に用いられた複数の入力パラメータのそれぞれの範囲が、現在のニューラルネットワークモデルの学習に用いられた複数の入力パラメータのそれぞれの範囲よりも広い場合には、現在のニューラルネットワークモデルを新たなニューラルネットワークモデルに置き換える。このことによって、ストレージ装置22の記憶容量が不足することを抑制しつつ、ストレージ装置22に記憶されるニューラルネットワークモデルの精度を向上させることができる。
<モデル置換処理>
以下、図4のフローチャートを参照して、上述した制御について詳細に説明する。図4は、第一実施形態におけるモデル置換処理の制御ルーチンを示すフローチャートである。本制御ルーチンはサーバ2のプロセッサ24によって繰り返し実行される。本制御ルーチンでは、サーバ2のストレージ装置22に記憶されている現在のニューラルネットワークモデル(以下、「現在のモデル」と称する)を、車両3から受信した新たなニューラルネットワークモデル(以下、「新たなモデル」と称する)に置き換えるか否かが判定される。
最初に、ステップS101において、車両3から新たなモデルを受信したか否かが判定される。車両3から新たなモデルを受信していないと判定された場合、本制御ルーチンは終了する。一方、車両3から新たなモデルを受信したと判定された場合、本制御ルーチンはステップS102に進む。
ステップS102では、新たなモデルの入力パラメータ番号kが1に設定され、現在のモデルの入力パラメータ番号mが1に設定される。
次いで、ステップS103では、新たなモデルの学習に用いられた第k入力パラメータの範囲RNG(k)が、現在のモデルの学習に用いられた第m入力パラメータの範囲RNG(m)よりも広いか否かが判定される。本制御ルーチンにおいて、k及びmの値は等しくなる。したがって、ステップS103では、新たなモデルと現在のモデルとの間で、入力パラメータ毎に、学習に用いられた入力パラメータの範囲が比較される。
図5は、ニューラルネットワークモデルの学習に用いられた複数の入力パラメータの範囲を示す図である。図5の例では、ニューラルネットワークモデルにおいて、第1入力パラメータ〜第6入力パラメータの六つの入力パラメータが用いられる。すなわち、ニューラルネットワークモデルの入力層のノードの数は六つである。なお、新たなモデル及び現在のモデルでは、同一の入力パラメータ及び出力パラメータが用いられる。
各入力パラメータの範囲は、ニューラルネットワークモデルの学習に用いられた訓練データセットに含まれる入力パラメータの実測値の最小値と最大値との差として算出される。例えば、第1入力パラメータが車速であり、30km/h〜80km/hの実測値が学習に用いられた場合、第1入力パラメータの範囲は、50(=80−30)となり、(30,80)のように表される。
ニューラルネットワークモデルの学習に用いられた各入力パラメータの最小値及び最大値又は範囲は、学習済みのニューラルネットワークモデルの情報の一つとして、ECU30のメモリ32又は車両3に設けられた他の制御装置に記憶される。このため、サーバ2のプロセッサ24は、車両3から新たなモデルを受信するとき、新たなモデルの学習に用いられた各入力パラメータの範囲を取得することができる。
また、新たなモデルがストレージ装置22に記憶されるとき、新たなモデルの学習に用いられた各入力パラメータの最小値及び最大値又は範囲がストレージ装置22に記憶される。このため、サーバ2のプロセッサ24は、現在のモデルの学習に用いられた各入力パラメータの範囲を取得することができる。
ステップS103において新たなモデルの学習に用いられた第k入力パラメータの範囲RNG(k)が、現在のモデルの学習に用いられた第m入力パラメータの範囲RNG(m)以下であると判定された場合、本制御ルーチンはステップS107に進む。ステップS107では、新たなモデルがストレージ装置22から削除される。すなわち、現在のモデルが維持され、新たなモデルがストレージ装置22に記憶されない。ステップS107の後、本制御ルーチンは終了する。
一方、新たなモデルの学習に用いられた第k入力パラメータの範囲RNG(k)が、現在のモデルの学習に用いられた第m入力パラメータの範囲RNG(m)よりも広いと判定された場合、本制御ルーチンはステップS104に進む。ステップS104では、新たなモデルの入力パラメータ番号kに1が加算され、現在のモデルの入力パラメータ番号mに1が加算される。
次いで、ステップS105では、新たなモデルの入力パラメータ番号kがN+1であるか否かが判定される。Nは、ニューラルネットワークモデルに入力される入力パラメータの数であり、図5の例では6である。このため、ステップS105では、新たなモデルと現在のモデルとの間で全ての入力パラメータの範囲が比較されたか否かが判定される。新たなモデルの入力パラメータ番号kがN以下であると判定された場合、本制御ルーチンはステップS103に戻り、次の入力パラメータの範囲が比較される。
一方、ステップS105において新たなモデルの入力パラメータ番号kがN+1であると判定された場合、本制御ルーチンはステップS106に進む。この場合、新たなモデルの学習に用いられた全ての入力パラメータのそれぞれの範囲が現在のモデルの学習に用いられた全ての入力パラメータのそれぞれの範囲よりも広い。このため、ステップS106において現在のモデルが新たなモデルに置き換えられる。すなわち、現在のモデルがストレージ装置22から削除され、新たなモデルがストレージ装置22に記憶される。ステップS106の後、本制御ルーチンは終了する。
なお、新たなモデルと同一の入力パラメータ及び出力パラメータを有する現在のモデルが存在しない場合には、新たなモデルがストレージ装置22に記憶される。
<第二実施形態>
第二実施形態に係るモデル集約システム及びモデル集約装置の構成及び制御は、以下に説明する点を除いて、基本的に第一実施形態に係るモデル集約システム及びモデル集約装置の構成及び制御と同様である。このため、以下、本発明の第二実施形態について、第一実施形態と異なる部分を中心に説明する。
第一実施形態では、新たなモデルの学習に用いられた複数の入力パラメータのそれぞれの範囲が、現在のモデルの学習に用いられた複数の入力パラメータのそれぞれの範囲と等しい場合、新たなモデルがストレージ装置22から削除される。しかしながら、この場合に必ずしも新たなモデルの精度が現在のモデルの精度以下であるとは限らない。
通常、学習に用いられた複数の入力パラメータのそれぞれの範囲が等しい場合、学習に用いられた複数の入力パラメータの組合せの数、すなわち訓練データセットの数が多いほど、学習済みのニューラルネットワークモデルの精度は高くなる。
このため、第二実施形態では、サーバ2のプロセッサ24は、新たなモデルの学習に用いられた複数の入力パラメータのそれぞれの範囲が、現在のモデルの学習に用いられた複数の入力パラメータのそれぞれの範囲と等しい場合には、新たなモデルの学習に用いられた複数の入力パラメータの組合せの数が、現在のモデルの学習に用いられた複数の入力パラメータの組合せの数よりも多い場合に、現在のモデルを新たなモデルに置き換える。このことによって、ストレージ装置22の記憶容量が不足することを抑制しつつ、ストレージ装置22に記憶されるニューラルネットワークモデルの精度をより効果的に向上させることができる。
<モデル置換処理>
図6は、第二実施形態におけるモデル置換処理の制御ルーチンを示すフローチャートである。本制御ルーチンはサーバ2のプロセッサ24によって繰り返し実行される。
ステップS201〜ステップS205は図4のステップS101〜ステップS105と同様であることから説明を省略する。ステップS205において新たなモデルの入力パラメータ番号kがN+1であると判定された場合、本制御ルーチンはステップS206に進む。
ステップS206では、新たなモデルと現在のモデルとの間で全ての入力パラメータの範囲が等しいか否かが判定される。新たなモデルの学習に用いられた全ての入力パラメータのそれぞれの範囲が現在のモデルの学習に用いられた全ての入力パラメータのそれぞれの範囲よりも広い場合、ステップS206において全ての入力パラメータの範囲が等しくないと判定され、本制御ルーチンはステップS208に進む。
ステップS208では、現在のモデルが新たなモデルに置き換えられる。すなわち、現在のモデルがストレージ装置22から削除され、新たなモデルがストレージ装置22に記憶される。ステップS208の後、本制御ルーチンは終了する。
一方、ステップS206において全ての入力パラメータの範囲が等しいと判定された場合、本制御ルーチンはステップS207に進む。ステップS207では、新たなモデルの学習に用いられた複数の入力パラメータの組合せの数CNkが、現在のモデルの学習に用いられた複数の入力パラメータの組合せの数CNmよりも多いか否かが判定される。すなわち、新たなモデルの学習に用いられた訓練データセットの数が、現在のモデルの学習に用いられた訓練データセットの数よりも多いか否かが判定される。
第二実施形態では、ニューラルネットワークモデルの学習に用いられた複数の入力パラメータの組合せの数が、学習済みのニューラルネットワークモデルの情報の一つとして、ECU30のメモリ32又は車両3に設けられた他の制御装置に記憶される。このため、サーバ2のプロセッサ24は、車両3から新たなモデルを受信するとき、新たなモデルの学習に用いられた複数の入力パラメータの組合せの数を取得することができる。
また、新たなモデルがストレージ装置22に記憶されるとき、新たなモデルの学習に用いられた複数の入力パラメータの組合せの数がストレージ装置22に記憶される。このため、サーバ2のプロセッサ24は、現在のモデルの学習に用いられた複数の入力パラメータの組合せの数を取得することができる。
ステップS207において複数の入力パラメータの組合せの数CNkが複数の入力パラメータの組合せの数CNm以下であると判定された場合、本制御ルーチンはステップS209に進む。ステップS209では、新たなモデルがストレージ装置22から削除される。すなわち、現在のモデルが維持され、新たなモデルがストレージ装置22に記憶されない。ステップS209の後、本制御ルーチンは終了する。
一方、ステップS207において複数の入力パラメータの組合せの数CNkが複数の入力パラメータの組合せの数CNmよりも多いと判定された場合、本制御ルーチンはステップS208に進む。ステップS208では現在のモデルが新たなモデルに置き換えられ、ステップS208の後、本制御ルーチンは終了する。
<第三実施形態>
第三実施形態に係るモデル集約システム及びモデル集約装置の構成及び制御は、以下に説明する点を除いて、基本的に第一実施形態に係るモデル集約システム及びモデル集約装置の構成及び制御と同様である。このため、以下、本発明の第三実施形態について、第一実施形態と異なる部分を中心に説明する。
上述したように、ニューラルネットワークモデルの学習では、多数の訓練データセットが用いられる。しかしながら、センサの劣化等によって入力パラメータの実測値として異常な値が取得された場合、異常な値を含む訓練データセットを用いてニューラルネットワークモデルの学習が行われる。この場合、ニューラルネットワークモデルが異常な値に適合され、学習済みのニューラルネットワークモデルの精度が低下する。
また、ニューラルネットワークモデルの学習に用いられた入力パラメータが異常な値を含む場合、ニューラルネットワークモデルの学習に用いられた入力パラメータの範囲は広くなる傾向にある。このため、入力パラメータの範囲が広い新たなモデルを現在のモデルに置き換えることによってニューラルネットワークモデルの精度が低下するおそれがある。
そこで、第三実施形態では、サーバ2のプロセッサ24は、新たなモデルの学習に用いられた複数の入力パラメータの少なくとも一つの値が異常である場合には、現在のモデルを新たなモデルに置き換えない。具体的には、プロセッサ24は、新たなモデルの学習に用いられた複数の入力パラメータの少なくとも一つの値が異常である場合には、新たなモデルと現在のモデルとの間で入力パラメータの範囲を比較することなく新たなモデルをストレージ装置22から削除する。このことによって、ストレージ装置22の記憶容量が不足することを抑制しつつ、ストレージ装置22に記憶されるニューラルネットワークモデルの精度をより効果的に向上させることができる。
<モデル置換処理>
図7は、第三実施形態におけるモデル置換処理の制御ルーチンを示すフローチャートである。本制御ルーチンはサーバ2のプロセッサ24によって繰り返し実行される。
最初に、ステップS301において、車両3から新たなモデルを受信したか否かが判定される。車両3から新たなモデルを受信していないと判定された場合、本制御ルーチンは終了する。一方、車両3から新たなモデルを受信したと判定された場合、本制御ルーチンはステップS302に進む。
ステップS302では、新たなモデルの学習に用いられた複数の入力パラメータの少なくとも一つの値が異常であるか否かが判定される。例えば、複数の入力パラメータのそれぞれについて正常な範囲が予め定められ、新たなモデルの学習に用いられた複数の入力パラメータのそれぞれの最大値及び最小値が正常な範囲に含まれるか否かが判定される。この場合、全ての入力パラメータの最大値及び最小値が正常な範囲に含まれている場合には、新たなモデルの学習に用いられた複数の入力パラメータの全ての値が異常ではないと判定される。一方、少なくとも一つの入力パラメータの最大値又は最小値が正常な範囲に含まれていない場合には、新たなモデルの学習に用いられた複数の入力パラメータの少なくとも一つの値が異常であると判定される。
ステップS302において複数の入力パラメータの少なくとも一つの値が異常であると判定された場合、本制御ルーチンはステップS308に進む。ステップS308では、新たなモデルがストレージ装置22から削除される。すなわち、現在のモデルが維持され、新たなモデルがストレージ装置22に記憶されない。ステップS308の後、本制御ルーチンは終了する。
一方、ステップS302において新たなモデルの学習に用いられた複数の入力パラメータの全ての値が異常ではないと判定された場合、本制御ルーチンはステップS303に進む。ステップS303〜ステップS308は図4のステップS102〜ステップS107と同様であることから説明を省略する。
<第四実施形態>
第四実施形態に係るモデル集約システム及びモデル集約装置の構成及び制御は、以下に説明する点を除いて、基本的に第一実施形態に係るモデル集約システム及びモデル集約装置の構成及び制御と同様である。このため、以下、本発明の第四実施形態について、第一実施形態と異なる部分を中心に説明する。
上述したように、ニューラルネットワークモデルの学習に用いられた入力パラメータの範囲が広いほど、学習済みのニューラルネットワークモデルの精度は高くなる傾向にある。また、ニューラルネットワークモデルの学習に用いられた複数の入力パラメータの組合せが多いほど、すなわちニューラルネットワークモデルの学習に用いられた訓練データセットの数が多いほど、学習済みのニューラルネットワークモデルの精度は高くなる傾向にある。
しかしながら、新たなモデルと現在のモデルとが比較されるとき、一方のモデルの学習に用いられた複数の入力パラメータの範囲が他方のモデルよりも広くなり、他方のモデルの学習に用いられた訓練データセットの数が一方のモデルよりも多くなる場合がある。この場合には、学習が完了した日時が遅いモデルが車両のより最新の状態を反映していると考えられる。すなわち、学習が完了した日時が遅いモデルが、学習が完了した日時が早いモデルよりも高精度であると考えられる。
このため、第四実施形態では、サーバ2のプロセッサ24は、新たなモデルの学習に用いられた複数の入力パラメータのそれぞれの範囲が、現在のモデルの学習に用いられた複数の入力パラメータのそれぞれの範囲よりも広く、新たなモデルの学習に用いられた複数の入力パラメータの組合せの数が、現在のモデルの学習に用いられた複数の入力パラメータの組合せの数よりも少なく、且つ、新たなモデルの学習が完了した日時が、現在のモデルの学習が完了した日時よりも遅い場合には、現在のモデルを新たなモデルに置き換える。
また、プロセッサ24は、新たなモデルの学習に用いられた複数の入力パラメータのそれぞれの範囲が、現在のモデルの学習に用いられた複数の入力パラメータのそれぞれの範囲よりも狭く、新たなモデルの学習に用いられた複数の入力パラメータの組合せの数が、現在のモデルの学習に用いられた複数の入力パラメータの組合せの数よりも多く、且つ、新たなモデルの学習が完了した日時が、現在のモデルの学習が完了した日時よりも遅い場合には、現在のモデルを新たなモデルに置き換える。
上記のようにストレージ装置22に記憶されるニューラルネットワークモデルを選別することによって、ストレージ装置22の記憶容量が不足することを抑制しつつ、ストレージ装置22に記憶されるニューラルネットワークモデルの精度をより効果的に向上させることができる。
<モデル置換処理>
図8A〜図8Cは、第四実施形態におけるモデル置換処理の制御ルーチンを示すフローチャートである。本制御ルーチンはサーバ2のプロセッサ24によって繰り返し実行される。
最初に、ステップS401において、車両3から新たなモデルを受信したか否かが判定される。車両3から新たなモデルを受信していないと判定された場合、本制御ルーチンは終了する。一方、車両3から新たなモデルを受信したと判定された場合、本制御ルーチンはステップS402に進む。
ステップS402では、新たなモデルの入力パラメータ番号kが1に設定され、現在のモデルの入力パラメータ番号mが1に設定され、KフラグFkがゼロに設定され、MフラグFmがゼロに設定される。
次いで、ステップS403において、新たなモデルの学習に用いられた第k入力パラメータの範囲RNG(k)が、現在のモデルの学習に用いられた第m入力パラメータの範囲RNG(m)以上であるか否かが判定される。第k入力パラメータの範囲RNG(k)が第m入力パラメータの範囲RNG(m)以上であると判定された場合、本制御ルーチンはステップS404に進む。ステップS404では、KフラグFkが1に設定される。
次いで、ステップS405においてMフラグFmが1であるか否かが判定される。MフラグFmがゼロであると判定された場合、本制御ルーチンはステップS406に進む。ステップS406では、新たなモデルの入力パラメータ番号kに1が加算され、現在のモデルの入力パラメータ番号mに1が加算される。
次いで、ステップS407では、新たなモデルの入力パラメータ番号kがN+1であるか否かが判定される。Nは、ニューラルネットワークモデルに入力される入力パラメータの数であり、図5の例では6である。新たなモデルの入力パラメータ番号kがN以下であると判定された場合、本制御ルーチンはステップS403に戻り、次の入力パラメータの範囲が比較される。
一方、ステップS403において第m入力パラメータの範囲RNG(m)が第k入力パラメータの範囲RNG(k)よりも広いと判定された場合、本制御ルーチンはステップS409に進む。ステップS409では、MフラグFmが1に設定される。
次いで、ステップS410においてKフラグFkが1であるか否かが判定される。KフラグFkがゼロであると判定された場合、本制御ルーチンはステップS406に進む。ステップS406では、新たなモデルの入力パラメータ番号kに1が加算され、現在のモデルの入力パラメータ番号mに1が加算される。
次いで、ステップS407では、新たなモデルの入力パラメータ番号kがN+1であるか否かが判定される。新たなモデルの入力パラメータ番号kがN以下であると判定された場合、本制御ルーチンはステップS403に戻り、次の入力パラメータの範囲が比較される。
一方、ステップS405においてMフラグFmが1であると判定された場合、又はステップS410においてKフラグFkが1であると判定された場合、本制御ルーチンはステップS411に進む。この場合、一部の入力パラメータの範囲が一方のモデルにおいて広く、一部の入力パラメータの範囲が他方のモデルにおいて広い。このため、ステップS411では、新たなモデルがストレージ装置22から削除される。すなわち、現在のモデルが維持され、新たなモデルがストレージ装置22に記憶されない。ステップS411の後、本制御ルーチンは終了する。
また、ステップS407において、新たなモデルの入力パラメータ番号kがN+1であると判定された場合、本制御ルーチンはステップS408に進む。ステップS408では、MフラグFmが1であるか否かが判定される。現在のモデルの学習に用いられた複数の入力パラメータのそれぞれの範囲が新たなモデルの学習に用いられた複数の入力パラメータのそれぞれの範囲よりも広い場合、MフラグFmが1であると判定され、本制御ルーチンはステップS412に進む。
ステップS412では、図6のステップS207と同様に、新たなモデルの学習に用いられた複数の入力パラメータの組合せの数CNkが、現在のモデルの学習に用いられた複数の入力パラメータの組合せの数CNmよりも多いか否かが判定される。複数の入力パラメータの組合せの数CNkが複数の入力パラメータの組合せの数CNmよりも多いと判定された場合、本制御ルーチンはステップS413に進む。
ステップS413では、新たなモデルの学習が完了した日時が、現在のモデルの学習が完了した日時よりも遅いか否か否かが判定される。第四実施形態では、ニューラルネットワークモデルの学習が完了した日時が、学習済みのニューラルネットワークモデルの情報の一つとして、ECU30のメモリ32又は車両3に設けられた他の制御装置に記憶される。このため、サーバ2のプロセッサ24は、車両3から新たなモデルを受信するとき、新たなモデルの学習が完了した日時を取得することができる。
また、新たなモデルがストレージ装置22に記憶されるとき、新たなモデルの学習が完了した日時がストレージ装置22に記憶される。このため、サーバ2のプロセッサ24は、現在のモデルの学習が完了した日時を取得することができる。
ステップS413において新たなモデルの学習が完了した日時が、現在のモデルの学習が完了した日時よりも遅いと判定された場合、すなわち新たなモデルが最新のモデルであると判定された場合、本制御ルーチンはステップS414に進む。ステップS414では、現在のモデルが新たなモデルに置き換えられる。すなわち、現在のモデルがストレージ装置22から削除され、新たなモデルがストレージ装置22に記憶される。ステップS414の後、本制御ルーチンは終了する。
一方、ステップS412において複数の入力パラメータの組合せの数CNkが複数の入力パラメータの組合せの数CNm以下であると判定された場合、又はステップS413において新たなモデルの学習が完了した日時が現在のモデルの学習が完了した日時よりも遅くないと判定された場合、本制御ルーチンはステップS415に進む。
ステップS415では、新たなモデルがストレージ装置22から削除される。すなわち、現在のモデルが維持され、新たなモデルがストレージ装置22に記憶されない。ステップS415の後、本制御ルーチンは終了する。
一方、新たなモデルの学習に用いられた複数の入力パラメータのそれぞれの範囲が現在のモデルの学習に用いられた複数の入力パラメータのそれぞれの範囲よりも広い場合、ステップS408においてMフラグFmがゼロであると判定され、本制御ルーチンはステップS416に進む。なお、この場合、KフラグFkは1に設定されている。
ステップS416では、新たなモデルと現在のモデルとの間で全ての入力パラメータの範囲が等しいか否かが判定される。全ての入力パラメータの範囲が等しいと判定された場合、本制御ルーチンはステップS420に進む。
ステップS420では、新たなモデルがストレージ装置22から削除される。すなわち、現在のモデルが維持され、新たなモデルがストレージ装置22に記憶されない。ステップS420の後、本制御ルーチンは終了する。
一方、新たなモデルの学習に用いられた複数の入力パラメータのそれぞれの範囲が現在のモデルの学習に用いられた複数の入力パラメータのそれぞれの範囲よりも広い場合、ステップS416において全ての入力パラメータの範囲が等しくないと判定され、本制御ルーチンはステップS417に進む。
ステップS417では、新たなモデルの学習に用いられた複数の入力パラメータの組合せの数CNkが、現在のモデルの学習に用いられた複数の入力パラメータの組合せの数CNm以上であるか否かが判定される。複数の入力パラメータの組合せの数CNkが複数の入力パラメータの組合せの数CNmよりも少ないと判定された場合、本制御ルーチンはステップS419に進む。
ステップS419では、図8BのステップS413と同様に、新たなモデルの学習が完了した日時が、現在のモデルの学習が完了した日時よりも遅いか否かが判定される。新たなモデルの学習が完了した日時が、現在のモデルの学習が完了した日時よりも遅くないと判定された場合、本制御ルーチンはステップS420に進む。
ステップS420では、新たなモデルがストレージ装置22から削除される。すなわち、現在のモデルが維持され、新たなモデルがストレージ装置22に記憶されない。ステップS420の後、本制御ルーチンは終了する。
一方、ステップS417において複数の入力パラメータの組合せの数CNkが複数の入力パラメータの組合せの数CNm以上であると判定された場合、又はステップS419において新たなモデルの学習が完了した日時が現在のモデルの学習が完了した日時よりも遅いと判定された場合、本制御ルーチンはステップS418に進む。
ステップS418では、現在のモデルが新たなモデルに置き換えられる。すなわち、現在のモデルがストレージ装置22から削除され、新たなモデルがストレージ装置22に記憶される。ステップS418の後、本制御ルーチンは終了する。
<その他の実施形態>
以上、本発明に係る好適な実施形態を説明したが、本発明はこれら実施形態に限定されるものではなく、特許請求の範囲の記載内で様々な修正及び変更を施すことができる。例えば、ニューラルネットワークモデルの入力パラメータ及び出力パラメータは、上述した例に限定されず、車両において取得可能な任意のパラメータを含むことができる。
また、複数のニューラルネットワークモデルがサーバ2のストレージ装置22に記憶されてもよい。例えば、異なる入力パラメータ及び出力パラメータを有する複数のニューラルネットワークモデルがサーバ2のストレージ装置22に記憶されてもよい。この場合、車両から新たなモデルがサーバ2に送信されたとき、新たなモデルと同一の入力パラメータ及び出力パラメータを有する現在のモデルが新たなモデルと比較される。
また、同一の入力パラメータ及び出力パラメータを有する複数のニューラルネットワークモデルがサーバ2のストレージ装置22に記憶されてもよい。例えば、同一の入力パラメータ及び出力パラメータを有する複数のニューラルネットワークモデルは、車両の型式、入力パラメータ及び出力パラメータの実測値が取得された地域等によって分類される。この場合、車両から新たなモデルがサーバ2に送信されたとき、新たなモデルと対応する現在のモデルが新たなモデルと比較される。また、新たなモデルと対応する現在のモデルが複数存在する場合、複数の現在のモデルがそれぞれ新たなモデルと比較される。
また、上述した実施形態は、任意に組み合わせて実施可能である。例えば、第二実施形態は第三実施形態と組合せ可能である。この場合、図7の制御ルーチンにおいて、ステップS307の代わりに図6のステップS206〜ステップS209が実行される。
また、第二実施形態は第四実施形態と組合せ可能である。この場合、図8A〜図8Cの制御ルーチンにおいて、図8CのステップS416の判定が肯定された後、ステップS420の代わりに図6のステップS207〜ステップS209が実行される。
また、第三実施形態は第四実施形態と組合せ可能である。この場合、図7の制御ルーチンにおいて、ステップS302の判定が否定された後、ステップS303〜ステップS308の代わりに図8A〜図8CのステップS402〜ステップS420が実行される。同様に、第二実施形態、第三実施形態及び第四実施形態も組合せ可能である。
1 モデル集約システム
2 サーバ
21 通信インターフェース
22 ストレージ装置
24 プロセッサ
3 車両
30 電子制御ユニット(ECU)
36 通信モジュール

Claims (7)

  1. ニューラルネットワークモデルの学習が行われる複数の車両と通信可能な通信装置と、
    前記複数の車両から送信されたニューラルネットワークモデルの一部を記憶する記憶装置と、
    制御装置と
    を備え、
    前記ニューラルネットワークモデルは複数の入力パラメータから少なくとも一つの出力パラメータを出力し、
    前記制御装置は、前記通信装置を介して前記複数の車両のうちの一つの車両から新たなニューラルネットワークモデルを受信した場合、該新たなニューラルネットワークモデルの学習に用いられた前記複数の入力パラメータのそれぞれの範囲と、前記記憶装置に記憶されている現在のニューラルネットワークモデルの学習に用いられた前記複数の入力パラメータのそれぞれの範囲とを比較することによって、前記現在のニューラルネットワークモデルを前記新たなニューラルネットワークモデルに置き換えるか否かを決定する、モデル集約装置。
  2. 前記制御装置は、前記新たなニューラルネットワークモデルの学習に用いられた前記複数の入力パラメータのそれぞれの範囲が、前記現在のニューラルネットワークモデルの学習に用いられた前記複数の入力パラメータのそれぞれの範囲よりも広く、前記新たなニューラルネットワークモデルの学習に用いられた前記複数の入力パラメータの組合せの数が、前記現在のニューラルネットワークモデルの学習に用いられた前記複数の入力パラメータの組合せの数よりも少なく、且つ、前記新たなニューラルネットワークモデルの学習が完了した日時が、前記現在のニューラルネットワークモデルの学習が完了した日時よりも遅い場合には、前記現在のニューラルネットワークモデルを前記新たなニューラルネットワークモデルに置き換える、請求項1に記載のモデル集約装置。
  3. 前記制御装置は、前記新たなニューラルネットワークモデルの学習に用いられた前記複数の入力パラメータのそれぞれの範囲が、前記現在のニューラルネットワークモデルの学習に用いられた前記複数の入力パラメータのそれぞれの範囲よりも狭く、前記新たなニューラルネットワークモデルの学習に用いられた前記複数の入力パラメータの組合せの数が、前記現在のニューラルネットワークモデルの学習に用いられた前記複数の入力パラメータの組合せの数よりも多く、且つ、前記新たなニューラルネットワークモデルの学習が完了した日時が、前記現在のニューラルネットワークモデルの学習が完了した日時よりも遅い場合には、前記現在のニューラルネットワークモデルを前記新たなニューラルネットワークモデルに置き換える、請求項1又は2に記載のモデル集約装置。
  4. 前記制御装置は、前記新たなニューラルネットワークモデルの学習に用いられた前記複数の入力パラメータのそれぞれの範囲が、前記現在のニューラルネットワークモデルの学習に用いられた前記複数の入力パラメータのそれぞれの範囲よりも広い場合には、前記現在のニューラルネットワークモデルを前記新たなニューラルネットワークモデルに置き換える、請求項1に記載のモデル集約装置。
  5. 前記制御装置は、前記新たなニューラルネットワークモデルの学習に用いられた前記複数の入力パラメータのそれぞれの範囲が、前記現在のニューラルネットワークモデルの学習に用いられた前記複数の入力パラメータのそれぞれの範囲と等しい場合には、前記新たなニューラルネットワークモデルの学習に用いられた前記複数の入力パラメータの組合せの数が、前記現在のニューラルネットワークモデルの学習に用いられた前記複数の入力パラメータの組合せの数よりも多い場合に、前記現在のニューラルネットワークモデルを前記新たなニューラルネットワークモデルに置き換える、請求項1から4のいずれか1項に記載のモデル集約装置。
  6. 前記制御装置は、前記新たなニューラルネットワークモデルの学習に用いられた前記複数の入力パラメータの少なくとも一つの値が異常である場合には、前記現在のニューラルネットワークモデルを前記新たなニューラルネットワークモデルに置き換えない、請求項1から5のいずれか1項に記載のモデル集約装置。
  7. サーバ及び複数の車両を備えるモデル集約システムであって、
    前記複数の車両は、それぞれ、
    前記サーバと通信可能な第1通信装置と、
    複数の入力パラメータから少なくとも一つの出力パラメータを出力するニューラルネットワークモデルの学習を行う第1制御装置とを備え、
    前記サーバは、
    前記複数の車両と通信可能な第2通信装置と、
    前記複数の車両から送信されたニューラルネットワークモデルの一部を記憶する記憶装置と、
    第2制御装置とを備え、
    前記第2制御装置は、前記第1通信装置及び前記第2通信装置を介して前記複数の車両のうちの一つの車両から新たなニューラルネットワークモデルを受信した場合、該新たなニューラルネットワークモデルの学習に用いられた前記複数の入力パラメータのそれぞれの範囲と、前記記憶装置に記憶されている現在のニューラルネットワークモデルの学習に用いられた前記複数の入力パラメータのそれぞれの範囲とを比較することによって、前記現在のニューラルネットワークモデルを前記新たなニューラルネットワークモデルに置き換えるか否かを決定する、モデル集約システム。
JP2019042641A 2019-03-08 2019-03-08 モデル集約装置及びモデル集約システム Expired - Fee Related JP6798571B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2019042641A JP6798571B2 (ja) 2019-03-08 2019-03-08 モデル集約装置及びモデル集約システム
DE102020103369.9A DE102020103369A1 (de) 2019-03-08 2020-02-11 Modellaggregationsvorrichtung und Modellaggregationssystem
US16/801,152 US11531350B2 (en) 2019-03-08 2020-02-26 Model aggregation device and model aggregation system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019042641A JP6798571B2 (ja) 2019-03-08 2019-03-08 モデル集約装置及びモデル集約システム

Publications (2)

Publication Number Publication Date
JP2020144775A JP2020144775A (ja) 2020-09-10
JP6798571B2 true JP6798571B2 (ja) 2020-12-09

Family

ID=72146767

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019042641A Expired - Fee Related JP6798571B2 (ja) 2019-03-08 2019-03-08 モデル集約装置及びモデル集約システム

Country Status (3)

Country Link
US (1) US11531350B2 (ja)
JP (1) JP6798571B2 (ja)
DE (1) DE102020103369A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102019119739A1 (de) * 2019-07-22 2021-01-28 Dr. Ing. H.C. F. Porsche Aktiengesellschaft Verfahren und System zur Erzeugung von sicherheitskritischen Ausgabewerten einer Entität
US11900244B1 (en) * 2019-09-30 2024-02-13 Amazon Technologies, Inc. Attention-based deep reinforcement learning for autonomous agents
JP6962435B1 (ja) 2020-10-12 2021-11-05 トヨタ自動車株式会社 機械学習装置
US11760376B2 (en) * 2020-12-29 2023-09-19 Ford Global Technologies, Llc Machine learning updating with sensor data
CN114483346B (zh) * 2022-02-10 2023-06-20 电子科技大学 一种基于小样本的发动机多流量管进气温度修正方法、装置和存储介质

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102004030782A1 (de) * 2004-06-25 2006-01-19 Fev Motorentechnik Gmbh Fahrzeug-Steuergerät mit einem neuronalen Netz
JP5426520B2 (ja) 2010-11-24 2014-02-26 本田技研工業株式会社 内燃機関の制御装置
JP6044556B2 (ja) * 2014-01-16 2016-12-14 株式会社デンソー 学習システム、車載装置、及び、サーバ
US10318887B2 (en) * 2016-03-24 2019-06-11 Cisco Technology, Inc. Dynamic application degrouping to optimize machine learning model accuracy
US10581901B2 (en) * 2016-03-25 2020-03-03 Cisco Technology, Inc. Increased granularity and anomaly correlation using multi-layer distributed analytics in the network
CN107545889B (zh) 2016-06-23 2020-10-23 华为终端有限公司 适用于模式识别的模型的优化方法、装置及终端设备
JP6660900B2 (ja) * 2017-03-06 2020-03-11 Kddi株式会社 モデル統合装置、モデル統合システム、方法およびプログラム

Also Published As

Publication number Publication date
US20200285243A1 (en) 2020-09-10
DE102020103369A1 (de) 2020-09-10
JP2020144775A (ja) 2020-09-10
US11531350B2 (en) 2022-12-20

Similar Documents

Publication Publication Date Title
JP6798571B2 (ja) モデル集約装置及びモデル集約システム
US20230068432A1 (en) Methods and systems for estimating a remaining useful life of an asset
Wu et al. An optimized real-time energy management strategy for the power-split hybrid electric vehicles
JP6326452B2 (ja) 電池状態推定装置および電池状態推定方法
KR20230161415A (ko) 전기 차량으로의 전력 공급
CN113830097B (zh) 车辆、模型学习系统以及服务器
US11820398B2 (en) Learning apparatus and model learning system
US20210192872A1 (en) Model diagnosis device and model diagnosis system
JP6935837B1 (ja) 機械学習装置及び機械学習システム
CN114077237B (zh) 机器学习装置
CN113246958B (zh) 基于td3多目标hev能量管理方法及系统
JP6939963B1 (ja) モデル学習システム及びサーバ
JP2022063084A (ja) モデル学習システム、車両の制御装置及びモデル学習方法
US20230176137A1 (en) Method and system for determining a remaining useful lifetime of a battery
CN115122952A (zh) 电动汽车出发前充电规划
WO2018008503A1 (ja) 制御装置
US20230304812A1 (en) Nap spot selection method and nap spot selection system
JP2022035222A (ja) 機械学習装置
JP6962435B1 (ja) 機械学習装置
US20220155083A1 (en) Systems and methods for range estimations for electrified transit vehicles
US20240312260A1 (en) Battery management device and method therefor
US20230154247A1 (en) Information processing system, storage medium, and information processing method
JP2022016026A (ja) 機械学習装置
CN115640690A (zh) 基于模糊神经网络的发动机水温预测方法及装置
JP2022173803A (ja) 学習モデルのパラメータの値の授受装置及び授受システム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200203

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20200203

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20200212

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200522

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200616

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201020

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201102

R151 Written notification of patent or utility model registration

Ref document number: 6798571

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees