JP7010343B1 - 機械学習装置 - Google Patents

機械学習装置 Download PDF

Info

Publication number
JP7010343B1
JP7010343B1 JP2020139433A JP2020139433A JP7010343B1 JP 7010343 B1 JP7010343 B1 JP 7010343B1 JP 2020139433 A JP2020139433 A JP 2020139433A JP 2020139433 A JP2020139433 A JP 2020139433A JP 7010343 B1 JP7010343 B1 JP 7010343B1
Authority
JP
Japan
Prior art keywords
vehicle
machine learning
neural network
network model
vehicle parts
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020139433A
Other languages
English (en)
Other versions
JP2022035247A (ja
Inventor
大樹 横山
智洋 金子
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2020139433A priority Critical patent/JP7010343B1/ja
Priority to DE102021118579.3A priority patent/DE102021118579A1/de
Priority to CN202110900681.7A priority patent/CN114077237B/zh
Priority to US17/405,342 priority patent/US11675999B2/en
Application granted granted Critical
Publication of JP7010343B1 publication Critical patent/JP7010343B1/ja
Publication of JP2022035247A publication Critical patent/JP2022035247A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B23/00Testing or monitoring of control systems or parts thereof
    • G05B23/02Electric testing or monitoring
    • G05B23/0205Electric testing or monitoring by means of a monitoring system capable of detecting and responding to faults
    • G05B23/0218Electric testing or monitoring by means of a monitoring system capable of detecting and responding to faults characterised by the fault detection method dealing with either existing or incipient faults
    • G05B23/0243Electric testing or monitoring by means of a monitoring system capable of detecting and responding to faults characterised by the fault detection method dealing with either existing or incipient faults model based detection method, e.g. first-principles knowledge model
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C5/00Registering or indicating the working of vehicles
    • G07C5/08Registering or indicating performance data other than driving, working, idle, or waiting time, with or without registering driving, working, idle or waiting time
    • G07C5/0808Diagnosing performance data
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/20Pc systems
    • G05B2219/24Pc safety
    • G05B2219/24065Real time diagnostics

Abstract

【課題】車両部品が交換された場合に、車両において用いられる機械学習モデルの推定精度が低下する。【解決手段】機械学習装置は、車両1において用いられる機械学習モデルの学習を行う学習部31と、車両に搭載された車両部品の交換を検知すると検知部32とを備える。学習部は、機械学習モデルの入力データに関する車両部品が交換された場合には、交換後の車両部品に対応する訓練データセットを用いて機械学習モデルの再学習を行う。【選択図】図4

Description

本発明は機械学習装置に関する。
近年、AI(人工知能)技術の発達に伴い、車両において、ニューラルネットワークモデルのような機械学習モデルを用いた制御を行うことが検討されている。例えば、特許文献1に記載の機械学習システムでは、ニューラルネットワークモデルを用いて、内燃機関に設けられた排気浄化触媒の温度が推定される。
斯かるニューラルネットワークモデルの推定精度を向上させるためには、ニューラルネットワークモデルの学習を予め行う必要がある。例えば、特許文献1に記載されるように、サーバにおいてニューラルネットワークモデルの学習が行われ、学習済みのニューラルネットワークモデルがサーバから車両に送信される。
特開2019-183698号公報
ところで、車両の使用に伴い車両部品の劣化又は故障が生じると、車両部品の交換が行われる。また、より高性能の車両部品を車両に搭載するために車両部品の交換が行われることがある。
しかしながら、車両において用いられる機械学習モデルは、通常、交換前の車両部品の特性に適合されている。このため、車両部品の交換によって車両部品の特性が変化すると、機械学習モデルの推定精度が低下するおそれがある。
そこで、上記課題に鑑みて、本発明の目的は、車両部品が交換された場合に、車両において用いられる機械学習モデルの推定精度が低下することを抑制することにある。
本開示の要旨は以下のとおりである。
(1)車両において用いられる機械学習モデルの学習を行う学習部と、前記車両に搭載された車両部品の交換を検知すると検知部とを備え、前記学習部は、前記機械学習モデルの入力データに関する車両部品が交換された場合には、交換後の車両部品に対応する訓練データセットを用いて前記機械学習モデルの再学習を行う、機械学習装置。
(2)前記学習部は、前記機械学習モデルの入力データに関する車両部品が異なる構成の車両部品に交換された場合にのみ、交換後の車両部品に対応する訓練データセットを用いて前記機械学習モデルの再学習を行う、上記(1)に記載の機械学習装置。
(3)前記機械学習モデルを更新する更新部を更に備え、前記学習部は、サーバに設けられ、再学習済みの機械学習モデルを前記車両に送信し、前記更新部は該再学習済みの機械学習モデルを前記車両に適用する、上記(1)又は(2)に記載の機械学習装置。
(4)前記学習部は、前記車両に設けられ、再学習済みの機械学習モデルを前記車両に適用する、上記(1)又は(2)に記載の機械学習装置。
(5)前記機械学習モデルはニューラルネットワークモデルであり、前記学習部は、再学習前に設定されている前記機械学習モデルのパラメータを更新することによって該機械学習モデルの再学習を行う、上記(1)から(4)のいずれか1つに記載の機械学習装置。
本発明によれば、車両部品が交換された場合に、車両において用いられる機械学習モデルの推定精度が低下することを抑制することができる。
図1は、本発明の第一実施形態に係る機械学習装置が設けられた車両1の構成を概略的に示す図である。 図2は、図1のECUの機能ブロック図である。 図3は、単純な構成を有するニューラルネットワークモデルの一例を示す。 図4は、本発明の第一実施形態における再学習処理の制御ルーチンを示すフローチャートである。 図5は、本発明の第二実施形態に係る機械学習装置が適用されるクライアントサーバシステムの概略的な構成図である。 図6は、図5の車両の構成の一部を概略的に示す図である。 図7は、図6のECUの機能ブロック図である。 図8は、本発明の第二実施形態におけるモデル更新処理の制御ルーチンを示すフローチャートである。 図9は、本発明の第二実施形態における再学習処理の制御ルーチンを示すフローチャートである。
以下、図面を参照して本発明の実施形態について詳細に説明する。なお、以下の説明では、同様な構成要素には同一の参照番号を付す。
<第一実施形態>
最初に、図1~図4を参照して、本発明の第一実施形態について説明する。図1は、本発明の第一実施形態に係る機械学習装置が設けられた車両1の構成を概略的に示す図である。
図1に示されるように、車両1は、アクチュエータ11、センサ12及び電子制御ユニット(ECU(Electronic Control Unit))20を備える。すなわち、アクチュエータ11、センサ12及びECU20は車両1に搭載されている。アクチュエータ11及びセンサ12は、CAN(Controller Area Network)等の規格に準拠した車内ネットワークを介してECU20に通信可能に接続される。
アクチュエータ11は、車両1の走行に必要な作動部品であり、例えば、内燃機関の作動に必要な部品(点火プラグ、燃料噴射弁、スロットル弁駆動アクチュエータ、EGR制御弁等)、モータ、クラッチ等を含む。ECU20はアクチュエータ11を制御する。
センサ12は、車両1、内燃機関、バッテリ等の状態量を検出し、車速センサ、GPS受信機、アクセル開度センサ、エアフロメータ、空燃比センサ、クランク角センサ、トルクセンサ、電圧センサ、温度センサ等を含む。センサ12の出力はECU20に送信される。
アクチュエータ11及びセンサ12は、車両1に搭載された部品である車両部品を構成する。言い換えれば、車両部品はアクチュエータ11及びセンサ12を含む。
ECU20は、通信インターフェース21、メモリ22及びプロセッサ23を含み、車両1の各種制御を実行する。なお、本実施形態では、一つのECU20が設けられているが、機能毎に複数のECUが設けられていてもよい。
通信インターフェース21は、CAN等の規格に準拠した車内ネットワークにECU20を接続するためのインターフェース回路を有する。ECU20は、通信インターフェース21を介して、上述したような他の車載機器と通信する。
メモリ22は、例えば、揮発性の半導体メモリ(例えば、RAM)及び不揮発性の半導体メモリ(例えば、ROM)を有する。メモリ22は、プロセッサ23において実行されるプログラム、プロセッサ23によって各種処理が実行されるときに使用される各種データ等を記憶する。
プロセッサ23は、一つ又は複数のCPU(Central Processing Unit)及びその周辺回路を有し、各種処理を実行する。なお、プロセッサ23は、論理演算ユニット又は数値演算ユニットのような演算回路を更に有していてもよい。通信インターフェース21、メモリ22及びプロセッサ23は信号線を介して互いに接続されている。
本実施形態では、ECU20は機械学習装置として機能する。図2は、図1のECU20の機能ブロック図である。ECU20は学習部31及び検知部32を有する。学習部31及び検知部32は、ECU20のメモリ22に記憶されたプログラムをECU20のプロセッサ23が実行することによって実現される機能ブロックである。
学習部31は、車両1において用いられる機械学習モデルの学習を行う。本実施形態では、機械学習モデルとして、複数の入力データ(説明変数とも称される)から少なくとも一つの出力データ(目的変数とも称される)を出力するニューラルネットワークモデルが用いられる。
最初に、図3を参照して、ニューラルネットワークモデルの概要について説明する。図3は、単純な構成を有するニューラルネットワークモデルの一例を示す。
図3における丸印は人工ニューロンを表す。人工ニューロンは、通常、ノード又はユニットと称される(本明細書では、「ノード」と称す)。図3において、L=1は入力層を示し、L=2及びL=3は隠れ層を示し、L=4は出力層を示している。なお、隠れ層は中間層とも称される。
図3において、x1及びx2は入力層(L=1)の各ノード及びそのノードからの出力値を示しており、yは出力層(L=4)のノード及びその出力値を示している。同様に、z1 (L=2) 2 (L=2)及びz3 (L=2)は隠れ層(L=2)の各ノード及びそのノードからの出力値を示しており、z1 (L=3)及びz2 (L=3)は隠れ層(L=3)の各ノード及びそのノードからの出力値を示している。
入力層の各ノードでは入力がそのまま出力される。一方、隠れ層(L=2)の各ノードには、入力層の各ノードの出力値x1及びx2が入力され、隠れ層(L=2)の各ノードでは、それぞれ対応する重みw及びバイアスbを用いて総入力値uが算出される。例えば、図3において隠れ層(L=2)のzk (L=2)(k=1、2、3)で示される各ノードにおいて算出される総入力値uk (L=2)は、次式のようになる(Mは入力層のノードの数)。
Figure 0007010343000002
次いで、この総入力値uk (L=2)は活性化関数fにより変換され、隠れ層(L=2)のzk (L=2)で示されるノードから、出力値zk (L=2)(=f(uk (L=2)))として出力される。一方、隠れ層(L=3)の各ノードには、隠れ層(L=2)の各ノードの出力値z1 (L=2) 2 (L=2)及びz3 (L=2)が入力され、隠れ層(L=3)の各ノードでは、それぞれ対応する重みw及びバイアスbを用いて総入力値u(=Σz・w+b)が算出される。この総入力値uは同様に活性化関数により変換され、隠れ層(L=3)の各ノードから、出力値z1 (L=3)、z2 (L=3)として出力される、活性化関数は例えばシグモイド関数σである。
また、出力層(L=4)のノードには、隠れ層(L=3)の各ノードの出力値z1 (L=3)及びz2 (L=3)が入力され、出力層のノードでは、それぞれ対応する重みw及びバイアスbを用いて総入力値u(Σz・w+b)が算出され、又はそれぞれ対応する重みwのみを用いて総入力値u(Σz・w)が算出される。例えば、出力層のノードでは活性化関数として恒等関数が用いられる。この場合、出力層のノードにおいて算出された総入力値uが、そのまま出力値yとして出力層のノードから出力される。
車両1において用いられるニューラルネットワークモデルはECU20のメモリ22又は車両1に設けられた他の記憶装置に記憶される。ECU20は、複数の入力データの値(入力値)をニューラルネットワークモデルに入力することによってニューラルネットワークモデルに少なくとも一つの出力データの値(出力値)を出力させる。このとき、各入力データの値として、例えば、センサ12の出力値、ECU20からアクチュエータ11への指令値、ECU20において算出された値等が用いられる。
ニューラルネットワークモデルから出力された出力データの値は車両1の制御に用いられる。なお、ニューラルネットワークモデルは回帰モデル及び分類モデルのいずれであってもよい。ニューラルネットワークモデルが回帰モデルである場合、出力データは、例えば、内燃機関の出力トルク、排気ガス中の所定成分(HC、NOx等)の濃度、バッテリの充電率(SOC:State Of Charge)等である。一方、ニューラルネットワークモデルが分類モデルである場合、出力データは、例えば、所定のセンサ12の異常判定結果、ハイブリッド車両における内燃機関の始動判定結果等である。入力データとして、出力データと相関する状態量が適宜選択される。
斯かるニューラルネットワークモデルの精度を向上させるためには、ニューラルネットワークモデルの学習を予め行う必要がある。このため、例えば、車両の生産工場等においてニューラルネットワークモデルの学習が行われる。
ニューラルネットワークモデルの学習では、複数の入力データの実測値と、これら実測値に対応する少なくとも一つの出力データの実測値(正解データ又は教師データ)との組合せから成る訓練データセットが用いられる。入力データ及び出力データの実測値は例えばエンジンベンチ等を用いて取得され、対応する実測値を組み合わせることによって訓練データセットが作成される。
ニューラルネットワークモデルの学習では、多数の訓練データセットを用いて、ニューラルネットワークモデルによって出力される出力データの値と出力データの実測値との差が小さくなるように、公知の誤差逆伝播法によってニューラルネットワークモデルのパラメータ(重みw及びバイアスb)を繰り返し更新する。この結果、ニューラルネットワークモデルが学習され、学習済みのニューラルネットワークモデルが生成される。生成された学習済みのニューラルネットワークモデルは、車両1の出荷前に、車両1のECU20に実装される。すなわち、学習済みのニューラルネットワークモデルの情報(モデルの構造、重みw、バイアスb等)がECU20のメモリ22又は車両1に設けられた別の記憶装置に記憶される。なお、車両1の出荷後にニューラルネットワークモデルの学習が学習部31によって行われ、学習済みのニューラルネットワークモデルが学習部31によって生成されてもよい。
ところで、車両1の使用に伴いアクチュエータ11又はセンサ12のような車両部品の劣化又は故障が生じると、車両部品の交換が行われる。また、より高性能の車両部品を車両1に搭載するために車両部品の交換が行われることがある。
しかしながら、ECU20に実装されたニューラルネットワークモデルは、交換前の車両部品の特性に適合されている。このため、車両部品の交換によって車両部品の特性が変化すると、ニューラルネットワークモデルの推定精度が低下するおそれがある。例えば、車両部品が異なる構成の車両部品に交換された場合には、通常、車両部品の特性が変化する。また、車両部品が同一の構成の車両部品に交換された場合であっても、個体バラツキによって車両部品の特性が変化することがある。
そこで、本実施形態では、検知部32は、車両1に搭載された車両部品の交換を検知する。また、学習部31は、ニューラルネットワークモデルの入力データに関する車両部品が交換された場合には、交換後の車両部品を用いて、交換後の車両部品に対応する訓練データセットを作成し、これら訓練データセットを用いてニューラルネットワークモデルの再学習を行う。このように車両部品の交換に応じてニューラルネットワークモデルを再学習することによって、車両部品が交換された場合に、車両1において用いられるニューラルネットワークモデルの推定精度が低下することを抑制することができる。
以下、図4のフローチャートを用いて、上述した制御について詳細に説明する。図4は、本発明の第一実施形態における再学習処理の制御ルーチンを示すフローチャートである。本制御ルーチンはECU20によって所定の実行間隔で繰り返し実行される。
最初に、ステップS101において、検知部32は、交換フラグFが1であるか否かを判定する。交換フラグFは、車両部品が交換されたときに1に設定されるフラグであり、交換フラグFの初期値はゼロである。ステップS101において交換フラグFがゼロであると判定された場合、本制御ルーチンはステップS102に進む。
ステップS102では、検知部32は、ニューラルネットワークモデルの入力データに関する車両部品が交換されたか否かを判定する。例えば、センサ12の出力値がニューラルネットワークモデルの入力データとして用いられる場合、センサ12は、ニューラルネットワークモデルの入力データに関する車両部品に相当する。また、ECU20からアクチュエータ11への指令値がニューラルネットワークモデルの入力データとして用いられる場合、アクチュエータ11は、ニューラルネットワークモデルの入力データに関する車両部品に相当する。
検知部32は、例えば、車両部品の識別情報(型番、シリアル番号、製造番号等)を読み取ることによって車両部品の交換を検知する。また、検知部32は、車両部品の出力波形、作動電圧等を検出することによって車両部品の交換を検知してもよい。また、作業者が車両部品の交換を車両1の入力装置(HMI等)に入力し、検知部32は入力装置への入力に基づいて車両部品の交換を検知してもよい。
ステップS102において車両部品が交換されなかったと判定された場合、本制御ルーチンは終了する。一方、ステップS102において車両部品が交換されたと判定された場合、本制御ルーチンはステップS103に進む。ステップS103では、検知部32は交換フラグFを1に設定する。
次いで、ステップS104において、学習部31は、交換後の車両部品に対応する訓練データセットを作成する。交換後の車両部品に対応する訓練データセットでは、交換後の車両部品の出力値、交換後の車両部品への指令値等が入力データの実測値の一つとして用いられる。また、車両1には、ニューラルネットワークモデルの出力データの実測値を取得するためのセンサ12等が設けられている。このため、学習部31は、入力データ及び出力データの対応する実測値を組み合わせることによって訓練データセットを作成することができる。
次いで、ステップS105において、学習部31は、交換後の車両部品に対応する訓練データセットの数が所定値以上であるか否かを判定する。所定値は、予め定められ、所要のニューラルネットワークモデルの推定精度を得るのに必要な数に設定される。ステップS105において訓練データセットの数が所定値未満であると判定された場合、本制御ルーチンは終了する。一方、ステップS105において訓練データセットの数が所定値以上であると判定された場合、本制御ルーチンはステップS106に進む。
ステップS106では、学習部31は、交換後の車両部品に対応する訓練データセットを用いてニューラルネットワークモデルの学習(再学習)を行う。具体的には、学習部31は、ニューラルネットワークモデルによって出力される出力データの値と出力データの実測値との差が小さくなるように、公知の誤差逆伝播法によってニューラルネットワークモデルのパラメータ(重みw及びバイアスb)を繰り返し更新し、再学習済みのニューラルネットワークモデルを生成する。
例えば、再学習の開始時のパラメータ(重みw及びバイアスb)の初期値は、予め定められた値に設定される。また、再学習の開始時のパラメータの初期値は、再学習前に設定されている値、すなわち交換前の車両部品に対して学習された値であってもよい。言い換えれば、学習部31は、再学習前に設定されているニューラルネットワークモデルのパラメータを更新することによってニューラルネットワークモデルの再学習を行ってもよい。このことによって、再学習によりニューラルネットワークモデルの推定精度を効率的に高めることができ、ひいては必要な訓練データセットの数を低減することができる。
次いで、ステップS107において、学習部31は再学習済みのニューラルネットワークモデルを車両1に適用する。言い換えれば、学習部31は、車両1において用いられるニューラルネットワークモデルを更新する。すなわち、ECU20のメモリ22又は別の記憶装置に記憶されたニューラルネットワークモデルの情報が書き換えられる。車両1において再学習済みのニューラルネットワークモデルを用いることによって、センサ12等によって出力データの実際の値を検出することなく、所定値の入力データに対応する出力データの値を推定することができる。
次いで、ステップS108において、学習部31は交換フラグFをゼロに設定する。ステップS108の後、本制御ルーチンは終了する。
なお、車両部品の特性は、車両部品が異なる構成の車両部品に交換されたときに大きく変化する。このため、学習部31は、ニューラルネットワークモデルの入力データに関する車両部品が異なる構成の車両部品に交換された場合にのみ、交換後の車両部品に対応する訓練データセットを用いてニューラルネットワークモデルの再学習を行ってもよい。このことによって、ニューラルネットワークモデルの推定精度の低下を効果的に抑制しつつ、再学習のための電力消費量を低減することができる。この場合、ステップS102において、検知部32は、ニューラルネットワークモデルの入力データに関する車両部品が異なる構成の車両部品に交換されたか否かを判定する。
<第二実施形態>
第二実施形態に係る機械学習装置の構成及び制御は、以下に説明する点を除いて、基本的に第一実施形態に係る機械学習装置の構成及び制御と同様である。このため、以下、本発明の第二実施形態について、第一実施形態と異なる部分を中心に説明する。
図5は、本発明の第二実施形態に係る機械学習装置が適用されるクライアントサーバシステム10の概略的な構成図である。クライアントサーバシステム10は車両1’及びサーバ4を備える。サーバ4は、車両1’を含む複数の車両と通信可能である。
図5に示されるように、サーバ4は、車両1’の外部に設けられ、通信インターフェース41、ストレージ装置42、メモリ43及びプロセッサ44を備える。なお、サーバ4は、キーボード及びマウスのような入力装置、ディスプレイのような出力装置等を更に備えていてもよい。また、サーバ4は複数のコンピュータから構成されていてもよい。
通信インターフェース41は、車両1’と通信可能であり、サーバ4が車両1’と通信することを可能とする。具体的には、通信インターフェース41は、サーバ4を通信ネットワーク5に接続するためのインターフェース回路を有する。サーバ4は、通信インターフェース41、通信ネットワーク5及び無線基地局6を介して車両1’と通信する。通信インターフェース41は通信装置の一例である。
ストレージ装置42は、例えば、ハードディスクドライブ(HDD)、ソリッドステートドライブ(SSD)、光記録媒体等を有する。ストレージ装置42は、各種データを記憶し、例えば、プロセッサ44が各種処理を実行するためのコンピュータプログラム等を記憶する。
メモリ43は、例えばランダムアクセスメモリ(RAM)のような半導体メモリを有する。メモリ43は、例えばプロセッサ44によって各種処理が実行されるときに使用される各種データ等を記憶する。
通信インターフェース41、ストレージ装置42及びメモリ43は、信号線を介してプロセッサ44に接続されている。プロセッサ44は、一つ又は複数のCPU及びその周辺回路を有し、各種処理を実行する。なお、プロセッサ44は、論理演算ユニット又は数値演算ユニットのような演算回路を更に有していてもよい。プロセッサ44は制御装置の一例である。
図6は、図5の車両1’の構成の一部を概略的に示す図である。図6に示されるように、車両1’は、アクチュエータ11、センサ12及びECU20に加えて通信モジュール13を備える。アクチュエータ11、センサ12及び通信モジュール13は、CAN(Controller Area Network)等の規格に準拠した車内ネットワークを介してECU20に通信可能に接続される。
通信モジュール13は、車両1’と車両1’の外部との通信を可能とする機器である。通信モジュール13は、例えば、無線基地局6を介して通信ネットワーク5と通信可能なデータ通信モジュール(DCM(Data communication module))である。なお、通信モジュール13として、携帯端末(例えば、スマートフォン、タブレット端末、WiFiルータ等)が用いられてもよい。通信モジュール13は通信装置の一例である。
第二実施形態では、ECU20は機械学習装置の一部として機能する。図7は、図6のECU20の機能ブロック図である。ECU20は検知部32及び更新部33を有する。検知部32及び更新部33は、ECU20のメモリ22に記憶されたプログラムをECU20のプロセッサ23が実行することによって実現される機能ブロックである。
検知部32は、第一実施形態と同様に、車両1に搭載された車両部品の交換を検知する。更新部33は、車両1’において用いられるニューラルネットワークモデルを更新する。
第二実施形態では、車両1’において用いられるニューラルネットワークモデルの学習がサーバ4において行われ、学習済みのニューラルネットワークモデルがサーバ4から車両1’に送信される。すなわち、サーバ4のプロセッサ44は、車両1’において用いられるニューラルネットワークモデルの学習を行う学習部として機能する。
プロセッサ44は、ニューラルネットワークモデルの入力データに関する車両部品が交換された場合には、交換後の車両部品に対応する訓練データセットを用いてニューラルネットワークモデルの再学習を行い、再学習済みのニューラルネットワークモデルを車両1’に送信する。車両1’の更新部33は、再学習済みのニューラルネットワークモデルをサーバ4から受信すると、再学習済みのニューラルネットワークモデルを車両1’に適用する。このように車両部品の交換に応じてニューラルネットワークモデルを再学習することによって、車両部品が交換された場合に、車両1’において用いられるニューラルネットワークモデルの推定精度が低下することを抑制することができる。
以下、図8及び図9のフローチャートを用いて、上述した制御について詳細に説明する。図8は、本発明の第二実施形態におけるモデル更新処理の制御ルーチンを示すフローチャートである。本制御ルーチンは車両1’のECU20によって所定の実行間隔で繰り返し実行される。
最初に、ステップS201において、検知部32は、交換フラグFが1であるか否かを判定する。交換フラグFは、車両部品が交換されたときに1に設定されるフラグであり、交換フラグFの初期値はゼロである。ステップS201において交換フラグFがゼロであると判定された場合、本制御ルーチンはステップS202に進む。
ステップS202では、図4のステップS102と同様に、検知部32は、ニューラルネットワークモデルの入力データに関する車両部品が交換されたか否かを判定する。車両部品が交換されなかったと判定された場合、本制御ルーチンは終了する。一方、車両部品が交換されたと判定された場合、本制御ルーチンはステップS203に進む。
ステップS203では、検知部32は交換フラグFを1に設定する。ステップS203の後、本制御ルーチンはステップS204に進む。一方、ステップS201において交換フラグFが1であると判定された場合、本制御ルーチンはステップS202及びS203をスキップしてステップS204に進む。
ステップS204では、更新部33は、交換後の車両部品に対応する訓練データセットを作成する。交換後の車両部品に対応する訓練データセットでは、交換後の車両部品の出力値、交換後の車両部品への指令値等が入力データの実測値の一つとして用いられる。また、車両1’には、ニューラルネットワークモデルの出力データの実測値を取得するためのセンサ12等が設けられている。このため、更新部33は、入力データ及び出力データの対応する実測値を組み合わせることによって訓練データセットを作成することができる。
次いで、ステップS205において、更新部33は、交換後の車両部品に対応する訓練データセットをサーバ4に送信する。
次いで、ステップS206において、更新部33は、再学習済みのニューラルネットワークモデルをサーバ4から受信したか否かを判定する。再学習済みのニューラルネットワークモデルを受信しなかったと判定された場合、本制御ルーチンは終了する。一方、再学習済みのニューラルネットワークモデルを受信したと判定された場合、本制御ルーチンはステップS207に進む。
ステップS207では、更新部33は再学習済みのニューラルネットワークモデルを車両1’に適用する。言い換えれば、更新部33は、車両1’において用いられるニューラルネットワークモデルを更新する。すなわち、ECU20のメモリ22又は別の記憶装置に記憶されたニューラルネットワークモデルの情報が書き換えられる。
次いで、ステップS208において、更新部33は交換フラグFをゼロにリセットする。ステップS109の後、本制御ルーチンは終了する。
図9は、本発明の第二実施形態における再学習処理の制御ルーチンを示すフローチャートである。本制御ルーチンはサーバ4のプロセッサ44によって所定の実行間隔で繰り返し実行される。
最初に、ステップS301において、プロセッサ44は、交換後の車両部品に対応する訓練データセットを車両1’から受信したか否かを判定する。訓練データセットを受信しなかったと判定された場合、本制御ルーチンは終了する。一方、訓練データセットを受信したと判定された場合、本制御ルーチンはステップS302に進む。
ステップS302では、プロセッサ44は、交換後の車両部品に対応する訓練データセットの数が所定値以上であるか否かを判定する。所定値は、予め定められ、所要のニューラルネットワークモデルの推定精度を得るのに必要な数に設定される。ステップS302において訓練データセットの数が所定値未満であると判定された場合、本制御ルーチンは終了する。一方、ステップS302において訓練データセットの数が所定値以上であると判定された場合、本制御ルーチンはステップS303に進む。
ステップS303では、プロセッサ44は、交換後の車両部品に対応する訓練データセットを用いてニューラルネットワークモデルの学習(再学習)を行う。具体的には、プロセッサ44は、ニューラルネットワークモデルによって出力される出力データの値と出力データの実測値との差が小さくなるように、公知の誤差逆伝播法によってニューラルネットワークモデルのパラメータ(重みw及びバイアスb)を繰り返し更新し、再学習済みのニューラルネットワークモデルを生成する。
例えば、再学習の開始時のパラメータ(重みw及びバイアスb)の初期値は、予め定められた値に設定される。また、再学習の開始時のパラメータの初期値は、再学習前に設定されている値、すなわち交換前の車両部品に対して学習された値であってもよい。言い換えれば、プロセッサ44は、再学習前に設定されているニューラルネットワークモデルのパラメータを更新することによってニューラルネットワークモデルの再学習を行ってもよい。このことによって、再学習によりニューラルネットワークモデルの推定精度を効率的に高めることができ、ひいては必要な訓練データセットの数を低減することができる。
次いで、ステップS304において、プロセッサ44は再学習済みのニューラルネットワークモデルを車両1’に送信する。ステップS304の後、本制御ルーチンは終了する。
なお、交換後の車両部品に対応する訓練データセットは車両1’以外の車両からサーバ4に送信されてもよい。また、交換後の車両部品に対応する訓練データセットは、エンジンベンチ等を用いてサーバ4において作成されてもよい。
また、上述したように、車両部品の特性は、車両部品が異なる構成の車両部品に交換されたときに大きく変化する。このため、プロセッサ44は、ニューラルネットワークモデルの入力データに関する車両部品が異なる構成の車両部品に交換された場合にのみ、交換後の車両部品に対応する訓練データセットを用いてニューラルネットワークモデルの再学習を行ってもよい。このことによって、ニューラルネットワークモデルの推定精度の低下を効果的に抑制しつつ、再学習のための電力消費量を低減することができる。この場合、ステップS202において、検知部32は、ニューラルネットワークモデルの入力データに関する車両部品が異なる構成の車両部品に交換されたか否かを判定する。
以上、本発明に係る好適な実施形態を説明したが、本発明はこれら実施形態に限定されるものではなく、特許請求の範囲の記載内で様々な修正及び変更を施すことができる。例えば、車両1、1’において用いられる機械学習モデルは、ランダムフォレスト、k近傍法、サポートベクターマシン等のニューラルネットワーク以外の機械学習モデルであってもよい。
1、1’ 車両
11 アクチュエータ
12 センサ
20 電子制御ユニット(ECU)
31 学習部
32 検知部
33 更新部
4 サーバ
44 プロセッサ

Claims (5)

  1. 車両において用いられる機械学習モデルの学習を行う学習部と、
    前記車両に搭載された車両部品の交換を検知する検知部と
    を備え、
    前記学習部は、前記検知部により前記機械学習モデルの入力データに関する車両部品の交換が検知されたことに応じて、交換後の車両部品に対応する訓練データセットを用いて前記機械学習モデルの再学習を行う、機械学習装置。
  2. 前記学習部は、前記機械学習モデルの入力データに関する車両部品が異なる構成の車両部品に交換された場合にのみ、交換後の車両部品に対応する訓練データセットを用いて前記機械学習モデルの再学習を行う、請求項1に記載の機械学習装置。
  3. 前記機械学習モデルを更新する更新部を更に備え、
    前記学習部は、サーバに設けられ、再学習済みの機械学習モデルを前記車両に送信し、前記更新部は該再学習済みの機械学習モデルを前記車両に適用する、請求項1又は2に記載の機械学習装置。
  4. 前記学習部は、前記車両に設けられ、再学習済みの機械学習モデルを前記車両に適用する、請求項1又は2に記載の機械学習装置。
  5. 前記機械学習モデルはニューラルネットワークモデルであり、
    前記学習部は、再学習前に設定されている前記機械学習モデルのパラメータを更新することによって該機械学習モデルの再学習を行う、請求項1から4のいずれか1項に記載の機械学習装置。
JP2020139433A 2020-08-20 2020-08-20 機械学習装置 Active JP7010343B1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2020139433A JP7010343B1 (ja) 2020-08-20 2020-08-20 機械学習装置
DE102021118579.3A DE102021118579A1 (de) 2020-08-20 2021-07-19 Maschinenlernvorrichtung
CN202110900681.7A CN114077237B (zh) 2020-08-20 2021-08-06 机器学习装置
US17/405,342 US11675999B2 (en) 2020-08-20 2021-08-18 Machine learning device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020139433A JP7010343B1 (ja) 2020-08-20 2020-08-20 機械学習装置

Publications (2)

Publication Number Publication Date
JP7010343B1 true JP7010343B1 (ja) 2022-01-26
JP2022035247A JP2022035247A (ja) 2022-03-04

Family

ID=80112889

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020139433A Active JP7010343B1 (ja) 2020-08-20 2020-08-20 機械学習装置

Country Status (3)

Country Link
US (1) US11675999B2 (ja)
JP (1) JP7010343B1 (ja)
DE (1) DE102021118579A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6935837B1 (ja) 2020-08-20 2021-09-15 トヨタ自動車株式会社 機械学習装置及び機械学習システム
US11893978B2 (en) * 2021-08-12 2024-02-06 Ford Global Technologies, Llc Speech recognition in a vehicle

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008286251A (ja) 2007-05-15 2008-11-27 Toyota Motor Corp 学習制御装置
JP2020119238A (ja) 2019-01-23 2020-08-06 日本電信電話株式会社 センサノード、サーバ装置、識別システム、方法及びプログラム

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080065290A1 (en) * 2000-09-08 2008-03-13 Automotive Technologies International, Inc. Component Monitoring System
JPH1182137A (ja) * 1998-02-09 1999-03-26 Matsushita Electric Ind Co Ltd パラメータ推定装置
JP4225645B2 (ja) * 1999-08-25 2009-02-18 株式会社日立製作所 車両用コントロールユニットのデータ書き換え装置
US20100023203A1 (en) * 2008-07-23 2010-01-28 Oren Shibi Diagnosis system and method for assisting a user
US8209076B2 (en) * 2008-10-06 2012-06-26 International Business Machines Corporation Tracking vehicle maintenance using sensor detection
US9296267B2 (en) 2013-07-15 2016-03-29 Continental Automotive Systems, Inc. Methods, systems and devices for recording and transmitting identification information of tire pressure monitoring sensors to a vehicle
DE102015213768B3 (de) 2015-07-22 2016-10-06 Robert Bosch Gmbh Verfahren zum Ermitteln einer Drehmomentgenauigkeit eines von einem riemen-getriebenen Startergenerator einer Brennkraftmaschine auf die Brennkraftmaschine übertragenen Drehmoments, Recheneinheit und maschinenlesbares Speichermedium
EP3566201A4 (en) * 2016-12-22 2020-11-25 Xevo Inc. PROCESS AND SYSTEM FOR PROVIDING SERVICES OF ANALYSIS OF ARTIFICIAL INTELLIGENCE (AIA) FOR PERFORMANCE PREDICTION
US11373249B1 (en) * 2017-09-27 2022-06-28 State Farm Mutual Automobile Insurance Company Automobile monitoring systems and methods for detecting damage and other conditions
DE102017217444B4 (de) 2017-09-29 2024-03-07 Volkswagen Ag Verfahren und System zum Aktualisieren eines Steuerungsmodells für eine automatische Steuerung zumindest einer mobilen Einheit
US10726638B2 (en) * 2017-12-21 2020-07-28 Micron Technology, Inc. Providing autonomous vehicle maintenance
US11328210B2 (en) * 2017-12-29 2022-05-10 Micron Technology, Inc. Self-learning in distributed architecture for enhancing artificial neural network
US10887349B2 (en) * 2018-01-05 2021-01-05 Byton Limited System and method for enforcing security with a vehicle gateway
JP6477951B1 (ja) * 2018-04-05 2019-03-06 トヨタ自動車株式会社 車載電子制御ユニット
CN112912902A (zh) * 2018-10-23 2021-06-04 Hrl实验室有限责任公司 人工神经网络和利用表观遗传神经发生训练人工神经网络的方法
JP6741057B2 (ja) 2018-11-01 2020-08-19 トヨタ自動車株式会社 内燃機関の制御システム、電子制御ユニット、サーバ及び内燃機関の制御方法
KR20210134638A (ko) * 2019-03-29 2021-11-10 인텔 코포레이션 자율 차량 시스템
JP2020203546A (ja) * 2019-06-14 2020-12-24 株式会社シマノ 検出装置、検出方法、生成方法、コンピュータプログラム、および記憶媒体
JP7432321B2 (ja) 2019-08-23 2024-02-16 株式会社デンソーテン 制御プログラム、制御方法および制御装置
CN110996286A (zh) 2019-11-28 2020-04-10 的卢技术有限公司 一种基于无线传感器的车辆控制方法和系统

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008286251A (ja) 2007-05-15 2008-11-27 Toyota Motor Corp 学習制御装置
JP2020119238A (ja) 2019-01-23 2020-08-06 日本電信電話株式会社 センサノード、サーバ装置、識別システム、方法及びプログラム

Also Published As

Publication number Publication date
US11675999B2 (en) 2023-06-13
DE102021118579A1 (de) 2022-02-24
US20220058463A1 (en) 2022-02-24
JP2022035247A (ja) 2022-03-04
CN114077237A (zh) 2022-02-22

Similar Documents

Publication Publication Date Title
JP7010343B1 (ja) 機械学習装置
JP6935837B1 (ja) 機械学習装置及び機械学習システム
JP6798571B2 (ja) モデル集約装置及びモデル集約システム
JP6795116B1 (ja) 車両、及びサーバ
JP7040589B1 (ja) 機械学習方法及び機械学習システム
US11820398B2 (en) Learning apparatus and model learning system
US20220058522A1 (en) Model learning system, model learning method, and server
KR20200057608A (ko) 인공지능 기술을 이용한 배기가스 배출량 예측방법
JP6791347B1 (ja) モデル診断装置及びモデル診断システム
CN114077237B (zh) 机器学习装置
JP2022035222A (ja) 機械学習装置
JP2020056378A (ja) 内燃機関の制御装置
JP6962435B1 (ja) 機械学習装置
US20220292350A1 (en) Model updating apparatus, model updating method, and model updating program
JP7056794B1 (ja) モデル学習システム及びモデル学習装置
CN114326697B (zh) 模型学习系统、车辆的控制装置以及模型学习方法
JP2022079938A (ja) 機械学習システム
JP2022076257A (ja) 機械学習システム、車両及びサーバ
JP2022173803A (ja) 学習モデルのパラメータの値の授受装置及び授受システム
Jurgen Electronic engine control technologies
JP2022003857A (ja) 機械学習装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210622

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210622

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20210622

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210824

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211021

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211214

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211227

R151 Written notification of patent or utility model registration

Ref document number: 7010343

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151