JP2012014617A - ニューラルネットワーク学習装置 - Google Patents

ニューラルネットワーク学習装置 Download PDF

Info

Publication number
JP2012014617A
JP2012014617A JP2010152898A JP2010152898A JP2012014617A JP 2012014617 A JP2012014617 A JP 2012014617A JP 2010152898 A JP2010152898 A JP 2010152898A JP 2010152898 A JP2010152898 A JP 2010152898A JP 2012014617 A JP2012014617 A JP 2012014617A
Authority
JP
Japan
Prior art keywords
learning
state
neural network
input parameter
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010152898A
Other languages
English (en)
Other versions
JP5467951B2 (ja
Inventor
Koichi Nakajima
幸一 中島
Osamu Takizawa
治 滝沢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2010152898A priority Critical patent/JP5467951B2/ja
Publication of JP2012014617A publication Critical patent/JP2012014617A/ja
Application granted granted Critical
Publication of JP5467951B2 publication Critical patent/JP5467951B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Feedback Control In General (AREA)

Abstract

【課題】入力状態の変化前及び変化後のいずれ状態であっても、出力を精度の高いものにするニューラルネットワーク学習装置を提供すること。
【解決手段】ニューラルネットワーク学習装置1は、第一状態下に関する入力パラメータベクトルuに基づきM個の結合荷重W(i=1〜M)の学習を行い、学習完了したニューラルネットワークに新たにN個のニューロンN(i=a1〜aN)を追加すると共に追加されたN個の結合荷重W(i=a1〜aN)の学習を行う。この追加の学習を行う際には、学習完了したM個の結合荷重W(i=1〜M)を固定すると共に、少なくとも第一状態と異なる第二状態下に関する入力パラメータベクトルuに基づきN個の結合荷重W(i=a1〜aN)の学習を行う。
【選択図】図3

Description

本発明は、ニューラルネットワーク学習装置に関する。特に、最初の学習後に新たにニューロンを追加して学習するニューラルネットワーク学習装置に関する。
内燃機関やその排気浄化システムなどを制御対象とした制御装置では、制御対象の状態に応じて変化する様々な物理量を検出するため、複数のセンサが用いられる。しかしながら物理量の中には、原理的にセンサで検出できないものや、検出精度、耐久性、コストなどの理由からセンサを用いて直に検出することが好ましくないものがある。
このような物理量に対しては、ニューラルネットワーク(例えば、特許文献1参照)に基づいて物理量を推定する技術が提案されている。ニューラルネットワークの一種である多層パーセプトロン型は、入力層、中間層、出力層の3層で構成される。このニューラルネットワークでは、取り出される出力が推定の対象となる物理量に一致するように入力と出力との関係を学習させておくことにより、入力パラメータに応じて物理量を推定することができる。
特許3584669号公報
しかしながら、特許文献1のニューラルネットワークでは、各層を結ぶシナプスの結合係数が最適化されるように更新されるが、全てのシナプスの結合係数が更新されていくため、入力状態が変化した場合に変化前の入力状態について物理量を推定させると精度が低くなるという課題がある。
本発明は、変化前の入力状態におけるニューラルネットワークの学習が完了した後に新たにニューロンを追加して学習することにより、入力状態の変化前及び変化後のいずれの状態であっても、出力を精度の高いものにするニューラルネットワーク学習装置を提供することを目的とする。
上記目的を達成するため本発明は、ニューラルネットワークによる学習モデルと、第一状態下に関する入力パラメータに基づき前記学習モデルにおける第一特性パラメータの学習を行う第一学習手段と、前記第一学習手段により学習完了した学習モデルに新たにニューロンを追加すると共に第二特性パラメータの学習を行う第二学習手段と、を備えることを特徴とするニューラルネットワーク学習装置を提供する。前記第二学習手段は、前記第一学習手段により学習完了した前記第一特性パラメータを固定すると共に、少なくとも前記第一状態と異なる第二状態下に関する入力パラメータに基づき前記第二特性パラメータの学習を行う。
この発明によれば、第二学習手段は、学習完了した第一特性パラメータを固定して、少なくとも第一状態と異なる第二状態下に関する入力パラメータに基づき第二特性パラメータの学習を行う。これにより、第一状態においての学習モデルの出力の精度を保ったまま第二状態における第二特性パラメータの学習を行うことができるので、第一状態及び第二状態のいずれの状態であっても、学習モデルの出力を精度の高いものにすることが可能となる。
この場合、前記学習モデルは、内燃機関に備えられており、前記第一状態は、内燃機関の第一運転状態であり、前記第二状態は、前記第一運転状態とは異なる第二運転状態であり、前記第一学習手段は、第一運転状態を示す入力パラメータに基づき学習を行い、前記第二学習手段は、前記第一運転状態及び前記第二運転状態の両方の入力パラメータに基づき学習を行うことが好ましい。
この発明によれば、第二学習手段は、第一学習手段で学習した第一特性パラメータを固定すると共に、第一運転状態及び第二運転状態の両方の入力パラメータに基づき第二特性パラメータの学習を行うので、第一運転状態の入力パラメータに対して精度の高い出力を保ちつつ、第二運転状態の入力パラメータに対しても精度の高い出力を得られるように追加された特性パラメータを学習することが可能となる。
この場合、前記学習モデルは、内燃機関に備えられており、前記第一状態は、内燃機関の経年変化における初期状態であり、前記第二状態は、前記初期状態からの経年変化後の状態であり、前記第一学習手段は、前記初期状態を示す入力パラメータに基づき学習を行うと共に、前記第二学習手段は、少なくとも前記経年変化後の状態の入力パラメータに基づき学習を行うことが好ましい。
この発明によれば、第二学習手段は、第一学習手段で学習した第一特性パラメータを固定すると共に、少なくとも経年変化後の状態の入力パラメータに基づき第二特性パラメータの学習を行うので、第一学習手段による学習モデルによる出力を利用しつつ追加された第二特性パラメータの学習を行うことととなり、第一学習手段による学習モデルによる出力を利用しない場合よりも追加された第二特性パラメータの学習を早くかつ高精度に行うことができる。
また、内燃機関の経年変化に応じて学習モデルが追加学習されるので、経年変化による学習モデルの出力の精度低下を抑制することが可能となる。
この場合、所定の通信手段を介して前記第二学習手段による学習に使用するデータを受信する受信手段を備え、前記第二学習手段は、前記受信手段が受信したデータを使用してオンボードにて学習を行うことが好ましい。
この発明によれば、オンボードでの学習に際して、第二学習手段による学習に使用するデータを所定の通信手段を介して受信することができるので、第二学習手段による学習に使用するデータがオンボード上で取得できない場合であっても追加された特性パラメータの学習を行うことができる。
本発明の一実施形態に係るニューラルネットワーク学習装置1の構成を示す模式図である。 2次元平面上に配列されたM個のノードを示す図である。 新たにニューロンを追加したニューラルネットワーク学習装置1の構成を示す模式図である。 アイドル状態と加速状態の両状態についてフィードNOx量を推定するニューラルネットワークを構築するフローチャートである。 エンジンの劣化後の状態についてLAFセンサ値を推定するニューラルネットワークを構築するフローチャートである。
以下、本発明の一実施形態を、図面を参照して説明する。
図1は、本実施形態に係るニューラルネットワーク学習装置1の構成を示す図である。
ニューラルネットワーク学習装置1は、入力パラメータベクトルuに対して、この入力パラメータベクトルuに応じた出力yを出力するニューラルネットワーク2を備える。このニューラルネットワーク2の入力パラメータベクトルuの成分は、図示しないエンジン、又は、エンジンの吸排気系あるいは燃焼室における各種センサの検出値に基づいて構成されている。そして、このニューラルネットワーク2は、入力パラメータベクトルuに対する出力yが、上記エンジン及びその吸排気系や燃焼室における所定の物理量に一致するように学習されている。なお、ニューラルネットワーク学習装置1はエンジンに搭載されている。
ニューラルネットワーク2は、入力層、中間層、出力層の3つの層で構成される。入力パラメータベクトルuは、下記式(1)に示すように、N個の成分(u,…,u)で構成されたN次元ベクトルである。各成分(u,…,u)には、例えば、エンジン回転数、燃料噴射量、燃料噴射時期、吸入空気量、空燃比、排気温度、過給圧などのエンジン及びその吸排気系の状態を示すパラメータが入力される。
入力層に入力された入力パラメータベクトルuのN個の成分は、それぞれ、中間層を構成するM個のニューロンN1,…,NMに入力される。
Figure 2012014617
中間層を構成するニューロンNi(i=1〜M)は、各々に設定された動径基底関数hに従った値を出力層へ出力する。動径基底関数hとは、入力パラメータベクトルuの成分(u,…,u)を基底としたN次元の空間内に配置された関数であり、各々に設定された中心位置ベクトルtからのユークリッド距離に依存する。本実施形態では、各ニューロンNiの動径基底関数hを、下記式(2)に示すような中心位置ベクトルtを中心としたN次元のガウス関数で定義する。ここで、下記式(2)において、σは、動径基底関数hの中心位置ベクトルtからの広がりを示すものであり、以下では基底関数設定パラメータという。
Figure 2012014617
出力層は、下記式(3)に示すように、各ニューロンNi(i=1〜M)の出力h(u;t)の線形結合とオフセット値Wとの和を、出力yとして出力する。ここで、W(i=1,…,M)は、中間層のi番目のニューロンと出力層との間の結合荷重を示す。
Figure 2012014617
次に、ニューラルネットワーク2の学習は、N次元の入力ベクトル空間内におけるM個のニューロンの中心位置ベクトルt(i=1〜M)を決定する工程と、結合荷重W(i=1〜M)、オフセット値W、及び基底関数設定パラメータσ(i=1〜M)を決定する工程との2つの工程で構成される。以下、これら工程について順に説明する。
先ず、学習を行うにあたり、下記式(4)に示すようなP個の学習データを準備する。ベクトルXは、入力ベクトルuに対応した入力データベクトルである。Yは、入力データベクトルXに対する出力として要求される出力データである。なお、この学習データ{X,Y}は、内燃機関の過渡運転時に取得されたデータなどが用いられる。
Figure 2012014617
<中心位置決定工程>
ニューロンNiの中心位置ベクトルtは、自己組織的なクラスタリング手法により決定することが好ましい。以下では、その一例として自己組織化マップ(SOM(Self Organizing Maps))を用いて決定する例について説明する。なお、この中心位置ベクトルtの決定では、上記式(4)の学習データのうち、入力データベクトルX(k=1〜P)のみを使用する。
先ず、図2に示すように2次元平面上に配列されたM個のノードNDi(i=1〜M)のそれぞれに割り当てられたN次元の参照ベクトルm(i=1〜M)に対し、適当な初期値を割り当てる(下記式(5)参照)。ここで、“t”は、後述のSTEP1からSTEP4を繰り返した回数を示す離散時間である。すなわち、ここで準備したM個のN次元参照ベクトルの初期値m(t=0)に対し、以下のSTEP1〜4を繰り返し施すことで最終的に得られた参照ベクトルmを、各ニューロンNiの中心位置ベクトルtとして決定する。なお、これら参照ベクトルmの初期値は、例えば乱数で決定してもよい。
Figure 2012014617
STEP1では、準備したP個の入力データベクトルのうちの1つXを選択する。
STEP2では、下記式(6)に示すように、M個の参照ベクトルm(i=1〜M)のうち、上記選択したN次元入力データベクトルXとのN次元ユークリッド距離が最小となる参照ベクトルm(以下、「勝者ベクトル」という)を有するノードNDCを選択する。
Figure 2012014617
STEP3では、STEP2で選択したノードNDCに付随した勝者ベクトルmと、このノードNDCの近傍のノードNDiに付随した参照ベクトルmとを、それぞれ、下記式(7)に従って更新する。下記式(7)において、hci(t)は、ノードが配列された2次元平面内のノードNDCの近傍においてのみ有意な値を持つ近傍関数であり、例えば、下記式(8)に示すようなガウス関数が用いられる。
また、下記式(8)において、ベクトルrは、ノードNDCの2次元平面上での位置ベクトルを示し、ベクトルrは、i番目のノードNDiの2次元平面上での位置ベクトルを示す。
Figure 2012014617
Figure 2012014617
上記式(8)において、α(t)は、学習率係数であり、0から1の間に設定される。また、この学習率係数α(t)は、時間tの減少関数として設定される。また、上記式(8)において、σ(t)は、近傍関数の広がりを示すパラメータであり、学習率係数α(t)と同じように、時間tの減少関数として設定される。
上記式(7)により、ノードNDCに付随した勝者ベクトルmと、このノードNDCの近傍のノードNDiに付随した参照ベクトルmは、N次元の入力パラメータ空間内において、上記STEP1で選択した入力データベクトルX側に引き寄せられるように、その位置が更新される。
なお、STEP3では、上記式(7)及び(8)のように、近傍関数hci(t)を乗算することで、ノードNDC近傍のノードNDiに付随した参照ベクトルmを更新する代わりに、ノードNDCの近傍の集合N(t)を定義し、下記式(9)に示すように、この集合N(t)に属するノードNDiの参照ベクトルmのみ、その位置を更新するようにしてもよい(図2参照)。この場合、集合N(t)は、図2に示すように時間tが進むにつれて小さくなるように設定される。
Figure 2012014617
STEP4では、準備したP個の入力データベクトルのうち、上記STEP2,3を実行していないものを選択し、STEP2に移る。そして、準備したP個の入力データベクトルの全てに対し、上記STEP2,3を実行した場合には、時刻tを更新(t→t+1)し、再びSTEP1から実行する。
以上のSTEP1〜4は、参照ベクトルmの位置が概ね収束する程度に繰り返すか、あるいは、所定の評価関数により完了が判定されるまで、繰り返し実行する。以上のようにして、STEP1〜4を繰り返し実行することで最終的に得られた参照ベクトルm(i=1〜M)を、各動径基底関数h(u;t)の中心位置ベクトルtとして採用する。
<パラメータ学習工程>
以上のようにして中心位置ベクトルtを決定した後、各ニューロンの結合荷重W、Wは、準備した学習データ(上記式(4)参照)に基づいて、例えば、最小2乗法により決定することができる。すなわち、下記式(10)に示すような学習データの出力データYと出力y(X)の誤差の二乗和Jが最小になるようなW、Wを探索する。
Figure 2012014617
また、各ニューロンの基底関数設定パラメータσは、例えば、ニューロンによらず全て同じ固定値σが用いられる。この場合、固定値σは、実験値との比較に基づいて、例えば手動で決定することができる。
図3は、新たにニューロンを追加したニューラルネットワーク学習装置1の構成を示す図である。
図3によれば、図1に示した各ニューロンの結合荷重W、W(i=1〜M)が学習完了となった後、新たにN個のニューロンN(i=a1〜aN)が追加されている。本実施形態では、学習完了となった結合荷重W、W(i=1〜M)の値を固定して、新たに追加されたN個のニューロンN(i=a1〜aN)に各々対応する結合荷重W(i=a1〜aN)及びオフセット値Wa0の学習を行う。
<実施例1>
以下、上記実施形態のニューラルネットワーク学習装置を、エンジンから排出されるNOx(フィードNOx)の量の推定に適用した例を実施例1として説明する。
フィードNOx量を推定するニューラルネットワークを構築するには、すなわちニューラルネットワークの出力y(u)をエンジンのフィードNOx量に一致させるためには、入力パラメータベクトルuの成分には、エンジン回転数(u)、燃料噴射量(u)、λ値(u)、過給圧(u)、排気温度(u)、吸入空気量(u)の6つのパラメータを含めることが好ましい。本実施形態では、フィードNOx量が計測可能なセンサであるNOxセンサを用いてフィードNOx量を計測する。なお、NOxセンサはエンジンに搭載されている。
図4は、アイドル状態と加速状態の両状態についてフィードNOx量を推定するニューラルネットワークを構築するフローチャートである。
ステップS1では、ニューラルネットワーク学習装置1が備えるCPU(図示せず)(以下、「CPU」とする)は、初期のニューロン数を決定する。ここで、決定されたニューロン数がM個の場合、CPUは、図1に示すようなM個のニューロンN(i=1〜M)を有するニューラルネットワークを構築する。
ステップS2では、CPUは、アイドル状態の入力パラメータでニューラルネットワークを学習する。なお、アイドル状態とは、エンジンが回転中であるが車両が停止中である状態のことをいう。このステップS2では、アイドル状態の入力パラメータベクトルu、学習データのうちの出力データ(フィードNOx量)及びニューラルネットワークの出力y(u)に基づいて上記手順によりニューラルネットワークを構築して、結合荷重W(i=1〜M)及びオフセット値Wの学習を最適化できるまで行う。
ステップS3では、CPUは、追加するニューロン数を決定する。ここで、決定されたニューロン数がN個の場合、CPUは、N個のニューロンN(i=a1〜aN)を、図1に示すようなM個のニューロンN(i=1〜M)を有するニューラルネットワークに追加して図3に示すようなニューラルネットワークを構築する。
ステップS4では、CPUは、アイドル状態及び加速状態の両方の入力パラメータでニューラルネットワークを学習する。このステップS4では、アイドル状態及び加速状態の入力パラメータベクトルu、学習データのうちの出力データ(フィードNOx量)及びニューラルネットワークの出力y(u)に基づいて上記手順によりニューラルネットワークを構築して、結合荷重W(i=a1〜aN)及びオフセット値Wa0の学習を最適化できるまで行う。さらに、ステップS2で学習した結合荷重W(i=1〜M)及びオフセット値Wの値は固定したまま学習を行う。
<実施例2>
以下、上記実施形態のニューラルネットワーク学習装置を、エンジンの排気ガスの空燃比(λ)の実測値(LAFセンサ値)の推定をオンボード上で行うことに適用した例を実施例2として説明する。
本実施例2においてオンボード上でLAFセンサ値を推定することにより、経年変化によるエンジンの劣化判定を行うことができると共に、劣化後の状態におけるLAFセンサ値の推定精度が上がるように燃料噴射量を調整し、調整された燃料噴射量を補正後の燃料噴射量として燃料噴射量制御に用いることができる。
LAFセンサ値を推定するニューラルネットワークを構築するには、すなわちニューラルネットワークの出力y(u)をLAFセンサ値に一致させるためには、入力パラメータベクトルuの成分には、エンジン回転数(u)、燃料噴射量(u)、過給圧(u)、排気温度(u)、吸入空気量(u)の5つのパラメータのいずれかを用いることが好ましい。本実施形態では、エンジンの排気ガスの空燃比が計測可能なセンサであるLAFセンサを用いてLAFセンサ値を計測する。なお、LAFセンサはエンジンに搭載されている。
図5は、エンジンの劣化後の状態についてLAFセンサ値を推定するニューラルネットワークを構築するフローチャートである。
ステップS11では、CPUは、初期のニューロン数を決定する。ここで、決定されたニューロン数がM個の場合、CPUは、図1に示すようなM個のニューロンN(i=1〜M)を有するニューラルネットワークを構築する。
ステップS12では、CPUは、経年変化の初期状態の入力パラメータでニューラルネットワークを学習する。なお、経年変化の初期状態とは、車両がユーザーに購入された時の状態のことである。このステップS12では、初期状態の入力パラメータベクトルu、学習データのうちの出力データ(LAFセンサ値)及びニューラルネットワークの出力y(u)に基づいて上記手順によりニューラルネットワークを構築して、結合荷重W(i=1〜M)及びオフセット値Wの学習を最適化できるまで行う。
さらに、このステップS12の処理によって学習された結合荷重W(i=1〜M)及びオフセット値Wを有するように構築されたニューラルネットワークをオンボード化する。
ステップS13では、CPUは、LAFセンサ値の推定値と実測値との差分を算出する。具体的には、ステップS12で学習されてオンボード化されたニューラルネットワークを用いて、経年変化後の入力パラメータベクトルuに基づく出力であるLAFセンサ値の推定値と、LAFセンサ値の実測値との差分を算出する。
ステップS14では、CPUは、算出した差分が閾値を超えたか否かを判断する。この判断がYESの場合、エンジンが劣化したと判断してステップS15の処理を行う。一方、NOの場合、ステップS13の処理を行う。
ステップS15では、CPUは、劣化後の状態のLAFセンサ値と入力パラメータを収集する。具体的には、ステップS14で劣化したと判断された時点でのLAFセンサ値と入力パラメータベクトルuを収集する。この際、CPUは、後述するステップS17における学習に十分なデータが揃ったか否かを判定し、揃ったと判定した場合には、ステップS16に移り、揃ったと判定しない場合には、ステップS15の処理を繰り返す。
ステップS16では、CPUは、追加するニューロン数を決定する。ここで、決定されたニューロン数がN個の場合、CPUは、N個のニューロンN(i=a1〜aN)を、図1に示すようなM個のニューロンN(i=1〜M)を有するニューラルネットワークに追加して図3に示すようなニューラルネットワークを構築する。
ステップS17では、CPUは、劣化後の状態のLAFセンサ値と入力パラメータでニューラルネットワークを学習する。このステップS17では、劣化後の状態の入力パラメータベクトルu、学習データのうちの出力データ(劣化後の状態のLAFセンサ値)及びニューラルネットワークの出力y(u)に基づいて上記手順によりニューラルネットワークを構築して、結合荷重W(i=a1〜aN)及びオフセット値Wa0の学習を最適化できるまで行う。さらに、ステップS12で学習した結合荷重W(i=1〜M)及びオフセット値Wの値は固定したまま学習を行う。
ステップS18では、CPUは、ステップS17で学習したニューラルネットワークによる出力(LAFセンサ値の推定値)は適切か否かを判定する。ステップS18の判断がYESの場合、出力は適切であると判断して図5に示したフローチャートの処理を終了する。NOの場合、出力は適切でないと判断してステップS17の処理を行う。
出力が適切であるか否かの判断の一例としては、LAFセンサ値の実測値と推定値との差分の大きさの値が所定の閾値より小さいか否かを判断することが挙げられる。
なお、ステップS18でNOと判断された場合に、ステップS17の処理を行い、ニューラルネットワークの再学習を行うが、この際に、1個以上のニューロンをさらに追加して再学習を行うようにしてもよい。これにより、ニューロンの数が足りないために、精度の低いLAFセンサ推定値を出力してしまうことを防止することができる。
また、ニューロンを追加しても十分な推定精度が得られない場合には、劣化後の状態のLAFセンサ値と入力パラメータベクトルuを再収集するようにしてもよい。
なお、劣化後の状態でのニューラルネットワークの学習は、経年変化に応じて複数回行うようにすることもできる。この場合、ステップS18の処理の終了後に、ステップS13〜ステップS18の処理を所定の条件を満たすまで複数回繰り返す。
ここで、例えば、劣化後のニューラルネットワークの学習が2回目の場合、初期状態で学習した結合荷重及び1回目の劣化状態で学習した結合荷重の両方を固定して、2回目の劣化状態での学習のために追加された結合荷重の学習を行う。また、3回目以降も同様に行う。
以上詳述した本実施形態によれば、以下の効果を奏する。
(1)本実施形態によれば、CPUは、M個の結合荷重W(i=1〜M)を固定して、少なくとも第一状態と異なる第二状態下に関する入力パラメータベクトルuに基づきN個の結合荷重W(i=a1〜aN)の学習を行う。これにより、第一状態においてのニューラルネットワークの出力の精度を保ったまま第二状態における結合荷重W(i=a1〜aN)の学習を行うことができるので、第一状態及び第二状態のいずれの状態であっても、ニューラルネットワークの出力を精度の高いものにすることが可能となる。
(2)本実施形態の実施例1によれば、CPUは、学習したM個の結合荷重W(i=1〜M)を固定すると共に、アイドル状態及び加速状態の両方の入力パラメータベクトルuに基づき学習を行うので、アイドル状態の入力パラメータベクトルuに対して精度の高い出力を保ちつつ、加速状態の入力パラメータベクトルuに対しても精度の高い出力を得られるように追加された結合荷重W(i=a1〜aN)を学習することが可能となる。
(3)本実施形態の実施例2によれば、CPUは、学習したM個の結合荷重W(i=1〜M)を固定すると共に、少なくともエンジンの劣化後の状態の入力パラメータベクトルuに基づき学習を行うので、M個のニューロンN(i=1〜M)を有するニューラルネットワークによる出力を利用しつつ追加された結合荷重W(i=a1〜aN)の学習を行うことととなり、M個のニューロンN(i=1〜M)を有するニューラルネットワークによる出力を利用しない場合よりも追加された結合荷重W(i=a1〜aN)の学習を早くかつ高精度に行うことができる。
また、エンジンの経年変化に応じてニューラルネットワークが追加学習されるので、経年変化によるニューラルネットワークの出力の精度低下を抑制することが可能となる。
なお、上記実施形態では、エンジンの排気ガスの空燃比が計測可能なセンサとしてLAFセンサを用いているが、本発明はこれに限られるものではない。例えば、Oセンサであってもよい。
また、上記実施形態では、エンジンの経年変化におけるニューラルネットワークの学習をオンボード上でLAFセンサ値を取得することにより行っているが、本発明はこれに限るものではない。例えば、LAFセンサやOセンサのような排気ガスの空燃比が計測可能なセンサが搭載されていない場合には、空燃比の実測値をオンボード上で取得できないことになるが、外部からのセンサ出力データをECUに取り込むことによって、エンジンの経年変化におけるニューラルネットワークの学習をオンボード上で行うようにしてもよい。ECUに取り込む具体例としては、無線通信などの通信手段を利用して空燃比の実測値を受信することなどが挙げられる。
この場合、オンボードでの学習に際して、エンジンの排気ガスの空燃比の実測値を無線通信などを介して受信することができるので、空燃比が計測可能なセンサが搭載されていない場合であっても追加された結合荷重W(i=a1〜aN)の学習を行うことができる。
1…ニューラルネットワーク学習装置
2…ニューラルネットワーク

Claims (4)

  1. ニューラルネットワークによる学習モデルと、
    第一状態下に関する入力パラメータに基づき前記学習モデルにおける第一特性パラメータの学習を行う第一学習手段と、
    前記第一学習手段により学習完了した学習モデルに新たにニューロンを追加すると共に第二特性パラメータの学習を行う第二学習手段と、を備え、
    前記第二学習手段は、前記第一学習手段により学習完了した前記第一特性パラメータを固定すると共に、少なくとも前記第一状態と異なる第二状態下に関する入力パラメータに基づき前記第二特性パラメータの学習を行うことを特徴とするニューラルネットワーク学習装置。
  2. 前記学習モデルは、内燃機関に備えられており、
    前記第一状態は、内燃機関の第一運転状態であり、
    前記第二状態は、前記第一運転状態とは異なる第二運転状態であり、
    前記第一学習手段は、第一運転状態を示す入力パラメータに基づき学習を行い、
    前記第二学習手段は、前記第一運転状態及び前記第二運転状態の両方の入力パラメータに基づき学習を行うことを特徴とする請求項1に記載のニューラルネットワーク学習装置。
  3. 前記学習モデルは、内燃機関に備えられており、
    前記第一状態は、内燃機関の経年変化における初期状態であり、
    前記第二状態は、前記初期状態からの経年変化後の状態であり、
    前記第一学習手段は、前記初期状態を示す入力パラメータに基づき学習を行うと共に、
    前記第二学習手段は、少なくとも前記経年変化後の状態の入力パラメータに基づき学習を行うことを特徴とする請求項1に記載のニューラルネットワーク学習装置。
  4. 所定の通信手段を介して前記第二学習手段による学習に使用するデータを受信する受信手段を備え、
    前記第二学習手段は、前記受信手段が受信したデータを使用してオンボードにて学習を行うことを特徴とする請求項3に記載のニューラルネットワーク学習装置。
JP2010152898A 2010-07-05 2010-07-05 ニューラルネットワーク学習装置 Expired - Fee Related JP5467951B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010152898A JP5467951B2 (ja) 2010-07-05 2010-07-05 ニューラルネットワーク学習装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010152898A JP5467951B2 (ja) 2010-07-05 2010-07-05 ニューラルネットワーク学習装置

Publications (2)

Publication Number Publication Date
JP2012014617A true JP2012014617A (ja) 2012-01-19
JP5467951B2 JP5467951B2 (ja) 2014-04-09

Family

ID=45600933

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010152898A Expired - Fee Related JP5467951B2 (ja) 2010-07-05 2010-07-05 ニューラルネットワーク学習装置

Country Status (1)

Country Link
JP (1) JP5467951B2 (ja)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016004547A (ja) * 2014-06-19 2016-01-12 ヤフー株式会社 算出装置、算出方法及び算出プログラム
JP6150964B1 (ja) * 2016-10-03 2017-06-21 三菱電機株式会社 ネットワーク構築装置及びネットワーク構築方法
WO2018189792A1 (ja) * 2017-04-10 2018-10-18 ソフトバンク株式会社 情報処理装置、情報処理方法、およびプログラム
WO2018189791A1 (ja) * 2017-04-10 2018-10-18 ソフトバンク株式会社 情報処理装置、情報処理方法、およびプログラム
US20190242318A1 (en) * 2018-02-05 2019-08-08 Toyota Jidosha Kabushiki Kaisha Control device of internal combustion engine
WO2019167884A1 (ja) * 2018-02-28 2019-09-06 富士フイルム株式会社 機械学習方法及び装置、プログラム、学習済みモデル、並びに判別装置
JP2019530119A (ja) * 2016-11-29 2019-10-17 アイフライテック カンパニー,リミテッド エンドツーエンドモデリング方法及びシステム
JPWO2018189793A1 (ja) * 2017-04-10 2020-03-05 ソフトバンク株式会社 情報処理装置、情報処理方法、およびプログラム
US11047325B2 (en) 2018-09-14 2021-06-29 Toyota Jidosha Kabushiki Kaisha Control device of internal combustion engine
DE112019006526T5 (de) 2019-03-08 2021-09-23 Hitachi Astemo, Ltd. Rechenvorrichtung
JP2022549844A (ja) * 2019-09-24 2022-11-29 エヌイーシー ラボラトリーズ アメリカ インク 加重平均近傍埋め込みの学習

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0962644A (ja) * 1995-08-22 1997-03-07 Just Syst Corp ニューラルネットワーク
JP2009167968A (ja) * 2008-01-18 2009-07-30 Mitsubishi Motors Corp 空燃比制御装置及び空燃比制御方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0962644A (ja) * 1995-08-22 1997-03-07 Just Syst Corp ニューラルネットワーク
JP2009167968A (ja) * 2008-01-18 2009-07-30 Mitsubishi Motors Corp 空燃比制御装置及び空燃比制御方法

Cited By (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016004547A (ja) * 2014-06-19 2016-01-12 ヤフー株式会社 算出装置、算出方法及び算出プログラム
US10346742B2 (en) * 2014-06-19 2019-07-09 Yahoo Japan Corporation Calculation device, calculation method, and recording medium
JP6150964B1 (ja) * 2016-10-03 2017-06-21 三菱電機株式会社 ネットワーク構築装置及びネットワーク構築方法
WO2018066032A1 (ja) * 2016-10-03 2018-04-12 三菱電機株式会社 ネットワーク構築装置及びネットワーク構築方法
JP2019530119A (ja) * 2016-11-29 2019-10-17 アイフライテック カンパニー,リミテッド エンドツーエンドモデリング方法及びシステム
US11651578B2 (en) 2016-11-29 2023-05-16 Iflytek Co., Ltd. End-to-end modelling method and system
JPWO2018189793A1 (ja) * 2017-04-10 2020-03-05 ソフトバンク株式会社 情報処理装置、情報処理方法、およびプログラム
US11494640B2 (en) 2017-04-10 2022-11-08 Softbank Corp. Information processing apparatus, information processing method, and program
WO2018189792A1 (ja) * 2017-04-10 2018-10-18 ソフトバンク株式会社 情報処理装置、情報処理方法、およびプログラム
JPWO2018189791A1 (ja) * 2017-04-10 2020-03-05 ソフトバンク株式会社 情報処理装置、情報処理方法、およびプログラム
WO2018189791A1 (ja) * 2017-04-10 2018-10-18 ソフトバンク株式会社 情報処理装置、情報処理方法、およびプログラム
JPWO2018189792A1 (ja) * 2017-04-10 2020-03-05 ソフトバンク株式会社 情報処理装置、情報処理方法、およびプログラム
US11586933B2 (en) 2017-04-10 2023-02-21 Softbank Corp. Information processing apparatus, information processing method, and program for simulating growth of cells
US11494388B2 (en) 2017-04-10 2022-11-08 Softbank Corp. Information processing apparatus, information processing method, and program
US10634081B2 (en) * 2018-02-05 2020-04-28 Toyota Jidosha Kabushiki Kaisha Control device of internal combustion engine
US20190242318A1 (en) * 2018-02-05 2019-08-08 Toyota Jidosha Kabushiki Kaisha Control device of internal combustion engine
WO2019167884A1 (ja) * 2018-02-28 2019-09-06 富士フイルム株式会社 機械学習方法及び装置、プログラム、学習済みモデル、並びに判別装置
JPWO2019167884A1 (ja) * 2018-02-28 2021-02-12 富士フイルム株式会社 機械学習方法及び装置、プログラム、学習済みモデル、並びに判別装置
US11929174B2 (en) 2018-02-28 2024-03-12 Fujifilm Corporation Machine learning method and apparatus, program, learned model, and discrimination apparatus using multilayer neural network
US11047325B2 (en) 2018-09-14 2021-06-29 Toyota Jidosha Kabushiki Kaisha Control device of internal combustion engine
DE112019006526T5 (de) 2019-03-08 2021-09-23 Hitachi Astemo, Ltd. Rechenvorrichtung
JP2022549844A (ja) * 2019-09-24 2022-11-29 エヌイーシー ラボラトリーズ アメリカ インク 加重平均近傍埋め込みの学習

Also Published As

Publication number Publication date
JP5467951B2 (ja) 2014-04-09

Similar Documents

Publication Publication Date Title
JP5467951B2 (ja) ニューラルネットワーク学習装置
CN111577457B (zh) 内燃机的失火检测装置、系统、方法、数据解析装置、及内燃机的控制装置
CN113153521B (zh) 一种利用人工神经网络预测车辆发动机扭矩的系统和方法
US20200263618A1 (en) Pm amount estimation device, pm amount estimation system, pm amount estimating method, data analysis device, control device for internal combustion engine, and receiver
US20190311262A1 (en) Machine learning device, machine learning method, electronic control unit and method of production of same, learned model, and machine learning system
US11255282B2 (en) State detection system for internal combustion engine, data analysis device, and vehicle
CN110118130B (zh) 内燃机的控制装置
US20200264074A1 (en) State detection system for internal combustion engine, data analysis device, and vehicle
JP7231144B2 (ja) エンジン制御装置及びそれが有するニューラルネットワークプログラム
US20140012791A1 (en) Systems and methods for sensor error detection and compensation
US8880321B2 (en) Adaptive air charge estimation based on support vector regression
EP1656597A1 (en) Intelligent database for performance predictions
Chen et al. Machine learning for misfire detection in a dynamic skip fire engine
KR102118088B1 (ko) 인공지능 기술을 이용한 배기가스 배출량 예측방법
JP2020063699A (ja) 内燃機関の制御装置及びその制御方法、並びに内燃機関を制御するための学習モデル及びその学習方法
JP2011132915A (ja) 物理量推定装置
CN113830097A (zh) 车辆、模型学习系统以及服务器
JP7388343B2 (ja) ターボチャージャのオイルコーキング堆積量の推定装置
CN113266485B (zh) 映射的学习方法
WO2018082884A1 (en) Calibration system and method
JP6816186B2 (ja) ニューラルネットワーク装置
Jung et al. A flywheel error compensation algorithm for engine misfire detection
JP2018062913A (ja) 内燃機関のモデリング装置及び制御装置
JP4798056B2 (ja) 内燃機関の燃料性状判定装置
JP2010096021A (ja) 内燃機関の燃焼状態診断装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20121128

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131022

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131220

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140121

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140128

R150 Certificate of patent or registration of utility model

Ref document number: 5467951

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees