JP2019143477A - 内燃機関の制御装置 - Google Patents

内燃機関の制御装置 Download PDF

Info

Publication number
JP2019143477A
JP2019143477A JP2018025335A JP2018025335A JP2019143477A JP 2019143477 A JP2019143477 A JP 2019143477A JP 2018025335 A JP2018025335 A JP 2018025335A JP 2018025335 A JP2018025335 A JP 2018025335A JP 2019143477 A JP2019143477 A JP 2019143477A
Authority
JP
Japan
Prior art keywords
input
value
output
parameter
layer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018025335A
Other languages
English (en)
Inventor
真吾 前田
Shingo Maeda
真吾 前田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2018025335A priority Critical patent/JP2019143477A/ja
Publication of JP2019143477A publication Critical patent/JP2019143477A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Combined Controls Of Internal Combustion Engines (AREA)
  • Feedback Control In General (AREA)

Abstract

【課題】モデルの精度を向上することができる。【解決手段】電子制御ユニット(30)が、機関の運転状態を示す入力パラメータの値を取得するパラメータ値取得部と、ニューラルネットワークを用いて演算を行う演算部と、記憶部とを具備している。入力パラメータと出力パラメータとの相関の程度および入力パラメータ間の相関の程度に基づいて、入力パラメータの中で入力パラメータ間の相関の程度の低い方の入力パラメータを選定し、選定された入力パラメータの値が入力層に入力される。【選択図】図7

Description

本発明は内燃機関の制御装置に関する。
機関回転数、吸入空気量等の機関の運転を示す入力パラメータの値と、燃焼室内への吸入ガス量の計測値との関係が、学習用データセットの形で予め求められており、この学習用データセットを用いてニューラルネットワークの重みを学習することにより、入力パラメータの値と、燃焼室内への吸入ガス量との関係をモデル化した吸入ガス量モデルがニューラルネットワークにより作成され、機関運転時に、この吸入ガス量モデルを用いて、入力パラメータの値から、燃焼室内への吸入ガス量を示す出力パラメータの値を推定するようにした内燃機関の制御装置が公知である(例えば特許文献1を参照)。
特開2012−112277号公報
ところで、このように複数の入力パラメータの値に基づいてニューラルネットワークの重みを学習するようにした場合、これら入力パラメータの中に相関の度合の高い入力パラメータが存在すると、これら相関の度合の高い入力パラメータが、ニューラルネットワークの重みの学習時と異なる動きをしたとき、出力パラメータの推定値に誤差を生ずるという問題がある。
上記問題を解決するために、本発明によれば、電子制御ユニットを具備しており、電子制御ユニットが、機関の運転状態を示す入力パラメータの値を取得するパラメータ値取得部と、入力層、隠れ層および出力層からなるニューラルネットワークを用いて演算を行う演算部と、記憶部とを具備しており、入力パラメータの値が入力層に入力され、出力パラメータの値を示す出力値が出力層から出力される内燃機関の制御装置において、入力パラメータと出力パラメータとの相関の度合および入力パラメータ間の相関の度合に基づいて、入力パラメータの中で入力パラメータ間の相関の度合の低い方の入力パラメータを選定し、選定された入力パラメータの値が入力層に入力される。
入力パラメータの中で入力パラメータ間の相関の度合の低い方の入力パラメータを選定し、選定された入力パラメータの値が入力層に入力することによって、出力パラメータの推定値に誤差を生ずるのを抑制することができる。
図1は内燃機関の全体図である。 図2はニューラルネットワークの一例を示す図である。 図3Aおよび図3Bはシグモイド関数σの値の変化を示す図である。 図4Aおよび図4Bは夫々、ニューラルネットワークと、隠れ層のノードからの出力値を示す図である。 図5Aは出力層のノードからの出力値を示す図であり、図5Bはニューラルネットワークを示す図であり、図5Cは出力層のノードからの出力値を示す図である。 図6は、出力パラメータの推定値の誤差の発生を説明するための図である。 図7は、学習ルーチンを示すフローチャートである。 図8は、学習ルーチンを示すフローチャートである。 図9Aおよび図9Bは報酬Qを示す図である。 図10は、検証ルーチンを示すフローチャートである。 図11Aおよび図11Bは夫々、報酬Qと、相関係数Rとを示す図である。 図12は、本発明による誤差の抑制効果を示す図である。
<内燃機関の全体構成>
図1に内燃機関の全体図を示す。図1を参照すると、1は機関本体、2は各気筒の燃焼室、3は各気筒の燃焼室2内に配置された点火栓、4は各気筒に燃料、例えば、ガソリンを供給するための燃料噴射弁、5はサージタンク、6は吸気枝管、7は排気マニホルドを夫々示す。サージタンク5は吸気ダクト8を介して排気ターボチャージャ9のコンプレッサ9aの出口に連結され、コンプレッサ9aの入口は吸入空気量検出器10を介してエアクリーナ11に連結される。吸気ダクト8内にはアクチュエータ13により駆動されるスロットル弁12が配置され、吸気ダクト8周りには吸気ダクト8内を流れる吸入空気を冷却するためのインタクーラ14が配置される。
一方、排気マニホルド7は排気ターボチャージャ9の排気タービン9bの入口に連結され、排気タービン9bの出口は排気管15を介して排気浄化用触媒コンバータ16に連結される。排気マニホルド7とサージタンク5とは排気ガス再循環(以下、EGRと称す)通路17を介して互いに連結され、EGR通路17内には、EGR通路17内を流れるEGRガスを冷却するためのEGRクーラ18と、EGR制御弁19とが配置される。更に、EGR通路17には、クーラ18を迂回するEGRバイパス通路20が併設されており、EGR通路17内には、EGRガス流路をEGRバイパス通路20に切換えるための流路切換弁21が配置される。各燃料噴射弁4は燃料分配管22に連結され、この燃料分配管22は燃料ポンプ23を介して燃料タンク24に連結される。
図1に示されるように、吸気ダクト8内には過給圧を検出するための過給圧センサ25が配置されており、サージタンク5内にはサージタンク5内の吸気温を検出するための吸気温センサ26が配置されている。また、燃料分配管22内には燃料分配管22内の燃料圧を検出するための燃料圧センサ27が配置されており、排気管15内には排気ガス中のNOX濃度を検出するためのNOXセンサ28が配置されている。
電子制御ユニット30はデジタルコンピュータからなり、双方向性バス31によって互いに接続されたROM(リードオンリメモリ)32、RAM(ランダムアクセスメモリ)33、CPU(マイクロプロセッサ)34、入力ポート35および出力ポート36を具備する。入力ポート35には、吸入空気量検出器10、過給圧センサ25、吸気温センサ26、燃料圧センサ27およびNOXセンサ28の出力信号が、対応するAD変換器37を介して入力される。アクセルペダル40にはアクセルペダル40の踏込み量に比例した出力電圧を発生する負荷センサ41が接続され、負荷センサ41の出力電圧は対応するAD変換器37を介して入力ポート35に入力される。更に入力ポート35にはクランクシャフトが例えば30°回転する毎に出力パルスを発生するクランク角センサ42が接続される。CPU34内ではクランク角センサ42の出力信号に基づいて機関回転数が算出される。一方、出力ポート36は対応する駆動回路38を介して点火栓3、燃料噴射弁4、スロットル弁駆動用アクチュエータ13、EGR制御弁19、流路切換弁21および燃料ポンプ23に接続される。
<ニューラルネットワークの概要>
本発明による実施例では、ニューラルネットワークを用いて内燃機関の性能を表す種々の値を推定するようにしている。図2はこのニューラルネットワークの一例を示している。図2における丸印は人工ニューロンを表しており、ニューラルネットワークにおいては、この人工ニューロンは、通常、ノード又はユニットと称される(本願では、ノードと称す)。図2においてL=1は入力層、L=2および L=3は隠れ層、L=4は出力層を夫々示している。また、図2において、xおよびx は入力層 ( L=1) の各ノードからの出力値を示しており、y は出力層 ( L=4) のノードからの出力値を示しており、z1、 およびz は隠れ層 ( L=2) の各ノードからの出力値を示しており、zおよびz は隠れ層 ( L=3) の各ノードからの出力値を示している。なお、隠れ層の層数は、1個又は任意の個数とすることができ、入力層のノードの数および隠れ層のノードの数も任意の個数とすることができる。なお、本発明による実施例では、出力層のノードの数は1個とされている。
入力層の各ノードでは入力がそのまま出力される。一方、隠れ層 ( L=2) の各ノードには、入力層の各ノードの出力値xおよびx が入力され、隠れ層 ( L=2) の各ノードでは、夫々対応する重みwおよびバイアスbを用いて総入力値uが算出される。例えば、図2において隠れ層 ( L=2) のz(k=1,2,3)で示されるノードにおいて算出される総入力値uは、次式のようになる。
Figure 2019143477
次いで、この総入力値uは活性化関数fにより変換され、隠れ層 ( L=2) のzで示されるノードから、出力値z(= f (u)) として出力される。隠れ層 ( L=2) の他のノードについても同様である。一方、隠れ層 ( L=3) の各ノードには、隠れ層 ( L=2) の各ノードの出力値z1、 およびz が入力され、隠れ層 ( L=3 ) の各ノードでは、夫々対応する重みwおよびバイアスbを用いて総入力値u(Σz・w+b)が算出される。この総入力値uは同様に活性化関数により変換され、隠れ層 ( L=3 ) の各ノードから、出力値z 、z として出力される、なお、本発明による実施例では、この活性化関数としてシグモイド関数σが用いられている。
一方、出力層 ( L=4) のノードには、隠れ層 ( L=3) の各ノードの出力値z およびz が入力され、出力層 のノードでは、夫々対応する重みwおよびバイアスbを用いて総入力値u(Σz・w+b)が算出されるか、又は、夫々対応する重みwのみを用いて総入力値u(Σz・w)が算出される。本発明による実施例では、出力層のノードでは恒等関数が用いられており、従って、出力層のノードからは、出力層のノードにおいて算出された総入力値uが、そのまま出力値yとして出力される。
<ニューラルネットワークによる関数の表現>
さて、ニューラルネットワークを用いると任意の関数を表現することができ、次に、このことについて簡単に説明する。まず初めに、活性化関数として用いられているシグモイド関数σについて説明すると、シグモイド関数σは、σ(x)=1/(1+exp(-x))で表され、図3Aに示されるようにxの値に応じて0と1の間の値を取る。ここで、xをwx+bに置き換えると、シグモイド関数σは、σ(wx+b)=1/(1+exp(-wx―b))で表される。ここで、wの値を大きくしていくと、図3Bにおいて曲線σ、σ、σで示されるように、シグモイド関数σ(wx+b)の曲線部分の傾斜が次第に急になり、wの値を無限大にすると、図3Bにおいて曲線σで示されるように、シグモイド関数σ(wx+b)は、x=−b/w(wx+b=0となるx、即ち、σ(wx+b)=0.5となるxにおいて、図3Bに示されるように、ステップ状に変化するようになる。このようなシグモイド関数σの性質を利用すると、ニューラルネットワークを用いて任意の関数を表現することができる。
このことを説明するに当たり、初めに、図4Aに示されるような1個のノードからなる入力層 ( L=1) と、2個のノードからなる隠れ層 ( L=2) と、1個のノードからなる出力層 ( L=3) とにより構成されるニューラルネットワークについて説明する。このニューラルネットワークでは、図4Aに示されるように、入力層 ( L=1) のノードには入力値xが入力され、隠れ層 ( L=2) においてzで示されるノードには、重みw (L2) およびバイアスbを用いて算出された入力値u=x・w (L2)+b が入力される。この入力値uはシグモイド関数σ(x・w (L2)+b)により変換され、出力値z として出力される。同様に、隠れ層 ( L=2) においてzで示されるノードには、重みw (L2)およびバイアスb を用いて算出された入力値u=x・w2 (L2)+b2 が入力され、この入力値uはシグモイド関数σ(x・w2 (L2)+b2)により変換され、出力値z2 として出力される。
一方、出力層 ( L=3) のノードには、隠れ層 ( L=2) の各ノードの出力値z およびz が入力され、出力層 のノードでは、夫々対応する重みw (y) およびw (y) を用いて総入力値u(Σz・w=z・w (y) +z・w (y))が算出される。前述したように、本発明による実施例では、出力層のノードでは恒等関数が用いられており、従って、出力層のノードからは、出力層のノードにおいて算出された総入力値uが、そのまま出力値yとして出力される。
さて、図4Bは、図4Aにおける重みw (L2) およびw2 (L2) の値を大きくすることにより、シグモイド関数σの値を、図3Bに示されるように、ステップ状に変化させた場合を示している。図4Bの(I)には、x=―b /w (L2) において、シグモイド関数σ(x・w (L2)+b )の値がステップ状に増大するように重みw (L2)およびバイアスbが設定されたときの隠れ層 ( L=2) のノードからの出力値zが示されている。また、図4Bの(II)には、x=―b /w (L2) よりも少し大きいx=−b /w (L2) においてシグモイド関数σ(x・w2 (L2)+b2)の値がステップ状に減少するように重みw (L2)およびバイアスb が設定されたときの隠れ層 ( L=2) のノードからの出力値zが示されている。また、図4Bの(III)には、隠れ層 ( L=2) の各ノードからの出力値z とz の和(z +z )が実線で示されている。図4Aに示されるように、各出力値z 、z には、夫々対応する重みw (y) およびw (y) が乗算されており、図4Bの(III)には、w (y) 、w (y) >1であるときの出力値yが破線で示されている。
このように、図4Aに示されるニューラルネットワークにおいて、隠れ層 ( L=2) の一対のノードにより、図4Bの(III)に示されるような短冊状の出力値yが得られる。従って、隠れ層 ( L=2) の対をなすノード数を増大し、隠れ層 ( L=2) の各ノードにおける重みwおよびバイアスbの値を適切に設定すると、図5Aにおいて破線の曲線で示すような関数y=f(x)を近似する関数を表現できることになる。なお、図5Aでは、各短冊が接するように描かれているが、実際には、各短冊は部分的に重なる場合がある。また、実際には、wの値は無限大とはならないために、各短冊は、正確な短冊状にはならず、図3Bにおいてσで示される曲線部分の上半分のような曲線状となる。なお、詳細な説明は省略するが、図5Bに示されるように、異なる二つの入力値xおよびxに対し、隠れ層 ( L=2)において夫々対応する一対のノードを設けると、図5Cに示されるように、入力値xおよびxに応じた柱状の出力値yが得られる。この場合、各入力値x、xに対し、隠れ層 ( L=2) に多数の対をなすノードを設けると、夫々異なる入力値xおよびxに応じた複数個の柱状の出力値yが得られ、従って、入力値xおよびx と出力値yとの関係を示す関数を表現できることがわかる。なお、異なる三つ以上の入力値xがある場合でも同様に、入力値xと出力値yとの関係を示す関数を表現できる。なお、異なる三つ以上の入力値xがある場合でも同様に、入力値xと出力値yとの関係を示す関数を表現できる。入力値が1個の場合には、入力値の数1+出力値1個により、関数が2次元平面上で表される。入力値が2個の場合には、入力値の数2+出力値1個により、関数が3次元空間においで表される。即ち、入力値がn個の場合には、入力値の数1+出力値1個により、関数がn+1次元平面において表される。なお、紙面上に4次元平面以上の空間を表現することはできないので、図は割愛する。
<ニューラルネットワークにおける学習>
一方、本発明による実施例では、誤差逆伝播法を用いて、ニューラルネットワーク内における各重みwの値およびバイアスbの値が学習される。この誤差逆伝播法は周知であり、従って、誤差逆伝播法についてはその概要を以下に簡単に説明する。なお、バイアスbは重みwの一種なので、以下の説明では、バイアスbは重みwの一つとされている。さて、図2に示すようなニューラルネットワークにおいて、L=2,L=3又は L=4の各層のノードへの入力値u(L)における重みをw(L)で表すと、誤差関数Eの重みw(L)による微分、即ち、勾配∂E/∂w(L)は、書き換えると、次式で示されるようになる。
Figure 2019143477
ここで、z(L−1)・∂w(L)= ∂u(L)であるので、(∂E/∂u(L))=δ(L)とすると、上記(1)式は、次式でもって表すことができる。
Figure 2019143477
ここで、u(L)が変動すると、次の層の総入力値u(L+1)の変化を通じて誤差関数Eの変動を引き起こすので、δ(L)は、次式で表すことができる。
Figure 2019143477
ここで、z(L)=f(u(L)) と表すと、上記(3)式の右辺に現れる入力値uk (L+1)は、次式で表すことができる。
Figure 2019143477
ここで、上記(3)式の右辺第1項(∂E/∂u(L+1))はδ(L+1)であり、上記(3)式の右辺第2項(∂u (L+1) /∂u(L))は、次式で表すことができる。
Figure 2019143477
従って、δ(L)は、次式で示される。
Figure 2019143477
即ち、δ(L+1)が求まると、δ(L)を求めることができることになる。
さて、或る入力値に対して教師データyが求められており、この入力値に対する出力層からの出力値がyであった場合、誤差関数として二乗誤差が用いられている場合には、二乗誤差Eは、E=1/2(y−y)で求められる。この場合、図2の出力層(L=4)のノードでは、出力値y= f(u(L)) となり、従って、この場合には、出力層(L=4)のノードにおけるδ(L)の値は、次式で示されるようになる。
Figure 2019143477
ところで、本発明による実施例では、前述したように、f(u(L)) は恒等関数であり、f’(u(Ll)) = 1となる。従って、δ(L)=y−y となり、δ(L)が求まる。
δ(L)が求まると、上式(6)を用いて前層のδ(L−1)が求まる。このようにして順次、前層のδが求められ、これらδの値を用いて、上式(2)から、各重みwについて誤差関数Eの微分、即ち、勾配∂E/∂w(L)か求められる。勾配∂E/∂w(L)か求められると、この勾配∂E/∂w(L)を用いて、誤差関数Eの値が減少するように、重みwの値が更新される。即ち、重みwの値の学習が行われることになる。なお、訓練データとしてバッチ、又はミニバッチが用いられる場合には、誤差関数Eとして、次の二乗和誤差Eが用いられる。
Figure 2019143477
一方、二乗誤差を逐次算出するようにしたオンライン学習が行われる場合には、誤差関数Eとして、上述の二乗誤差Eが用いられる。
<本発明による実施例>
前述したように、複数の入力パラメータの値に基づいてニューラルネットワークの重みを学習するようにした場合、これら入力パラメータの中に相関の度合の高い入力パラメータが存在すると、これら相関の度合の高い入力パラメータが、ニューラルネットワークの重みの学習時と異なる動きをしたとき、出力パラメータの推定値に誤差を生ずる。例えば、二つの入力パラメータの値が夫々x1およびx2であり、出力パラメータの値がyである場合において、一方の入力パラメータの値x1がΔx1だけ変化したときに出力パラメータの値yがΔyだけ変化したとすると(Δy=a・Δx1)、学習モデルは、入力パラメータの値x1が変化したときに出力パラメータの値yは、Δx1の変化に対して、感度aで変化することを学習する。
ところが、この場合、二つの入力パラメータ間に相関関係があったとすると、一方の入力パラメータの値x1が変化したときに他方の入力パラメータの値x2も変化する。この場合、一方の入力パラメータの値x1がΔx1だけ変化したときに他方の入力パラメータの値x2がΔx2だけ変化したとすると(Δx2=b・Δx1)、Δy=a・Δx1=(a/b)・Δx2であるので、学習モデルは、他方の入力パラメータの値x2が変化したときに出力パラメータの値yは、Δx2の変化に対して、感度a/bで変化すると学習してしまう。この感度a/bは、一方の入力パラメータの値x1が変化したときの感度であり、他方の入力パラメータの値x2が単独で変化したときの感度ではない。しかしながら、学習モデルは、この感度a/bは、他方の入力パラメータの値x2が単独で変化したときの感度である誤学習をしてしまう。このような誤学習を生じると、出力パラメータの推定値に誤差を生ずることになる。
次に、一つの検証例について説明する。例えば、図1に示される内燃機関において、EGRガスがサージタンク5内に再循環せしめられると、EGRガスの影響を受けてサージタンク5内の吸気温が変化する。従って、EGR率とサージタンク5内の吸気温は相関の度合いが高いと言える。そこで、上述の一方の入力パラメータの値x1をEGR率とし、上述の他方の入力パラメータの値x2をサージタンク5内の吸気温とし、出力パラメータの値yをNOX濃度として、ニューラルネットワークの重みの学習を行い、そのときの検証結果が図6に示されている。なお、図6は、EGRガスの再循環が開始された後、破線で示される時刻において、流路切換弁21により、EGR流路が、EGRクーラ18内を通るEGR通路17からEGRバイパス通路20に切換えられたときの、EGR率、サージタンク5内の吸気温、実NOX濃度および推定NOX濃度の変化を示している。
さて、図6において、破線で示される時刻以前においては、即ち、EGR流路が、EGRクーラ18内を通るEGR通路17からEGRバイパス通路20に切換えられる以前では、EGR率が徐々に上昇すると共にサージタンク5内の吸気温が少しずつ下降している。即ち、入力パラメータの値x1と、入力パラメータの値x2が共に変化している。このとき、推定NOX濃度が実NOX濃度に近づくように、ニューラルネットワークの重みが学習されている。これに対し、図6において、破線で示される時刻を過ぎると、即ち、EGR流路が、EGRクーラ18内を通るEGR通路17からEGRバイパス通路20に切換えられると、EGR率の上昇作用が停止され、サージタンク5内の吸気温が徐々に増大する。
即ち、このときには、入力パラメータの値x2のみが単独で変化している。このように入力パラメータの値x2のみが単独で変化すると、図6に示されるように、サージタンク5内の吸気温が増大するにつれて、推定NOX濃度が徐々に低下し、推定NOX濃度が実NOX濃度から次第に離れていく。即ち、誤学習が次第に進行していく。このように、二つの入力パラメータの相関の度合の高いと、これら入力パラメータが、ニューラルネットワークの重みの学習時と異なる動きをしたとき、出力パラメータの推定値に誤差を生ずることになる。そこで、本発明では、入力パラメータの中で入力パラメータ間の相関の度合の低い方の入力パラメータを選定し、選定された入力パラメータの値を入力層に入力することによって、出力パラメータの推定値に誤差を生ずるのを抑制するようにしている。
次に、ニューラルネットワークにより排出NO量を推定するための排出NO量モデルを作成する場合を例にとって、図7から図11を参照しつつ本発明について説明する。この例では、入力パラメータとして、機関回転数、燃料噴射弁4からの燃料噴射量、燃料噴射弁4からの燃料噴射時期、燃料分配管22内の燃料圧、EGR率、過給圧およびサージタンク5内の吸気温が採用されており、出力パラメータとして、NOX濃度が採用されている。図7には、これら入力パラメータと出力パラメータを用いてニューラルネットワークの重みの学習を行う学習ルーチンが示されており、図9には、図7の学習ルーチンにおいて行われた学習を検証するための検証ルーチンが示されている。
図7を参照すると、まず初めに、ステップ100において、予め定められた走行パターンで車両が走行され、そのとき燃料圧センサ27、過給圧センサ25、NOXセンサ28、吸気温センサ26等により検出された、機関回転数、燃料噴射弁4からの燃料噴射量、燃料噴射弁4からの燃料噴射時期、燃料分配管22内の燃料圧、EGR率、過給圧、サージタンク5内の吸気温および排気ガス中のNOX濃度に関するデータが取得される。次いで、ステップ101では、制御対象としての出力パラメータが選定され、その他のパラメータが入力パラメータ候補として設定される。この例では、出力パラメータとしてNOX濃度が採用され、機関回転数、燃料噴射弁4からの燃料噴射量、燃料噴射弁4からの燃料噴射時期、燃料分配管22内の燃料圧、EGR率、過給圧およびサージタンク5内の吸気温が入力パラメータ候補とされる。なお、以下、出力パラメータ、即ち、NOX濃度はyで示され、入力パラメータ候補、即ち、機関回転数、燃料噴射弁4からの燃料噴射量、燃料噴射弁4からの燃料噴射時期、燃料分配管22内の燃料圧、EGR率、過給圧およびサージタンク5内の吸気温は、x1、・・・・xN で示される。また、入力パラメータ候補x1、・・・・xN 中の任意の候補が、x、x で示される。なお、図7に示される学習ルーチンでは、これらn、mの初期値は1とされており、これらn、mは夫々、1からNまでの値(n、m=1,2・・・N)をとる。
次いで、ステップ102では、XとYとの相関を示す相関係数の数式として周知の次式を用いて、各入力パラメータ候補xと出力パラメータyとの相関係数R(x、y)が算出される。
Figure 2019143477
なお、本発明による実施例では、相関係数として上式に示される相関係数Rの二乗Rが用いられている。
次いで、ステップ103では、nが1だけインクリメントされる(n=n+1)。次いで、ステップ104では、n=N+1になったか否かが判別される。n=N+1でないときにはステップ102に戻り、相関係数R(x、y)が算出される。一方、ステップ104において、n=N+1になったと判別されたときには、ステップ105に進む。即ち、ステップ102において、xからxまでの全ての入力パラメータ候補xについての相関係数R(x、y)が算出されると、ステップ105に進む。ステップ105では、nの初期化が行われる。即ち、n=1とされる。次いで、ステップ106に進む。
ステップ106では、nとmが等しいが否かが判別される。nとmが等しくないとき(n≠m)にはステップ107に進んで、各入力パラメータ候補x同士の相関係数R(x、x)が算出される。次いで、ステップ108に進む。一方、ステップ106においてnとmが等しいと判別されたときには、ステップ108にジャンプする。即ち、相関係数R(x、y)は、n≠mであるときのみ算出される。ステップ108では、mが1だけインクリメントされる(m=m+1)。次いで、ステップ109では、m=N+1になったか否かが判別される。m=N+1でないときにはステップ106に戻り、n≠mである場合には、ステップ107に進んで、相関係数R(x、x)が算出される。
一方、ステップ109において、m=N+1になったと判別されたときには、ステップ110に進んで、nが1だけインクリメントされる(n=n+1)。次いで、ステップ111では、n=N+1になったか否かが判別される。n=N+1でないときにはステップ106に戻り、n≠mである場合には、ステップ107に進んで、相関係数R(x、x)が算出される。一方、ステップ111において、n=N+1になったと判別されたときには、ステップ112に進む。即ち、ステップ107において、n=mを除く、xからxまでの残りの全ての各入力パラメータ候補x同士の相関係数R(x、x)が算出されると、ステップ112に進む。ステップ112では、nの初期化が行われる。即ち、n=1とされる。次いで、ステップ113に進む。
ステップ113では、各入力パラメータ候補xに対し、既に算出されている相関係数R(x、y)および相関係数R(x、x)を用いて次式に基づき算出された報酬Q(x)が付与される。
Figure 2019143477
上式において、aおよびbは定数である。即ち、この報酬Q(x)は、図9Aに示されるように、入力パラメータ候補xと出力パラメータyとの相関係数R(x、y)・aから、入力パラメータ候補xとその他の入力パラメータ候補xとの相関係数の総和ΣR(x、x)・bを減算した減算結果を示している、図9Aから、入力パラメータ候補xと出力パラメータyとの相関の度合いが高いほど報酬Q(x)が高くなり、入力パラメータ候補xとその他の入力パラメータ候補xとの相関の度合いが低いほど報酬Q(x)が高くなることがわかる。従って、報酬Q(x)が高いほど誤学習を抑制し得ることがわかる。
ステップ113において報酬Q(x)が付与されると、ステップ114に進み、報酬Q(x)が、暫定的に定められている閾値Tよりも大きいか否かが判別される。報酬Q(x)が閾値Tよりも大きいと判別されたときにはステップ115に進んで、x が入力パラメータとして選定される。次いで、ステップ116に進む。これに対し、ステップ114において、報酬Q(x)が閾値Tよりも大きくないと判別されたときにはステップ116にジャンプする。従って、このときには、x が入力パラメータとして選定されない。次いで、ステップ116では、nが1だけインクリメントされる(n=n+1)。次いで、ステップ117では、n=N+1になったか否かが判別される。n=N+1でないときにはステップ113に戻り、報酬Q(x)が算出される。一方、ステップ117において、n=N+1になったと判別されたときには、ステップ118に進む。
即ち、ステップ113において、xからxまでの全ての入力パラメータ候補xについての報酬Q(x)が算出され、ステップ114および115において、全ての入力パラメータ候補xについて、入力パラメータとして選定するか否かの選定作業が完了したときにはステップ118に進む。ステップ118では、入力パラメータとして選定された入力パラメータ候補xと、出力パラメータyを用いて、ニューラルネットワークの重みの学習が行われる。
図9Bには、報酬Q(x)と、閾値Tと、各入力パラメータ候補xと、選定された入力パラメータxとが示されている。図9Bに示される例では、入力パラメータ候補x〜x の内で、入力パラメータ候補x1、3、N−2, x についての報酬Q(x)だけが閾値Tよりも大きく、従って、これら入力パラメータ候補x1、3、N−2, x のみが、入力パラメータxとして選定される。図8のステップ118では、これら入力パラメータとして選定された入力パラメータ候補xと、出力パラメータyを用いて、ニューラルネットワークの重みの学習が行われる。
次に、図10を参照しつつ、検証ルーチンについて説明する。図10を参照すると、まず初めに、ステップ200において、予め定められた走行パターンで車両が走行され、そのときのデータ、即ち、図8のステップ115において選定された選定入力パラメータxと排気ガス中のNOX濃度が取得される。次いで、ステップ201では、図8のステップ118において重みの学習が行われたニューラルネットワークを用いて、ステップ200において取得された選定入力パラメータxと排気ガス中のNOX濃度から、出力パラメータの推定値ye が算出される。次いで、ステップ202では、排気ガス中のNOX濃度の実測値、即ち、出力パラメータの実測値yと出力パラメータの推定値yeと相関係数R(y、ye)が算出される。
次いで、ステップ203では、相関係数R(y、ye)が要求精度Sよりも大きいか否かが判別される。相関係数R(y、ye)が要求精度Sよりも大きいと判別されたときには処理サイクルを完了する。このときには、図8のステップ115において選定された選定入力パラメータxが最終的な選定入力パラメータxとされる。これに対し、ステップ203において、相関係数R(y、ye)が要求精度Sよりも大きくないと判別されたときには、ステップ204に進んで、閾値Tを増減させることにより、選定入力パラメータxの再選定が行われる。図11Aおよび図11Bは、この選定入力パラメータxの再選定の様子を示している。
即ち、まず初めに、ステップ204では、閾値Tに修正値ΔTが加算される。このときの閾値Tが、図11AにおいてT2で示されている。次いで、ステップ205では、選定入力パラメータxについて既に付与されている報酬Q(x)と新たな閾値Tとが比較され、新たな閾値Tよりも報酬Q(x)の大きい選定入力パラメータxが、新たな選定入力パラメータxとして選定される。次いで、ステップ206では、新たな選定入力パラメータ候補xと、出力パラメータyを用いて、ニューラルネットワークの重みの学習が行われる。次いで、ステップ207では、ステップ206において重みの学習が行われたニューラルネットワークを用いて、新たな選定入力パラメータxと排気ガス中のNOX濃度から、出力パラメータの推定値ye が算出される。
次いで、ステップ208では、排気ガス中のNOX濃度の実測値、即ち、出力パラメータの実測値yと出力パラメータの推定値yeと相関係数R(y、ye)が算出される。次いで、ステップ209では、相関係数R(y、ye)が増加したか否かが判別される。相関係数R(y、ye)が増加したと判別されたときにはステップ203に戻り、再び、相関係数R(y、ye)が要求精度Sよりも大きいか否かが判別される。相関係数R(y、ye)が要求精度Sよりも大きいと判別されたときには処理サイクルを完了し、新たな選定入力パラメータxが最終的な選定入力パラメータxとされる。
一方、ステップ209において、相関係数R(y、ye)が増加しないと判別されたときには、ステップ210に進んで、閾値Tに対する修正値ΔTが、―ΔTとされる。次いで、ステップ203に進む。このときには、ステップ203からステップ204に進み、今度は、閾値Tから修正値ΔTが減算される。なお、最初にステップ210に進んだときだけ、閾値Tに対する修正値ΔTを―2ΔTとすることができ、このときの閾値Tが、図11AにおいてT1で示されている。次いで、ステップ205に進み、以下、上述した処理と同様の処理が行われる。このように、閾値Tを増減させることによって、図11Bからわかるように、相関係数R(y、ye)が要求精度Sよりも大きくなる最終的な選定入力パラメータxを探索することができる。
図12に実験結果を示す。図12において上方のグラフは、選定入力パラメータxが再選定される前の実NOX濃度と推定NOX濃度とを示しており、図12において下方のグラフは、選定入力パラメータxが再選定された後の実NOX濃度と推定NOX濃度とを示している。これらのグラフから、選定入力パラメータxが再選定されると、実NOX濃度に対する推定NOX濃度の誤差が抑制されることがわかる。因みに、上方のグラフは、入力パラメータとして、機関回転数、燃料噴射弁4からの燃料噴射量、燃料噴射弁4からの燃料噴射時期、燃料分配管22内の燃料圧、EGR率、過給圧およびサージタンク5内の吸気温が用いられている場合を示しており、下方のグラフは、これらの入力パラメータから、サージタンク5内の吸気温が除外された場合を示している。
1 内燃機関
2 燃焼室
3 点火栓
4 燃料噴射弁
12 スロットル弁
25 過給圧センサ
26 吸気温センサ
27 燃料圧センサ
28 NOXセンサ
30 電子制御ユニット

Claims (1)

  1. 電子制御ユニットを具備しており、該電子制御ユニットが、機関の運転状態を示す入力パラメータの値を取得するパラメータ値取得部と、入力層、隠れ層および出力層からなるニューラルネットワークを用いて演算を行う演算部と、記憶部とを具備しており、入力パラメータの値が入力層に入力され、出力パラメータの値を示す出力値が出力層から出力される内燃機関の制御装置において、入力パラメータと出力パラメータとの相関の程度および入力パラメータ間の相関の程度に基づいて、入力パラメータの中で入力パラメータ間の相関の程度の低い方の入力パラメータを選定し、選定された入力パラメータの値が入力層に入力される内燃機関の制御装置。
JP2018025335A 2018-02-15 2018-02-15 内燃機関の制御装置 Pending JP2019143477A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018025335A JP2019143477A (ja) 2018-02-15 2018-02-15 内燃機関の制御装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018025335A JP2019143477A (ja) 2018-02-15 2018-02-15 内燃機関の制御装置

Publications (1)

Publication Number Publication Date
JP2019143477A true JP2019143477A (ja) 2019-08-29

Family

ID=67771024

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018025335A Pending JP2019143477A (ja) 2018-02-15 2018-02-15 内燃機関の制御装置

Country Status (1)

Country Link
JP (1) JP2019143477A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3929421A1 (de) * 2020-06-23 2021-12-29 IAV GmbH Ingenieurgesellschaft Auto und Verkehr Verfahren zum betreiben einer brennkraftmaschine, steuergerät und brennkraftmaschine

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3929421A1 (de) * 2020-06-23 2021-12-29 IAV GmbH Ingenieurgesellschaft Auto und Verkehr Verfahren zum betreiben einer brennkraftmaschine, steuergerät und brennkraftmaschine

Similar Documents

Publication Publication Date Title
JP6477951B1 (ja) 車載電子制御ユニット
CN110118130B (zh) 内燃机的控制装置
JP7231144B2 (ja) エンジン制御装置及びそれが有するニューラルネットワークプログラム
Li et al. Emissions modeling of a light-duty diesel engine for model-based control design using multi-layer perceptron neural networks
JP2019190306A (ja) 未燃燃料量の機械学習装置
CN111022206B (zh) 车辆用驱动装置的控制装置及方法、车载电子控制单元
CN110352297B (zh) 机器学习装置
JP6699702B2 (ja) 内燃機関の制御装置及びその制御方法、並びに内燃機関を制御するための学習モデル及びその学習方法
Zweiri et al. Diesel engine indicated torque estimation based on artificial neural networks
JP5273318B2 (ja) 過給機付き内燃機関の空気量推定装置
CN112031962B (zh) 废气再循环系统的异常检测装置
CN110005537B (zh) 内燃机的控制装置
JP2009150345A (ja) 内燃機関の制御装置
JP2019143477A (ja) 内燃機関の制御装置
JP2011132915A (ja) 物理量推定装置
US11035301B1 (en) Method for preventing engine air flow calculation error and engine system thereof
JP6896037B2 (ja) 内燃機関の制御装置及び制御プログラム
Zito et al. Narmax model identification of a variable geometry turbocharged diesel engine
Moser et al. Recursive parameter estimation of exhaust gas oxygen sensors with input-dependent time delay and linear parameters
Min et al. Estimation of intake oxygen concentration using a dynamic correction state with Extended Kalman Filter for Light-Duty diesel engines
Betta et al. ANN-based sensor fault accommodation techniques
JP2019148243A (ja) 内燃機関の制御装置
JP2020056378A (ja) 内燃機関の制御装置
Wang et al. Exhaust pressure estimation and its application to variable geometry turbine and wastegate diagnostics
JP2021085335A (ja) 内燃機関の制御装置