JP2022007498A - 機械学習装置 - Google Patents
機械学習装置 Download PDFInfo
- Publication number
- JP2022007498A JP2022007498A JP2020110512A JP2020110512A JP2022007498A JP 2022007498 A JP2022007498 A JP 2022007498A JP 2020110512 A JP2020110512 A JP 2020110512A JP 2020110512 A JP2020110512 A JP 2020110512A JP 2022007498 A JP2022007498 A JP 2022007498A
- Authority
- JP
- Japan
- Prior art keywords
- neural network
- learning
- vehicle
- weight
- control
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000010801 machine learning Methods 0.000 title claims description 30
- 238000013528 artificial neural network Methods 0.000 claims abstract description 105
- 238000012549 training Methods 0.000 claims abstract description 16
- 238000013500 data storage Methods 0.000 claims abstract description 5
- 238000010586 diagram Methods 0.000 abstract description 11
- 239000003054 catalyst Substances 0.000 description 20
- 238000004364 calculation method Methods 0.000 description 18
- 238000000034 method Methods 0.000 description 15
- 230000006870 function Effects 0.000 description 13
- 238000012937 correction Methods 0.000 description 5
- 230000004913 activation Effects 0.000 description 4
- 230000003197 catalytic effect Effects 0.000 description 4
- 238000001816 cooling Methods 0.000 description 4
- 238000001514 detection method Methods 0.000 description 4
- 238000010438 heat treatment Methods 0.000 description 4
- 239000000446 fuel Substances 0.000 description 3
- 238000010792 warming Methods 0.000 description 3
- 210000002569 neuron Anatomy 0.000 description 2
- 230000002457 bidirectional effect Effects 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000002347 injection Methods 0.000 description 1
- 239000007924 injection Substances 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000000746 purification Methods 0.000 description 1
Images
Landscapes
- Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
Abstract
Description
本発明は機械学習装置に関する。
車両の運転に関連するデータを入力すると車両の運転制御に関連する出力値を出力するニューラルネットワークを用いた車載電子制御ユニットにおいて、車両の運転に関連するデータをサーバに送信し、サーバ内においてニューラルネットワークの重みの学習用データセットを作成すると共に、サーバ内においてニューラルネットワークの重みの学習を行うようにした車載電子制御ユニットが公知である(例えば特許文献1を参照)。
ところでニューラルネットワークの重みの学習を行うには多量の電力を必要とする。従って、車両上においてニューラルネットワークの重みの学習を行うと、即ち、オンボード学習を行うと、多量の電力を消費する他の制御に大きな影響を与える可能性がある。従って、オンボード学習を行う場合には、多量の電力を消費する他の制御に大きな影響を与えないように、オンボード学習を行う際の電力消費量について考慮を払う必要がある。
そこで、本発明によれば、車両の運転に関連するデータを入力すると車両の運転制御に関連する出力値を出力するニューラルネットワークを記憶したニューラルネットワーク記憶部と、ニューラルネットワークの重みの学習用データを記憶する学習用データ記憶部と、車両の運転状態に応じてニューラルネットワークの重みの学習スピードを調整する学習スピード調整部とを具備する機械学習装置が提供される。
車両の運転状態に応じてニューラルネットワークの重みの学習スピードを調整することによって、多量の電力を消費する他の制御に大きな影響を与えないようにすることが可能となる。
図1を参照すると、1は車両、2は車両駆動用エンジン、3は車両駆動用電気モータ、4は運転者用の座席、5はエンジン1の排気通路に配置された排気浄化用触媒コンバータを夫々示す。車両1内には、暖冷房装置6等の種々の機器が配置されており、また、車両1内には、クルーズコントロール等の自動運転を行うための前方撮像カメラ7や車間距離計測用レーダ装置8等が設置されている。また、車両1内には、運転者が座席4に着座しているか否かを検知するための、即ち、車両1に人が乗っているか否かを検知するための室内カメラ9或いは圧力センサ10が設置されている。
これら前方撮像カメラ7、車間距離計測用レーダ装置8、室内カメラ9或いは圧力センサ10の出力信号は、車両1内に設置されている車両制御用電子制御ユニット20に入力され、車両制御用電子制御ユニット20からは、暖冷房装置6の制御信号、触媒コンバータ5の暖機用電気ヒータ5a、クルーズコントロール等の自動運転を行うための制御信号が出力される。また、図1に示される例では、車両制御用電子制御ユニット20に加えて、車両制御用電子制御ユニット20に接続された機械学習用電子制御ユニット21が車両1内に設置されている。この機械学習用電子制御ユニット21はデジタルコンピュータからなり、双方向性バス22によって互いに接続されたCPU(マイクロプロセッサ)23、ROMおよびRAMからなるメモリ24、クロック周波数を変更可能なクロック25および入出力ポート26を具備する。なお、この場合、機械学習用電子制御ユニット21は、車両制御用電子制御ユニット20の一部として形成することもできる。
本発明による実施例では、車両を運転制御するために、車両の運転に関連するデータを入力すると車両の運転制御に関連する出力値を出力するニューラルネットワークが用いられており、このニューラルネットワークの重みの学習が車両上で行われている。即ち、オンボード学習が行われている。そこで最初にニューラルネットワークについて簡単に説明する。
<ニューラルネットワークの概要>
<ニューラルネットワークの概要>
図2は簡単なニューラルネットワークを示している。図2における丸印は人工ニューロンを表しており、ニューラルネットワークにおいては、この人工ニューロンは、通常、ノード又はユニットと称される(本願では、ノードと称す)。図2においてL=1は入力層、L=2および L=3は隠れ層、L=4は出力層を夫々示している。また、図2において、x1およびx2 は入力層 ( L=1) の各ノードへの入力値を示しており、y1 およびy2 は出力層 ( L=4) の各ノードからの出力値を示しており、z(2)
1、z(2)
2 およびz(2)
3 は隠れ層 ( L=2) の各ノードからの出力値を示しており、z(3)
1、z(3)
2 およびz(3)
3は隠れ層 ( L=3) の各ノードからの出力値を示している。なお、隠れ層の層数は、1個又は任意の個数とすることができ、入力層のノードの数および隠れ層のノードの数も任意の個数とすることができる。また、出力層のノードの数は1個とすることもできるし、複数個とすることもできる。
入力層 ( L=1) の各ノードへ入力値x1およびx2が入力されると、これら入力値x1およびx2は隠れ層 ( L=2) の各ノードへ入力され、隠れ層 ( L=2) の各ノードでは、夫々対応する重みwおよびバイアスbを用いて総入力値u が算出される。例えば、図2において隠れ層 ( L=2) のz(2)
k(k=1,2,3)で示されるノードにおいて算出される総入力値ukは、次式のようになる。
次いで、この総入力値ukは活性化関数fにより変換され、隠れ層 ( L=2) のz(2)
kで示されるノードから、出力値z(2)
k(= f (uk)) として出力される。一方、隠れ層 ( L=3) の各ノード には、隠れ層 ( L=2) の各ノードの出力値z(2)
1、z(2)
2 およびz(2)
3が入力され、隠れ層 ( L=3 ) の各ノードでは、夫々対応する重みwおよびバイアスbを用いて総入力値u(Σz・w+b)が算出される。この総入力値uは同様に活性化関数により変換され、隠れ層 ( L=3 ) の各ノードから、出力値z(3)
1、z(3)
2 およびz(3)
3として出力される。この活性化関数としては、例えば、シグモイド関数σが用いられる。
一方、出力層 ( L=4) の各ノード には、隠れ層 ( L=3) の各ノードの出力値z(3)
1、z(3)
2 およびz(3)
3が入力され、出力層 の各ノードでは、夫々対応する重みwおよびバイアスbを用いて総入力値u(Σz・w+b)が算出されるか、又は、夫々対応する重みwのみを用いて総入力値u(Σz・w)が算出される。本発明による実施例では、出力層のノードでは、活性化関数として恒等関数が用いられており、従って、出力層のノードからは、出力層のノードにおいて算出された総入力値uが、そのまま出力値yとして出力される。
<ニューラルネットワークにおける学習>
<ニューラルネットワークにおける学習>
さて、ニューラルネットワークの出力値yの正解値を示す教師データをytとすると、ニューラルネットワークにおける各重みwおよびバイアスbは、出力値yと教師データをytとの差が小さくなるように、誤差逆伝播法を用いて学習される。この誤差逆伝播法は周知であり、従って、誤差逆伝播法についてはその概要を以下に簡単に説明する。なお、バイアスbは重みwの一種なので、以下、バイアスbも含めて重みwと称する。さて、図3に示すようなニューラルネットワークにおいて、L=2,L=3又は L=4の各層のノードへの入力値u(L)における重みをw(L)で表すと、誤差関数Eの重みw(L)による微分、即ち、勾配∂E/∂w(L)は、書き換えると、次式で示されるようになる。
ここで、z(L-1)・∂w(L)= ∂u(L)であるので、(∂E/∂u(L))=δ(L)とすると、上記(1)式は、次式でもって表すことができる。
ここで、u(L)が変動すると、次の層の総入力値u(L+1)の変化を通じて誤差関数Eの変動を引き起こすので、δ(L)は、次式で表すことができる。
ここで、z(L)=f(u(L)) と表すと、上記(3)式の右辺に現れる入力値uk
(L+1)は、次式で表すことができる。
ここで、上記(3)式の右辺第1項(∂E/∂u(L+1))はδ(L+1)であり、上記(3)式の右辺第2項(∂uk
(L+1) /∂u(L))は、次式で表すことができる。
従って、δ(L)は、次式で示される。
即ち、δ(L+1)が求まると、δ(L)を求めることができることになる。
即ち、δ(L+1)が求まると、δ(L)を求めることができることになる。
さて、出力層 ( L=4) のノードが一個であって、或る入力値に対して教師データytが求められており、この入力値に対する出力層からの出力値がyであった場合において、誤差関数として二乗誤差が用いられている場合には、二乗誤差Eは、E=1/2(y-yt)2で求められる。この場合、出力層(L=4)のノードでは、出力値y= f(u(L)) となり、従って、この場合には、出力層(L=4)のノードにおけるδ(L)の値は、次式で示されるようになる。
この場合、本発明による実施例では、前述したように、f(u(L)) は恒等関数であり、f’(u(Ll)) = 1となる。従って、δ(L)=y-yt となり、δ(L)が求まる。
δ(L)が求まると、上式(6)を用いて前層のδ(L-1)が求まる。このようにして順次、前層のδが求められ、これらδの値を用いて、上式(2)から、各重みwについて誤差関数Eの微分、即ち、勾配∂E/∂w(L)か求められる。勾配∂E/∂w(L)か求められると、この勾配∂E/∂w(L)を用いて、誤差関数Eの値が減少するように、重みwが更新される。即ち、重みwの学習が行われることになる。なお、図2に示されるように、出力層 ( L=4) が複数個のノードを有する場合には、各ノードからの出力値をy1、y1・・・、対応する教師データyt1、yt2・・・とすると、誤差関数Eとして、次の二乗和誤差Eが用いられる。
この場合も、出力層 ( L=4) の各ノードにおけるδ(L)の値は、δ(L)=y-ytk (k=1,2・・・n)となり、これらδ(L)の値から上式(6)を用いて前層のδ(L-1)が求まる。
<本発明による実施例>
<本発明による実施例>
次に、オンボード学習の二つの例について簡単に説明する。図3に、オンボード学習の第1の例の機能構成図を示す。図3を参照すると、この第1の例では、目標トルク算出部30と、制御パラメータ算出部31と、切換部32と、エンジン制御部33と、エンジン34と、フィードバック補正部35と、トルク偏差算出部36と、切換制御部37から構成されている。なお、エンジン34には、エンジンの実際の出力トルクTrを検出するためのトルクセンサ34aが取り付けられている。図3に示されるように、目標トルク算出部30は、例えば、図5に示されるようなニューラルネットワークNNにより構成されており、この目標トルク算出部30は、目標トルク算出部30に、各入力値x1(アクセル開度)、x2(機関回転数)、x3(気温)、x4(高度)が入力されると、エンジンの目標トルクTrを出力するように構成されている。
一方、エンジン制御部33には、エンジンの目標トルク制御値yをエンジン制御部33に入力したときにエンジンの実際の出力トルクTrが目標トルクTtとなるように、予め実験により求められているエンジンの目標トルク制御値yと、燃料噴射量、空燃比、点火時期、吸気バルブタイミング、排気バルブタイミングとの関係が予め記憶されており、従って、通常は、エンジンの目標トルク制御値yがエンジン制御部33に入力されると、エンジン34の実際の出力トルクTrは目標トルクTtとなる。一方、制御パラメータ算出部31も、例えば、図5に示されるようなニューラルネットワークNNにより構成されており、この制御パラメータ算出部31は、制御パラメータ算出部31に、各入力値x1(アクセル開度)、x2(機関回転数)、x3(気温)、x4(高度)が入力されると、エンジン34の目標トルク制御値yを出力するように構成されている。通常は、この目標トルク制御値yが、切換部32により、エンジン制御部33に直接送りこまれており、このとき、エンジンの実際の出力トルクTrは目標トルクTtとなる。
さて、車両が長時間に亘って使用されると、エンジン34の経年変化により、エンジン34の実際の出力トルクTrと目標トルクTtとの間でトルク偏差が生じるようになる。このエンジン34の実際の出力トルクTrと目標トルクTt間のトルク偏差ΔTt(=Tt-Tr)は、目標トルク算出部30の出力およびトルクセンサ34aの検出値に基づいて、トルク偏差算出部36において算出される。トルク偏差ΔTtが大きくなった場合には、切換制御部37により、制御パラメータ算出部31の出力値がフィードバック補正部35に入力するように、切換部32が切換えられる。このとき、フィードバック補正部35では、トルク偏差ΔTtが小さくなるように、制御パラメータ算出部31から出力された目標トルク制御値yにC・ΔTt(Cは小さな定数)が加算され、加算結果y(=y+C・ΔTt)がエンジン制御部33に入力される。次いで、トルク偏差ΔTtが許容値以下になると、制御パラメータ算出部31の出力値が、直接エンジン制御部33に入力するように、切換部32が切換えられる。
この第1の例では、トルク偏差ΔTtが許容値以下になったときの各入力値x1、x2、x3、x4と、フィードバック補正部35から出力される目標トルク制御値y(=y+C・ΔTt)とが、トルク偏差ΔTtが許容値以下になる毎に、順次、メモリ24(図1)内に記憶され、それにより、メモリ24内には、図6に示されるような、訓練用データセットが作成される。なお、この場合、フィードバック補正部35から出力される目標トルク制御値y(=y+C・ΔTt)は教師データytとして記憶される。図6に示されるような訓練用データセットの作成が完了すると、機械学習用電子制御ユニット21において、制御パラメータ算出部31を構成しているニューラルネットワークNNの重みの学習が行われる。
この場合、最初に、図6に示される訓練用データセットにおけるNo.1の各入力値x1、x2、x3、x4が、図5に示されるニューラルネットワークNNに入力され、そのときニューラルネットワークNNから出力される出力値yと、対応する教師データytとの二乗誤差E(=1/2 (y-yt)2)が小さくなるように、誤差逆伝播法により、ニューラルネットワークNNの重みの学習が行われる。No.1のデータセットに基づくニューラルネットワークNNの重みの学習が終了すると、No.2の各入力値x1、x2、x3、x4がニューラルネットワークNNに入力され、そのときニューラルネットワークNNから出力される出力値yと、対応する教師データytとの二乗誤差E(=1/2 (y-yt)2)が小さくなるように、誤差逆伝播法により、ニューラルネットワークNNの重みの学習が行われる。以下、同様な手法で、No.3からNo.mまで、対応するデータセットに基づいてニューラルネットワークNNの重みの学習が順次行われる。No.1からNo.mまでの全てのデータセットに基づくニューラルネットワークNNの重みの学習が完了すると、学習済みの重みを用いて、制御パラメータ算出部31を構成しているニューラルネットワークNNの重みが更新される。
図4に、オンボード学習の第2の例の機能構成図を示す。図4を参照すると、この第2の例では、機関排気通路内に配置された触媒の温度を推定するための触媒温度推定部40と、切換部41と、エンジン制御部42と、エンジン43と、切換制御部44から構成されている。なお、エンジン43には、実際の触媒温度Tdを検出するための温度センサ43aが取り付けられている。この温度センサ43aの検出信号は、通常、切換部41により、エンジン制御部42に入力され、温度センサ43aにより検出された実際の触媒温度Tdに基づいて、例えば、暖機運転制御等のエンジン43の制御が行われる。
一方、この第2の例では、温度センサ43aが故障したときのために触媒温度推定部40が設けられている。この触媒温度推定部40は、例えば、図5に示されるようなニューラルネットワークNNにより構成されており、この触媒温度推定部40は、触媒温度推定部40に、各入力値x1(機関負荷率)、x2(機関回転数)、x3(空燃比)、x4(点火時期)、x5(排気ガス中のHC又はCO濃度)が入力されると、触媒温度の推定値Teを出力するように構成されている。切換制御部44では、温度センサ43aの検出値に基づいて、温度センサ43aが正常であるか否かが判別され、温度センサ43aが故障していると判別されたときには、触媒温度推定部40の出力値がエンジン制御部42に入力されるように切換部41が切換えられる。このとき、触媒温度推定部40において算出された触媒温度の推定値Teがエンジン制御部42に入力され、この触媒温度の推定値Teに基づいて、エンジン43の制御が行われる。
この第2の例では、切換制御部44において、温度センサ43aの検出値に基づき、温度センサ43aが正常であると判別されているときに、例えば、周期的に各入力値x1、x2、x3、x4、x5と、そのとき温度センサ43aにより検出された実際の触媒温度Tdとが、順次、メモリ24(図1)内に記憶され、それにより、メモリ24内には、図6に示されるような、訓練用データセットが作成される。なお、この場合、温度センサ43aにより検出された実際の触媒温度Tdは教師データytとして記憶される。図6に示されるような訓練用データセットの作成が完了すると、機械学習用電子制御ユニット21において、触媒温度推定部40を構成しているニューラルネットワークNNの重みの学習が行われる。
この場合も、最初に、図6に示される訓練用データセットにおけるNo.1の各入力値x1、x2、x3、x4、x5が、図5に示されるニューラルネットワークNNに入力され、そのときニューラルネットワークNNから出力される出力値yと、対応する教師データytとの二乗誤差E(=1/2 (y-yt)2)が小さくなるように、誤差逆伝播法により、ニューラルネットワークNNの重みの学習が行われる。No.1のデータセットに基づくニューラルネットワークNNの重みの学習が終了すると、No.2の各入力値x1、x2、x3、x4、x5がニューラルネットワークNNに入力され、そのときニューラルネットワークNNから出力される出力値yと、対応する教師データytとの二乗誤差E(=1/2 (y-yt)2)が小さくなるように、誤差逆伝播法により、ニューラルネットワークNNの重みの学習が行われる。以下、同様な手法で、No.3からNo.mまで、対応するデータセットに基づいてニューラルネットワークNNの重みの学習が順次行われる。No.1からNo.mまでの全てのデータセットに基づくニューラルネットワークNNの重みの学習が完了すると、学習済みの重みを用いて、触媒温度推定部40を構成しているニューラルネットワークNNの重みが更新される。
このように本発明による実施例では、第1の例或いは第2の例に示されるようなオンボード学習が行われている。ところがオンボード学習、即ち、車両上でのニューラルネットワークNNの重みの学習は多量の電力を消費し、その結果、多量の電力を消費する他の制御に大きな影響を与えることになる。例えば、本発明による実施例では、前方撮像カメラ7および車間距離計測用レーダ装置8を用いたクルーズコントロールが行われており、このクルーズコントロールは多量の電力を消費する。また、暖冷房装置6を作動させると多量の電力を消費し、触媒コンバータ5の暖機用電気ヒータ5aを作動させると多量の電力を消費する。更に、本発明による実施例では、運転者が座席4に着座すると、運転者の体調を検出する等の安全装置の制御が開始される。即ち、車両に人が乗ると安全装置の制御が開始される。このような安全装置の制御が開始されると多量の電力を消費する。
このように本発明による実施例では、オンボード学習が行われるとき以外に多量の電力を消費する種々の他の制御が行われており、従って、多量の電力を消費するこれらの種々の他の制御が行われているときにオンボード学習が行われると、多量の電力を消費する種々の他の制御に対して、電力が不足する等の影響が出てくる。そこで本発明による実施例では、多量の電力を消費する他の制御が行われているときに、オンボード学習を行う場合には、オンボード学習を行う際の電力消費量を低減するために、ニューラルネットワークNNの重みの学習スピードが調整される。この場合、本発明による実施例では、ニューラルネットワークNNの重みの学習スピードが低下される。具体的には、この場合、例えば、クロック25のクロック周波数が低下せしめられる。
図7に、本発明による機械学習装置の機能構成図を示す。図7を参照すると、本発明による機械学習装置は、車両1の運転に関連するデータを入力すると車両1の運転制御に関連する出力値を出力するニューラルネットワークNNを記憶したニューラルネットワーク記憶部50と、ニューラルネットワークNNの重みの学習用データを記憶する学習用データ記憶部51と、車両1の運転状態に応じてニューラルネットワークNNの重みの学習スピードを調整する学習スピード調整部52とを具備する。また、この場合、本発明による実施例では、機械学習装置が、ニューラルネットワークNNの重みの学習を行うための学習部53を具備している。更に、本発明による実施例では、学習スピード調整部52が、学習スピードを決定するための学習スピード決定部52aと、学習スピードを制御するための学習スピード制御部52bとを有する。
図3に示される第1の例では、ニューラルネットワークNNの重みの学習を行う際には、制御パラメータ算出部31を構成しているニューラルネットワークNNのノード数等が、図1に示される機械学習用電子制御ユニット21のメモリ24内に記憶され、図4に示される第2の例では、ニューラルネットワークNNの重みの学習を行う際には、触媒温度推定部40を構成しているニューラルネットワークNNのノード数等が、図1に示される機械学習用電子制御ユニット21のメモリ24内に記憶される。また、第1の例および第2の例において作成される図6に示される訓練用データセットも、図1に示される機械学習用電子制御ユニット21のメモリ24内に記憶される。従って、図1に示される実施例においては、機械学習用電子制御ユニット21のメモリ24が、ニューラルネットワーク記憶部50および学習用データ記憶部51を形成している。
また、学習スピード決定部52aでは、車両の運転状態に応じてニューラルネットワークNNの重みの学習スピード、即ち、オンボード学習を行う際の学習スピードが決定される。この場合、本発明による実施例では、車両1の運転状態は、大きく分けると、ニューラルネットワークNNの重みの学習制御以外の他の制御の実施状態を指す場合と、車両1に人が乗っているか否かの状態を指す場合の二つの場合がある。前者の場合、即ち、オンボード学習以外の多量の電力を消費する他の制御の実施状態に応じて、オンボード学習を行う際の学習スピードが決定される場合には、例えば、オンボード学習以外の多量の電力を消費する他の制御が実施されているときには学習スピードが低下され、この場合、オンボード学習以外の多量の電力を消費する他の制御の実施数が多いほど学習スピードが低下される。一方、後者の場合、即ち、車両に人が乗っているか否かの状態に応じて、オンボード学習を行う際の学習スピードが決定される場合には、例えば、車両に人が乗っている場合には、車両に人が乗っていない場合に比べて、ニューラルネットワークの重みの学習スピードが低下せしめられる。
一方、学習スピード制御部52bでは、オンボード学習を行う際の学習スピードを低下すべきときには、例えば、クロック25のクロック周波数を低下させることによってオンボード学習を行う際の学習スピードを低下させる。図1に示される実施例においては、これらの学習スピードの決定および学習スピードの制御は、機械学習用電子制御ユニット21のCPU23内において行われ、従って、機械学習用電子制御ユニット21のCPU23が学習スピード調整部52を形成していることになる。また、学習部53では、オンボード学習、即ち、ニューラルネットワークNNの重みの学習が行われ、このオンボード学習、即ち、ニューラルネットワークNNの重みの学習は、機械学習用電子制御ユニット21のCPU23内において行われる。従って、機械学習用電子制御ユニット21のCPU23が学習部53を形成している。
図8は、機械学習用電子制御ユニット21において行われるニューラルネットワークNNの重みの学習制御ルーチンを示す。
図8を参照すると、まず初めに、ステップ60において、図6に示されるような訓練用データセットの作成が完了したか否かが判別される。訓練用データセットの作成が完了していないときには処理サイクルを完了する。これに対し、訓練用データセットの作成が完了したと判別されたときには、ステップ61に進んで、オンボード学習以外の多量の電力を消費する他の制御の実施状態等の確認が行われる。例えば、クルーズコントロールが行われているか否か、暖冷房装置6が作動せしめられているか否か、触媒コンバータ5の暖機用電気ヒータ5aが作動せしめられているか否か、車両に人が乗っているか否かが判別される。
図8を参照すると、まず初めに、ステップ60において、図6に示されるような訓練用データセットの作成が完了したか否かが判別される。訓練用データセットの作成が完了していないときには処理サイクルを完了する。これに対し、訓練用データセットの作成が完了したと判別されたときには、ステップ61に進んで、オンボード学習以外の多量の電力を消費する他の制御の実施状態等の確認が行われる。例えば、クルーズコントロールが行われているか否か、暖冷房装置6が作動せしめられているか否か、触媒コンバータ5の暖機用電気ヒータ5aが作動せしめられているか否か、車両に人が乗っているか否かが判別される。
次いで、ステップ62では、オンボード学習以外の多量の電力を消費する他の制御の実施状態等に応じて、オンボード学習、即ち、ニューラルネットワークNNの重みの学習のスピードが決定される。この場合、オンボード学習以外の多量の電力を消費する他の制御が実施されていないとき、および車両に人が乗っていないときには、学習スピードが予め定められている最大のスピードとされる。一方、オンボード学習以外の多量の電力を消費する他の制御が実施されているときには学習スピードが低下され、この場合、オンボード学習以外の多量の電力を消費する他の制御の実施数が多いほど学習スピードが低下せしめられる。また、車両に人が乗っている場合には、車両に人が乗っていない場合に比べて、ニューラルネットワークの重みの学習スピードが低下せしめられる。
次いで、ステップ63では、ステップ62において決定された学習スピードに従って、クロック25のクロック周波数が制御される。次いで、ステップ64では、ニューラルネットワークNNの入力層 ( L=1) のノード数、隠れ層 ( L=2)および隠れ層 ( L=3)のノード数、出力層 ( L=4) のノード数、および重みが読み込まれ、これらノード数に基づいて、図5に示されるようなニューラルネットワークNNが作成される。次いで、ステップ65では、機械学習用電子制御ユニット21のメモリ24内に記憶されている図6に示されるような訓練データセットの各データが読み込まれる。
次いで、ステップ66では、ステップ63において制御されているクロック25のクロック周波数でもって、ニューラルネットワークNNの重みの学習が行われる。最初は、図6の1番目(No. 1)の入力値x1、x2・・・xn-1、xnがニューラルネットワークNNの入力層 ( L=1) の各ノードに入力される。次いで、このときのニューラルネットワークNNの出力値yと1番目(No. 1)の教師データyt1との間の二乗誤差E=1/2(y-yt1)2が算出され、この二乗誤差Eが小さくなるように、誤差逆伝播法を用いて、ニューラルネットワークNNの重みの学習が行われる。図6の1番目(No. 1)のデータに基づくニューラルネットワークNNの重みの学習が完了すると、次に、図6の2番目(No. 2)のデータに基づくニューラルネットワークNNの重みの学習が、誤差逆伝播法を用いて行われる。同様にして、図6のm番目(No. m)まで順次、ニューラルネットワークNNの重みの学習が行われる。図6の1番目(No. 1)からm番目(No. m)までの全てについてニューラルネットワークNNの重みの学習が完了すると、ステップ67に進む。
ステップ67では、例えば、図6の1番目(No. 1)からm番目(No. m)までの全てのニューラルネットワークNNの出力値yと教師データytとの間の二乗和誤差Eが算出され、この二乗和誤差Eが、予め設定された設定誤差以下になったか否かが判別される。二乗和誤差Eが、予め設定された設定誤差以下になったと判別されたときには、ステップ68に進んで、ニューラルネットワークNNの学習済み重みが、機械学習用電子制御ユニット21のメモリ24内に記憶される。次いで、学習ルーチンを終了する。これに対し、二乗和誤差Eが、予め設定された設定誤差以下になっていないと判別されたときには、ステップ66に戻り、再度、図6に示される訓練データセットに基づいて、ニューラルネットワークNNの重み学習が行われる。次いで、二乗和誤差Eが、予め設定された設定誤差以下になるまで、ニューラルネットワークNNの重みの学習が続行される。
ニューラルネットワークNNの重みの学習が終了すると、第1の例では、制御パラメータ算出部31を構成しているニューラルネットワークNNの重みが更新され、第2の例では、触媒温度推定部40を構成しているニューラルネットワークNNの重みが更新される。
1 車両
2 エンジン
3 電気モータ
20 車両制御用電子制御ユニット
21 機械学習用電子制御ユニット
2 エンジン
3 電気モータ
20 車両制御用電子制御ユニット
21 機械学習用電子制御ユニット
Claims (6)
- 車両の運転に関連するデータを入力すると車両の運転制御に関連する出力値を出力するニューラルネットワークを記憶したニューラルネットワーク記憶部と、
ニューラルネットワークの重みの学習用データを記憶する学習用データ記憶部と、
車両の運転状態に応じてニューラルネットワークの重みの学習スピードを調整する学習スピード調整部とを具備する機械学習装置。 - 該車両の運転状態が、ニューラルネットワークの重みの学習制御以外の他の制御の実施状態である請求項1に記載の機械学習装置。
- ニューラルネットワークの重みの学習制御以外の他の制御が実施されているときには、ニューラルネットワークの重みの学習スピードが低下せしめられる請求項2に記載の機械学習装置。
- ニューラルネットワークの重みの学習制御以外の他の制御の実施数が多くなるほど、ニューラルネットワークの重みの学習スピードが低下せしめられる請求項2に記載の機械学習装置。
- 該車両の運転状態が、車両に人が乗っているか否かの状態である請求項1に記載の機械学習装置。
- 車両に人が乗っている場合には、車両に人が乗っていない場合に比べて、ニューラルネットワークの重みの学習スピードが低下せしめられる請求項5に記載の機械学習装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020110512A JP2022007498A (ja) | 2020-06-26 | 2020-06-26 | 機械学習装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020110512A JP2022007498A (ja) | 2020-06-26 | 2020-06-26 | 機械学習装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022007498A true JP2022007498A (ja) | 2022-01-13 |
Family
ID=80111245
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020110512A Pending JP2022007498A (ja) | 2020-06-26 | 2020-06-26 | 機械学習装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2022007498A (ja) |
-
2020
- 2020-06-26 JP JP2020110512A patent/JP2022007498A/ja active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113153521B (zh) | 一种利用人工神经网络预测车辆发动机扭矩的系统和方法 | |
JP6501018B1 (ja) | 未燃燃料量の機械学習装置 | |
JPH09301011A (ja) | 車両用運転状況監視装置 | |
JPH0711256B2 (ja) | 内燃エンジンの制御装置 | |
JP2004340151A (ja) | 吸気流を診断するための方法及び装置 | |
US20200072146A1 (en) | Control device and control method | |
EP0315171B1 (en) | Apparatus and method of electronically controlling engine | |
CN100532812C (zh) | 冗余转矩安全通路 | |
JP3070643B2 (ja) | ニューラルネット型追加学習装置 | |
JP6750708B1 (ja) | 排気ガス再循環システムの異常検出装置 | |
JP6795116B1 (ja) | 車両、及びサーバ | |
US11623652B2 (en) | Machine learning method and machine learning system | |
JP2020063699A (ja) | 内燃機関の制御装置及びその制御方法、並びに内燃機関を制御するための学習モデル及びその学習方法 | |
US20150240728A1 (en) | Output control device for vehicle | |
JP2022007498A (ja) | 機械学習装置 | |
JP7010343B1 (ja) | 機械学習装置 | |
JP2020062914A (ja) | 情報提供装置 | |
JP6791347B1 (ja) | モデル診断装置及びモデル診断システム | |
JP2022036586A (ja) | モデル学習システム及びサーバ | |
Müller et al. | Approximation and control of the engine torque using neural networks | |
JP7276298B2 (ja) | モデル学習システム、車両の制御装置及びモデル学習方法 | |
KR102726688B1 (ko) | 엔진 소음 목표값 학습을 통한 연소 압력 기반의 엔진 소음 제어 방법 | |
GB2555617A (en) | Calibration system and method | |
KR20230007621A (ko) | 차량의 연비운전 제어 시스템 및 그 방법 | |
JP2021176032A (ja) | 制御装置 |