JP3823554B2 - Operation method and recording medium of neural network learning system - Google Patents

Operation method and recording medium of neural network learning system Download PDF

Info

Publication number
JP3823554B2
JP3823554B2 JP23584298A JP23584298A JP3823554B2 JP 3823554 B2 JP3823554 B2 JP 3823554B2 JP 23584298 A JP23584298 A JP 23584298A JP 23584298 A JP23584298 A JP 23584298A JP 3823554 B2 JP3823554 B2 JP 3823554B2
Authority
JP
Japan
Prior art keywords
output
neural network
teacher
learning
teacher data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP23584298A
Other languages
Japanese (ja)
Other versions
JP2000067025A (en
Inventor
雅彦 立石
克彦 寒川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP23584298A priority Critical patent/JP3823554B2/en
Publication of JP2000067025A publication Critical patent/JP2000067025A/en
Application granted granted Critical
Publication of JP3823554B2 publication Critical patent/JP3823554B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
本発明は、神経回路網の出力とその目標値である教師出力との誤差に基づいて設定される誤差評価値を最小化するように神経回路網のシナプス荷重を更新する神経回路網学習システムの動作方法に関する。
【0002】
【従来の技術】
従来より、伝達信号を生成するユニットをそれぞれ一つ以上備えた入力層,中間層,出力層と、各層間のユニットを結合して伝達信号を伝送するシナプスとからなり、入力層に入力を与えるとユニット間を出力層に向けて伝達信号が順次伝送され出力層から出力が得られる神経回路網(ニューラルネットワークとも言う)が知られている。この神経回路網では、各シナプスがシナプス荷重を持ち、このシナプス荷重を学習処理によって適宜変更することにより所望の入出力特性が実現される。
【0003】
ところで、神経回路網の学習では、実現すべき入出力特性に基づいて設定された教師入力及び教師出力の組からなる多数の教師データが用意され、これら教師データのそれぞれについて、教師入力に対する神経回路網の出力である網出力np と、この網出力np の目標値である教師出力tp との差を個別誤差ep (=tp−np)として算出し、この個別誤差ep の自乗和の平均値を(3)式に従って算出したものを誤差評価値Eとして、この誤差評価値Eが最小となるように神経回路網のシナプス荷重を更新すると共に、全ての個別誤差ep が、(4)式に示すように、予め設定された許容誤差εより小さくなった時点、或いは定められた学習回数に達した時点で学習を終了するのが一般的である。
【0004】
【数3】

Figure 0003823554
【0005】
但し、ここでは、教師データの総数をP個とし、tp,np,ep は、それぞれp(p=1,2,…P)番目の教師入力に対する教師出力,網出力,個別誤差を表す。
【0006】
そして、シナプス荷重の更新アルゴリズムとしては、バックプロパゲーション法(例えば、Rumelhart,D.E et al.:Parallel Distributed Processing,Vol.1,MIT Press(1986)、又は Arbib,M.A.:The handbook of Brain Theory and Neural Networks,MIT Press(1995))や、BFGS法(例えば、丹慶他:ニューメリカルレシピ・イン・シー、技術評論社(1993))等、公知の方法を利用できる。特に、BFGS法は、バックプロパゲーション法に対して20倍以上も高速な演算が可能であり、神経回路網の学習の効率化に有効であるため近年注目されている。
【0007】
ところで、神経回路網を構成するニューロン(各層にて伝達信号を生成するユニット)の出力関数として、一般的には、図11(a)及び(b)に示すように、その特性が連続かつ滑らかなグラフにて表されるシグモイド関数(f(x)=1/{1+exp(−x)})や双曲線関数(f(x)=tanh(x))が用いられている。このため、神経回路網により実現される入出力特性も、連続且つ滑らかなグラフにて表されることになる。
【0008】
従って、学習すべき入出力特性に、図12(a)に示すようにグラフの傾き、又は微係数が不連続に変化する(滑らかでない)地点(以下、不連続点と呼ぶ)が含まれていると(動作領域B参照)、その不連続点を含む動作領域の教師データに対する個別誤差がなかなか収束しないため学習時間が増大し、また、例え個別誤差が収束したとしても、学習時間が増大した分だけ、収束性のよい動作領域(図中の動作領域A)の教師データは必要以上に過剰な学習が行われることになり、全体としての学習のバランスが悪く、学習の効率も悪かった。
【0009】
これを防止するため、入出力特性に不連続点を含む場合には、図12(b)に示すように、そのような不連続点の近傍を予め平滑化しておくことが考えられる。しかし、このような平滑化は、図12のように、入力が1次元で表される場合は容易であるが、2次元以上で表される場合は、計算が極めて困難なものとなるため、実用的な方法であるとは言えなかった。
【0010】
これに対して、特開平6−31422678号公報には、手書き文字の認識に神経回路網を応用する場合において、カテゴリ(特定の教師データの集まり)毎に学習の進み具合を監視し、カテゴリ間の学習のばらつきを低減する方法が開示されている。具体的には、カテゴリjの平均自乗誤差Ejが、予め定められたしきい値より小さくなると、このカテゴリjに属する教師データを学習対象から除去するのである。
【0011】
このような学習方法によれば、学習の進行に従い、収束しにくいカテゴリに属する教師データのみが学習対象として残ることになるため、このような教師データが集中的に学習されると共に、収束しやすいカテゴリに属する教師データの過剰学習が抑えられることになり、カテゴリ間でバランスよく学習され、全体としての学習効率も向上する。
【0012】
【発明が解決しようとする課題】
しかし、この学習方法は、(3)式において、カテゴリjに属する教師データの個別誤差の自乗値の項が学習途中で取り除かれること、即ち、シナプス荷重の更新に使用される誤差評価値を与えるための評価関数が学習の途中で変更されることを意味する。
【0013】
そして、この場合、カテゴリ毎に学習の進み具合を監視しなければならないため、処理量が増加してしまうだけでなく、高速な学習アルゴリズムであるBFGS法を適用できないという問題があった。
即ち、BFGS法は、過去の計算結果に基づいて評価関数の入出力特性を表す立体的な形状(傾き具合)を逐次予測し、その予測に基づいて誤差評価値が最小となる値を計算により順次算出していくものであるため、その評価関数が学習中に変更されると、過去の計算結果が無意味なものとなってしまい、正しく計算が続けられなくなってしまうからである。
【0014】
本発明は、上記問題点を解決するために、計算途中で誤差の評価関数を変更することなく、各教師データの重要度等に応じてバランスよく神経回路網の学習を行うことが可能な神経回路網学習システムの動作方法を提供することを目的とする。
【0015】
【課題を解決するための手段】
上記目的を達成するためになされた発明の前提となる神経回路網学習システムは、神経回路網を保持する記憶手段と、教師データを格納する教師データ格納手段と、教師データ格納手段に格納された教師データに基づいて、記憶手段に保持された神経回路網の学習を実行する学習実行手段とを備えている。
そして、第一の発明である請求項1記載の神経回路網学習システムの動作方法では、学習実行手段は、教師データ格納手段から教師データを読み込むステップ、読み込んだ教師データのそれぞれについて、教師入力に対する記憶手段に保持された神経回路網の出力である網出力を算出するステップ、算出した網出力とその網出力の目標値である教師出力との個別誤差を算出するステップ、算出した個別誤差に基づいて設定される誤差評価値を最小化するように、記憶手段に保持された神経回路網のシナプス荷重を更新するステップからなる一連のステップを、教師データ毎に算出される全ての個別誤差が、教師データ毎に予め設定された誤差許容範囲内になるまで繰り返し実行する。
【0016】
しかも、入出力特性が非連続的な変化をする動作領域では、この動作領域の教師データに対応する個別誤差の誤差許容範囲、それ以外の動作領域のものより大きく設定されている。
このように、本発明の神経回路網学習システムの動作方法によれば、個別誤差の収束し易さに応じて誤差許容範囲調整されるため、一部の個別誤差が収束しないことにより学習時間が増大したり、収束し易い動作領域の教師データが過剰に学習されたりすることを防止でき、全ての動作領域でバランスよく、しかも短時間で効率よく学習を行うことができる。
【0017】
また、例えば、エアコンの制御等、特に人間の感覚に影響を与えるような制御を行う場合、感覚への影響が急激に変化するより、滑らかに変化する方が好ましいことが多いと考えられる。このため、学習すべき入出力特性が急激に変化する等、非連続的な変化をする動作領域を含むように設定されている場合には、その動作領域の教師データを必ずしも忠実に学習するのではなく、誤差許容範囲を大きくして、あえて入出力特性(教師データ)に厳密には一致させないことにより、その非連続的な部分の入出力特性を丸めたことに相当する学習結果が得られるようにすれば、人間の感覚に適した滑らかな制御を実現することができる。
【0018】
これ以外にも、実際に適用される装置の性能等から、学習すべき入出力特性を必ずしも忠実に再現する必要のない動作領域(例えば、実際の装置ではクリップされてしまうような動作領域)を含んでいる場合には、その領域の誤差許容範囲を大きくすることで、より学習時間を短縮することができる。
【0019】
次に、第二の発明である請求項記載の神経回路網学習システムの動作方法では、請求項1記載の学習システムの動作方法と同様に、学習実行手段がシナプス荷重の更新,終了を行うが、誤差許容範囲ではなく、個別誤差の設定に特徴を有する。即ち、本発明では、学習実行手段が、各ステップを、教師データ毎に算出される全ての個別誤差が、予め設定された誤差許容範囲内になるまで繰り返し実行すると共に、教師データ毎に、教師出力と網出力との差である出力偏差の許容範囲を設定し、p番目の教師入力に対する網出力をnp ,出力偏差の許容範囲に相当する網出力の許容範囲を[Lp ,Up ]とすると、個別誤差として、
【0020】
【数4】
Figure 0003823554
【0021】
による算出値ewp を用いている。
なお、図10(a)は、出力偏差tp−npを表すグラフ、図10(b)は、(1)式により算出される個別誤差ewp を表すグラフである。
【0022】
つまり、本発明では、出力偏差がその許容範囲内になると、個別誤差が0となって誤差評価値に寄与しなくなるため、この個別誤差に対応する教師データの学習が抑制されることになる。また、その抑制された分、他の教師データが集中的に学習されることになるため、バランスよく、しかも短時間で効率よく学習を行うことができる。
【0023】
そして、請求項記載のように、学習すべき入出力特性が非連続的な変化をする動作領域では、この動作領域の教師データに対応する出力偏差の許容範囲を、それ以外の動作領域のものより大きく設定するなど、個別誤差の収束し易さに応じて出力偏差の許容範囲を調整すれば、一部の教師データの個別誤差が収束しないことによる学習時間の増大を確実に防止することができ、より短時間で効率よく学習を行うことができる等、上述の第一の発明と同様の効果を得ることができる。
【0024】
ところで、上記第一及び第二の発明は、学習の終了条件に着目したものであるが、以下に説明する第三の発明では、シナプス荷重の更新に用いる誤差評価値に着目している。即ち、請求項記載の神経回路網学習システムの動作方法では、学習実行手段は、教師データ格納手段から教師データを読み込むステップ、読み込んだ教師データのそれぞれについて、教師入力に対する記憶手段に保持された神経回路網の出力である網出力を算出するステップ、算出した網出力とその網出力の目標値である教師出力との個別誤差を算出するステップ、算出した個別誤差に基づいて設定される誤差評価値を最小化するように記憶手段に保持された神経回路網のシナプス荷重を更新するステップからなる一連のステップを繰り返し実行する。
【0025】
そして、特に本発明では、学習実行手段が、誤差評価値として、個別誤差の自乗値と予め設定された重み付け係数との乗算値の平均値である荷重平均自乗誤差和を用いている。つまり、重み付け係数を大きくするほど、その個別誤差に対応する教師データの誤差評価値への寄与度が大きくなり、その教師データの学習が優先的に行われることになる。
【0026】
しかも、入出力特性が非連続的な変化をする動作領域では、この動作領域の教師データに対応する個別誤差の重み付け係数、それ以外の動作領域のものより小さな値に設定されている。
このように、第三発明の神経回路網学習システムの動作方法によれば、個別誤差の収束し易さに応じて誤差許容範囲調整され、一部の個別誤差が収束しないことにより学習時間が増大したり、収束し易い動作領域の教師データが過剰に学習されたりすることを防止できるため、バランスよく、しかも短時間で効率よく学習を行うことができる等、上記第一及び第二の発明と同様の効果を得ることができる。
【0027】
なお、学習実行手段において、誤差評価値の算出に用いる個別誤差としては、例えば、請求項記載のように、教師出力と網出力との差である出力偏差を用いることができる他、請求項記載のように、この出力偏差の許容範囲が教師入力毎に設定され、p番目の教師入力に対する網出力をnp ,出力偏差の許容範囲に相当する網出力の許容範囲を[Lp ,Up ]とした場合には、
【0028】
【数5】
Figure 0003823554
【0029】
による算出値ewp を用いてもよい。また、上述した神経回路網学習システムの動作方法は、いずれも誤差評価値を与える評価関数を途中で変更してしまうことがないため、請求項2,5,9に記載のように、シナプス荷重の更新に、シナプス荷重の更新を高速に行うことが可能なBFGS法を用いることができ、従って、学習の効率をより一層向上させることができる。
【0030】
更に、上述した神経回路網学習システムにおける学習実行手段は、例えば、コンピュータシステムにて実行されるプログラムにより実現することができる。この場合、請求項10記載のように、プログラムは、例えば、フロッピー(登録商標)ディスク,光磁気ディスク,CD−ROM,ハードディスク等のコンピュータシステムによる読取が可能な記録媒体に記録し、必要に応じてコンピュータシステムにロードして起動することにより用いることができる。この他、ROMやバックアップRAMをコンピュータシステムによる読取が可能な記録媒体として前記プログラムを記録しておき、このROM或いはバックアップRAMをコンピュータシステムに組み込んで用いてもよい。
【0031】
【発明の実施の形態】
以下に本発明の実施形態を図面と共に説明する。
図1は、本発明が適用された神経回路網学習システム2の概略構成を表すブロック図である。
【0032】
本実施形態の神経回路網学習システム2は、図1に示すように、検証すべき神経回路網の構造に関するデータからなる神経回路網データファイルDFN、及び神経回路網の学習に必要なデータからなる学習データファイルDFGを格納するデータファイル格納部4と、データファイル格納部4から神経回路網データファイルDFNを読み込んで、学習対象となる神経回路網NETを構成する網構成部6と、網構成部6が構成した神経回路網NET、及びデータファイル格納部4から読み込んだ学習データファイルDFGに基づいて、神経回路網NETの学習を実行する学習実行部8と、上記各部に対する各種指令を入力するためのキーボードやマウス等からなる入力操作部10と、入力操作部10を操作する手順や学習結果等を表示するためのディスプレイ等からなる表示部12とを備えている。
【0033】
なお、本実施形態の神経回路網学習システム2は、ワークステーション等、CPU,ROM,RAM,I/Oポートを中心に構成された周知の汎用計算機上に構成されており、網構成部6,学習実行部8は、CPUが実行する処理として実現され、また、神経回路網NETは、RAM上に作成される。また、データファイル格納部4は、ハードディスクや磁気ディスク,フロッピーディスク等の外部記憶装置により構成されている。
【0034】
また、神経回路網データファイルDFNには、神経回路網NETを構成する入力層,中間層,出力層の合計層数NL,各層毎のユニット数M1,M2,…MNL、各ユニット間のシナプスの結合関係、出力関数の型等のデータが含まれ、また、学習データファイルDFGには、実現すべき神経回路網の入出力特性に基づいて作成された教師入力及び教師出力からなる教師データ、教師データ毎に設定される誤差許容値等が含まれている。
【0035】
以下、CPUにて実行される神経回路網学習処理について、図2に示すフローチャートに沿って説明する。なお、本処理のプログラムは、予めROMに記憶されていてもよいし、図示しないフロッピーディスク等の外部記憶装置からRAMにロードするようにしてもよい。
【0036】
本処理が起動されると、まずステップ(以下、単にSとする)110では、入力操作部10を介して、神経回路網データファイルDFN及び学習データファイルDFGの各ファイル名が入力されたか否かを判断し、これらが入力されると、S120に移行する。
【0037】
S120では、S110にて入力されたファイル名に従って、データファイル格納部4から神経回路網データファイルDFNを読み込み、その内容に基づいて学習対象となる神経回路網NETを作成,初期化する網構成部6としての処理を実行する。
【0038】
これにより、RAM上には、図3に示すように、それぞれMi個(M1+M2+…+MNL=NU)のユニットにより構成された入力層(第1層),中間層(第2〜(NL−1)層),出力層(第NL層)と、伝達信号を伝送するために各層間のユニットUj を結合するシナプスとからなる神経回路網NETが構成される。なお、図には、出力層のユニット数が1個(MNL=1)の場合を示しているが、複数(MNL≧2)であってもよい。
【0039】
このうち、入力層(第1層)のユニットUm (m=1,2,…,M1 )は、入力信号xm を、そのまま次層への伝達信号om として出力し、また、中間層(第2〜(NL−1)層)及び出力層(第NL層)のユニットUj (j=M1+1, M1+2,…,NU) は、前層である第(n−1)層のユニットUk からの伝達信号ok に対するシナプス荷重をωjk,ユニットUj でのバイアスをbj ,ユニットUj に伝達信号ok を送るユニットUk の番号の集合をC(j)として、重み付け信号netjを(5)式にて算出し、更に、神経回路網データファイルDFNにて定義された出力関数(例えばシグモイド関数f(x)=1/{1+exp(−x)})を用いて、(6)式により、次層への伝達信号oj を生成するように構成されている。但し、出力層が生成する伝達信号oNUが、当該神経回路網NETの出力である網出力n(x)となる。
【0040】
【数6】
Figure 0003823554
【0041】
なお、このようにS120にて神経回路網NETが構成された時に、各シナプス荷重は、適当な値(例えば1)に初期化される。
以下のステップでは、学習によってこの神経回路網NETのシナプス荷重を更新する学習実行部8としての処理を実行する。
【0042】
即ちS130では、学習によるシナプス荷重の更新回数を表すカウント値Cを0クリアする。
続くS140では、先のS110にて入力されたファイル名に従って学習データファイルDFGを読み込み、その学習データファイルDFGに設定された全て(P個)の教師データについて、各教師入力に対する神経回路網NETの出力である網出力np (p=1,2,…P)を、S120にて構成した神経回路網NETを用いて求める。
【0043】
続くS150では、各教師データ毎に、(7)式に示すように、その教師出力tp から、S140にて求めた網出力np を減じることにより個別誤差ep を求める。
p=tp−np (7)
続くS160では、誤差評価値Eとして、(8)式に示すように、S150にて求めた個別誤差の自乗値ep 2の平均値を求める。
【0044】
【数7】
Figure 0003823554
【0045】
そして、S170では、教師データに対する神経回路網NETの出力の誤差が、許容範囲内に収束したか否かを判断する。
ここでは、全ての教師データについて、予め設定された誤差許容範囲[εLp,εUp]内に、いずれの個別誤差ep も納まっているか否かを判断する。
【0046】
そして、肯定判定された場合には、十分に誤差が収束しているものとして、そのまま本処理を終了し、一方、否定判定された場合には、まだ十分に誤差が収束していないものとしてS180に移行する。
S180では、シナプス荷重の更新回数を表すカウント値Cが、予め設定された上限値Cthより小さいか否かを判断し、カウント値Cが上限値Cthに達していて否定判定された場合には、そのまま本処理を終了する。即ち、これは、何等かの原因で誤差が収束しない場合に、強制的に学習を終了させるためのものである。
【0047】
一方、S180にて肯定判定された場合には、S190に移行し、先のS160にて求めた誤差評価値Eに基づき、この誤差評価値が最小化されるように、シナプス荷重を更新する。なお、ここでは、公知のBFGS法を用いている。
続くS200では、シナプス荷重の更新回数を表すカウント値Cをインクリメント(C←C+1)した後S140に戻り、以後、S140〜S200の処理を繰り返し実行する。
【0048】
即ち、本処理においては、全ての教師データについて、許容誤差範囲[εLp,εUp]内に個別誤差ep がいずれも納まるか、又はシナプス荷重の更新回数が上限値Cthに達するまで、シナプス荷重の更新が繰り返し実行されることにより、神経回路網NETが学習されることになる。
【0049】
ここで、このようにして学習された神経回路網が適用される装置の一例として、図4にオートカーエアコンの制御装置を示す。
この制御装置20では、図4に示すように、吹出口温度の目標値Tmを設定するための目標温度設定器21と、車外の温度(外気温)Tgを検出する外気温センサ22と、車室内の温度(内気温)Tnを検出する内気温センサ24と、日射量Tsを検出する日射センサ26と、これら設定器21にて設定された目標温度Tm及び各センサ22,24,26にて検出された外気温Tg,内気温Tn,日射量Tsに基づいてカーエアコンの基本吹出口温度TA,使用する吹出口(足側,顔側,窓側等)を指定するためのモードMD,吹出口から吹き出される風量VAを制御するための制御信号STA,SMD,SVAを生成して、オートカーエアコンユニット(OCU)30に供給するオートカーエアコン制御ECU(以下、単にECUとよぶ)28とを備えている。
【0050】
このうち、ECU28は、各制御信号STA,SMD,SVAを生成するため、基本吹出口温度制御用の第1神経回路網N1,モード制御用の第2神経回路網N2,風量制御用の第3神経回路網N3という三つの神経回路網を備えている。
そして、第1神経回路網N1は、設定器21及び各センサ22,24にて検出された目標温度Tm,外気温Tg,内気温Tn,を入力とし、一つの制御信号SMDを出力するため、3個のユニットからなる入力層と、1個のユニットからなる出力層とを備えており、また、第2及び第3神経回路網N2,N3は、更に、センサ26にて検出された日射量Tsも入力として、それぞれが一つの制御信号STA,SVAを出力するため、4個のユニットからなる入力層と、1個のユニットからなる出力層とを備えている。但し、中間層の数及び中間層を構成するユニットの数は、各神経回路網N1〜N3毎にそれぞれ設定される。
【0051】
これら神経回路網N1〜N3の学習を、基本吹出口温度制御用の第1神経回路網N1を例にして説明する。なお、第1神経回路網N1と他の神経回路網N2,N3とでは、実現すべき入出力特性が異なるだけであり、全く同様の手順にて学習が行われる。
【0052】
まず、図5(a)に、基本吹出口温度の制御仕様、即ち、第1神経回路網N1が実現すべき入出力特性を示す。但し、基本吹出口温度TAの制御仕様は、例えば、(9)式により与えられるものであり、図5(a)に示すグラフは、外気温Tg,目標温度Tmを固定し、内気温Tnについてのみ変化させたものを示す。なお、A,B,C,Dは定数である。
【0053】
TA=A×Tn+B×Tg+C×Tm+D (9)
この(9)式から算出される基本吹出口温度TAは、−100℃〜400℃の範囲を取るものとし、一方、OCU30が実際に実現できる基本吹出口温度TAは、−20℃〜120℃の範囲であるものとする。このため、OCU30では、図5(b)に示すように、ECU28からの制御信号STAが、−20℃以下を要求していれば−20℃に、また120℃以上を要求していれば120℃にクリッピングして制御に使用するようにされている。
【0054】
このようなカーエアコンの制御装置20に使用される神経回路網N1の学習を実行する際には、まず、学習データファイルDFGを次のように作成する。
即ち、図6に示すように、基本吹出口温度制御仕様に基づき、そのグラフ上の複数点(ここではP個)について、入力(教師入力)と出力(教師出力)との組からなる教師データを設定する。
【0055】
そして、教師出力tp (p=1,2,…P)の大きさに応じて、動作領域をtp ≧120℃、−20℃<tp <120℃,tp ≦−20℃の三つに分割し、各動作領域毎の誤差許容範囲を[表1]に示すように設定する。なお、[表1]には、この誤差許容範囲に相当する網出力np の許容範囲も示す。
【0056】
【表1】
Figure 0003823554
【0057】
次に、このように設定された学習データファイルDFGを用い、上述の神経回路網学習システム2により学習処理を行わせた結果、得られた第1神経回路網N1の入出力特性を図7(a)に示す。
【0058】
図7(a)に示すように、本実施形態での学習結果では、内気温Tnが−20℃以下及び120℃以上の両動作範囲で大きくばらつくが、OCU30にてその両動作範囲の特性がクリッピングされ、実際には図7(b)に示すような入出力特性が実現されることになる。
【0059】
ここで、比較のため、誤差許容範囲の幅が一律([−1,1])に設定された従来の学習方法を適用することにより得られる入出力特性を図8示す。
即ち、従来の方法では、図7(a)に示すような入出力特性になっても、学習が終了せず、図8に示すような入出力特性が実現されるまで、学習が無駄に継続されるのである。
【0060】
以上説明したように、本実施形態によれば、実現すべき入出力特性に対して忠実に一致させる必要のない動作領域では、個別誤差ep の誤差許容範囲(ひいては網出力np の許容範囲)が大きく設定されており、OCU30が実際に必要な動作範囲(−20℃〜120℃)だけ個別誤差ep が十分に収束すれば、直ちに学習が終了するため、誤差許容範囲が一律に設定された従来の学習方法に比べて、神経回路網の学習を短時間で効率よく行うことができる。
【0061】
また、本実施形態によれば、(8)式に示す誤差評価値Eを算出するための評価関数が、学習中に変更されてしまうことがないため、シナプス荷重の更新に、高速な学習法であるBFGS法を用いることができ、神経回路網の学習をより短時間で行うことができる。
【0062】
なお、本実施形態では、誤差許容範囲として、無限大(±∞)を用いているが、計算機上で無限大を表現することが困難である場合には、神経回路網が出力する可能性のない十分に大きな値、例えばこの場合には、1×104 ,−1×10-4程度に置き換えてもよい。
[第2実施形態]
次に、第2実施形態について説明する。
【0063】
なお、本実施形態は、第1実施形態とは、S150での個別誤差ep の算出方法、及び学習データファイルDFGの内容が一部異なるだけであるため、この相異する部分を中心に説明する。
即ち、本実施形態では、図2に示す神経回路網学習処理のS150において、個別誤差ewp を(7)式の代わりに(10)式を用いて算出し、従って、続くS160において、誤差評価値Eを(8)式の代わりに(11)式を用いて求めるようにされている。
【0064】
【数8】
Figure 0003823554
【0065】
なお、個別誤差ewp が0となる網出力np の範囲[Lp,Up]は、先の[表1]に示した網出力np の許容範囲と一致するように設定されており、本実施形態における学習データファイルDFGでは、S170にて個別誤差ewp が収束したか否かを判断するために用いる誤差許容範囲が0に設定されている。
【0066】
このような条件の元で、神経回路網学習システム2に学習処理を行わせると、個別誤差ewp が0となる動作領域では、その個別誤差ewp に対応する教師データの誤差評価値Eへの寄与がゼロとなるため、その教師データの学習が抑制されることになり、また、その抑制された分、他の教師データが集中的に学習されることになる。しかも、実現すべき入出力特性に対して忠実に一致させる必要のない動作領域では、個別誤差ep が0となる動作領域が大きく設定されているため、OCU30が実際に必要な動作範囲(−20℃〜120℃)のみ集中的に学習されることになる。
【0067】
しかも、本実施形態によれば、(11)式に示す誤差評価値Eを算出するための評価関数が、学習中に変更されてしまうことがないため、第1実施形態と同様に、シナプス荷重の更新に、高速な学習法であるBFGS法を用いることができ、神経回路網の学習をより短時間で行うことができる。
【0068】
なお、本実施形態では、個別誤差が0となる網出力np の範囲[Lp,Up]を、第1実施形態における誤差許容範囲に相当するように設定したが、これより小さな範囲に設定してもよい。
[第3実施形態]
次に第3実施形態について説明する。
【0069】
なお、本実施形態は、第1実施形態とは、S160での誤差評価値の算出方法、及び学習データファイルDFGの内容が一部異なるだけであるため、この相異する部分を中心に説明する。
即ち、本実施形態では、図2に示す神経回路網学習処理のS160において、誤差評価値Eを(7)式の代わりに、各個別誤差の自乗値ep 2に重み付け係数Cp を乗じ、その乗算値の平均値を算出する(12)式を用いて求めるようにされている。
【0070】
【数9】
Figure 0003823554
【0071】
また、学習データファイルDFGには、教師データ毎に設定された重み付け係数Cp が含まれており、個別誤差の誤差許容値は、一律に同じ値に設定されている。
【0072】
このような条件の元で、神経回路網学習システム2に学習処理を行わせると、重み付け係数Cp が大きな値に設定された動作領域の個別誤差ep ほど、その個別誤差ep に対応する教師データの誤差評価値Eへの寄与度が大きくなり、その教師データの学習が優先的に行われることになる。
【0073】
例えば、重み付け係数をCp を、第1の動作領域ではCp =1,第2の動作領域ではCp =0.1とした場合、第1の動作領域の教師データは、第2の動作領域の教師データより10倍も寄与度が大きい。
従って、実現すべき入出力特性が非連続的な変化をする動作領域では、この動作領域の教師データに対応する個別誤差の重み付け係数を、それ以外の動作領域のものより小さく設定する等、個別誤差の収束し易さに応じて誤差許容範囲を調整すれば、一部の個別誤差が収束しないことにより学習時間が増大したり、収束し易い動作領域の教師データが過剰に学習されたりすることを防止できるため、バランスよく、しかも短時間で効率よく学習を行うことができる。
【0074】
ここで、重み付け係数Cp を用いて誤差評価値Eを求める本実施形態の学習方法と、重み付け係数Cp を用いないで誤差評価値Eを求める従来の学習方法との比較実験について説明する。
なお、比較実験には、学習が行われる神経回路網NETとして、ユニット数1の入力層,ユニット数8の中間層,ユニット数1の出力層の3層構造からなるものを用い、また、この神経回路網NETに学習させるべき入出力特性として、図9(a)に示すように入力xに対して出力y=h(x)が0〜1の間を周期的に変化するものを用い、また、教師データは、次の(13)式にて定義される201個のデータを用いた。
【0075】
(xp,tp)=(p/200,h(p/200)) (13)
但し、p=0,1,…200である。
また、重み付け係数Cp は、入出力特性の動作領域を教師出力tpが連続的に変化する第1の領域(0.1<tp<0.9)と、非連続的に変化する第2の領域(tp≦0.1,tp≧0.9)とに分割し、以下のように設定した。
【0076】
Cp=1 (0.1<tp<0.9)
Cp=0.1 (tp≦0.1,tp≧0.9)
そして、本実施形態では、(14)式にて算出される誤差評価値E1を、従来方法では、(15)式にて算出される誤差評価値E2を最小化するように、いずれもBFGS法にてシナプス荷重を更新するものとした。
【0077】
【数10】
Figure 0003823554
【0078】
また、カウント値Cの上限値をCth=500とし、また、許容誤差範囲は、動作領域によらず一律に[−0.2,0.2]とした。
そして、シナプス荷重の初期値を乱数により適当に設定し、初期値を変化させながら、本実施形態の学習方法と従来の学習方法とを、それぞれ10回ずつ試行した結果を[表2]に示す。
【0079】
【表2】
Figure 0003823554
【0080】
なお、最大誤差とは、個別誤差の絶対値|ep|=|tp−np| の最大値であり、収束性は、最大誤差が許容誤差の絶対値(0.2)以下であれば収束したものとして○、許容誤差より大きければ収束しなかったものとして×にて示した。
【0081】
また、試行番号1についてのみ、学習の結果として実現された入出力特性を、図9(b),(c)に示す。
従来の学習方法では、10試行のうち1試行でしか収束しなかったのに対し、本実施形態の学習方法では、8試行で収束した。また、本実施形態の学習方法では、誤差評価値及び最大誤差ともに小さく、実現すべき入出力特性をより精度よく実現できることが確認された。
【0082】
更に、図9(b)に示すように、従来の学習方法では、教師入力x<0.5の範囲にて、第2の領域(tp≦0.1,tp≧0.9)での過学習が見られ、教師入力x≧0.5の範囲では、実現すべき入出力特性に全く追従していない。これに対し、本実施形態の学習方法では、図9(c)に示すように、第1の領域(0.1<tp<0.9)では、実現すべき入出力特性に精度よく近似されており、また、第2の領域(tp≦0.1,tp≧0.9)では、不連続に変化する地点を平滑化した滑らかな入出力特性が実現されていることも確認された。
【0083】
なお、本実施形態では、個別誤差ep として出力偏差tp−npを用いたが、第2実施形態と同様に(10)式にて定義された個別誤差ewp を用いてもよい。
また、上記第1〜第3実施形態では、制御対象としてOCU30を用いて説明したが、例えばアンチスキッドシステムの制御、FA機器制御、EFI制御等をはじめとする様々な制御に用いることができることは言うまでもない。
【0084】
更に上記第1〜第3実施形態では、シナプス荷重の更新にBFGS法を用いているが、その他の方法を用いてもよい。特にBFGS法のように、誤差評価値を算出するための評価関数が学習途中で変更されないことを前提とする方法に対して好適に用いることができる。
【図面の簡単な説明】
【図1】 神経回路網学習システムの概略構成を表すブロック図である。
【図2】 神経回路網学習処理の内容を表すフローチャートである。
【図3】 神経回路網の構成を表す説明図である。
【図4】 オートカーエアコンの制御装置の構成を表すブロック図である。
【図5】 基本吹出口温度の制御仕様を表すグラフである。
【図6】 教師データの設定方法を表す説明図である。
【図7】 学習の結果得られた神経回路網の入出力特性を表すグラフである。
【図8】 従来方法による学習結果を表すグラフである。
【図9】 比較実験に用いた神経回路網の制御仕様、及び学習結果を表すグラフである。
【図10】 個別誤差の設定内容をグラフ化した説明図である。
【図11】 従来の学習方法の問題点を表す説明図である。
【図12】 従来の学習方法の問題点を表す説明図である。
【符号の説明】
2…神経回路網学習システム 4…データファイル格納部
6…網構成部 8…学習実行部 10…入力操作部
12…表示部 20…制御装置 21…目標温度設定器
22…外気温センサ 24…内気温センサ 26…日射センサ
28…オートカーエアコン制御ECU DFG…学習データファイル
DFN…神経回路網データファイル NET,N1〜N3…神経回路網[0001]
BACKGROUND OF THE INVENTION
  The present invention relates to a neural network that updates a synaptic load of a neural network so as to minimize an error evaluation value that is set based on an error between the output of the neural network and a teacher output that is a target value thereof.How the learning system worksAbout.
[0002]
[Prior art]
  Conventionally, it consists of an input layer, an intermediate layer, and an output layer each having one or more units for generating a transmission signal, and a synapse for transmitting the transmission signal by combining the units between each layer, and providing an input to the input layer The transmission signal is sequentially transmitted between the unit and the output layer, and output is obtained from the output layer.GodA circuit network (also called a neural network) is known. In this neural network, each synapse has a synaptic load, and a desired input / output characteristic is realized by appropriately changing the synaptic load by a learning process.
[0003]
By the way, in learning of a neural network, a large number of teacher data consisting of a set of teacher inputs and teacher outputs set based on input / output characteristics to be realized is prepared, and for each of these teacher data, a neural circuit for the teacher input is prepared. Network output n, which is the output of the networkpAnd this network output npOutput t which is the target value ofpAnd individual error ep(= Tp-Np) And this individual error epThe average value of the sum of squares is calculated as an error evaluation value E, and the synaptic load of the neural network is updated so that the error evaluation value E is minimized, and all the individual errors epHowever, as shown in the equation (4), the learning is generally terminated when it becomes smaller than a preset allowable error ε or when a predetermined number of learning times is reached.
[0004]
[Equation 3]
Figure 0003823554
[0005]
However, here, the total number of teacher data is P, and tp, Np, EpRepresents a teacher output, a network output, and an individual error for the pth (p = 1, 2,... P) teacher input, respectively.
[0006]
The synaptic load update algorithm includes a back-propagation method (for example, Rumelhart, DE et al .: Parallel Distributed Processing, Vol. 1, MIT Press (1986), or Arbib, MA: The handbook of Brain Theory and Neural Networks, MIT Press (1995)) and the BFGS method (for example, Dankei et al .: Numerical Recipe in Sea, Technical Critics (1993)) can be used. In particular, the BFGS method has attracted attention in recent years because it can perform computations 20 times faster than the back-propagation method and is effective in improving the efficiency of learning of the neural network.
[0007]
By the way, as shown in FIGS. 11 (a) and 11 (b), the output function of neurons (units that generate transmission signals in each layer) constituting the neural network generally has a continuous and smooth characteristic. A sigmoid function (f (x) = 1 / {1 + exp (−x)}) or a hyperbolic function (f (x) = tanh (x)) represented by a simple graph is used. For this reason, the input / output characteristics realized by the neural network are also represented by a continuous and smooth graph.
[0008]
Therefore, the input / output characteristics to be learned include a graph slope or a point at which the derivative changes discontinuously (not smooth) (hereinafter referred to as a discontinuous point) as shown in FIG. (See motion region B), the individual error with respect to the teacher data in the motion region including the discontinuity does not converge easily, so the learning time increases. Even if the individual error converges, the learning time increases. As a result, the supervised data in the operation region with good convergence (operation region A in the figure) is subjected to excessive learning more than necessary, and the overall learning balance is poor and the learning efficiency is also poor.
[0009]
In order to prevent this, when the input / output characteristics include discontinuous points, it is conceivable to smooth the vicinity of such discontinuous points in advance as shown in FIG. However, such smoothing is easy when the input is represented by one dimension as shown in FIG. 12, but when the input is represented by two or more dimensions, the calculation becomes extremely difficult. It was not a practical method.
[0010]
On the other hand, in Japanese Patent Laid-Open No. 6-3142678, when applying a neural network to handwritten character recognition, the progress of learning is monitored for each category (collection of specific teacher data). A method for reducing the variation in learning is disclosed. Specifically, when the mean square error Ej of the category j becomes smaller than a predetermined threshold value, the teacher data belonging to the category j is removed from the learning target.
[0011]
According to such a learning method, as the learning progresses, only teacher data belonging to a category that is difficult to converge remains as a learning target, so that such teacher data is intensively learned and easily converged. Over-learning of teacher data belonging to a category is suppressed, learning is performed in a balanced manner between categories, and the overall learning efficiency is improved.
[0012]
[Problems to be solved by the invention]
However, this learning method gives an error evaluation value used for updating the synaptic weight in the equation (3) in which the term of the individual error square value of the teacher data belonging to the category j is removed during the learning. This means that the evaluation function is changed during the learning.
[0013]
In this case, since the progress of learning must be monitored for each category, there is a problem that not only the processing amount increases but also the BFGS method, which is a high-speed learning algorithm, cannot be applied.
That is, the BFGS method sequentially predicts a three-dimensional shape (gradient) representing the input / output characteristics of the evaluation function based on past calculation results, and calculates a value that minimizes the error evaluation value based on the prediction. This is because the calculation is performed sequentially, and if the evaluation function is changed during learning, the past calculation result becomes meaningless and the calculation cannot be continued correctly.
[0014]
  In order to solve the above problems, the present invention provides a balanced balance according to the importance of each teacher data without changing the error evaluation function during the calculation.Neural networkA neural network capable of learningHow the learning system worksThe purpose is to provide.
[0015]
[Means for Solving the Problems]
  A neural network learning system as a premise of the invention made to achieve the above object is a storage means for holding a neural network, a teacher data storage means for storing teacher data, and a teacher data storage means Learning execution means for executing learning of the neural network held in the storage means based on the teacher data.
  In the operation method of the neural network learning system according to claim 1, which is the first invention, the learning execution means reads the teacher data from the teacher data storage means, and for each of the read teacher data, A step of calculating a network output which is an output of the neural network held in the storage means, a step of calculating an individual error between the calculated network output and a teacher output which is a target value of the network output, based on the calculated individual error In order to minimize the error evaluation value set in the above, a series of steps consisting of updating the synaptic load of the neural network held in the storage means, all the individual errors calculated for each teacher data,Teacher dataThe process is repeatedly executed until it falls within a preset allowable error range.
[0016]
  Moreover,In the operation area where the input / output characteristics change discontinuously, the error tolerance range of the individual error corresponding to the teacher data in this operation areaBut, Set larger than other operating areasHas been.
Thus, according to the operation method of the neural network learning system of the present invention,Error tolerance depending on the ease of convergence of individual errorsButAdjustmentBecauseIt is possible to prevent learning time from increasing due to some individual errors not converging, and to prevent excessive learning of the training data in the operating area that tends to converge. Can learn well.
[0017]
In addition, for example, when performing control that affects a human sense, such as control of an air conditioner, it is often preferable that the effect on the sense changes smoothly rather than abruptly. For this reason, if the input / output characteristics to be learned are set so as to include an operation region that changes discontinuously, such as abrupt change, the teacher data of the operation region is not necessarily learned faithfully. Rather, by increasing the error tolerance range so that it does not exactly match the input / output characteristics (teacher data), a learning result equivalent to rounding the input / output characteristics of the discontinuous portion can be obtained. By doing so, smooth control suitable for human senses can be realized.
[0018]
In addition to this, there is an operation area (for example, an operation area that is clipped in an actual apparatus) that does not necessarily need to faithfully reproduce the input / output characteristics to be learned from the performance of the apparatus that is actually applied. If it is included, the learning time can be further shortened by increasing the allowable error range of the area.
[0019]
  Next, the second invention is claimed.3In the operation method of the neural network learning system described above, the learning execution means updates and terminates the synaptic load as in the operation method of the learning system according to claim 1, but the individual error is set instead of the error allowable range. It has the characteristics. That is, in the present invention, the learning execution means repeatedly executes each step until all individual errors calculated for each teacher data are within a preset error tolerance range, and for each teacher data, An allowable range of output deviation, which is the difference between the output and the network output, is set, and the network output for the pth teacher input is set to np, The permissible range of the network output corresponding to the permissible range of output deviation is set to [Lp, Up] As individual error,
[0020]
[Expression 4]
Figure 0003823554
[0021]
Calculated value ew bypIs used.
FIG. 10A shows the output deviation t.p-NpFIG. 10B shows the individual error ew calculated by the equation (1).pIt is a graph showing.
[0022]
That is, in the present invention, when the output deviation falls within the allowable range, the individual error becomes 0 and does not contribute to the error evaluation value, so that learning of the teacher data corresponding to this individual error is suppressed. In addition, since other teacher data is intensively learned by the amount of the suppression, the learning can be performed in a balanced manner and efficiently in a short time.
[0023]
  And claims4As described, in the operation region where the input / output characteristics to be learned change discontinuously, the allowable range of the output deviation corresponding to the teacher data in this operation region is set larger than that in the other operation regions. If the tolerance of output deviation is adjusted according to the ease of convergence of individual errors, etc., it is possible to reliably prevent an increase in learning time due to non-convergence of individual errors of some teacher data. An effect similar to that of the first invention described above can be obtained, for example, learning can be performed efficiently in time.
[0024]
  The first and second inventions focus on the learning end condition, but the third invention described below focuses on the error evaluation value used for updating the synaptic load. That is, the claim6In the operation method of the neural network learning system described above, the learning execution means reads the teacher data from the teacher data storage means, and outputs the neural network held in the storage means for the teacher input for each of the read teacher data A step of calculating a network output, a step of calculating an individual error between the calculated network output and a teacher output which is a target value of the network output, and an error evaluation value set based on the calculated individual error is minimized. In this way, a series of steps consisting of updating the synaptic load of the neural network held in the storage means is repeatedly executed.
[0025]
  And especially in the present invention,Learning execution meansAs the error evaluation value, a weighted mean square error sum that is an average value of a multiplication value of the square value of the individual error and a preset weighting coefficient is used. That is, as the weighting coefficient is increased, the degree of contribution of the teacher data corresponding to the individual error to the error evaluation value increases, and learning of the teacher data is preferentially performed.
[0026]
  Moreover,In the motion area where the input / output characteristics change discontinuously, the individual error weighting coefficient corresponding to the training data of this motion areaBut, Smaller than other operating areaIt is set to a valid value.
Thus, according to the operation method of the neural network learning system of the third invention,Error tolerance depending on the ease of convergence of individual errorsButAdjustmentAndSince learning time increases due to some individual errors not converging, and excessive learning of the training data in the operation area that tends to converge is prevented, learning is performed in a balanced and efficient manner in a short time. The same effects as those of the first and second inventions can be obtained.
[0027]
  In the learning execution means, the individual error used for calculating the error evaluation value is, for example, a claim7As described, the output deviation which is the difference between the teacher output and the network output can be used.8As described, the allowable range of output deviation is set for each teacher input, and the network output for the pth teacher input is np, The permissible range of the network output corresponding to the permissible range of output deviation is set to [Lp, Up]
[0028]
[Equation 5]
Figure 0003823554
[0029]
Calculated value ew bypMay be used. In addition, since the operation methods of the neural network learning system described above do not change the evaluation function that gives the error evaluation value in the middle,2, 5, 9As described in (1), the BFGS method that can update the synaptic load at a high speed can be used for the update of the synaptic load, and hence the learning efficiency can be further improved.
[0030]
  Further, the learning execution means in the above-described neural network learning system can be realized by a program executed by a computer system, for example. In this case, the claim10As described, the program is recorded on a recording medium that can be read by a computer system such as a floppy (registered trademark) disk, a magneto-optical disk, a CD-ROM, and a hard disk, and is loaded into the computer system as necessary. It can be used by starting up. In addition, the ROM or backup RAM may be recorded as a recording medium that can be read by the computer system, and the ROM or backup RAM may be incorporated into the computer system.
[0031]
DETAILED DESCRIPTION OF THE INVENTION
Embodiments of the present invention will be described below with reference to the drawings.
FIG. 1 is a block diagram showing a schematic configuration of a neural network learning system 2 to which the present invention is applied.
[0032]
As shown in FIG. 1, the neural network learning system 2 according to this embodiment includes a neural network data file DFN composed of data relating to the structure of the neural network to be verified, and data necessary for learning the neural network. A data file storage unit 4 that stores a learning data file DFG, a network configuration unit 6 that reads a neural network data file DFN from the data file storage unit 4 and constitutes a neural network NET to be learned, and a network configuration unit 6 for inputting a learning execution unit 8 for performing learning of the neural network NET based on the neural network NET constituted by 6 and the learning data file DFG read from the data file storage unit 4, and for inputting various commands to the respective units. To display an input operation unit 10 including a keyboard, a mouse, and the like, a procedure for operating the input operation unit 10, a learning result, and the like And a display unit 12 composed of a display or the like.
[0033]
The neural network learning system 2 according to the present embodiment is configured on a known general-purpose computer mainly configured with a CPU, ROM, RAM, and I / O port such as a workstation. The learning execution unit 8 is realized as a process executed by the CPU, and the neural network NET is created on the RAM. The data file storage unit 4 is composed of an external storage device such as a hard disk, a magnetic disk, or a floppy disk.
[0034]
The neural network data file DFN includes a total number NL of input layers, intermediate layers, and output layers constituting the neural network NET, and a unit number M for each layer.1, M2, ... MNLIn addition, data such as synaptic connection relationships between units and types of output functions are included, and the learning data file DFG includes teacher inputs and teachers created based on input / output characteristics of the neural network to be realized. Teacher data consisting of outputs, error tolerance values set for each teacher data, and the like are included.
[0035]
Hereinafter, the neural network learning process executed by the CPU will be described with reference to the flowchart shown in FIG. The program for this process may be stored in advance in the ROM, or may be loaded into the RAM from an external storage device such as a floppy disk (not shown).
[0036]
When this process is started, first, in step (hereinafter simply referred to as S) 110, whether or not the file names of the neural network data file DFN and the learning data file DFG are input via the input operation unit 10 is determined. If these are input, the process proceeds to S120.
[0037]
In S120, the network configuration unit that reads the neural network data file DFN from the data file storage unit 4 according to the file name input in S110, and creates and initializes the neural network NET to be learned based on the contents 6 is executed.
[0038]
Thus, on the RAM, as shown in FIG.1+ M2+ ... + MNL= NU) input layer (first layer), intermediate layer (second to (NL-1) layer), output layer (NL layer), and between each layer to transmit a transmission signal Unit UjA neural network NET composed of synapses that connect the two is configured. In the figure, the number of units in the output layer is one (MNL= 1), but multiple (MNL≧ 2).
[0039]
Of these, the input layer (first layer) unit Um(M = 1, 2,..., M1) Is the input signal xmIs transmitted to the next layer as it ismUnit U of the intermediate layer (second to (NL-1) layer) and output layer (NL layer)j(J = M1+1, M1+2,... NU) is the unit U of the (n−1) th layer that is the previous layer.kTransmission signal okThe synaptic load for ωjk, Unit UjThe bias at bj, Unit UjThe transmission signal okUnit UkLet C (j) be a set of numbers and weighting signal netjIs calculated by the equation (5), and further, using the output function defined in the neural network data file DFN (for example, sigmoid function f (x) = 1 / {1 + exp (−x)}), (6 ), The transmission signal o to the next layerjIs configured to generate However, the transmission signal o generated by the output layerNUBecomes the network output n (x) which is the output of the neural network NET.
[0040]
[Formula 6]
Figure 0003823554
[0041]
When the neural network NET is configured in S120 in this way, each synaptic load is initialized to an appropriate value (for example, 1).
In the following steps, processing as the learning execution unit 8 that updates the synaptic load of the neural network NET by learning is executed.
[0042]
That is, in S130, the count value C indicating the number of updates of the synaptic load by learning is cleared to zero.
In subsequent S140, the learning data file DFG is read in accordance with the file name input in the previous S110, and all (P) teacher data set in the learning data file DFG are stored in the neural network NET corresponding to each teacher input. Output net output np(P = 1, 2,... P) is obtained using the neural network NET constructed in S120.
[0043]
In subsequent S150, for each teacher data, as shown in equation (7), the teacher output tpFrom the network output n obtained in S140pBy reducing the individual error epAsk for.
ep= Tp-Np                                             (7)
In subsequent S160, as the error evaluation value E, as shown in the equation (8), the square value e of the individual error obtained in S150.p 2Find the average value of.
[0044]
[Expression 7]
Figure 0003823554
[0045]
In S170, it is determined whether or not the error in the output of the neural network NET with respect to the teacher data has converged within an allowable range.
Here, for all teacher data, a preset error tolerance [εLp, ΕUp], Any individual error ep It is judged whether it is also received.
[0046]
If an affirmative determination is made, it is assumed that the error has sufficiently converged, and the present process is terminated. On the other hand, if a negative determination is made, it is assumed that the error has not yet sufficiently converged. Migrate to
In S180, it is determined whether or not the count value C representing the number of synaptic load updates is smaller than a preset upper limit value Cth. If the count value C has reached the upper limit value Cth and a negative determination is made, This process is finished as it is. That is, this is for forcibly terminating the learning when the error does not converge for some reason.
[0047]
On the other hand, if an affirmative determination is made in S180, the process proceeds to S190, and the synaptic load is updated based on the error evaluation value E obtained in the previous S160 so that the error evaluation value is minimized. Here, a known BFGS method is used.
In the subsequent S200, the count value C indicating the number of synaptic load updates is incremented (C ← C + 1), and then the process returns to S140. Thereafter, the processes of S140 to S200 are repeatedly executed.
[0048]
In other words, in this processing, the allowable error range [εLp, ΕUp] Individual error ep The neural network NET is learned by repeatedly executing the synaptic load until either of the above holds or until the number of updates of the synaptic load reaches the upper limit value Cth.
[0049]
Here, as an example of a device to which the neural network learned in this way is applied, FIG. 4 shows a control device for an auto car air conditioner.
In this control device 20, as shown in FIG. 4, a target temperature setter 21 for setting a target value Tm of the outlet temperature, an outside air temperature sensor 22 for detecting a temperature (outside air temperature) Tg outside the vehicle, An indoor air temperature sensor 24 for detecting the indoor temperature (internal air temperature) Tn, a solar radiation sensor 26 for detecting the amount of solar radiation Ts, and the target temperature Tm set by these setting devices 21 and the sensors 22, 24, 26 Based on the detected outside air temperature Tg, inside air temperature Tn, and solar radiation amount Ts, the basic air outlet temperature TA of the car air conditioner, the mode MD for specifying the air outlet to be used (foot side, face side, window side, etc.), air outlet Control signal S for controlling the air volume VA blown fromTA, SMD, SVAIs generated and supplied to an auto car air conditioner unit (OCU) 30.
[0050]
Among these, the ECU 28 controls each control signal S.TA, SMD, SVAAre generated, the first neural network N1 for basic air outlet temperature control, the second neural network N2 for mode control, and the third neural network N3 for air flow control are provided. .
The first neural network N1 receives the target temperature Tm, the outside air temperature Tg, and the inside air temperature Tn detected by the setting device 21 and the sensors 22 and 24, and receives one control signal S.MDIs provided with an input layer consisting of three units and an output layer consisting of one unit, and the second and third neural networks N2 and N3 are further connected by the sensor 26. The detected amount of solar radiation Ts is also input, and each has one control signal S.TA, SVAIs provided with an input layer composed of four units and an output layer composed of one unit. However, the number of intermediate layers and the number of units constituting the intermediate layer are set for each of the neural networks N1 to N3.
[0051]
Learning of these neural networks N1 to N3 will be described by taking the first neural network N1 for basic air outlet temperature control as an example. The first neural network N1 and the other neural networks N2 and N3 differ only in the input / output characteristics to be realized, and learning is performed in exactly the same procedure.
[0052]
First, FIG. 5A shows basic air outlet temperature control specifications, that is, input / output characteristics to be realized by the first neural network N1. However, the control specifications of the basic outlet temperature TA are given by, for example, the equation (9), and the graph shown in FIG. 5A is for the inside temperature Tn with the outside temperature Tg and the target temperature Tm fixed. Only changes are shown. A, B, C, and D are constants.
[0053]
TA = A × Tn + B × Tg + C × Tm + D (9)
The basic outlet temperature TA calculated from the equation (9) is assumed to be in the range of −100 ° C. to 400 ° C., while the basic outlet temperature TA that can be actually realized by the OCU 30 is −20 ° C. to 120 ° C. It shall be in the range. Therefore, the OCU 30 controls the control signal S from the ECU 28 as shown in FIG.TAHowever, if -20 ° C. or less is required, it is clipped to −20 ° C., and if 120 ° C. or more is required, it is clipped to 120 ° C. and used for control.
[0054]
When learning of the neural network N1 used in the control device 20 for such a car air conditioner is executed, a learning data file DFG is first created as follows.
That is, as shown in FIG. 6, based on the basic outlet temperature control specification, teacher data consisting of a set of input (teacher input) and output (teacher output) for a plurality of points (here, P) on the graph. Set.
[0055]
And teacher output tpDepending on the size of p = 1, 2,...p≧ 120 ° C., −20 ° C. <tp<120 ° C, tp≦ −20 ° C., and an allowable error range for each operation region is set as shown in [Table 1]. In [Table 1], the network output n corresponding to this allowable error range is shown.pThe allowable range is also shown.
[0056]
[Table 1]
Figure 0003823554
[0057]
Next, the learning data file DFG set in this way is used to perform the learning process by the above-described neural network learning system 2. As a result, the input / output characteristics of the first neural network N1 obtained are shown in FIG. Shown in a).
[0058]
As shown in FIG. 7A, in the learning result in the present embodiment, the internal temperature Tn varies greatly in both operation ranges of −20 ° C. or less and 120 ° C. or more. Clipping is actually performed, and input / output characteristics as shown in FIG. 7B are realized.
[0059]
Here, for comparison, FIG. 8 shows input / output characteristics obtained by applying a conventional learning method in which the width of the allowable error range is set uniformly ([−1, 1]).
That is, in the conventional method, even when the input / output characteristics as shown in FIG. 7A are obtained, learning is not completed, and learning is continued uselessly until the input / output characteristics as shown in FIG. 8 are realized. It is done.
[0060]
As described above, according to the present embodiment, the individual error e in the operation region that does not need to be faithfully matched with the input / output characteristics to be realized.pError tolerance (and hence network output npIs set large, and the OCU 30 has an individual error e within the operation range (−20 ° C. to 120 ° C.) actually required.pSince the learning immediately ends when the error is sufficiently converged, the learning of the neural network can be performed efficiently in a short time compared to the conventional learning method in which the error tolerance range is uniformly set.
[0061]
Further, according to the present embodiment, the evaluation function for calculating the error evaluation value E shown in the equation (8) is not changed during learning, so that a fast learning method can be used to update the synaptic load. The BFGS method can be used, and the neural network can be learned in a shorter time.
[0062]
In this embodiment, infinity (± ∞) is used as the error tolerance. However, if it is difficult to express infinity on the computer, the neural network may output. Not a sufficiently large value, eg 1 × 10 in this caseFour, -1 x 10-FourIt may be replaced with a degree.
[Second Embodiment]
Next, a second embodiment will be described.
[0063]
Note that this embodiment differs from the first embodiment in the individual error e in S150.pSince the calculation method and the contents of the learning data file DFG are only partially different, the difference will be mainly described.
That is, in the present embodiment, the individual error ew in S150 of the neural network learning process shown in FIG.pIs calculated using the equation (10) instead of the equation (7). Accordingly, in the subsequent S160, the error evaluation value E is obtained using the equation (11) instead of the equation (8).
[0064]
[Equation 8]
Figure 0003823554
[0065]
Individual error ewpOutput n for which is 0pRange [Lp, Up] is the network output n shown in [Table 1] above.pIn the learning data file DFG in the present embodiment, the individual error ew is determined in S170.pThe allowable error range used for determining whether or not has converged is set to zero.
[0066]
If the neural network learning system 2 performs learning processing under such conditions, the individual error ewpIn the operation region where is 0, the individual error ewpSince the contribution of the teacher data corresponding to to the error evaluation value E becomes zero, learning of the teacher data is suppressed, and other teacher data is intensively learned by the amount of the suppression. Will be. In addition, in the operation region where it is not necessary to faithfully match the input / output characteristics to be realized, the individual error epSince the operation region in which is 0 is set to be large, the OCU 30 is intensively learned only in the actually required operation range (−20 ° C. to 120 ° C.).
[0067]
Moreover, according to the present embodiment, since the evaluation function for calculating the error evaluation value E shown in the equation (11) is not changed during learning, the synaptic load is the same as in the first embodiment. The BFGS method, which is a high-speed learning method, can be used for the update, and the neural network can be learned in a shorter time.
[0068]
In the present embodiment, the network output n where the individual error is zero.pThe range [Lp, Up] is set so as to correspond to the error allowable range in the first embodiment, but may be set to a range smaller than this.
[Third Embodiment]
Next, a third embodiment will be described.
[0069]
Note that the present embodiment is different from the first embodiment in that the error evaluation value calculation method in S160 and the contents of the learning data file DFG are only partially different, so this difference will be mainly described. .
That is, in this embodiment, in S160 of the neural network learning process shown in FIG. 2, the error evaluation value E is set to the square value e of each individual error instead of the equation (7).p 2Weighting factor CpAnd the average value of the multiplied values is calculated using equation (12).
[0070]
[Equation 9]
Figure 0003823554
[0071]
The learning data file DFG includes a weighting coefficient C set for each teacher data.p Are included, and the error tolerance of individual errors is uniformly set to the same value.
[0072]
If the neural network learning system 2 performs learning processing under such conditions, the weighting coefficient CpIndividual error e in the operation area where is set to a large valuepThe individual error epThe degree of contribution to the error evaluation value E of the teacher data corresponding to is increased, and learning of the teacher data is preferentially performed.
[0073]
For example, the weighting factor is CpIn the first operating regionp= 1, C in the second operating regionp= 0.1, the teacher data in the first motion region contributes 10 times as much as the teacher data in the second motion region.
Therefore, in the operation region where the input / output characteristics to be realized change discontinuously, the individual error weighting coefficient corresponding to the teacher data in this operation region is set smaller than that in the other operation regions. If the error tolerance is adjusted according to the ease of error convergence, some individual errors will not converge, so learning time will increase, or teacher data in the operation area that will easily converge will be excessively learned. Therefore, learning can be performed efficiently in a balanced manner in a short time.
[0074]
Where the weighting factor CpLearning method of this embodiment for obtaining the error evaluation value E usingpA comparison experiment with a conventional learning method for obtaining the error evaluation value E without using the above will be described.
In the comparison experiment, a neural network NET to be learned is composed of a three-layer structure including an input layer with one unit, an intermediate layer with eight units, and an output layer with one unit. As an input / output characteristic to be learned by the neural network NET, as shown in FIG. 9A, an output y = h (x) that periodically changes between 0 and 1 with respect to an input x is used. As teacher data, 201 data defined by the following equation (13) were used.
[0075]
(Xp, Tp) = (P / 200, h (p / 200)) (13)
However, p = 0, 1,... 200.
Also, the weighting coefficient CpAre the first region (0.1 <tp <0.9) in which the teacher output tp continuously changes and the second region (tp ≦ 0. 1, tp ≧ 0.9) and set as follows.
[0076]
Cp = 1 (0.1 <tp <0.9)
Cp = 0.1 (tp ≦ 0.1, tp ≧ 0.9)
In this embodiment, the BFGS method is used so that the error evaluation value E1 calculated by the equation (14) is minimized and the error evaluation value E2 calculated by the equation (15) is minimized in the conventional method. The synaptic load was updated at
[0077]
[Expression 10]
Figure 0003823554
[0078]
The upper limit value of the count value C is Cth = 500, and the allowable error range is uniformly [−0.2, 0.2] regardless of the operation region.
Then, the initial value of the synaptic load is appropriately set with a random number, and the learning method of this embodiment and the conventional learning method are tried 10 times each while changing the initial value, and the results are shown in [Table 2]. .
[0079]
[Table 2]
Figure 0003823554
[0080]
The maximum error is the absolute value of the individual error | ep| = | Tp-NpIs the maximum value of |, and the convergence is indicated by ◯ if the maximum error is equal to or less than the absolute value of the allowable error (0.2). .
[0081]
Also, the input / output characteristics realized as a result of learning only for trial number 1 are shown in FIGS. 9B and 9C.
The conventional learning method converged in only one trial out of 10 trials, whereas the learning method of the present embodiment converged in 8 trials. In the learning method of the present embodiment, it is confirmed that both the error evaluation value and the maximum error are small, and the input / output characteristics to be realized can be realized with higher accuracy.
[0082]
Further, as shown in FIG. 9 (b), in the conventional learning method, an excess in the second region (tp ≦ 0.1, tp ≧ 0.9) is within the range of the teacher input x <0.5. Learning is observed, and in the range of the teacher input x ≧ 0.5, the input / output characteristics to be realized are not followed at all. On the other hand, in the learning method of the present embodiment, as shown in FIG. 9C, in the first region (0.1 <tp <0.9), the input / output characteristics to be realized are accurately approximated. In addition, in the second region (tp ≦ 0.1, tp ≧ 0.9), it was confirmed that smooth input / output characteristics obtained by smoothing discontinuously changing points were realized.
[0083]
In the present embodiment, the individual error epAs output deviation tp-NpAs in the second embodiment, the individual error ew defined by equation (10) is used.pMay be used.
In the first to third embodiments, the OCU 30 is used as a control target. However, it can be used for various controls including, for example, anti-skid system control, FA device control, EFI control, and the like. Needless to say.
[0084]
Furthermore, in the said 1st-3rd embodiment, although the BFGS method is used for the update of a synaptic load, you may use another method. In particular, it can be suitably used for a method such as the BFGS method that assumes that an evaluation function for calculating an error evaluation value is not changed during learning.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a schematic configuration of a neural network learning system.
FIG. 2 is a flowchart showing the contents of a neural network learning process.
FIG. 3 is an explanatory diagram showing a configuration of a neural network.
FIG. 4 is a block diagram showing the configuration of a control device for an auto car air conditioner.
FIG. 5 is a graph showing control specifications for basic outlet temperature.
FIG. 6 is an explanatory diagram illustrating a teacher data setting method.
FIG. 7 is a graph showing input / output characteristics of a neural network obtained as a result of learning.
FIG. 8 is a graph showing a learning result by a conventional method.
FIG. 9 is a graph showing control specifications and learning results of a neural network used in a comparative experiment.
FIG. 10 is an explanatory diagram that graphs the setting contents of individual errors.
FIG. 11 is an explanatory diagram showing problems of a conventional learning method.
FIG. 12 is an explanatory diagram showing problems of a conventional learning method.
[Explanation of symbols]
2 ... Neural network learning system 4 ... Data file storage
6 ... Network configuration unit 8 ... Learning execution unit 10 ... Input operation unit
DESCRIPTION OF SYMBOLS 12 ... Display part 20 ... Control apparatus 21 ... Target temperature setting device
22 ... Outside air temperature sensor 24 ... Inside air temperature sensor 26 ... Solar radiation sensor
28 ... Auto air conditioner control ECU DFG ... Learning data file
DFN: Neural network data file NET, N1-N3 ... Neural network

Claims (10)

伝達信号を生成するユニットをそれぞれ一つ以上備えた入力層,中間層,出力層と各層間のユニットを結合して前記伝達信号を伝送するシナプスとからなり、前記入力層に入力を与えると前記ユニット間を前記出力層に向けて前記伝達信号が順次伝送され前記出力層から出力が得られる神経回路網を保持する記憶手段と、
神経回路網が学習すべき入出力特性に基づいて予め設定された教師入力及び教師出力からなる教師データを格納する教師データ格納手段と、
該教師データ格納手段に格納された教師データに基づいて前記記憶手段に保持された神経回路網の学習を実行する学習実行手段と、
を備えた神経回路網学習システムの動作方法であって、
前記学習実行手段が、
前記教師データ格納手段から前記教師データを読み込むステップ、
読み込んだ教師データのそれぞれについて、前記教師入力に対する前記記憶手段に保持された神経回路網の出力である網出力を算出するステップ、
算出した網出力と該網出力の目標値である前記教師出力との個別誤差を算出するステップ、
算出した個別誤差に基づいて設定される誤差評価値を最小化するように前記記憶手段に保持された神経回路網のシナプス荷重を更新するステップ、
からなる一連のステップを、前記教師データ毎に算出される全ての個別誤差が、前記教師データ毎に予め設定された誤差許容範囲内になるまで繰り返し実行すると共に、
前記学習すべき入出力特性が非連続的な変化をする動作領域では、該動作領域の教師データに対応する個別誤差の前記誤差許容範囲が、それ以外の動作領域のものより大きく設定されていることを特徴とする神経回路網学習システムの動作方法。
Composed of an input layer, an intermediate layer, and an output layer each having one or more units for generating a transmission signal, and a synapse for transmitting the transmission signal by combining units between each layer, and when an input is given to the input layer, Storage means for holding a neural network in which the transmission signals are sequentially transmitted between the units toward the output layer and output is obtained from the output layer;
Teacher data storage means for storing teacher data consisting of teacher inputs and teacher outputs preset based on input / output characteristics to be learned by the neural network;
Learning execution means for performing learning of the neural network held in the storage means based on the teacher data stored in the teacher data storage means;
A method of operating a neural network learning system comprising:
The learning execution means
Reading the teacher data from the teacher data storage means;
For each of the read teacher data, calculating a network output that is an output of the neural network held in the storage means for the teacher input;
Calculating an individual error between the calculated network output and the teacher output which is a target value of the network output;
Updating a synaptic load of the neural network held in the storage means so as to minimize an error evaluation value set based on the calculated individual error;
Repeatedly performing a series of steps until all the individual errors calculated for each teacher data are within an error tolerance set in advance for each teacher data ,
In the operation region where the input / output characteristics to be learned change discontinuously, the error tolerance range of the individual error corresponding to the teacher data in the operation region is set larger than that in the other operation regions. A method for operating a neural network learning system.
前記学習実行手段は、前記シナプス荷重の更新をBFGS法を用いて行うことを特徴とする請求項1記載の神経回路網学習システムの動作方法。The learning execution means operating method of claim 1 Symbol placement neural network learning system and performing with BFGS method updates the synaptic weight. 伝達信号を生成するユニットをそれぞれ一つ以上備えた入力層,中間層,出力層と各層間のユニットを結合して前記伝達信号を伝送するシナプスとからなり、前記入力層に入力を与えると前記ユニット間を前記出力層に向けて前記伝達信号が順次伝送され前記出力層から出力が得られる神経回路網を保持する記憶手段と、
神経回路網が学習すべき入出力特性に基づいて予め設定された教師入力及び教師出力からなる教師データを格納する教師データ格納手段と、
該教師データ格納手段に格納された教師データに基づいて前記記憶手段に保持された神経回路網の学習を実行する学習実行手段と、
を備えた神経回路学習システムの動作方法であって、
前記学習実行手段が、
前記教師データ格納手段から前記教師データを読み込むステップ、
読み込んだ教師データのそれぞれについて、前記教師入力に対する前記記憶手段に保持された神経回路網の出力である網出力を算出するステップ、
算出した網出力と該網出力の目標値である前記教師出力との個別誤差を算出するステップ、
算出した個別誤差に基づいて設定される誤差評価値を最小化するように前記記憶手段に保持された神経回路網のシナプス荷重を更新するステップ、
からなる一連のステップを、前記教師データ毎に算出される全ての個別誤差が、予め設定された誤差許容範囲内になるまで繰り返し実行すると共に、
前記教師データ毎に、前記教師出力と前記網出力との差である出力偏差の許容範囲を設定し、p番目の教師入力に対する網出力をnp ,前記出力偏差の許容範囲に相当する網出力の許容範囲を[Lp ,Up ]とすると、前記個別誤差として、
Figure 0003823554
による算出値ewp を用いることを特徴とする神経回路網学習システムの動作方法。
Composed of an input layer, an intermediate layer, and an output layer each having one or more units for generating a transmission signal, and a synapse for transmitting the transmission signal by combining units between each layer, and when an input is given to the input layer, Storage means for holding a neural network in which the transmission signals are sequentially transmitted between the units toward the output layer and output is obtained from the output layer;
Teacher data storage means for storing teacher data consisting of teacher inputs and teacher outputs preset based on input / output characteristics to be learned by the neural network;
Learning execution means for performing learning of the neural network held in the storage means based on the teacher data stored in the teacher data storage means;
A method of operating a neural circuit learning system comprising:
The learning execution means
Reading the teacher data from the teacher data storage means;
For each of the read teacher data, calculating a network output that is an output of the neural network held in the storage means for the teacher input;
Calculating an individual error between the calculated network output and the teacher output which is a target value of the network output;
Updating a synaptic load of the neural network held in the storage means so as to minimize an error evaluation value set based on the calculated individual error;
And repeatedly executing a series of steps consisting of all the individual errors calculated for each of the teacher data within a preset allowable error range,
For each teacher data, an allowable range of output deviation which is a difference between the teacher output and the network output is set, and the network output corresponding to the p-th teacher input is n p , and the network output corresponding to the allowable range of the output deviation If the allowable range of [L p , U p ] is
Figure 0003823554
A method for operating a neural network learning system, wherein the calculated value ew p is used.
前記学習すべき入出力特性が非連続的な変化をする動作領域では、該動作領域の教師データに対応する出力偏差の許容範囲が、それ以外の動作領域のものより大きく設定されていることを特徴とする請求項記載の神経回路網学習システムの動作方法。In the operation region where the input / output characteristics to be learned change discontinuously, the allowable range of the output deviation corresponding to the teacher data in the operation region is set larger than that in the other operation regions. The operation method of the neural network learning system according to claim 3, wherein: 前記学習実行手段は、前記シナプス荷重の更新を、BFGS法を用いて行うことを特徴とする請求項又は請求項記載の神経回路網学習システムの動作方法。The learning execution means, wherein the updating of synaptic weights, claim 3 or claim 4 method of operating a neural network learning system according to characterized in that using the BFGS method. 伝達信号を生成するユニットをそれぞれ一つ以上備えた入力層,中間層,出力層と各層間のユニットを結合して前記伝達信号を伝送するシナプスとからなり、前記入力層に入力を与えると前記ユニット間を前記出力層に向けて前記伝達信号が順次伝送され前記出力層から出力が得られる神経回路網を保持する記憶手段と、
神経回路網が学習すべき入出力特性に基づいて予め設定された教師入力及び教師出力からなる教師データを格納する教師データ格納手段と、
該教師データ格納手段に格納された教師データに基づいて前記記憶手段に保持された神経回路網の学習を実行する学習実行手段と、
を備えた神経回路学習システムの動作方法であって、
前記学習実行手段が、
前記教師データ格納手段から前記教師データを読み込むステップ
読み込んだ教師データのそれぞれについて、前記教師入力に対する前記記憶手段に保持された神経回路網の出力である網出力を算出するステップ、
算出した網出力と該網出力の目標値である前記教師出力との個別誤差を算出するステップ、
算出した個別誤差に基づいて設定される誤差評価値を最小化するように前記記憶手段に保持された神経回路網のシナプス荷重を更新するステップ
からなる一連のステップを繰り返し実行すると共に、
前記誤差評価値として、前記個別誤差の自乗値と予め設定された重み付け係数との乗算値の平均値である荷重平均自乗誤差を用い、且つ、前記学習すべき入出力特性が非連続的な変化をする動作領域では、該動作領域の教師データに対応する個別誤差の前記重み付け係数が、それ以外の動作領域のものより小さな値に設定されていることを特徴とする神経回路網学習システムの動作方法。
Composed of an input layer, an intermediate layer, and an output layer each having one or more units for generating a transmission signal, and a synapse for transmitting the transmission signal by combining units between each layer, and when an input is given to the input layer, Storage means for holding a neural network in which the transmission signals are sequentially transmitted between the units toward the output layer and output is obtained from the output layer;
Teacher data storage means for storing teacher data consisting of teacher inputs and teacher outputs preset based on input / output characteristics to be learned by the neural network;
Learning execution means for performing learning of the neural network held in the storage means based on the teacher data stored in the teacher data storage means;
A method of operating a neural circuit learning system comprising:
The learning execution means
Reading the teacher data from the teacher data storage means ;
For each of the read teacher data, calculating a network output that is an output of the neural network held in the storage means for the teacher input;
Calculating an individual error between the calculated network output and the teacher output which is a target value of the network output;
Repetitively executing a series of steps consisting of updating the synaptic load of the neural network held in the storage means so as to minimize the error evaluation value set based on the calculated individual error;
As the error evaluation value, a weighted mean square error that is an average value of a multiplication value of the square value of the individual error and a preset weighting factor is used , and the input / output characteristics to be learned change discontinuously. The operation of the neural network learning system is characterized in that the weighting coefficient of the individual error corresponding to the teacher data of the operation region is set to a value smaller than that of the other operation region. Method.
前記学習実行手段は、前記個別誤差として、前記教師出力と前記網出力との差である出力偏差を用いることを特徴とする請求項記載の神経回路網学習システムの動作方法。The operation method of the neural network learning system according to claim 6 , wherein the learning execution unit uses an output deviation which is a difference between the teacher output and the network output as the individual error. 前記教師データ毎に、前記教師出力と前記網出力との差である出力偏差の許容範囲を設定し、p番目の教師入力に対する網出力をnp ,前記出力偏差の許容範囲に相当する網出力の許容範囲を[Lp ,Up ]とすると、
前記学習実行手段は、前記個別誤差として、
Figure 0003823554
による算出値ewp を用いることを特徴とする請求項記載の神経回路網学習システムの動作方法。
For each teacher data, an allowable range of output deviation which is a difference between the teacher output and the network output is set, and the network output corresponding to the p-th teacher input is n p , and the network output corresponding to the allowable range of the output deviation If the allowable range of [L p , U p ] is
The learning execution means, as the individual error,
Figure 0003823554
7. The operation method of the neural network learning system according to claim 6, wherein the calculated value ew p is used.
前記学習実行手段は、前記シナプス荷重の更新を、BFGS法を用いて行うことを特徴とする請求項乃至請求項いずれか記載の神経回路網学習システムの動作方法。The learning execution means, the updating of the synaptic weights, claims 6 to 8 or a method of operating a neural network learning system according to characterized in that using the BFGS method. コンピュータシステムを、請求項1乃至請求項いずれか記載の神経回路網学習システムの学習実行手段として機能させるためのプログラムが記録され、該記録内容を前記コンピュータシステムにより読取可能な記録媒体。A recording medium on which a program for causing a computer system to function as learning execution means of the neural network learning system according to any one of claims 1 to 9 is recorded, and the recorded content can be read by the computer system.
JP23584298A 1998-08-21 1998-08-21 Operation method and recording medium of neural network learning system Expired - Fee Related JP3823554B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP23584298A JP3823554B2 (en) 1998-08-21 1998-08-21 Operation method and recording medium of neural network learning system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP23584298A JP3823554B2 (en) 1998-08-21 1998-08-21 Operation method and recording medium of neural network learning system

Publications (2)

Publication Number Publication Date
JP2000067025A JP2000067025A (en) 2000-03-03
JP3823554B2 true JP3823554B2 (en) 2006-09-20

Family

ID=16992082

Family Applications (1)

Application Number Title Priority Date Filing Date
JP23584298A Expired - Fee Related JP3823554B2 (en) 1998-08-21 1998-08-21 Operation method and recording medium of neural network learning system

Country Status (1)

Country Link
JP (1) JP3823554B2 (en)

Also Published As

Publication number Publication date
JP2000067025A (en) 2000-03-03

Similar Documents

Publication Publication Date Title
CN112668235B (en) Robot control method based on off-line model pre-training learning DDPG algorithm
Chiang et al. A self-learning fuzzy logic controller using genetic algorithms with reinforcements
Owens et al. Efficient training of the backpropagation network by solving a system of stiff ordinary differential equations
CN107689224A (en) The deep neural network compression method of reasonable employment mask
CN107729999A (en) Consider the deep neural network compression method of matrix correlation
CN114170789A (en) Intelligent network connected vehicle lane change decision modeling method based on space-time diagram neural network
Cho et al. Novel fuzzy logic control based on weighting of partially inconsistent rules using neural network
CN115511069A (en) Neural network training method, data processing method, device and storage medium
CN109800517B (en) Improved reverse modeling method for magnetorheological damper
JP2009129366A (en) Sensibility estimation system of vehicle
CN114415507A (en) Method for building and training dexterous hand grasping process dynamic model based on deep neural network
CN108538301B (en) Intelligent digital musical instrument based on neural network audio technology
JP3823554B2 (en) Operation method and recording medium of neural network learning system
Kanan et al. Reduction of neural network training time using an adaptive fuzzy approach in real time applications
JP3354593B2 (en) Learning system for network type information processing equipment
Looney Neural networks as expert systems
CN113807005A (en) Bearing residual life prediction method based on improved FPA-DBN
Waldock et al. Fuzzy Q-learning with an adaptive representation
Chung et al. A self‐learning and tuning fuzzy logic controller based on genetic algorithms and reinforcements
JPH0561848A (en) Device and method for selecting and executing optimum algorithm
JP2000122991A (en) Manufacture of controller, the controller, data generator, method for determining input/output characteristics, method for evaluating correlation
Shaout et al. Fuzzy logic based modification system for the learning rate in backpropagation
JPH10187649A (en) Neural network
CN115510593B (en) LSTM-based MR damper reverse mapping model calculation method
CN111539306B (en) Remote sensing image building identification method based on activation expression replaceability

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040922

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050621

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050726

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060328

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060509

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060606

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060619

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees