JP2986294B2 - 成長機能を有するニューラルネットワークシステム - Google Patents

成長機能を有するニューラルネットワークシステム

Info

Publication number
JP2986294B2
JP2986294B2 JP4320926A JP32092692A JP2986294B2 JP 2986294 B2 JP2986294 B2 JP 2986294B2 JP 4320926 A JP4320926 A JP 4320926A JP 32092692 A JP32092692 A JP 32092692A JP 2986294 B2 JP2986294 B2 JP 2986294B2
Authority
JP
Japan
Prior art keywords
neural network
learning
time
prediction
recall
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP4320926A
Other languages
English (en)
Other versions
JPH06168348A (ja
Inventor
実 小出
春樹 井上
正和 八尋
登 阿部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Engineering Co Ltd
Hitachi Ltd
Original Assignee
Hitachi Engineering Co Ltd
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Engineering Co Ltd, Hitachi Ltd filed Critical Hitachi Engineering Co Ltd
Priority to JP4320926A priority Critical patent/JP2986294B2/ja
Publication of JPH06168348A publication Critical patent/JPH06168348A/ja
Application granted granted Critical
Publication of JP2986294B2 publication Critical patent/JP2986294B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Feedback Control In General (AREA)

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は、ニューラルネットワー
ク装置に係り、特に、実時間処理に好適な高精度な、成
長機構を有したニューラルネットワークシステムに関す
る。
【0002】
【従来の技術】近年、多くの文献等で紹介されている典
型的なニューラルネットワークは、入力層、出力層およ
び中間層(かくれ層)の多層構成からなり、各ニューロ
ンは、シナップスにより相互に結合されている。その学
習には、誤差逆伝搬学習法といわれる学習アルゴリズム
が用いられる。このアルゴリズムは、学習パターンと、
そのときの出力信号の理想値とからなる教師信号のセッ
トを用いるものである。すなわち、ニューラルネットワ
ークの入力に、学習パターンを与え、そのときの出力信
号の理想値に対する偏差を最小にするように、シナップ
スの結合度(シナップスの重み係数)を調整する方法で
ある。
【0003】前記学習を完了した後、シナップスの重み
係数が固定されて、ニューラルネットワークが構築され
る。このニューラルネットワークは、これを利用する実
際の装置に移植される。実際の装置でのニューラルネッ
トワークの動作は、想起とよばれ、教師信号にはない未
知の入力情報に対しても想起対象、たとえばプロセスの
出力情報を得ることができる。想起は、例えば、入力情
報とシナップスの重みの積の総和を演算後、非線形関数
演算により、中間層ニューロン出力値を求め、同様にし
て、中間層ニューロン出力値とシナップスの重みにより
出力層ニューロン値、すなわち、想起結果を得ることに
より行なわれる。
【0004】なお、上記従来技術は、たとえば「パター
ン認識と学習のアルゴリズム」(文一総合出版)に詳し
い。
【0005】
【発明が解決しようとする課題】上記従来の技術は、学
習完了後、シナップスの重み係数を固定し、実際の装置
に移植するため、これに伴う問題点がある。例えば、株
価予測等の時系列データを想起対象とする場合、実際の
時系列データは、種々変動するため、どのように学習方
法を改善しても、また、想起の精度を向上させたとして
も、想起結果が実際の時系列データに追従できなくな
り、初期の精度が劣悪化してしまうという、ニューラル
ネットワークを応用する場合の隘路がある。
【0006】しかし、現状は、この問題点を解消する有
効な方法が提案されるには至っていない。
【0007】本発明の目的は、上記従来方法の問題点を
解決し、予測精度の維持、向上を可能とするニューラル
ネットワークシステムを提供することにある。
【0008】
【課題を解決するための手段】上記目的を達成するた
め、本発明の一態様によれば、入力データについて、予
め与えられた重み係数により想起を行なう想起用ニュー
ラルネットワークと、与えられたデータに基づいて学習
を行なうための学習用ニューラルネットワークと、想起
用ニューラルネットワークの想起結果、および、学習用
ニューラルネットワークの想起結果について評価して、
学習用ニューラルネットワークの想起結果が想起用ニュ
ーラルネットワークの想起結果より精度が良いとき、想
起用ニューラルネットワークの重み係数を、学習用ニュ
ーラルネットワークの学習で得られた重み係数で更新す
るための手段とを備えることを特徴とする成長機能を有
するニューラルネットワークシステムが提供される。
【0009】入力データとしては、時系列データが用い
られる。想起用ニューラルネットワークは、時系列デー
タに基づいて予測値を想起するものとすることができ
る。また、学習用ニューラルネットワークは、過去の時
系列データを入力して予測値を想起することにより学習
を行なう構成とすることができる。
【0010】重み係数で更新するための手段は、想起用
ニューラルネットワークおよび学習用ニューラルネット
ワークのそれぞれの予測値について、対応する実測値と
の相関係数を求め、それらの相関係数を比較して、両者
の精度を評価するものとすることができる。
【0011】また、本発明の他の態様によれば、入力時
系列データに基づいて、予測を行なって予測値を出力す
る予測システムであって、時系列データに基づいて予測
を行なう予測装置と、該予測装置の予測精度を向上する
ための成長支援装置とを備え、予測装置は、時系列デー
タを取り込む入力手段と、入力された時系列データを蓄
積する時系列データメモリと、ニューラルネットワーク
を有し、入力された時系列データについて予測値の想起
を行なうニューラルネット予測手段と、想起された結果
を蓄積する想起データメモリと、想起された結果を予測
値として出力する出力手段と、ニューラルネット予測手
段が想起に用いる重み係数を記憶するための重み係数メ
モリとを備え、成長支援手段は、時系列データメモリに
蓄積される時系列データを用いて学習を行なうニューラ
ルネット学習手段と、上記ニューラルネット予測手段の
想起結果と、上記ニューラルネット学習手段の想起結果
とについて、それぞれ実測値との相関係数を求めて、そ
れらを比較して、ニューラルネット学習手段の想起結果
が、ニューラルネット予測手段の想起結果より精度が良
い場合、上記重み係数メモリに記憶されている重み係数
を、ニューラルネット学習手段における学習によって得
られた重み係数で更新する重み係数成長手段とを備える
ことを特徴とする予測システムが提供される。
【0012】成長支援手段は、ニューラルネット学習手
段を予め定めた周期で起動するタイマをさらに有するこ
とができる。
【0013】本発明のさらに他の態様によれば、時系列
データの予測を行なうニューラルネットワークにおいて
並列に常に一定時間過去のデータを基に学習する手段
と、学習した結果得られる重み係数と現在の重み係数と
を評価し、前者の重み係数の精度が高い場合は、自動的
に現在の重み係数を更新する重み係数成長手段を有する
ニューラルネットワークが提供される。
【0014】
【作用】想起用ニューラルネットワークは、予め与えら
れた重み係数により入力データについて想起を行なう。
一方、学習用ニューラルネットワークは、与えられたデ
ータに基づいて学習を行なう。これらは、同一のシステ
ムに備えられるが、それぞれ分離独立して機能する。し
たがって、学習用ニューラルネットワークを備えること
により、想起用ニューラルネットワークの重み係数を変
更することが可能となる。例えば、過去の時系列データ
から将来の値を予測するニューラルネットワークにおい
て、常に新しい(一定時間過去の)情報により学習し、
学習した結果が過去に学習した重み係数による結果より
予測精度が高い場合は、ダイナミックに重み係数を変更
する。従って、常に新しい(一定時間過去の)情報によ
り学習するため、学習パターンが固定化されず、種々変
動する対象に対して適切に対応することができる。
【0015】重み係数で更新するための手段は、想起用
ニューラルネットワークの想起結果、および、学習用ニ
ューラルネットワークの想起結果を取り込んで、それぞ
れについて評価する。学習用ニューラルネットワークの
想起結果が想起用ニューラルネットワークの想起結果よ
り精度が良いとき、想起用ニューラルネットワークの現
在の重み係数を、学習用ニューラルネットワークの学習
で得られた重み係数で更新する。従って、一時的な変動
等に、精度が変動することなく、より高精度にニューラ
ルネットワークを成長させることができる。
【0016】これにより、ニューラルネットワークを応
用する場合の隘路である、一旦、シナップスの重み係数
が固定化されることによる精度の劣悪化が解消できる。
【0017】
【実施例】以下、本発明の実施例について、図面を参照
して説明する。本発明のニューラルネットワークシステ
ムの一実施例の全体構成を、図1に示す。同図に示すシ
ステムは、予測システムとして用いられるものである。
なお、図において、実線は、トリガ等の起動リンケージ
を示し、二重線は、データリンケージを示す。本実施例
の予測システムは、予測装置9と、成長支援装置10と
により構成される。
【0018】予測装置9は、データ、指示等の入力が行
なわれる入力手段1と、ニューラルネットワークを用い
て、入力データに対して予測データの想起を行なうため
のニューラルネット予測手段2と、想起結果等を出力す
る出力手段3と、記憶メモリとにより構成される。記憶
メモリは、入力手段1から入力される時系列データを蓄
積するための時系列データメモリ4と、ニューラルネッ
ト予測手段2の想起結果等を記憶するための想起データ
メモリ5と、学習結果である重み係数を記憶するための
重み係数メモリ6とを有する。
【0019】入力手段1において、Δtのサンプリング
周期で時系列データを入力する。時系列データメモリ4
は、この時系列データを、サイクリックに記憶する。ニ
ューラルネット予測手段2は、重み係数メモリ6より、
現在の重み係数Wcを読出し、Δt後の時系列データを
予測(想起)し、想起データメモリ5へ想起結果Vc=
h(Xc)を、格納する。出力手段3は、ニューラルネ
ット予測手段2の予測値h(X)を出力する。
【0020】一方、成長支援装置は、ニューラルネット
ワークの学習を行なうためのニューラルネット学習手段
7と、ニューラルネット学習手段7の学習結果の評価を
行なって、重み係数を、予測精度がよりよいものに変更
するための重み係数成長手段8と、ΔTに設定されたタ
イマー11とにより構成される。
【0021】ニューラルネット学習手段7は、タイマー
11によりΔTで起動され、時系列データメモリ4に記
憶されているΔT過去のデータΔTを学習し、学習結果
WΔTを重み係数メモリ6へ格納するとともに、学習結
果h′(X)も、モニター用として出力するようにした
ものである。ニューラルネット学習手段7より起動され
た重み係数成長手段8は、時系列データメモリ4より、
時系列データの実測値uを、入力ニューロン数により読
出し、想起データメモリ5の、重み係数Wcによる想起
値Vc=h(Xc)と、重み係数WΔTによる想起値V
ΔT=h(XΔT)とにより、各々の相関係数を求め、
これらの相関係数によって、精度評価を行なう。また、
重み係数成長手段8は、評価の結果、ΔT過去の重み係
数WΔTの想起値の方が、それより前の時点での重み係
数の想起値より、予測精度が高い場合は、重み係数を必
要に応じて、オンラインで変更可能にしたものである。
【0022】ところで、オンラインで重み係数を変更す
る場合に、現在の予測機能に影響を与えないで、精度向
上を図る必要がある。そこで、本実施例においては、予
測装置9を構成する予測機能モジュールと、成長支援装
置10を構成する成長機能モジュールとの結合度をでき
る限り小さくする目的で、成長支援装置10に、タイマ
11により独自のタイマー機能を持たせて、予測装置9
からの起動リンケージを一切なくしている。この点が特
徴の1つである。
【0023】これにより、予測装置9と成長支援装置1
0とが分離可能となり、必要に応じて、成長支援機能を
追加して、有効にすることを可能としている。
【0024】本実施例の予測装置9および成長支援装置
10は、コンピュータシステムにより構成される。この
ために用いることができるコンピュータシステムのハー
ドウエア構成について、図16から図18に示す。図1
6に示すシステムは、コンピュータ本体100と、デー
タ等の入出力を行なうインタフェースとして機能する入
出力制御回路105と、データ等の入出力を行なうため
の入出力装置106とを有する。コンピュータ本体10
0は、1つの演算部(CPU)101と、1つの主記憶
装置102と、バス103と、バス制御回路104とを
有する。主記憶装置102には、データ、重み係数等の
他、演算部101の動作プログラムが格納されている。
演算部(CPU)101は、主記憶装置102に格納さ
れるプログラムを読みだして実行することにより、ニュ
ーラルネット予測手段2、ニューラルネット学習手段7
および重み係数成長手段8として機能する。また、CP
U101および入出力装置106は、入力手段1および
出力手段3として機能し、例えば、キーボード等の入力
装置、磁気記録装置等の記録装置、CRTディスプレ
イ、液晶ディスプレイ等のディスプレイ装置、データを
オンラインで入出力するための通信制御装置等の全部ま
たは一部と、それらの制御を行なう機能とが少なくとも
含まれる。
【0025】図17に示すシステムは、コンピュータ本
体200と、上述したものと同様の入出力制御回路10
5および入出力装置106とを有する。コンピュータ本
体200は、演算部(CPU1)201と、演算部(C
PU2)202と、1つの主記憶装置203と、バス2
04と、バス制御回路205とを有する。この場合、演
算部(CPU1)201と、演算部(CPU2)202
とを、予測装置9と成長支援装置10とにそれぞれ割り
振ることにより、それぞれの機能を並列処理することが
できる。
【0026】図18に示すシステムは、2台のコンピュ
ータ100,100と、コンピュータ間で共通にしよう
するグローバルメモリ150と、共通バス160と、上
述した入出力装置106とを有する。2台のコンピュー
タ100は、図16に示したものに限られない。このシ
ステムの場合には、2台のコンピュータ100,100
に、予測装置9と成長支援装置10とをそれぞれ割り振
ることにより、それぞれの機能を並列処理することがで
きる。予測装置9と成長支援装置10とでやり取りする
データは、グローバルメモリ150に記憶させる。
【0027】ところで、予測装置9の機能と、成長支援
装置10の機能とを、並列に処理する場合、全体が高負
荷となり、現在の予測機能に影響を与えてしまい、実用
上の性能条件(応答性)が満足できないという大きな問
題点が予想される。しかし、上述した、図17および図
18に示すシステムによれば、それぞれ独立のCPUに
よって、処理が行なえるので、この問題は起きない。つ
まり、予測機能における時系列データメモリ、想起デー
タメモリ、重み係数メモリを、CPU間の共通メモリと
して、予測機能と成長機能を連結させることができ、並
列処理が円滑に行なえるからである。
【0028】一方、図16に示すような、1のCPUで
実現する場合には、予測機能と成長機能とを、機能モジ
ュールとして分け、それぞれを独立に起動できるように
することにより、予測機能の稼働状況に応じて、成長機
能を起動することができ、ハードウエア資源の負荷の低
減を図って、それぞれの機能を実現することができる。
例えば、24時間稼動の予測装置でない場合は、成長機
能の自動学習タイミングを、タイマー機能の周期時間、
時刻指定をオンライン稼動のピーク負荷時間以外に設定
することにより、1つのCPU内部に実装することが容
易に可能となる。これは、例えば、予測機能をファジィ
推論装置やプロセス制御機能との組合せで実現するプロ
セス制御装置などの場合においても同様である。
【0029】図5(B)は、時系列データメモリ4内の
時系列データテーブルの構成の一例を示したものであ
る。同図において、現時点の時系列入力データをx(t
+md)、時系列データのサンプリング周期をΔt=d
として、また、一定時間過去の時間をΔT、学習対象期
間をTsで表わしている。時系列データメモリ4内に
は、サンプリング周期(Δt=d)の時系列データが、
開始点x(t−nd)からx(t−5d),x(t−4
d),x(t−3d),x(t−2d),x(t−
d),x(t)までの、学習対象となるTs期間の時系
列データXΔTとして記憶されており、これに、現時点
からΔTだけ過去の時系列データx(t+d),x(t
+2d),x(t+3d)……x(t+md)がさら
に、記憶されている。これらのデータは、入力手段1に
よって、サンプリング開始から現時点まで、時系列デー
タ(入力情報)をサイクリックに取り込まれて、時系列
データメモリ4にセットされる。
【0030】時系列データを入力情報として蓄積する場
合、時間の経過と共に、時系列データメモリ4が満杯に
なるという問題点がある。本実施例においては、時系列
データを現時点からサイクリックに記憶して、一定時間
経過したデータは、新しいデータに更新される。そし
て、学習指定タイマー11の値により、学習対象の時系
列データを求める方法で、メモリの有効利用をしてい
る。
【0031】また、図5(A)は、Xを時系列データの
値、Tを時刻とした時系列データのグラフを示したもの
である。x(t)〜x(t−nd)は、学習実行タイミ
ングで、学習対象とした時系列データを示したものであ
る。
【0032】図6(A)は、ニューロン数iの第1層、
ニューロン数jの第2層、ニューロン数kの第3層で構
成されるニューラルネットワークの構成の概要を模式的
に示す。同図(B)は、このような3層構造のニューラ
ルネットワークに対する重み係数テーブルを示したもの
である。Wcは、現在の重み係数を示し、WΔTは、一
定時間過去の時系列データで学習した重み係数を示す。
【0033】図7は、時系列データテーブルに対する想
起データテーブルの構成を示す。想起データテーブル
は、想起データメモリ5内に設けられる。本実施例で
は、重み係数Wcによる想起値Vc=h(Xc)を格納
するテーブルと、重み係数WΔTによる想起値h(XΔ
T)を格納するテーブルとが設けられている。
【0034】また、本実施例では、図7に示すように、
学習対象の時系列データの個数(Tsの期間の時系列デ
ータ個数)を一定とすると、ニューラルネットの入力ニ
ューロン数により、時系列データの実測値のデータ個数
に対する想起値個数が変化してしまうため、入力ニュー
ロン数により、時系列データの実測値を決定することに
より入力ニューロン数の変更に対応可能にしてある。つ
まり、入力ニューロン数i個のサンプリングデータに対
し、時系列データU1…Ul-1,Ulを決定し、重み係数
WΔTによる想起値をh(XΔT),VΔT1…VΔT
l-1,VΔTl、重み係数Wcによる想起値をh(X
c),Vc1…Vcl-1,Vclを想起することを示した
ものである。
【0035】次に、予測装置9の動作について、予測機
能を中心に、説明する。ここで、予測機能で使用する現
在の重み係数Wcは、成長機能で、現在の重み係数Wc
よりも、一定時間過去の時系列データにより学習した重
み係数WΔの方が予測精度が高い場合に、WΔに変更さ
れ、これが新たな重み係数Wcとなる。このときのイン
ターロックは、ニューラルネット予測手段2と重み係数
成長手段8との間で、現在の重み係数Wcの排他制御を
行ない、予測手段2が現在の重み係数Wcを参照してい
るときは、重み係数成長手段8が現在の重み係数Wcを
変更できない方式をとることとする。このインターロッ
ク方式は、例えば、重み係数メモリ6にビジーフラグを
持たせることによって実現できる。これにより、予測機
能が主体で、予測機能がビジーでないとき(サンプリン
グ間隔Δtの間など)に、重み係数の変更が可能とな
り、ニューラルネット予測手段2も、変更途中の重み係
数を使用することがなくなる。
【0036】図14は、Δt間隔で処理を実行する予測
機能の全体の処理手順を示したものである。以下、この
処理フローに従って、予測機能と成長機能の処理手順の
全体概要について説明する。
【0037】入力手段1により、図示していない計測装
置等により計測されたデータ等の、時系列データXをサ
ンプリング周期Δtで入力処理する(ステップS140
1)。そして、入力手段1で入力された時系列データX
は、時系列データメモリ4にサイクリックに記憶させる
と共に、ニューラルネット予測手段2に入力される(ス
テップS1402)。ニューラルネット予測手段2によ
り、重み係数メモリ6に対して、成長機能とのインター
ロックとして、重み係数メモリ6の現在の重み係数Wc
を使用中とするためのフラグをセットする(ステップS
1403)。この後、ニューラルネット予測手段2は、
重み係数メモリ6の現在の重み係数Wcにより想起する
(ステップS1404)。
【0038】ニューラルネット予測手段2は、想起が終
了すると、重み係数メモリ6の現在の重み係数Wcの使
用中を示すフラグをリセットして、現在の重み係数Wc
を使用可能状態に解放する(ステップS1405)。ニ
ューラルネット予測手段2は、現在の重み係数Wcによ
る想起結果Vc=h(Xc)を、想起データメモリ5に
転送して、記憶させる(ステップS1406)。また、
想起結果は、出力手段3にも送られる。そして、出力手
段3により、前記ステップの想起結果によりΔt後の値
を出力する(ステップS1407)。
【0039】次に、成長支援装置10の成長機能につい
て、図15を参照して説明する。図15は、ΔT(周期
または時刻指定)で処理を実行する成長機能の全体の処
理手順を示したものである。以下処理フローに従って説
明する。
【0040】ニューラルネット学習手段7は、時系列デ
ータメモリ4からΔT過去のTs期間の時系列データX
ΔTを取り込んで、これについて学習を行なう(ステッ
プS1501)。ニューラルネット学習手段7は、前記
ステップの学習結果VΔT=h(XΔT)を、想起デー
タメモリ5に格納して、記憶させる(ステップS150
2)。
【0041】重み係数成長手段8は、想起データVcと
学習結果VΔTとを想起データメモリ5より読みだし
て、それらの相関係数を計算する(ステップS150
3)。また、重み係数成長手段8は、計算された相関係
数を比較して、重み係数メモリ6の現在の重み係数Wc
を変更する必要があるか否か判定する(ステップS15
04)。
【0042】重み係数Wcを変更する必要がある場合、
重み係数成長手段8は、まず、重み係数メモリ6の現在
の重み係数Wcが使用中でない場合に、重み係数を使用
中とするようフラグをセットする(ステップS150
5)。ただし、使用中の場合は、解放されるまで、以降
の処理を遅延する。重み係数成長手段8は、使用中とし
た後、重み係数メモリ6の現在の重み係数Wcを、ΔT
過去の時系列データXΔTで学習した結果求められた重
み係数WΔTに更新する(ステップS1506)。そし
て、重み係数メモリ6の現在の重み係数Wcを解放(使
用中以外)する(ステップS1507)。ここで、学習
の結果得られた重み係数WΔTは、学習後、重み係数メ
モリ6に格納しておき、これを、現在の重み係数Wcと
する構成とすることができる。また、学習の結果得られ
た重み係数WΔTを、更新時に、ニューラルネット学習
手段7から読みだして、重み係数メモリ6に、現在の重
み係数Wcとして格納する構成とすることもできる。こ
こでは、前者の構成によるものとする。
【0043】次に、成長支援装置10におけるニューラ
ルネット学習手段の処理手順について、図2のフローチ
ャートを参照して説明する。まず、ニューラルネット学
習手段7は、時系列データメモリ4に格納された、Δt
のサンプリング周期で測定された時系列データの中で、
現時点からΔTだけ過去の時系列データXΔT(Ts期
間)を該メモリ4から読みだして、これについて学習す
る(ステップS101)。ここで、実行タイミングは、
ΔTの時間周期による。その後、ニューラルネット学習
手段7は、XΔTの学習結果(=WΔTによる想起結
果)VΔT=h(XΔT)を、想起データメモリ5へ送
って、記憶させる(ステップS102)。また、ニュー
ラルネット学習手段7は、重み係数メモリ6に対して、
ビジーフラグのセットにより、排他制御を行なって、X
ΔTの学習結果である重み係数WΔTを該重み係数メモ
リ6に格納して、記憶させる(ステップS103)。そ
して、成長支援装置10の重み係数成長手段8を起動す
る(ステップS104)。
【0044】次に、成長支援装置10における重み係数
成長手段8の処理手順について、図3に示すフローチャ
ートを参照して説明する。重み係数成長手段8は、想起
データVc=h(Xc)を想起データメモリ5から読み
だすと共に、それに対応する測定値Uを時系列データメ
モリ4から読みだす。そして、想起データVc=h(X
c)と測定値Uとの相関係数rcを演算する(ステップ
S201)。
【0045】
【数1】
【0046】次に、想起データメモリ5から想起データ
VΔT=h(XΔT)をさらに読みだし、想起データV
ΔT=h(XΔT)と測定値Uとの相関係数rΔTを演
算する(ステップS202)。
【0047】
【数2】
【0048】重み係数成長手段8は、得られた相関係数
rcとrΔTとを用いて、予測精度の比較を行う。ここ
で、 rc<rΔT のとき、現在の重み係数の更新が必要と判定する(ステ
ップS203)。そして、重み係数成長手段8は、重み
係数メモリ6について、現在の重み係数Wcを、ΔT過
去の時係数データXΔTで学習した結果の重み係数WΔ
Tに更新する(ステップS204)。
【0049】本実施例では、重み係数成長手段8が扱う
データを、時系列データに限定している。すなわち、相
関係数を用いて精度評価が可能なデータに限定してい
る。本実施例は、一定時間過去の時系列データを用い
て、オンラインで学習し、現時点の重み係数と比較し
て、一定時間過去の重み係数の方が現時点の重み係数よ
り精度が高いと評価できた場合に、重み係数を変更する
方式をとっている。
【0050】ところで、時系列データの場合、その精度
向上の有効性を、ある程度長いスパンで評価する必要が
ある。例えば、特別の事情により、データが著しく変動
していることが明らかである場合、それをもとに学習し
た結果得られた重み係数を用いることが適当でないこと
があり得る。このため、現在の重み係数を、学習した結
果求められた重み係数WΔTで、直接更新してしまうの
ではなく、操作員等の判断を加えて行なうようにしても
良い。例えば、図1のニューラルネット学習手段7の出
力、つまり一定時間過去の時系列データの学習結果の重
み係数による想起結果(h′(x))をモニターに出力
させて、操作員が検証できるようにすればよい。また、
後述する図4に示す重み係数成長手段8のように、現在
の重み係数更新部の有効/無効設定部18により、必要
に応じて、学習した結果求められた重み係数WΔTによ
る現在の重み係数の更新を可能とすることもできる。
【0051】本方式によれば、ニューラルネットワーク
による予測だけでなく、ファジイ推論手段などとの比較
を自動的に行ない、ニューラルネットによる予測精度が
他の予測手段より悪い場合には、自動的に重み係数を変
更することも可能となる。また、一定回数連続して一定
時間過去の時系列データの学習結果の重み係数の方が精
度が高い場合には、自動的に重み係数を変更するといっ
たことも可能となる。
【0052】次に、本発明の他の実施例について、説明
する。この実施例は、学習の結果得られた重み係数WΔ
Tを、更新時に、ニューラルネット学習手段7から読み
だして、重み係数メモリ6に、現在の重み係数Wcとし
て格納するものである。従って、重み係数成長手段8の
構成と、それに対するニューラルネットワーク学習手段
7および重み係数メモリ6の接続関係が異なるほかは、
上記第1図に示す実施例と、同様に構成される。図4
に、本実施例で用いられる重み係数成長手段8の機能構
成の一例を図4に示す。以下これについて説明する。本
手段8は、成長支援装置10のニューラルネット学習手
段7により、タイミングΔTで起動される。図4におい
て、実線の矢印は、トリガを表わし、二重線の矢印は、
情報の流れを表わしている。
【0053】重み係数成長手段8は、相関係数演算部1
2a,12bと、評価部13と、現在の重み係数更新部
14と、更新の有効/無効の設定部18とを有する。相
関係数演算部12aは、実測値Uと、重み係数Wcによ
る想起値Vc=h(Xc)との相関係数rcを演算す
る。相関係数演算部12bは、実測値Uと、重み係数W
ΔTによる想起値VΔT=h(XΔT)との相関係数r
ΔTを演算する。評価部13は、相関係数rcとrΔT
とを比較して評価する。現在の重み係数更新部14は、
相関係数が(rc<rΔT)の場合起動され、重み係数
WΔTをニューラルネット学習手段7から取り込んで、
これを重み係数メモリ6に書き込む処理を行なう。更新
の有効/無効の設定部18は、更新の有効/無効が設定
されると、それに従って、有効であれば、現在の重み係
数更新部14に更新を行なわせ、無効であれば、更新を
抑止する。設定は、例えば、操作員が入力手段1を介し
て行なうことができる。
【0054】次に、本発明のニューラルネットワークシ
ステムを適用した応用例について説明する。図8は、本
発明をトンネル汚染予測に適用した実施例を示す。ここ
では、ニューラルネットワークシステムとしては、上述
した図1に示すものと同じ構成のものが用いられる。
【0055】本実施例は、図8(B)に示すように、入
力ニューロン数6、中間ニューロン数8、出力ニューロ
ン数1のニューラルネットワークを用いたニューラルネ
ット予測手段2に、トンネル汚染予測における汚染値V
n,VIn-1,VIn-2,VIn-3,VIn-4,VIn-5
入力し、VIn+1を予測するものである。また、同様の
構成を有するニューラルネットワーク学習手段7に、学
習対象の時系列データが入力されて、学習が行なわれ
る。ここで、サンプリング周期は5分間で、学習対象
は、12時間としている。従って、 5分間×144=12時間 の計算から、学習対象の時系列データは、図8(A)に
示すように、V11…VI141,VI142,VI143,VI
144となる。また、一定時間過去の値を、24時間(Δ
T)として、1回/日のオンライン稼動時間以外に、学
習タイミングを与えるようにしている。
【0056】図9は、図7に対応したトンネル汚染予測
における時系列データテーブルと、想起データテーブル
の構成を示すものである。時系列データテーブルとし
て、汚染値VIの測定値をV1,V2,…V143,V
1 44は、5分間毎の時系列データ144個を示してお
り、入力ニューロン数が6個、つまり5分間×6個=3
0分間過去の時系列のデータにより、5分後の将来の値
を予測するニューラルネットワークにおいて、学習対象
期間を5分間×144個=12時間とした場合を示した
ものである。この場合の想起値は、138個となる。ま
た、想起データテーブルの構成は、重み係数WΔTにお
ける想起値h(XΔT)と重み係数Wcにおける想起値
h(Xc)とで同じである。
【0057】図10は、図8(B)のニューラルネット
ワークに対する重み係数メモリ内の現在の重み係数Wc
のテーブル構成と、ΔT過去の時系列データXΔT(T
S期間)の学習結果により求められた重み係数WΔTの
テーブル構成(構成は同一)を示したものである。入力
ニューロン数6個と中間ニューロン数8個に対する重み
係数Wij(i=1〜6,j=1〜8)と、中間ニューロ
ン数8個と出力ニューロン数1個に対する重み係数Vjk
(j=1〜8,k=1)とを記憶する重み係数テーブル
である。
【0058】図11は、本実施例における上りトンネル
5月13日(木曜日)について、空気の汚染度を示すV
I計の測定値(グラフの実線)とニューラルネットで予
測した場合のVI予測値(グラフの点線)を表わしたも
のである。
【0059】図19は、縦軸をVI予測値(%)、横軸
をVI測定値(%)として、138個の時系列データを
プロットした相関グラフである。これは、時系列データ
の予測精度の評価に使用するものであり、本実施での相
関係数は、下記の式で表わされるものを採用している。
【0060】
【数3】
【0061】相関図において、VI実測値(%)が増加
するとき、VI予測値(%)も増加する傾向(正の相
関)があり、実測値を予測値が直線上に並び、一致する
ときが最も強い相関を示し、r=1となる。
【0062】つぎに、本発明のニューラルネットワーク
システムを適用したプロセス制御装置の一例について、
図12によって説明する。実プロセスの一例であるトン
ネル換気プロセスのトンネル換気制御は、交通量などの
プロセス量から煤煙の汚染量VIを予測することによ
り、集塵機やジェットファンに対する運転操作量Mを求
めて制御し、汚染量を基準範囲内に維持しようとするも
のである。
【0063】図12に示す本実施例のプロセス制御装置
1200は、トンネル換気プロセス1220に適用され
たものである。トンネル換気プロセス1220には、プ
ロセス状態を検出する種々の検出器を有する測定機12
21と、対象の状態を変化させるための制御機器122
2、例えば、集塵するための集塵機とが設けられてい
る。
【0064】プロセス制御装置1200は、上記測定機
1221からの測定データを入力するための入力装置1
201と、入力されたデータに基づいて汚染値を推論す
るための推論装置1210と、推論された汚染値に基づ
いて、制御機器1222を操作する操作量を出力するた
めの出力装置1202とを有する。
【0065】推論装置1210は、入出力インターフェ
イス1200,1213と、成長型ニューラルネットワ
ーク1212とを有する。成長型ニューラルネットワー
ク1212としては、上述した実施例において示された
ニューラルネットワークシステムが用いられる。すなわ
ち、この成長型ニューラルネットワーク1212は、常
に新しい情報に一定時間過去の時系列データに対応して
学習した結果の方が、現在の重み係数を用いて行なう予
測より予測精度が高い場合は、重み係数を、学習して得
られた新しいものに自動変換する機能を有するものであ
る。
【0066】プロセス量の測定機1221によって測定
される量(n)は、プロセス入力装置1201によって
周期的(この例は5分)に取込まれる。取り込まれたプ
ロセス量は、インターフェイス1211で適合化され、
成長型ニューラルネットワーク1212に入力される。
成長型ニューラルネットワーク1212では、(n+
1)時刻の汚染量VIn+1を、現在の重み係数によって
予測する。予測値は、プロセス出力装置1202に送ら
れ、汚染量が基準内に維持されるように、制御機器12
22の操作量(現在制御量からの可変量)を求めて、当
該制御機器1222に出力する。成長型ニューラルネッ
トワーク1212での想起演算は、シナップスの結合
(重み係数)に応じておこなわれる。
【0067】この時、一定時間だけ過去の時点で学習を
行ない、この学習で想起された予測値と、現在の重み係
数によって予測した予測値とを、それぞれの相関係数で
比較し、現在の重み係数(過去の学習した結果)の予測
結果より、学習で想起された予測値の方が予測精度が高
い場合は、重み係数を、学習でえられた重み係数に変換
する。これによって、常に新しい情報に対する高精度な
予測が可能となり、リアルタイムな予測制御を可能にし
ている。
【0068】その他の特徴として、トンネル換気制御
は、交通量と関係しており、交通量の時系列データの場
合など、曜日や天候などによって、特性が異なる。この
場合の予測においては、重み係数が単一の場合より、各
特性に応じて重み係数をダイナミックに変更した方が精
度が向上する。このため、単に、学習した重み係数を、
最新の重み係数で上塗り更新するのではなく、それらの
重み係数を分類整理して保管し、分類した重み係数のう
ち最適なものを検索し、再利用する構成とすることがで
きる。
【0069】図13は、その一例を概念的に示したもの
である。同図に示すシステムは、与えられた現在の重み
係数Wcにより入力データXについて想起を行なって予
測値h(X)を求める予測回路1301と、予測値h
(X)に基づいて操作量F(X)を決定する操作量決定
回路1302と、学習用ニューラルネットワーク130
4と、これを学習させるための学習回路1303と、学
習結果と予測回路1301による予測値とを評価して、
重み係数の変更を行なってニューラルネットワークの成
長を行なわせるための成長回路1305と、学習の結果
得られた重み係数を、分類して格納するための重み係数
メモリ1306とを有する。このようなシステムによれ
ば、例えば、交通量の予測の場合、曜日により、その特
徴があることが、先見的に明らかである。このため、学
習は、1回/日実行するように、タイマーを設定してお
く。学習結果である重み係数は、予め曜日毎に分類記憶
しておく。その重み係数の中から、現在(今日の曜日)
と一致する重み係数による予測精度と比較し、予測精度
が高い場合は、該当の曜日の重み係数と置き換えるとい
った方法が可能である。
【0070】ここで、学習回路1303は、独自のタイ
マーTより起動され、学習結果と予測回路1301によ
る予測値は、成長回路1305により評価され、必要に
応じて、予測精度の高い重み係数W(i,j,k)に、
現在の重み係数Wcをオンラインで更新することが可能
となる。
【0071】図13には、重み係数メモリ1306内の
重み係数テーブルを3次元で模式的に表わしたものであ
り、i軸は、月を表わし、j軸は、日曜日〜土曜日を表
わし、k軸は、天候を表わしている。この場合、重み係
数が5月、水曜日で天候が雨の場合の重み係数が登録済
であるので、今回の重み係数と登録済の重み係数との精
度比較を行ない、今回の重み係数の方が精度が高い場合
に、現在の重み係数を更新し、かつ該当の重み係数に登
録済の重み係数を更新しておくようにする。この方式に
より、精度の高い予測と制御が可能となる効果がある。
【0072】以上に示した応用例に限らず、本発明は、
種々の応用例に適用することができる。例えば、各種の
プラントの運転制御における予測システム、株価予測シ
ステム等に広く適用することができる。
【0073】
【発明の効果】本発明によれば、実際に想起に使用して
いるニューラルネットワークの想起結果と、これとは別
の学習用ニューラルネットワークで学習された結果とを
比較して、学習結果の方が精度が良い場合に、学習で得
られた重み係数で、それまでの重み係数を更新すること
ができる。このため、実際に想起に使用しているニュー
ラルネットワークの重み係数を、実情に合わせて、変更
することができるので、想起の精度を向上することがで
きる。特に、時系列データに基づいて将来値を予測する
システムの場合には、予測精度の向上が図れるという効
果が顕著である。
【0074】また、はじめに少ないデータにより学習
し、その後は、自動的に精度が向上するように自動学習
が可能となるという効果がある。このため、初期の学習
時間を低減することができる。
【図面の簡単な説明】
【図1】本発明の成長機構を有するニューラルネットワ
ークシステムの一実施例の全体構成を示すブロック図。
【図2】本実施例におけるニューラルネット学習手段の
処理手順を示すフローチャート。
【図3】本実施例における重み係数成長手段の処理手順
を示すフローチャート。
【図4】本発明のニューラルネットワークシステムの他
の実施例の構成に用いられる重み係数成長手段の機能構
成をブロック図。
【図5】(A)は本発明の実施例において用いられる時
系列データの構成を示す説明図、(B)は時系列データ
のテーブルの構成の一例を示す説明図。
【図6】(A)は本発明の実施例において用いられるニ
ューラルネットワークの層構成の概要を示す説明図、
(B)は重み係数テーブルの構成の一例を示す説明図。
【図7】本はつめ異の実施例において用いられる想起デ
ータテーブルの構成の一例を示す説明図。
【図8】(A)はトンネル汚染予測に用いられる時系列
データの一例を示す説明図、(B)は本発明のニューラ
ルネットワークシステムをトンネル汚染予測に適用する
場合に用いられるニューラルネットワークの構成の一例
を示す説明図。
【図9】トンネル汚染予測における時系列データテーブ
ルおよび想起データテーブルの構成の一例を示す説明
図。
【図10】トンネル汚染予測における重み係数テーブル
の構成の一例を示す説明図。
【図11】トンネル汚染予測におけるVI計測定値とV
I予測値との関係を示すグラフ。
【図12】本発明のニューラルネットワークシステムを
適用したプロセス制御装置の一例を示すブロック図。
【図13】重み係数を分類整理して保管し、分類した重
み係数のうち最適なものを検索し、再利用する構成の一
例を示す説明図。
【図14】本発明のニューラルネットワークシステムの
一実施例における予測機能の処理手順を示すフローチャ
ート。
【図15】本発明のニューラルネットワークシステムの
一実施例における成長機能の処理手順を示すフローチャ
ート。
【図16】本発明のニューラルネットワークシステムを
実現するためのハードウエアシステムの一例の構成を示
すブロック図。
【図17】本発明のニューラルネットワークシステムを
実現するためのハードウエアシステムの他の例の構成を
示すブロック図。
【図18】本発明のニューラルネットワークシステムを
実現するためのハードウエアシステムのさらに他の例の
構成を示すブロック図。
【図19】トンネル汚染予測におけるVI計測定値とV
I予測値との相関係数の説明図。
【符号の説明】
1…入力手段、2…予測手段、3…出力手段、4…時系
列データメモリ、5…想起データメモリ、6…重み係数
メモリ、7…学習手段、8…重み係数成長手段、9…予
測装置、10…成長支援装置、11…周期タイマー、1
2a,12b…相関係数演算、13…相関係数比較部、
14…現在の重み係数更新部、18…有効/無効設定
部、1200…プロセス制御装置、1201…入力装
置、1202…出力装置、1210…推論装置、122
0…トンネル換気プロセス、1221…測定機、122
2…制御機器。
───────────────────────────────────────────────────── フロントページの続き (72)発明者 八尋 正和 茨城県日立市大みか町五丁目2番1号 株式会社 日立製作所 大みか工場内 (72)発明者 阿部 登 茨城県日立市大みか町五丁目2番1号 株式会社 日立製作所 大みか工場内 (56)参考文献 特開 平4−199259(JP,A) 特開 平4−205163(JP,A) (58)調査した分野(Int.Cl.6,DB名) G06F 15/18 520 G06G 7/60 JICSTファイル(JOIS)

Claims (4)

    (57)【特許請求の範囲】
  1. 【請求項1】入力データについて、予め与えられた重み
    係数により想起を行なう想起用ニューラルネットワーク
    と、与えられたデータに基づいて学習を行なうための学
    習用ニューラルネットワークと、想起用ニューラルネッ
    トワークの想起結果、および、学習用ニューラルネット
    ワークの想起結果について評価して、学習用ニューラル
    ネットワークの想起結果が想起用ニューラルネットワー
    クの想起結果より精度が良いとき、想起用ニューラルネ
    ットワークの重み係数を、学習用ニューラルネットワー
    クの学習で得られた重み係数で更新するための手段とを
    備えることを特徴とする成長機能を有するニューラルネ
    ットワークシステム。
  2. 【請求項2】請求項1において、 入力データは、時系列データであり、 想起用ニューラルネットワークは、時系列データに基づ
    いて予測値を想起するものである、成長機能を有するニ
    ューラルネットワークシステム。
  3. 【請求項3】請求項2において、 学習用ニューラルネットワークは、過去の時系列データ
    を入力して予測値を想起することにより学習を行なうも
    のである、成長機能を有するニューラルネットワークシ
    ステム。
  4. 【請求項4】入力時系列データに基づいて、予測を行な
    って予測値を出力する予測システムであって、 時系列データに基づいて予測を行なう予測装置と、該予
    測装置の予測精度を向上するための成長支援装置とを備
    え、 予測装置は、 時系列データを取り込む入力手段と、 入力された時系列データを蓄積する時系列データメモリ
    と、 ニューラルネットワークを有し、入力された時系列デー
    タについて予測値の想起を行なうニューラルネット予測
    手段と、 想起された結果を蓄積する想起データメモリと、 想起された結果を予測値として出力する出力手段と、 ニューラルネット予測手段が想起に用いる重み係数を記
    憶するための重み係数メモリとを備え、 成長支援手段は、 時系列データメモリに蓄積される時系列データを用いて
    学習を行なうニューラルネット学習手段と、 上記ニューラルネット予測手段の想起結果と、上記ニュ
    ーラルネット学習手段の想起結果とについて、それぞれ
    実測値との相関係数を求めて、それらを比較して、ニュ
    ーラルネット学習手段の想起結果が、ニューラルネット
    予測手段の想起結果より精度が良い場合、上記重み係数
    メモリに記憶されている重み係数を、ニューラルネット
    学習手段における学習によって得られた重み係数で更新
    する重み係数成長手段とを備えることを特徴とする予測
    システム。
JP4320926A 1992-11-30 1992-11-30 成長機能を有するニューラルネットワークシステム Expired - Lifetime JP2986294B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP4320926A JP2986294B2 (ja) 1992-11-30 1992-11-30 成長機能を有するニューラルネットワークシステム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP4320926A JP2986294B2 (ja) 1992-11-30 1992-11-30 成長機能を有するニューラルネットワークシステム

Publications (2)

Publication Number Publication Date
JPH06168348A JPH06168348A (ja) 1994-06-14
JP2986294B2 true JP2986294B2 (ja) 1999-12-06

Family

ID=18126829

Family Applications (1)

Application Number Title Priority Date Filing Date
JP4320926A Expired - Lifetime JP2986294B2 (ja) 1992-11-30 1992-11-30 成長機能を有するニューラルネットワークシステム

Country Status (1)

Country Link
JP (1) JP2986294B2 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017090194A1 (ja) 2015-11-27 2017-06-01 富士通株式会社 リスク評価方法、リスク評価プログラム及び情報処理装置
JP7168393B2 (ja) * 2018-09-21 2022-11-09 日鉄ソリューションズ株式会社 情報処理装置、情報処理方法、プログラム及び記憶媒体
JP6816186B2 (ja) * 2019-03-08 2021-01-20 三菱電機株式会社 ニューラルネットワーク装置
JP7086500B2 (ja) * 2020-11-16 2022-06-20 三菱電機株式会社 ニューラルネットワーク装置

Also Published As

Publication number Publication date
JPH06168348A (ja) 1994-06-14

Similar Documents

Publication Publication Date Title
CN110298501B (zh) 基于长短时记忆神经网络的电负荷预测方法
US7058550B2 (en) Selectively resampling particle filter
CN111310965A (zh) 一种基于lstm网络的飞行器航迹预测方法
CN111047078B (zh) 交通特征预测方法、系统及存储介质
WO2020015491A1 (zh) 驾驶设备决策的预测方法和装置
CN111795761A (zh) 一种基于强化学习模型的预测机柜进风温度的方法
CN111968414A (zh) 基于大数据和ai的4d轨迹预测方法、装置及电子设备
CN113010954A (zh) 桥梁结构损伤识别方法、装置及终端设备
CN112990585A (zh) 一种基于LSTM-Kalman模型的蛋鸡产蛋率预测方法
US20040019469A1 (en) Method of generating a multifidelity model of a system
JP2986294B2 (ja) 成長機能を有するニューラルネットワークシステム
CN115081920A (zh) 考勤签到调度管理方法、系统、设备及存储介质
Mellit et al. Neural network adaptive wavelets for sizing of stand-alone photovoltaic systems
CN116960962A (zh) 一种跨区域数据融合的中长期区域负荷预测方法
JPH0581228A (ja) ニユーラルネツトワークの構成方法および学習/想起システム
CN113705932B (zh) 一种短期负荷预测方法及装置
JP3056324B2 (ja) 学習/想起方法および装置
JP3077883B2 (ja) 需要量予測装置
CN114118591A (zh) 基于在线学习的台区用电负荷区间预测方法及系统
JP3181018B2 (ja) 気象予測装置
CN114879769B (zh) 一种船舱湿度控制方法及装置
CN114066076B (zh) 一种基于多租户的网约车预测方法及装置
CN118192479B (zh) 基于数据采集的工厂车间数字孪生模型校正方法及系统
Li et al. Nonlinear time series modeling and prediction using RBF network with improved clustering algorithm
JP3250601B2 (ja) 気象予測装置

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081001

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091001

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101001

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111001

Year of fee payment: 12

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121001

Year of fee payment: 13