JP2001344590A - Neural network and method for learning the same and method for analyzing the same and method for judging abnormality - Google Patents

Neural network and method for learning the same and method for analyzing the same and method for judging abnormality

Info

Publication number
JP2001344590A
JP2001344590A JP2000166528A JP2000166528A JP2001344590A JP 2001344590 A JP2001344590 A JP 2001344590A JP 2000166528 A JP2000166528 A JP 2000166528A JP 2000166528 A JP2000166528 A JP 2000166528A JP 2001344590 A JP2001344590 A JP 2001344590A
Authority
JP
Japan
Prior art keywords
neural network
learning
intermediate layer
input
layer element
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2000166528A
Other languages
Japanese (ja)
Inventor
Tatsuya Iizaka
達也 飯坂
Tetsuo Matsui
哲郎 松井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fuji Electric Co Ltd
Original Assignee
Fuji Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Electric Co Ltd filed Critical Fuji Electric Co Ltd
Priority to JP2000166528A priority Critical patent/JP2001344590A/en
Publication of JP2001344590A publication Critical patent/JP2001344590A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a network having interchangeability with a conventional network, and whose inside analysis is simple, and to provide a method for learning the network, a method for analyzing the network, and a method for judging abnormality. SOLUTION: In this neural network in a hierarchical structure having plural input layer elements and plural intermediate layer elements and a method for learning the network, a method for analyzing the network, and a method for judging abnormality, non-dense connecting parts 12 constituted by connecting intermediate layer elements to a part of those plural input layer elements are generated by eliminating the connection of the input layer elements to the intermediate layer elements (turning the weight into 0).

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、ニューラルネット
ワークを用いた各種の制御、予測、診断に関する情報処
理分野において、ニューラルネットワーク自体の構造、
及びその学習方法、ニューラルネットワーク自体の解析
方法、解析結果に基づく異常判定方法に関するものであ
る。
The present invention relates to the field of information processing related to various controls, predictions, and diagnoses using a neural network.
And a learning method thereof, an analysis method of the neural network itself, and an abnormality determination method based on the analysis result.

【0002】[0002]

【従来の技術】周知のようにニューラルネットワークは
学習能力を持ち、非線形性、パターンマッチング性能に
優れており、制御、予測、診断等の多くの分野に用いら
れている。このニューラルネットワークとしては多くの
構造が提案されているが、実用化されたその多くは階層
型、特に3階層型のものがほとんどである。階層型のニ
ューラルネットワークは、通常バックプロパゲーション
法(誤差逆伝播法)と呼ばれるアルゴリズムにより学習
し、内部の結合状態が調整される。こうして学習したニ
ューラルネットワークは、学習データと同一の入力デー
タを与えると学習データとほぼ同一の出力をする。ま
た、学習データに近い入力を与えると学習データに近い
出力をする特徴がある。最小自乗法によって構築される
回帰式と比較すると、ニューラルネットワークは非線形
性に優れているが、内部構造が複雑で解析が困難なた
め、未知データに対してはどのような出力をするか分か
らない欠点がある。
2. Description of the Related Art As is well known, a neural network has a learning ability, is excellent in non-linearity and pattern matching performance, and is used in many fields such as control, prediction, and diagnosis. Although many structures have been proposed as the neural network, most of the practically used neural networks are mostly of a hierarchical type, especially a three-layer type. The hierarchical neural network learns by an algorithm usually called a back propagation method (error back propagation method), and the internal connection state is adjusted. The neural network trained in this way, when given the same input data as the learning data, outputs almost the same output as the learning data. Further, there is a feature that when an input close to the learning data is given, an output close to the learning data is output. Compared to the regression formula constructed by the least squares method, the neural network is superior in nonlinearity, but it has a complicated internal structure and is difficult to analyze, so it is not known how to output unknown data There are drawbacks.

【0003】従来のニューラルネットワークを解析する
方法としては、内部構造を直接解析する例として、代表
的な以下の3例がある。 「ニューラルネットワークの構造学習による規則性の
発見と汎化」:日本神経回路学会誌、Vol.1, No.2(199
4)がある。この方法は、忘却の概念によりニューラルネ
ットワークの不要な結合を削除し、必要な結合のみを残
す方法により、内部解析を行う方法である。パターン認
識の分野において、その有効性が示されている。 「ファジィニューラルネットワークの構成法と学習
法」:日本ファジィ学会誌、Vol.4, No5.(1992)では、
ファジィとニューロが融合した新しい構造のファジィニ
ューラルネットワークにより、内部解析を可能にしてい
る。 「ニューラルネットワークを用いたファジーIF-THEN
ルールの自動抽出」:電気学会論文誌C,Vol.110-C,N
o.3,(1990)は、分散ニューラルネットワークと言われる
特殊構造をもつニューラルネットワークよりファジィ規
則を抽出することで解析を行っている。
As a conventional method for analyzing a neural network, there are the following three typical examples as examples of directly analyzing the internal structure. "Discovery and Generalization of Regularity by Neural Network Structure Learning": Journal of the Japanese Neural Network Society, Vol.1, No.2 (199
There is 4). This method is a method of performing an internal analysis by a method in which unnecessary connections of a neural network are deleted by the concept of forgetting, and only necessary connections are left. Its effectiveness has been shown in the field of pattern recognition. "Construction and Learning Methods of Fuzzy Neural Networks": Journal of Fuzzy Society of Japan, Vol.4, No5. (1992)
A fuzzy neural network with a new structure that fuses fuzzy and neuron enables internal analysis. "Fuzzy IF-THEN using neural networks
Automatic extraction of rules ”: IEEJ Transactions on Electronics, C, Vol. 110-C, N
o.3, (1990) analyzes by extracting fuzzy rules from a neural network having a special structure called a distributed neural network.

【0004】また、直接的な内部解析は行っていない
が、出力値の説明・信頼性の評価方法として、特開平
10−74188「データ学習装置およびプラント制御
装置」、特願平11−322130「ニューラルネッ
トワークの出力値の評価装置,評価方法及び記憶媒体」
がある。何れの方法も、予測・制御時の入力データに近
い値を学習データより検索して表示する方法である。
Although no direct internal analysis is performed, Japanese Patent Application Laid-Open No. H10-74188, "Data Learning Apparatus and Plant Control Apparatus", and Japanese Patent Application No. H11-322130, describe a method for evaluating the reliability of output values. Evaluation device, evaluation method and storage medium for output value of neural network "
There is. Each method is a method of searching and displaying a value close to input data at the time of prediction / control from learning data.

【0005】ニューラルネットワークの学習方法はバッ
クプロパゲーション法が一般的であるが、性能の点で問
題が指摘されている。すなわち、バックプロパゲーショ
ン法ではニューラルネットワークの階層数や素子数を事
前に決定する必要があるが、これらに関する情報が事前
に得られることはなく、ニューラルネットワークを最適
化するためには階層数や素子数を試行錯誤的に探索する
必要がある。特に、ニューラルネットワークの内部構造
が複雑な場合には、探索に時間と手間がかかる。また、
バックプロパゲーション法により得られた学習後のニュ
ーラルネットワークはブラックボックスとなり、中間層
素子の意味付けが困難な場合が多い。これらの問題点に
鑑み、特願平11−066165「ニューラルネット
ワークの最適化学習方法」や、特願2000−710
11「ニューラルネットワークの最適化学習方法」等、
不要な中間層素子や結合を削減する学習方法が近年提案
されている。これらの学習アルゴリズムを使用すると、
非常にコンパクトで性能の良いニューラルネットワーク
を構築することが可能である。
[0005] A back propagation method is generally used as a learning method of a neural network, but a problem has been pointed out in terms of performance. That is, in the back propagation method, it is necessary to determine the number of layers and the number of elements of the neural network in advance, but information on these is not obtained in advance, and to optimize the neural network, the number of layers and the number of elements are It is necessary to search for the number by trial and error. In particular, when the internal structure of the neural network is complicated, the search takes time and effort. Also,
The neural network after learning obtained by the back propagation method becomes a black box, and it is often difficult to define the meaning of the intermediate layer element. In view of these problems, Japanese Patent Application No. 11-066165 “Neural Network Optimization Learning Method” and Japanese Patent Application No. 2000-710.
11 "Neural network optimization learning method", etc.
In recent years, learning methods for reducing unnecessary intermediate layer elements and coupling have been proposed. With these learning algorithms,
It is possible to construct a very compact and high-performance neural network.

【0006】[0006]

【発明が解決しようとする課題】ニューラルネットワー
クはその学習能力、非線形能力、パターンマッチング性
能等、優れた能力のため多くの分野において利用されて
いるが、一般に内部構造が非線形かつ複雑なため、その
出力値がどうして出力されたかを理解し易く説明するこ
とが困難であった。前記,の従来技術は、対象状態
の入力データに近い学習データを検索して表示する方法
であるが、内部解析をしていないため学習データにない
未知の入力データに対しては説明不能である。
Neural networks are used in many fields because of their excellent abilities such as learning ability, non-linear ability, and pattern matching ability. It was difficult to easily understand and explain why the output value was output. The above prior art is a method of searching for and displaying learning data close to the input data in the target state, but cannot explain unknown input data that is not in the learning data because internal analysis is not performed. .

【0007】また、前記,,の従来技術では、内
部解析を行っているため、未知の入力状態に対してもど
のような出力が得られるかが分かる。しかし、の従来
技術はパターン認識のような離散的な問題では有効であ
るが、連続値を対象とする問題は扱えない欠点がある。
,の従来技術は、通常のニューラルネットワーク構
造とは完全に異なる特殊構造のニューラルネットワーク
を用いているので、汎用性に乏しい。特に、の従来技
術はその構造上、入力因子が多くなると指数関数的に学
習時間が増大し、またその能力も通常のニューラルネッ
トワークには及ばない。更に、の従来技術は、ニュー
ラルネットワーク構造が複雑であるばかりでなく、その
解析方法も難しく、また抽出したファジィ規則も単純で
はないという問題がある。そして、前記,の従来技
術は、コンパクトな構造が得られる利点があるが、構造
自体は従来のニューラルネットワークと同じであるの
で、内部解析を行うことは不可能である。
In the above-mentioned prior arts, since the internal analysis is performed, it is possible to know what output can be obtained even for an unknown input state. However, although the prior art is effective for discrete problems such as pattern recognition, it has a drawback that it cannot handle problems targeting continuous values.
The prior art uses a neural network having a special structure completely different from a normal neural network structure, and thus lacks versatility. In particular, in the prior art, due to its structure, the learning time increases exponentially as the number of input factors increases, and its ability is inferior to ordinary neural networks. Further, the prior art has problems that not only is the neural network structure complicated, but also its analysis method is difficult, and the extracted fuzzy rules are not simple. The above-mentioned prior art has an advantage that a compact structure can be obtained. However, since the structure itself is the same as that of a conventional neural network, it is impossible to perform an internal analysis.

【0008】そこで本発明の解決課題は、通常の階層型
ニューラルネットワークと完全に互換性があってその内
部解析が容易である構造のニューラルネットワークと、
その学習方法、解析方法及び異常判定方法を提供しよう
とするものである。例えば、 y=ax1+bx2+cx12+d (x1,x2は入力変数、yは出力変数、a,b,c,d
は係数)として表されるような、従来技術の回帰式の場
合では、 出力の要因が明確である(x1,x2の要因により変化
することが明確である)、 各要因の働きが明確である(x1,x2の独立した成分
(回帰式の右辺第1項、第2項)とその相互作用の成分
(同第3項)から成り立つ)、 各要因の入出力に対する影響度合いが明確である(x
1,x2,x12の影響度合いは、a,b,cであり、固
定分としてdがある)、といった特徴があり、これらの
特徴によって内部解析が容易になっている。
[0008] Therefore, the object of the present invention is to provide a neural network having a structure which is completely compatible with a normal hierarchical neural network and whose internal analysis is easy,
It is intended to provide a learning method, an analysis method, and an abnormality determination method. For example, y = ax 1 + bx 2 + cx 1 x 2 + d (x 1, x 2 are input variables, y the output variables, a, b, c, d
In the case of the regression equation of the prior art as expressed as a coefficient, the output factor is clear (it is clear that it depends on the factors x 1 and x 2 ), and the function of each factor is clear. (Consisting of independent components of x 1 and x 2 ( first and second terms on the right side of the regression equation) and components of their interaction (third term)), the degree of influence of each factor on input and output is Is clear (x
1 , x 2 , and x 1 × 2 have a degree of influence of a, b, and c, and there is d as a fixed component). These characteristics facilitate internal analysis.

【0009】従って、本発明は、このような回帰式の解
析の容易さを既存のニューラルネットワークによって実
現しようとするものであり、また、従来のニューラルネ
ットワークと互換性のある構造によって既存システムへ
の適用を容易にし、更にその性能も現状と同等であるニ
ューラルネットワーク及びその学習方法、解析方法等を
提供しようとするものである。
Accordingly, the present invention aims to realize the easiness of analysis of such a regression equation by using an existing neural network, and furthermore, by using a structure that is compatible with a conventional neural network, an existing system can be implemented. An object of the present invention is to provide a neural network which is easy to apply and has the same performance as the current state, and a learning method and an analysis method thereof.

【0010】[0010]

【課題を解決するための手段】上記課題を解決するた
め、請求項1記載の発明は、複数の入力層素子及び複数
の中間層素子を有する階層型構造のニューラルネットワ
ークにおいて、複数の入力層素子のうちの一部に中間層
素子が結合されてなる疎結合部分を有することを特徴と
する。
In order to solve the above-mentioned problem, the present invention is directed to a neural network having a hierarchical structure having a plurality of input layer elements and a plurality of intermediate layer elements. Is characterized by having a loosely-coupled portion formed by coupling an intermediate layer element to a part thereof.

【0011】請求項2記載の発明は、請求項1の全体に
記載したニューラルネットワークを学習するためのニュ
ーラルネットワークの学習方法において、入力層素子と
中間層素子との間の全ての重みを初期化する第1ステッ
プと、任意の入力層素子と中間層素子との間の結合を削
除する第2ステップと、学習誤差を評価するための評価
関数を用いてこの評価関数が小さくなるように入力層素
子と中間層素子との間の重みの修正量を算出する第3ス
テップと、任意の入力層素子と中間層素子との間の重み
の修正量を0にする第4ステップと、第3ステップ及び
第4ステップを経て得られた最終的な修正量を用いて入
力層素子と中間層素子との間の重みを修正する第5ステ
ップとを有し、学習誤差が規定値以下になるまで第3ス
テップ以下の処理を繰り返し実行するものである。
According to a second aspect of the present invention, in the neural network learning method for learning a neural network according to the first aspect, all weights between an input layer element and an intermediate layer element are initialized. A second step of removing a coupling between an arbitrary input layer element and an intermediate layer element, and an input layer such that the evaluation function is reduced using an evaluation function for evaluating a learning error. A third step of calculating a weight correction amount between the element and the intermediate layer element, a fourth step of setting the weight correction amount between an arbitrary input layer element and the intermediate layer element to 0, and a third step And a fifth step of correcting the weight between the input layer element and the intermediate layer element by using the final correction amount obtained through the fourth step. Processing of 3 steps or less It is intended to repeatedly run.

【0012】請求項3記載の発明は、請求項2の第3ス
テップにおいて、前記評価関数は、学習誤差を評価して
学習誤差を小さくするための項と、ニューラルネットワ
ークの構造を簡素化するために不要な中間層素子を削減
するための項とを併せ持つものである。
According to a third aspect of the present invention, in the third step of the second aspect, the evaluation function is a term for evaluating a learning error to reduce the learning error and for simplifying the structure of the neural network. And a term for reducing unnecessary intermediate layer elements.

【0013】請求項4記載の発明は、請求項2または請
求項3において、第6ステップとして、中間層素子の中
の1個の素子の出力値系列を用いて求めた分散が規定値
以下である場合にこの素子をバイアス素子に融合し、中
間層素子の中の2個の素子の出力値系列を用いて求めた
相関係数が別の規定値以上である場合にこれら2個の中
間層素子を情報伝達的に同じ働きであるとして融合する
ことによりコンパクト構造化を行って中間層素子を削減
するステップを有するものである。
According to a fourth aspect of the present invention, in the second or third aspect, as a sixth step, the variance obtained by using the output value sequence of one element in the intermediate layer element is less than a specified value. In some cases, this element is fused to a bias element, and when the correlation coefficient obtained using the output value series of two elements in the intermediate layer element is equal to or greater than another specified value, these two intermediate layers are used. The method has a step of reducing the number of intermediate layer elements by performing compact structuring by fusing elements as having the same function in information transmission.

【0014】請求項5記載の発明は、請求項2における
第2ステップと第3ステップとの間に、中間層素子を並
べ替えることにより、疎結合部分を構成する中間層素子
と、複数の入力層素子の全てに中間層素子が結合されて
なる全結合部分を構成する中間層素子とを、それぞれ別
のグループにまとめる処理を行うステップを挿入すると
共に、請求項2における第3ステップにおいて、疎結合
部分を構成する中間層素子の結合を全結合部分を構成す
る中間層素子の結合よりも早く成長させるような評価関
数を用いて重みの修正量を算出するものである。
According to a fifth aspect of the present invention, an intermediate layer element constituting a loosely coupled portion is obtained by rearranging the intermediate layer elements between the second step and the third step. A step of performing a process of putting together the intermediate layer elements constituting the entire coupling portion in which the intermediate layer elements are coupled to all of the layer elements into separate groups is inserted, and in the third step in claim 2, The weight correction amount is calculated using an evaluation function that causes the coupling of the intermediate layer elements forming the coupling portion to grow faster than the coupling of the intermediate layer elements constituting the entire coupling portion.

【0015】請求項6記載の発明は、請求項2における
第2ステップと第3ステップとの間に、中間層素子を並
べ替えて疎結合部分を構成する中間層素子を有する部分
ニューロと全結合部分を構成する中間層素子を有する部
分ニューロとを交互に配置するステップを挿入すると共
に、請求項2における第3ステップにおいて、任意の中
間層素子の結合を他の中間層素子の結合よりも早く成長
させるような評価関数を用いて重みの修正量を算出する
ものである。
According to a sixth aspect of the present invention, between the second step and the third step in the second aspect, the partial neuron having the intermediate layer element constituting the loosely coupled portion by rearranging the intermediate layer element is fully coupled to the partial neuro. A step of alternately arranging partial neurons having an intermediate layer element constituting a part is inserted, and in the third step in claim 2, the coupling of any intermediate layer element is performed faster than the coupling of other intermediate layer elements. The amount of weight correction is calculated using an evaluation function that causes growth.

【0016】請求項7記載の発明は、請求項2における
第3ステップにおいて、任意の中間層素子の結合を他の
中間層素子の結合よりも早く成長させる項と、ニューラ
ルネットワークの構造を簡素化するために不要な中間層
素子を削減するための項とを併せ持つ評価関数を用いて
重みの修正量を算出するものである。
According to a seventh aspect of the present invention, in the third step of the second aspect, a term for growing an arbitrary intermediate layer element faster than the other intermediate layer elements and simplifying the structure of the neural network. The weight correction amount is calculated by using an evaluation function having a term for reducing unnecessary intermediate layer elements.

【0017】請求項8記載の発明は、請求項5に記載し
た学習方法と請求項6に記載した学習方法とを交互に実
施するものである。
According to an eighth aspect of the present invention, the learning method according to the fifth aspect and the learning method according to the sixth aspect are alternately performed.

【0018】請求項9記載の発明は、請求項2〜8の何
れか1項に記載された学習方法により構築されたニュー
ラルネットワークを対象として、入力層素子、中間層素
子及び出力層素子の相互の結合状態から、線形性、非線
形性等の入力因子の出力への影響度合いを解析するもの
である。
According to a ninth aspect of the present invention, there is provided a neural network constructed by the learning method according to any one of the second to eighth aspects, wherein an input layer element, an intermediate layer element, and an output layer element are interconnected. Is to analyze the degree of influence of input factors such as linearity and non-linearity on the output from the connection state of.

【0019】請求項10記載の発明は、請求項1の全体
に記載されたニューラルネットワークを対象として、入
力層素子及び中間層素子の有効性を示す評価指標を用い
てニューラルネットワークの構造を解析するものであ
る。
According to a tenth aspect of the present invention, the structure of the neural network is analyzed using the evaluation index indicating the effectiveness of the input layer element and the intermediate layer element for the neural network described in the entirety of the first aspect. Things.

【0020】請求項11記載の発明は、請求項1の全体
に記載されたニューラルネットワークを対象として、任
意の入力データを入力したときの、中間層素子から出力
層素子に伝達される情報量の大きさに基づいて入力因子
の出力への影響を解析するものである。
According to an eleventh aspect of the present invention, the amount of information transmitted from the intermediate layer element to the output layer element when arbitrary input data is input is targeted for the neural network described in the entirety of the first aspect. This is to analyze the influence of the input factor on the output based on the size.

【0021】請求項12記載の発明は、請求項1の全体
に記載されたニューラルネットワークを対象として、任
意の入力データを入力したときの、中間層素子から出力
層素子に伝達される情報量と入力データとの相関関係に
基づいて入力因子の出力への影響を解析するものであ
る。
According to a twelfth aspect of the present invention, the amount of information transmitted from an intermediate layer element to an output layer element when arbitrary input data is input to the neural network described in the entirety of the first aspect is described. This is to analyze the influence of the input factor on the output based on the correlation with the input data.

【0022】請求項13記載の発明は、請求項1の全体
に記載されたニューラルネットワークを対象として、任
意の入力データを入力したときの、中間層素子から出力
層素子に伝達される情報量と入力データとの相関関係に
基づいて、ニューラルネットワーク出力値の上下限値を
解析するものである。
According to a thirteenth aspect of the present invention, the amount of information transmitted from an intermediate layer element to an output layer element when arbitrary input data is input to the neural network described in the entirety of the first aspect is described. The upper and lower limits of the output value of the neural network are analyzed based on the correlation with the input data.

【0023】請求項14記載の発明は、請求項9〜13
の何れかに記載された解析方法によりニューラルネット
ワークを解析し、異常判定用データベースと照らし合わ
せてニューラルネットワークの学習状態の良否を判定
し、その結果を出力するものである。
The invention according to claim 14 is the invention according to claims 9 to 13
The neural network is analyzed by the analysis method described in any one of the above, the quality of the learning state of the neural network is determined by comparing it with the abnormality determination database, and the result is output.

【0024】請求項15記載の発明は、請求項14に記
載した異常判定方法において、学習対象の現象が予め定
性的に判明しているときに、ニューラルネットワークの
素子間の結合状態に基づいてニューラルネットワークの
学習状態の良否を判定するものである。
According to a fifteenth aspect of the present invention, in the abnormality determination method according to the fourteenth aspect, when the phenomenon to be learned is qualitatively known in advance, the neural network is based on a connection state between elements of the neural network. This is to determine the quality of the learning state of the network.

【0025】請求項16記載の発明は、請求項14に記
載した異常判定方法において、学習対象の現象が定性的
に判明しているときに、ニューラルネットワークの内部
状態を示す数値指標として入力層素子及び中間層素子の
有効性を示す評価指標に基づいてニューラルネットワー
クの学習状態の良否を判定するものである。
According to a sixteenth aspect of the present invention, in the abnormality determination method according to the fourteenth aspect, when the phenomenon to be learned is qualitatively determined, the input layer element is used as a numerical index indicating the internal state of the neural network. And determining whether the learning state of the neural network is good or not based on the evaluation index indicating the effectiveness of the intermediate layer element.

【0026】請求項17記載の発明は、請求項14に記
載した異常判定方法において、学習対象の現象を表す数
式が存在するときに、その数式とニューラルネットワー
クの内部状態の相関係数とを比較して学習不良を判定す
るものである。
According to a seventeenth aspect of the present invention, in the abnormality determining method according to the fourteenth aspect, when a mathematical expression representing a phenomenon to be learned exists, the mathematical expression is compared with a correlation coefficient of an internal state of the neural network. To determine the learning failure.

【0027】請求項18記載の発明は、請求項14に記
載した異常判定方法において、ニューラルネットワーク
の出力の上限値が学習データの上限値よりも小さいと
き、または、ニューラルネットワークの出力の下限値が
学習データの下限値よりも大きいときに学習不良を判定
するものである。
The invention according to claim 18 is the abnormality determination method according to claim 14, wherein the upper limit value of the output of the neural network is smaller than the upper limit value of the learning data, or the lower limit value of the output of the neural network is smaller. The learning failure is determined when the learning data is larger than the lower limit value.

【0028】請求項19記載の発明は、請求項14〜1
8の何れかに記載された異常判定方法によりニューラル
ネットワークの学習不良が判明したときに、必要に応じ
て再学習を行うものである。
The invention according to claim 19 is the invention according to claims 14 to 1.
8, when learning failure of the neural network is found by the abnormality determination method described in any one of 8 above, re-learning is performed as necessary.

【0029】請求項20記載の発明は、請求項17の発
明において、学習不良である範囲を自動的に特定し、そ
の範囲の学習データを増加させて再学習させるものであ
る。
According to a twentieth aspect of the present invention, in the invention of the seventeenth aspect, a range in which learning is poor is automatically specified, and learning data is increased in the range and re-learned.

【0030】請求項21記載の発明は、請求項1の全体
に記載したニューラルネットワークを学習するためのニ
ューラルネットワークの学習方法において、入力層素子
と中間層素子との間の全ての重みを初期化する第1ステ
ップと、任意の入力層素子と中間層素子との間の結合を
削除して全結合部分を生成することなく疎結合部分の中
間層部分のみを生成する第2ステップと、学習誤差を評
価するための評価関数を用いてこの評価関数が小さくな
るように入力層素子と中間層素子との間の重みの修正量
を算出する第3ステップと、任意の入力層素子と中間層
素子との間の重みの修正量を0にする第4ステップと、
第3ステップ及び第4ステップを経て得られた最終的な
修正量を用いて入力層素子と中間層素子との間の重みを
修正する第5ステップと、学習誤差が規定値以下になっ
たときに学習終了と判断する第6ステップと、学習誤差
が規定値以上であるときに第3ステップ以下の処理を再
度実行するために中間層素子を追加する第7ステップと
を有するものである。
According to a twenty-first aspect of the present invention, in the neural network learning method for learning a neural network according to the first aspect, all weights between an input layer element and an intermediate layer element are initialized. A first step of removing a coupling between an arbitrary input layer element and an intermediate layer element and generating only an intermediate layer part of a loosely coupled part without generating a fully coupled part; and a learning error. A third step of calculating a correction amount of the weight between the input layer element and the intermediate layer element so as to reduce the evaluation function using an evaluation function for evaluating A fourth step of setting the correction amount of the weight between 0 and 0 to zero,
A fifth step of correcting the weight between the input layer element and the intermediate layer element by using the final correction amount obtained through the third step and the fourth step, and when the learning error becomes equal to or less than a specified value. And a seventh step of adding an intermediate layer element in order to execute the processing of the third step or less again when the learning error is equal to or more than the specified value.

【0031】請求項22記載の発明は、請求項1〜8,
21のうちの何れか1項における第2ステップにおい
て、複数の入力因子を学習データの入出力関係に基づい
て複数のグループに分類し、それらのグループごとに疎
結合部分の中間層部分を生成するものである。
The invention according to claim 22 is the invention according to claims 1 to 8,
21. In the second step in any one of 21., a plurality of input factors are classified into a plurality of groups based on an input / output relationship of learning data, and an intermediate layer portion of a loosely coupled portion is generated for each group. Things.

【0032】請求項23記載の発明は、請求項1〜8,
21のうちの何れか1項における第2ステップにおい
て、複数の入力因子を学習データの最大・最小・平均・
標準偏差等の統計指標に基づいて複数のグループに分類
し、それらのグループごとに疎結合部分の中間層部分を
生成するものである。
According to the twenty-third aspect of the present invention,
21. In the second step in any one of 21., a plurality of input factors are set to the maximum, minimum, average,
It is classified into a plurality of groups based on statistical indices such as standard deviations, and an intermediate layer portion of a loosely coupled portion is generated for each group.

【0033】請求項24記載の発明は、請求項1〜8,
21のうちの何れか1項における第2ステップにおい
て、複数の入力因子を学習データの入力因子間の相関係
数に基づいて複数のグループに分類し、それらのグルー
プごとに疎結合部分の中間層部分を生成するものであ
る。
[0033] The invention according to claim 24 is the invention according to claims 1 to 8,
21. In the second step in any one of 21., a plurality of input factors are classified into a plurality of groups based on a correlation coefficient between the input factors of the learning data, and a middle layer of a loosely coupled portion is grouped for each group. To generate the part.

【0034】請求項25記載の発明は、請求項1〜8,
21のうちの何れか1項における第2ステップにおい
て、複数の入力因子を学習データの入力と出力との間の
相関係数に基づいて複数のグループに分類し、それらの
グループごとに疎結合部分の中間層部分を生成するもの
である。
According to the twenty-fifth aspect of the present invention,
21. In the second step in any one of 21., a plurality of input factors are classified into a plurality of groups based on a correlation coefficient between an input and an output of learning data, and a loosely-coupled part is Of the intermediate layer.

【0035】[0035]

【発明の実施の形態】以下、本発明の実施形態を説明す
る。 (1)請求項1の発明の実施形態 まず、請求項1の発明の実施形態に係るニューラルネッ
トワーク構造を説明する。通常の階層型ニューラルネッ
トワークは、図2に示すように入力層素子と中間層素子
が全て結合している(全結合部分という)が、本発明の
階層型ニューラルネットワークは、図1に示すように任
意の入力層素子と任意の中間層素子間だけが結合してい
る。すなわち、この実施形態では、全ての入力層素子と
結合している中間層素子からなる全結合部分11と、一
部の入力層素子と結合している中間層素子からなる疎結
合部分12とからなっている。ここで、全結合部分11
は必ずしも必要ではなく、本発明では、複数の入力層素
子のうちの一部に中間層素子が結合されてなる疎結合部
分を有していれば足りる。このように、一部の入力層素
子との間の重み(重み係数または結合係数)の値を0に
した疎結合部分12を設けることで、従来の階層型ニュ
ーラルネットワークと完全な互換性を持つことができ
る。
Embodiments of the present invention will be described below. (1) Embodiment of the First Embodiment of the Invention First, a neural network structure according to the first embodiment of the invention will be described. In a normal hierarchical neural network, the input layer elements and the intermediate layer elements are all connected as shown in FIG. 2 (referred to as a fully connected portion), but the hierarchical neural network of the present invention is, as shown in FIG. Only any input layer element and any intermediate layer element are coupled. That is, in this embodiment, the entire coupling portion 11 composed of the intermediate layer element coupled to all the input layer elements and the loosely coupled portion 12 composed of the intermediate layer element coupled to some of the input layer elements are used. Has become. Here, the entire connection portion 11
Is not necessarily required, and in the present invention, it is sufficient that a part of the plurality of input layer elements has a loosely-coupled portion in which the intermediate layer element is coupled. As described above, by providing the loosely coupled portion 12 in which the value of the weight (weight coefficient or coupling coefficient) between some of the input layer elements is set to 0, complete compatibility with the conventional hierarchical neural network is obtained. be able to.

【0036】次に、従来の階層型ニューラルネットワー
クとの互換性について述べる。具体的に、本発明のニュ
ーラルネットワークが従来のニューラルネットワークと
互換性があり、容易に既存システムに置き換え可能であ
ることを説明する。ニューラルネットワークの各重み
は、図3に示すような数値配列により表現される。各層
の素子の数と素子間の重みの値とにより、ニューラルネ
ットワークの内部構造や性質が決定される。従来のニュ
ーラルネットワークのデータベース構造の一例を、表1
に示す。このデータベースは、入力層、中間層、出力層
の素子の数と、各層の素子相互間の重みの大きさ
(w11,w12,……,v1,v2等)とからなる。
Next, compatibility with a conventional hierarchical neural network will be described. Specifically, it will be described that the neural network of the present invention is compatible with a conventional neural network and can be easily replaced with an existing system. Each weight of the neural network is represented by a numerical array as shown in FIG. The internal structure and properties of the neural network are determined by the number of elements in each layer and the value of the weight between elements. Table 1 shows an example of the database structure of a conventional neural network.
Shown in This database includes the number of elements in the input layer, the intermediate layer, and the output layer, and the magnitude of the weight between elements in each layer (w 11 , w 12 ,..., V 1 , v 2, etc.).

【0037】[0037]

【表1】 [Table 1]

【0038】本実施形態のニューラルネットワークは、
このデータベースにおける入力層素子と中間層素子との
間の任意の重みwijを0にするだけで表現することが可
能であり、従来のニューラルネットワークと全く同じデ
ータベース構造を採用することが可能である。
The neural network of this embodiment is
This database can be expressed simply by setting an arbitrary weight w ij between the input layer element and the intermediate layer element to 0, and the same database structure as that of the conventional neural network can be adopted. .

【0039】次に、従来のニューラルネットワーク装置
(学習部分を除く予測・診断等の部分)を図4に示す。
簡単のために、図4では最小限の構成のみを示してい
る。この装置は、予測・診断等を行う機器や計算機であ
り、記憶装置(HDD、ROM、RAM、外部記憶装置
等)13に学習済みのニューラルネットワークのデータ
ベースが保存され、ニューラルネットワークの演算結果
を表示・伝送装置(ディスプレイ・プリンタ・スピーカ
・LAN・電話回線等)17に出力している。なお、1
4は入力データ読み込み部、15は重み読み込み部、1
6はニューロ(ニューラルネットワーク)算出部、18
は予測・診断等の結果を保存する保存部である。通常、
ニューラルネットワークのデータベースは他の計算機に
より再学習され、定期的に更新されることが多い。本発
明のニューラルネットワークは、現状のニューラルネッ
トワークとデータベースレベルで互換性があるので、装
置の改造の必要が全くない。
Next, FIG. 4 shows a conventional neural network apparatus (parts for prediction / diagnosis etc. excluding the learning part).
For simplicity, FIG. 4 shows only a minimum configuration. This device is a device or a computer that performs prediction / diagnosis, etc., and stores a learned neural network database in a storage device (HDD, ROM, RAM, external storage device, etc.) 13 and displays the result of the neural network operation. Output to a transmission device (display, printer, speaker, LAN, telephone line, etc.) 17. In addition, 1
4 is an input data reading unit, 15 is a weight reading unit, 1
6 is a neuro (neural network) calculator, 18
Is a storage unit for storing results of prediction / diagnosis. Normal,
Neural network databases are often re-learned by other computers and updated regularly. Since the neural network of the present invention is compatible with the current neural network at the database level, there is no need to modify the device.

【0040】従来の階層型ニューラルネットワークは、
中間層素子が入力層素子と全結合していることから、中
間層部分で入力層からのデータ全てが混ざるため、入力
データと出力値との関係を解析することが困難であっ
た。しかし、本発明のニューラルネットワーク構造は疎
結合部分を有し、中間層部分において入力層からのデー
タを任意の入力因子ごとに分離しているため、解析が容
易である。入力因子の相互作用分のように分離不可能な
要素は、全結合部分がある場合にはその部分で処理する
ため、従来と同等の精度も保証することが可能である。
なお、本実施形態におけるニューラルネットワークの具
体的な解析手法については後述する。
The conventional hierarchical neural network is
Since the intermediate layer element is fully coupled to the input layer element, all the data from the input layer is mixed in the intermediate layer part, and it has been difficult to analyze the relationship between the input data and the output value. However, the neural network structure of the present invention has a loosely coupled portion, and the data from the input layer is separated for each arbitrary input factor in the intermediate layer portion, so that the analysis is easy. Elements that cannot be separated, such as the interaction of input factors, are processed at all connected parts, if any, so that it is possible to guarantee the same accuracy as before.
A specific analysis method of the neural network in the present embodiment will be described later.

【0041】(2)請求項2の発明の実施形態 請求項2の発明は、請求項1の発明に係るニューラルネ
ットワークの学習方法に関する。この発明の実施形態
を、図5のフローチャートを参照しつつ説明する。第1
ステップA1は、通常のニューラルネットワークの重み
初期化処理である。具体的には、図2の通常のニューラ
ルネットワークの各層の素子間の全ての重みに対して初
期値を小さい数の乱数で与える。ここで、プログラム的
に、入力層と中間層との間の任意の結合がないニューラ
ルネットワーク構造を定義してもよい。この場合は、以
下の第2,第4ステップの処理は不要である。
(2) Embodiment of the Invention of Claim 2 The invention of claim 2 relates to the learning method of the neural network according to the invention of claim 1. An embodiment of the present invention will be described with reference to the flowchart of FIG. First
Step A1 is a normal neural network weight initialization process. Specifically, an initial value is given by a small number of random numbers for all weights between elements of each layer of the ordinary neural network of FIG. Here, a neural network structure without any connection between the input layer and the hidden layer may be defined programmatically. In this case, the processing of the following second and fourth steps is unnecessary.

【0042】第2ステップA2は、重みを初期化したニ
ューラルネットワークに対し、請求項1の発明のニュー
ラルネットワーク構造に変更するための処理である。す
なわち、任意の入力層素子と中間層素子との間の結合を
削除する。ここで、結合を削除するための最も簡単な方
法は、任意の重みの値を0に置き換える方法である。
The second step A2 is a process for changing the neural network with weights initialized to the neural network structure according to the first aspect of the present invention. That is, the coupling between an arbitrary input layer element and an intermediate layer element is deleted. Here, the simplest method for removing the connection is a method of replacing an arbitrary weight value with zero.

【0043】第3ステップA3は、通常のニューラルネ
ットワークの重み修正量の計算である。学習誤差を評価
する評価関数が小さくなるように、入力層素子と中間層
素子との間の重みの修正量を計算する。ここでの評価関
数の一例を以下の数式1に示す。勿論、後述する各請求
項の発明の実施形態のように他の評価関数を用いても良
い。
The third step A3 is the calculation of the weight correction amount of the ordinary neural network. The correction amount of the weight between the input layer element and the intermediate layer element is calculated so that the evaluation function for evaluating the learning error becomes small. An example of the evaluation function here is shown in Expression 1 below. Of course, other evaluation functions may be used as in the embodiments of the invention described in the claims.

【0044】[0044]

【数1】J=1/2・(o−t)2 ## EQU1 ## J = 1 / · (ot) 2

【0045】なお、数式1において、J:評価関数、
o:ニューロ出力、t:教師信号(学習目標値)であ
る。
In the equation 1, J: evaluation function,
o: neuro output, t: teacher signal (learning target value).

【0046】第4ステップA4は、請求項1の発明のニ
ューラルネットワーク構造のための重み修正量の再修正
である。第3ステップA3の計算により、結合がない任
意の重みが再構築されることがある。それを防止するた
めに任意結合の重みの修正量を強制的に0にする。
The fourth step A4 is the re-correction of the weight correction amount for the neural network structure according to the first aspect of the present invention. By the calculation in the third step A3, an arbitrary weight without coupling may be reconstructed. In order to prevent this, the correction amount of the weight of the arbitrary connection is forcibly set to zero.

【0047】第5ステップA5は、重みの修正処理であ
る。第3ステップ、第4ステップを経て計算された最終
的な修正量に従って入力層素子と中間層素子との間の重
みを修正する。重みの修正量を△wij、重みをwij、学
習係数をαとすると、数式2により重みを修正すること
ができる。
The fifth step A5 is a weight correction process. The weight between the input layer element and the intermediate layer element is corrected according to the final correction amount calculated through the third and fourth steps. Assuming that the weight correction amount is △ w ij , the weight is w ij , and the learning coefficient is α, the weight can be corrected by Expression 2.

【0048】[0048]

【数2】wij=wij+α△wij ## EQU2 ## w ij = w ij + α △ w ij

【0049】なお、第3ステップA3以降の処理は、学
習誤差が規定値以下になって学習終了が確認されるまで
繰り返し行われる(ステップA6)。ここで、学習終了
の判断は、評価関数や全学習データに対する誤差が規定
値以下になったかとき、もしくは、学習回数が所定回数
に達したか否かにより判断することができる。
The processing after the third step A3 is repeated until the learning error becomes equal to or less than the specified value and the completion of the learning is confirmed (step A6). Here, the determination of the end of the learning can be made based on whether an error with respect to the evaluation function or all the learning data has become a specified value or less, or whether the number of times of learning has reached a predetermined number.

【0050】(3)請求項3の発明の実施形態 請求項2の発明の実施形態で説明した数式1の評価関数
では、学習誤差を小さくすることはできるが、不要な結
合を含むことが多い。不要な結合はニューラルネットワ
ークの構造を複雑にし、その解析を困難にする大きな原
因となる。このため、請求項3の発明は請求項2の発明
の第3ステップA3を改良したものである。これによ
り、不要な結合を自動的に削除することが可能になる。
この実施形態で使用される評価関数は、数式3により表
される。
(3) Embodiment of the Invention According to the Third Embodiment According to the evaluation function of Expression 1 described in the embodiment of the second embodiment, a learning error can be reduced, but an unnecessary connection is often included. . Unwanted connections complicate the structure of the neural network and are a major source of difficulty in its analysis. Therefore, the invention of claim 3 is an improvement of the third step A3 of the invention of claim 2. This makes it possible to automatically delete unnecessary connections.
The evaluation function used in this embodiment is represented by Expression 3.

【0051】[0051]

【数3】Jf=(出力誤差を評価する項)+ε’(ニュ
ーラルネットワークの複雑さを評価する項)
## EQU3 ## J f = (term for evaluating output error) + ε ′ (term for evaluating complexity of neural network)

【0052】具体的には、ニューラルネットワークの複
雑さを評価する項の相違により、以下の数式4〜数式7
がある。
Specifically, due to the difference in terms for evaluating the complexity of the neural network, the following equations 4 to 7 are used.
There is.

【0053】[0053]

【数4】Jf=1/2・(o−t)2+ε’Σ|wij## EQU4 ## J f = 1/2 · (ot) 2 + ε′Σ | w ij |

【0054】[0054]

【数5】Jf=1/2・(o−t)2+ε’Σwij 2 ## EQU5 ## J f = 1/2 · (ot) 2 + ε′Σw ij 2

【0055】[0055]

【数6】Jf=1/2・(o−t)2+ ε’(Σ|wij|+βΣ(全結合部分の重み)|wij|)J f = 1/2 · (ot) 2 + ε ′ ({| w ij | + β} (weight of all connected parts) | w ij |)

【0056】[0056]

【数7】Jf=1/2・(o−t)2+ε’(Σwij 2+βΣ
(全結合部分の重み)wij 2
(7) J f = 1/2 · (ot) 2 + ε ′ ({w ij 2 + β}
(Weight of all connected parts) w ij 2 )

【0057】ただし、Jf:忘却付き学習の評価関数、
ε’:忘却係数、wij:重み、β:係数である。ここ
で、ニューラルネットワークの忘却付き学習は、例えば
「ニューラルネットの忘却付き構造学習」(日本ファジ
ィ学会誌Vol.9,No.1,pp2-9(1997))等にその学習アルゴ
リズムが記載されている。この忘却付き学習アルゴリズ
ムは、出力誤差が小さく、かつ、各層間の不要な結合の
生成が抑制されたニューラルネットワークを構築するも
のである。前記数式3の評価関数では、出力誤差を評価
する項が0に近いほど学習目標値に近い出力をしている
ことになり、また、ニューラルネットワークの複雑さを
評価する項が小さいほどネットワークの構造が単純であ
ることを示す。この評価関数値は小さければ小さい程良
い。
Where J f is an evaluation function of learning with forgetting,
ε ′: forgetting factor, w ij : weight, β: coefficient. The learning algorithm of the neural network with forgetting is described in, for example, "Structure learning with forgetting of neural network" (Journal of the Japanese Fuzzy Society Vol.9, No.1, pp2-9 (1997)). I have. This learning algorithm with forgetting is to construct a neural network in which output errors are small and generation of unnecessary connections between layers is suppressed. In the evaluation function of Equation 3, the closer the term for evaluating the output error is to 0, the closer the output is to the learning target value, and the smaller the term for evaluating the complexity of the neural network is, the smaller the structure of the network is. Is simple. The smaller this evaluation function value is, the better.

【0058】前記数式6,数式7の評価関数では、全結
合部分の重みを多く加算しているので、全結合部分の成
長を抑制することが可能である。全結合部分は従来のニ
ューラルネットワークと同じ構造であるため解析困難な
部分である。解析のためには疎結合部分の成長が欠かせ
ない。このため、数式6,数式7の評価関数は、全結合
部分の成長が抑制されるため解析が容易な構造になり易
い特徴を持つ。また、数式4,数式5の出力誤差を評価
する項は何れもニューロ出力値から学習目標値を引いた
出力誤差の2乗であるが、ニューラルネットワークの複
雑さを評価する項は、数式4では重みの絶対値の和であ
り、数式5では重みの2乗和である。ネットワークの複
雑さを評価するために重みを用いる理由は、例えば重み
が0ならば結合はないことになり、結合が少ないほどネ
ットワークの構造が単純になるからである。例えば数式
4の評価関数を用いる場合、実際の重みの修正には次の
数式8を用いる。なお、数式8において、η:学習係数
である。
In the evaluation functions of Equations (6) and (7), the weights of all connected parts are added to a large value, so that the growth of all connected parts can be suppressed. The fully connected portion is a portion that is difficult to analyze because it has the same structure as a conventional neural network. The growth of loosely coupled parts is indispensable for analysis. For this reason, the evaluation functions of Expressions 6 and 7 are characterized in that the growth of all the connection portions is suppressed, so that the analysis functions are easily structured. The terms for evaluating the output error in Equations 4 and 5 are all squares of the output error obtained by subtracting the learning target value from the neuro output value. However, the term for evaluating the complexity of the neural network is This is the sum of the absolute values of the weights, and in Equation 5, it is the sum of the squares of the weights. The reason why the weight is used to evaluate the complexity of the network is that, for example, if the weight is 0, there is no connection, and the less the connection, the simpler the network structure becomes. For example, when the evaluation function of Expression 4 is used, the following Expression 8 is used to correct the actual weight. In Equation 8, η is a learning coefficient.

【0059】[0059]

【数8】 (Equation 8)

【0060】(4)請求項4の発明の実施形態 請求項4の発明は、請求項2、請求項3の学習方法にお
いて、第6ステップとして、有効に作用していない不要
な中間層素子をバイアス素子(入力層の入力値が変化し
ても出力値が変化せずに一定値を出力するバイアス素子
的な振る舞いをする中間層素子をいう)に融合し、ま
た、入力層の入力値の変化に対して同じ働きをする中間
層素子同士を融合することで、中間層素子を削減する学
習方法を提供するものである。請求項1の発明のニュー
ラルネットワーク構造は、内部解析を目的として疎結合
部分を設けたものである。しかし、不要な結合や中間層
素子がある場合には、適切に内部解析を行えない問題が
ある。請求項3の発明は、不要な部分を各層素子間の結
合単位で削除するが、請求項4の発明は中間層素子単位
で削除することが特徴である。また、学習中に中間層素
子が削減されるため、計算量も削減されて学習の高速化
にも効果的である。
(4) Embodiment of the Invention of Claim 4 According to the invention of claim 4, in the learning method of claims 2 and 3, as a sixth step, unnecessary intermediate layer elements which are not effectively acting are removed. Fused with a bias element (meaning an intermediate layer element that behaves like a bias element that outputs a constant value without changing the output value even if the input value of the input layer changes). An object of the present invention is to provide a learning method for reducing the number of intermediate layer elements by fusing together intermediate layer elements having the same function with respect to change. The neural network structure according to the first aspect of the present invention is provided with a loosely coupled portion for the purpose of internal analysis. However, when there is an unnecessary coupling or an intermediate layer element, there is a problem that the internal analysis cannot be properly performed. The invention of claim 3 is characterized in that unnecessary portions are deleted in units of coupling between each layer element, but the invention of claim 4 is characterized in that it is deleted in units of intermediate layer elements. Further, since the number of intermediate layer elements is reduced during learning, the amount of calculation is also reduced, which is effective for speeding up learning.

【0061】中間層素子を削減するための手法として、
従来技術である図6のコンパクト構造化法(コンパクト
構造化法については、例えば増田達也ほかによる「隠れ
ユニットの合成による階層型ニューラルネットワークの
コンパクト構造化」(計測自動制御学会論文集Vol.28,N
o.4,pp.519-527(1992)を参照)をそのまま適用しても比
較的良好な結果が得られるが、図7に示すような処理を
行うことにより更に良好な結果が得られる。簡単のた
め、まず図6を最初に説明する。図6における初期化ステ
ップB1とは、図5における第1ステップA1、第2ス
テップA2に相当し、図6の学習処理ステップB2と
は、図5の第3ステップA3、第4ステップA4、第5
ステップA5に相当し、図6の学習終了を判断するステ
ップB9が図5のステップA6に相当する。また、図6
のコンパクト構造化部分の各ステップB4〜B8が、図
5に図示されていない本実施形態固有の第6ステップに
相当する。図6のステップB3においてコンパクト構造
化に移行する条件としては、例えば、学習回数が所定値
に達したことや学習誤差が減少しなくなったこと等があ
る。
As a method for reducing the number of intermediate layer elements,
The conventional compact structuring method shown in FIG. 6 (for a compact structuring method, see, for example, Tatsuya Masuda et al., "Compact structuring of hierarchical neural network by combining hidden units" (Transactions of the Society of Instrument and Control Engineers Vol.28, N
o.4, pp.519-527 (1992)), a relatively good result can be obtained as it is, but a better result can be obtained by performing the processing shown in FIG. For simplicity, FIG. 6 will be described first. The initialization step B1 in FIG. 6 corresponds to the first step A1 and the second step A2 in FIG. 5, and the learning processing step B2 in FIG. 6 corresponds to the third step A3, the fourth step A4, and the fourth step A4 in FIG. 5
Step B9 in FIG. 6 corresponding to step A5 and determining the end of learning corresponds to step A6 in FIG. FIG.
Steps B4 to B8 of the compact structured portion of (1) correspond to a sixth step unique to the present embodiment, which is not shown in FIG. Conditions for shifting to compact structuring in step B3 in FIG. 6 include, for example, that the number of times of learning has reached a predetermined value and that the learning error has not decreased.

【0062】コンパクト構造化部分において、まず最初
に各中間層素子出力の分散を算出する(ステップB
4)。分散とは、中間層素子の重要度や有効性を示す評
価指標にも使われる統計指標であり、例えば中間層素子
の出力値系列を用いて数式9により表される。
In the compact structured portion, first, the variance of the output of each intermediate layer element is calculated (step B).
4). The variance is a statistical index used also as an evaluation index indicating the importance and effectiveness of the intermediate layer element, and is represented by, for example, Expression 9 using an output value sequence of the intermediate layer element.

【0063】[0063]

【数9】 (Equation 9)

【0064】ステップB4で算出した複数の分散のうち
一つでも規定値以下のものがあれば、これを不要中間層
素子と見なしてバイアス素子に融合する(ステップB
5,B6)。全ての分散が規定値以下でないときには、
中間層素子の各相関係数を算出する(ステップB7)。
例えば、中間層素子が3つある場合には、素子1−素子
2、素子2−素子3、素子3−素子1の3通りの相関係
数を算出し、このうち相関係数が規定値以上である中間
層素子同士を、情報伝達的に同じ働きをする素子と見な
して融合する(ステップB8,B6)。ステップB8に
おける規定値は、相似度を示す−1〜+1の指標であ
り、±1に近いほど相関が高く、0に近いほど相関が低
いものとする。なお、相関係数は、二つの中間層素子の
出力値系列を用いて、例えば数式10によって表され
る。
If at least one of the plurality of variances calculated in step B4 has a value equal to or less than the specified value, it is regarded as an unnecessary intermediate layer element and integrated with the bias element (step B4).
5, B6). When all variances are not less than the specified value,
Each correlation coefficient of the intermediate layer element is calculated (step B7).
For example, when there are three intermediate layer elements, three kinds of correlation coefficients of element 1-element 2, element 2-element 3, and element 3-element 1 are calculated, and among them, the correlation coefficient is a specified value or more. Are fused assuming that the elements of the intermediate layer are elements having the same function of transmitting information (steps B8 and B6). The specified value in step B8 is an index of −1 to +1 indicating the similarity. It is assumed that the closer to ± 1, the higher the correlation, and the closer to 0, the lower the correlation. Note that the correlation coefficient is represented by, for example, Expression 10 using output value sequences of two intermediate layer elements.

【0065】[0065]

【数10】 (Equation 10)

【0066】複数の中間層素子の分散を算出して多数の
分散が規定値以下の場合、最も分散が小さい中間層素子
とバイアス素子とを融合させる。一度に融合可能な全て
の素子を融合させることも考えられるが、一度のコンパ
クト構造化に対し融合回数を1回に制限した方が良好な
学習結果が得られることが多い。また、相関係数の値が
規定値以上である中間層素子の組み合わせが多数ある場
合には、相関係数の値が最も大きい中間層素子同士の組
み合わせを融合させる。この場合も、融合回数を1回に
制限した方が良好な学習結果が得られることが多いため
である。ステップB9では、学習回数が所定値に達した
時点で学習終了と判断する。
When the variance of a plurality of intermediate layer elements is calculated and a large number of variances are equal to or smaller than a specified value, the intermediate layer element having the smallest variance and the bias element are fused. It is conceivable to fuse all the elements that can be fused at once, but in many cases, a better learning result can be obtained by limiting the number of fusions to one for one compact structure. When there are many combinations of the intermediate layer elements having the correlation coefficient value equal to or larger than the specified value, the combinations of the intermediate layer elements having the largest correlation coefficient value are merged. In this case, too, a good learning result is often obtained when the number of times of fusion is limited to one. In step B9, when the number of times of learning reaches a predetermined value, it is determined that learning is completed.

【0067】次に、図7に基づいて本発明の実施形態を
説明する。基本的な考えは図6と同様であるが、過度の
融合を防止するための処理を有する点が特徴となってい
る。この実施形態では、ニューラルネットワークの学習
中は中間層素子同士の融合をある程度制限している。ニ
ューラルネットワークの中間層素子は、学習の進行に伴
って成長し、役割が分化する。学習初期段階において出
力値系列が同じような中間層素子(相関が高い)同士で
あっても学習の進行に伴い出力値系列が変化して相関が
低くなる可能性がある。そこで、学習中は融合をある程
度制限し、学習終了後に中間層素子の役割が十分明確に
なった時点で融合を促進するようにした。
Next, an embodiment of the present invention will be described with reference to FIG. The basic idea is the same as that of FIG. 6, but is characterized by having a process for preventing excessive fusion. In this embodiment, during learning of the neural network, fusion between the intermediate layer elements is restricted to some extent. The intermediate layer elements of the neural network grow as the learning progresses, and their roles are differentiated. Even in an intermediate layer element having the same output value series (high correlation) in the initial stage of learning, the output value series may change as the learning progresses, and the correlation may decrease. Therefore, the fusion is limited to some extent during the learning, and the fusion is promoted when the role of the intermediate layer element becomes sufficiently clear after the learning is completed.

【0068】まず、図7のステップC1〜C3,C7
は、図6のB1〜B3,B9と同様である。図7のステ
ップC3からジャンプしたコンパクト構造化1(学習中
のコンパクト構造化)の処理では、分散の小さい不要な
中間層素子とバイアス素子との融合は行うが、相関の高
い中間層素子同士の融合は禁止している。具体的には、
ステップC4で算出した分散が規定値以下の場合に中間
層素子とバイアス素子とを融合する(ステップC5,C
6)。特に、不要な中間層素子が2つ以上のときにのみ
バイアス素子と融合し、常に不要な中間層素子を1つ以
上残す処理を加えれば、過融合を効果的に防ぐことがで
きる。
First, steps C1 to C3, C7 in FIG.
Are the same as B1 to B3 and B9 in FIG. In the processing of compact structuring 1 (compact structuring during learning) jumped from step C3 in FIG. 7, unnecessary intermediate layer elements with small variance and bias elements are merged, but intermediate layer elements having a high correlation are compared. Fusion is prohibited. In particular,
If the variance calculated in step C4 is equal to or smaller than the specified value, the intermediate layer element and the bias element are merged (steps C5 and C5).
6). In particular, over-fusion can be effectively prevented by adding a process that fuses with the bias element only when there are two or more unnecessary intermediate layer elements and always leaves one or more unnecessary intermediate layer elements.

【0069】学習終了後のコンパクト構造化2の処理で
は、分散の小さい不要な中間層素子とバイアス素子との
融合(ステップC9のYes分岐,C10,C13,C1
4)と、相関の高い中間層素子同士の融合(ステップC
9のNo分岐,C11,C12,C10,C13,C1
4)との両方を行う。また、分散が規定値以下または相
関係数が規定値以上の場合にはニューラルネットワーク
の各層の素子間の重みを記憶することによってニューラ
ルネットワークを保存し(ステップC10)、学習誤差
を算出してから中間層素子の融合を行う(ステップC1
3,C14)。なお、学習誤差の算出は、保存したニュ
ーラルネットワークを用いて実際の出力であるニューラ
ルネットワーク出力値と学習目標値との誤差を検出す
る。その後、学習誤差を再度算出し(ステップC1
5)、その誤差を融合前の誤差と比較して悪化するか否
かを判断する(ステップC16)。学習誤差が悪化する
ときには融合を禁止し、ステップC17により融合前の
ニューラルネットワークを復元する(各層の素子間の重
みを融合前の値に戻す)。
In the processing of compact structuring 2 after the learning is completed, the unnecessary intermediate layer elements having small dispersion and the bias elements are integrated (Yes branch in step C9, C10, C13, C1).
4) and fusion of intermediate layer elements having high correlation (step C)
No. 9 branch, C11, C12, C10, C13, C1
Perform both of 4). When the variance is equal to or smaller than a specified value or the correlation coefficient is equal to or larger than a specified value, the neural network is stored by storing weights between elements of each layer of the neural network (step C10), and a learning error is calculated. The fusion of the intermediate layer elements is performed (step C1).
3, C14). The learning error is calculated by using the stored neural network to detect an error between a neural network output value, which is an actual output, and a learning target value. Thereafter, the learning error is calculated again (step C1).
5) The error is compared with the error before fusion to determine whether the error is worse (step C16). When the learning error becomes worse, the fusion is prohibited, and the neural network before the fusion is restored in step C17 (the weight between the elements of each layer is returned to the value before the fusion).

【0070】このように、コンパクト構造化2では、融
合した後の学習誤差が融合前よりも悪化する場合には融
合前のニューラルネットワークを復元し、学習誤差が改
善される場合にのみ融合を実施することにより、コンパ
クト構造化における過融合を防止している。本実施形態
において、融合のためのしきい値(分散や相関係数と比
較する規定値)を中間層素子ごとに変化させてもよい。
例えば、疎結合につながる中間層素子のしきい値を厳し
くして融合を抑制し、全結合につながる中間層素子のし
きい値を緩くして融合を促進することにより、全結合部
分を小さくすることが可能である。
As described above, in the compact structuring 2, when the learning error after the fusion is worse than before the fusion, the neural network before the fusion is restored, and the fusion is performed only when the learning error is improved. By doing so, over-fusion in a compact structure is prevented. In the present embodiment, the threshold value for fusion (predetermined value to be compared with the variance or the correlation coefficient) may be changed for each intermediate layer element.
For example, by reducing the threshold value of the intermediate layer element that leads to loose coupling to suppress fusion, and by loosening the threshold value of the intermediate layer element that leads to full coupling to promote fusion, the total coupling portion is reduced. It is possible.

【0071】(5)請求項5の発明の実施形態 請求項3、請求項4のアルゴリズムにより、学習中に生
じた不要な中間層素子や不要な結合を削除することが可
能であるが、基本的には疎結合部分と全結合部分との成
長速度に差がないため、疎結合部分の学習が速やかに行
われず、疎結合部分が充分に成長しない可能性がある。
もし、疎結合部分が少なく全結合部分が多い場合には、
従来のニューラルネットワークと同様に解析が困難であ
る。そこで、この実施形態では疎結合部分の学習を加速
して成長を促進するような評価関数を導入する。
(5) Embodiment of Claim 5 According to the algorithms of claims 3 and 4, it is possible to eliminate unnecessary intermediate layer elements and unnecessary couplings generated during learning. Since there is no difference in the growth rate between the loosely coupled portion and the fully coupled portion, learning of the loosely coupled portion is not performed quickly, and the loosely coupled portion may not grow sufficiently.
If there are few loosely coupled parts and many fully coupled parts,
It is difficult to analyze like a conventional neural network. Therefore, in this embodiment, an evaluation function that accelerates the learning of the loosely coupled portion and promotes the growth is introduced.

【0072】図8は、本実施形態の処理を示すフローチ
ャートである。請求項2の発明の実施形態である図5と
比較すると、第2−1ステップとして中間層素子の並び
替えステップD3が追加されたことと、第3ステップD
4の修正量算出のための評価関数が変更されたことに特
徴がある。
FIG. 8 is a flowchart showing the processing of this embodiment. Compared with FIG. 5 which is the embodiment of the second aspect of the present invention, the addition of the step D3 for rearranging the intermediate layer elements as the 2-1 step and the third step D
4 is characterized in that the evaluation function for calculating the correction amount is changed.

【0073】本実施形態の中間層素子の並び替えステッ
プD3では、任意の結合を削除して形成された図2に示
すニューラルネットワークを並び替え、図9のように疎
結合部分12をひとまとめにして部分ニューロ1(グル
ープ1)と定義し、疎結合部分12と全結合部分11を
含む全体を部分ニューロ2(グループ2)と定義する。
図2のケースでは、疎結合部分12が左側にまとまって
いるため、図9では並び替えが行われていないが、一般
的には疎結合部分を並び替えてひとまとめにし、部分ニ
ューロ1,2を定義する必要がある。
In the rearrangement step D3 of the intermediate layer elements of the present embodiment, the neural network shown in FIG. 2 formed by removing any connection is rearranged, and the loosely coupled portions 12 are grouped as shown in FIG. A partial neuro 1 (group 1) is defined, and the whole including the loosely coupled portion 12 and the fully coupled portion 11 is defined as a partial neuro 2 (group 2).
In the case of FIG. 2, since the loosely coupled portions 12 are grouped on the left side, the rearrangement is not performed in FIG. 9, but in general, the loosely coupled portions are rearranged into one and the partial neurons 1 and 2 are combined. Must be defined.

【0074】次に、第3ステップD4において使用する
評価関数を説明する。上述した部分ニューロ1の出力を
1,部分ニューロ2の出力(通常のニューロ出力)を
2、教師信号(学習目標値)をtとすると、部分ニュ
ーロ1,2の評価関数J1,J2を数式11とする。
Next, the evaluation function used in the third step D4 will be described. Assuming that the output of the partial neuro 1 is O 1 , the output of the partial neuro 2 (normal neuro output) is O 2 , and the teacher signal (learning target value) is t, the evaluation functions J 1 and J of the partial neuros 1 and 2 are obtained. Let 2 be Equation 11.

【0075】[0075]

【数11】J1=1/2・(O1−t)2, J2=1/2・(O2−t)2 (通常の評価関数)J 1 = 1 / · (O 1 −t) 2 , J 2 = 1 / · (O 2 −t) 2 (ordinary evaluation function)

【0076】実際の評価関数は、2つの評価関数J1
2をまとめて数式12のようになる。
The actual evaluation functions are two evaluation functions J 1 ,
Expression 2 is obtained by summing J2.

【0077】[0077]

【数12】J=γ11+γ22 [Expression 12] J = γ 1 J 1 + γ 2 J 2

【0078】数式12の評価関数Jは重畳エネルギー関
数と呼ばれており、「重畳エネルギー関数による多層パ
ーセプトロンの冗長性削減」(電子情報通信学会論文誌
D-II,Vol.J80-D-II,No.9,pp.2532-2540 1997年9月)等
に詳しく説明されている。なお、数式12における
γ1,γ2は、部分ニューロ1,2の評価関数J1,J
2(部分エネルギー関数)の重みを示す。この重畳エネ
ルギー関数が最小になるとき、不要な分散表現が抑制さ
れ、かつ中間層素子の重要度順に並んだニューラルネッ
トワークを得ることができる。また、重畳エネルギー関
数では、中間層素子のうち上位側(図9における左側)
の素子に関する結合ほど、少ない素子数で学習目標値を
生成するように学習が進行する特徴がある。
The evaluation function J in Expression 12 is called a superposition energy function, and “reduction of redundancy of a multilayer perceptron by the superposition energy function” (Transactions of the Institute of Electronics, Information and Communication Engineers).
D-II, Vol.J80-D-II, No.9, pp.2532-2540, September 1997) and the like. Note that γ 1 and γ 2 in Expression 12 are evaluation functions J 1 and J of partial neurons 1 and 2.
Indicates the weight of 2 (partial energy function). When the superimposed energy function is minimized, it is possible to obtain a neural network in which unnecessary dispersion representation is suppressed and the neural networks are arranged in the order of importance of the intermediate layer elements. In the superposition energy function, the upper side of the intermediate layer element (the left side in FIG. 9)
There is a feature that learning progresses so as to generate a learning target value with a smaller number of elements as the combination of the elements becomes.

【0079】上記分散表現とは、一つでも足りる結合が
複数の結合に分散されること、つまり、その結果多くの
結合が必要になることを示し、不要な分散表現が多い場
合にはそれだけ結合も多く、ニューラルネットワーク構
造は複雑化、冗長化する。数式12の評価関数Jにおい
て、J2は全結合部分11及び疎結合部分12を含む通
常の評価関数であるが、J1は疎結合部分12の評価関
数である。疎結合部分12はJ1,J2両方に関わってい
るため、この疎結合部分12の誤差を早く減少させよう
として学習(評価関数Jを用いた重み修正量の計算)が
加速される。これにより、分散表現の発生が抑制されて
ニューラルネットワーク構造の簡素化が可能になる。
The above-mentioned distributed expression indicates that at least one connection is dispersed into a plurality of connections, that is, as a result, many connections are required. In many cases, the neural network structure becomes complicated and redundant. In the evaluation function J of Expression 12, J 2 is an ordinary evaluation function including the fully-coupled portion 11 and the loosely-coupled portion 12, while J 1 is an evaluation function of the loosely-coupled portion 12. Since the loosely coupled portion 12 is involved in both J 1 and J 2 , learning (calculation of the weight correction amount using the evaluation function J) is accelerated in order to reduce the error of the loosely coupled portion 12 quickly. As a result, the occurrence of the distributed representation is suppressed, and the neural network structure can be simplified.

【0080】(6)請求項6の発明の実施形態 請求項6の発明は、請求項5の発明を改良したものであ
る。上述した請求項5の発明では、疎結合部分12の中
間層素子同士は互いに同じ速度で学習が進んで成長し、
全結合部分11の中間層素子同士も互いに同じ速度で学
習が進んで成長する。同じ速度で成長した場合には、1
つの結合が複数の中間層素子に分散して記憶され、中間
層素子が多く必要になることがある。このような場合
は、中間層素子の重度は低下するが不要と判断するほど
低下はしないので、請求項3、4の発明をもってしても
中間層素子を削除できないことがある。つまり請求項5
の発明は、疎結合部分12と全結合部分11とで比較す
ると疎結合部分の成長が早いが、疎結合部分12の中間
層素子同士、全結合部分11の中間層素子同士では成長
の差がないので、充分に中間層素子を削減できない可能
性がある。
(6) Embodiment of the Invention of Claim 6 The invention of claim 6 is an improvement of the invention of claim 5. According to the fifth aspect of the present invention, the intermediate layer elements of the loosely-coupled portion 12 learn and grow at the same speed, and grow.
The learning of the intermediate layer elements of the fully connected portion 11 proceeds at the same speed as each other and grows. If growing at the same rate, 1
One connection is stored in a distributed manner among a plurality of intermediate layer elements, and many intermediate layer elements may be required. In such a case, the weight of the intermediate layer element decreases, but does not decrease to the extent that it is determined that it is not necessary. That is, claim 5
According to the invention, the loosely-coupled portion grows faster when compared with the loosely-coupled portion 12 and the fully-coupled portion 11, but the difference in growth between the intermediate layer elements of the loosely-coupled portion 12 and the intermediate layer elements of the fully-coupled portion 11 is small. Therefore, there is a possibility that the number of intermediate layer elements cannot be sufficiently reduced.

【0081】請求項6の発明の実施形態を説明する。請
求項6の発明の実施形態では、請求項5の発明の実施形
態における中間層素子の並び替えステップD3及び第3
ステップD4を改良する。中間層素子の並び替えステッ
プでは、図10に示すように疎結合部分の中間層素子と
全結合部分の中間層素子とを交互に配置してH個の部分
ニューロ(図10の例ではH=6)を定義する。そし
て、改良された第3ステップでは、数式13のようなH
個の部分ニューロの評価関数の和を評価関数(重畳エネ
ルギー関数)として使用し、重みの修正量を算出する。
数式13において、γiは、部分ニューロの評価関数Ji
の重みを示す。
An embodiment of the invention according to claim 6 will be described. In the embodiment of the sixth aspect of the invention, the rearrangement step D3 and the third
Step D4 is improved. In the step of rearranging the intermediate layer elements, as shown in FIG. 10, the intermediate layer elements in the loosely coupled portion and the intermediate layer elements in the fully coupled portion are alternately arranged to form H partial neurons (H = H in the example of FIG. 10). 6) is defined. Then, in the improved third step, H
The sum of the evaluation functions of the partial neuros is used as an evaluation function (superposition energy function) to calculate a weight correction amount.
In Equation 13, γ i is the evaluation function J i of the partial neuro.
Is shown.

【0082】[0082]

【数13】 (Equation 13)

【0083】図10のニューラルネットワークは、部分
ニューロ1における結合が最も早く成長し、部分ニュー
ロ6における結合は相対的に成長が抑制される。このこ
とは、重畳エネルギー関数においては、中間層素子のう
ち上位側(図10における左側)の素子に関する結合ほ
ど、少ない素子数で学習目標値を生成するように学習が
進行して成長するという特徴による。つまり、本実施形
態では、疎結合部分の中間層素子間でも成長速度が異な
るし、疎結合部分の中間層素子と全結合部分の中間層素
子との間でも成長速度が異なる。このように、各部分ニ
ューロにおける成長速度に差をつけることで、中間層素
子の要・不要の判定を容易に行うことができ、不要な中
間層素子の削除も迅速に行われる。
In the neural network of FIG. 10, the connection in the partial neuro 1 grows fastest, and the connection in the partial neuro 6 is relatively suppressed in growth. This means that, in the superimposed energy function, as the connection with the element on the upper side (left side in FIG. 10) of the intermediate layer elements, learning progresses and grows so as to generate a learning target value with a smaller number of elements. by. That is, in the present embodiment, the growth rate differs between the intermediate layer elements in the loosely coupled portion, and also between the intermediate layer element in the loosely coupled portion and the intermediate layer element in the fully coupled portion. In this way, by making the growth rates of the respective partial neurons different, it is possible to easily determine whether or not the intermediate layer element is necessary, and to quickly delete the unnecessary intermediate layer element.

【0084】(7)請求項7の発明の実施形態 請求項7の発明は、請求項5、請求項6の発明の評価関
数の改良に関するものである。請求項5,6の発明は、
学習過程において中間層素子ごとに成長速度(学習速
度)に差を付けるような評価関数を用いて重みの修正量
を算出することにより不要な中間層素子を抑制する方法
である。つまり、中間層素子ごとに作用する。一方、請
求項2または請求項3の発明は、評価関数により計算し
た修正量を用いて重みを修正するものであり、いわば個
別の重みごとに作用する。これらの両者を融合させるこ
とで、不要な中間層素子や結合が非常に少ないニューラ
ルネットワークを構築することができ、解析の容易化に
寄与することができる。
(7) Embodiment of the Invention of Claim 7 The invention of claim 7 relates to the improvement of the evaluation function of the invention of claims 5 and 6. The invention of claims 5 and 6 is
In the learning process, unnecessary intermediate layer elements are suppressed by calculating the amount of weight correction using an evaluation function that makes the growth rate (learning speed) different for each intermediate layer element. That is, it works for each intermediate layer element. On the other hand, the invention of claim 2 or claim 3 corrects the weight using the correction amount calculated by the evaluation function, and acts on each individual weight. By fusing these two elements, it is possible to construct a neural network with very few unnecessary intermediate layer elements and connections, which can contribute to facilitation of analysis.

【0085】本発明の実施形態における評価関数は、以
下のように2つの要素より成り立つ。 評価関数=成長速度に差を付ける評価関数+不要な中間
層素子を抑制する評価関数 具体的な評価関数は、数式14によって表される。
The evaluation function in the embodiment of the present invention is composed of the following two elements. Evaluation function = Evaluation function for making a difference in growth rate + Evaluation function for suppressing unnecessary intermediate layer elements A specific evaluation function is represented by Expression 14.

【0086】[0086]

【数14】 [Equation 14]

【0087】数式14の右辺第1項は数式13と同一で
あり、数式12とも実質的に同一である。すなわち、こ
の第1項によって一部の中間層素子の成長を促す働きが
ある。 また、数式14の右辺第2項は、請求項3の発
明の実施形態で説明した数式4〜数式7の何れを使用し
ても良い。特に、数式6または数式7の何れかを適用す
れば、前述のように全結合部分の生成を抑制できるた
め、疎結合部分の成長が相対的に早くなり、解析容易な
ニューラルネットワーク構造となる。
The first term on the right side of Expression 14 is the same as Expression 13 and is substantially the same as Expression 12. That is, the first term has a function of promoting the growth of some intermediate layer elements. The second term on the right side of Expression 14 may use any one of Expressions 4 to 7 described in the embodiment of the third aspect of the present invention. In particular, if either Equation 6 or Equation 7 is applied, the generation of the fully-connected portion can be suppressed as described above, so that the growth of the loosely-coupled portion is relatively quick, and the neural network structure is easy to analyze.

【0088】(8)請求項8の発明の実施形態 請求項8の発明は、請求項5,6の発明の学習方法を交
互に複数回実施する方法である。請求項6の方法による
学習は、疎結合部分、全結合部分の中間層素子が交互に
並んでいるため、全結合部分の中間層素子が全く必要と
しない問題に対しても、全結合部分が構築される可能性
がある。よって、請求項8の発明では、請求項6の発明
による学習後に請求項5の発明で再学習することで、不
必要に生じた全結合部分の中間層素子を抑制する。ま
た、この処理を複数回繰り返すことにより、一層最適な
構造に近づけることができる。勿論、請求項2や請求項
4の発明を組み合わせることで、更に解析容易な構造が
得られるのは言うまでもない。
(8) Embodiment of the Invention of Claim 8 The invention of claim 8 is a method of alternately performing the learning method of the invention of claims 5 and 6 a plurality of times. In the learning by the method according to claim 6, since the intermediate layer elements of the loosely coupled portion and the fully coupled portion are alternately arranged, even if the intermediate layer element of the fully coupled portion does not need to be used at all, the fully coupled portion can be used. May be built. Therefore, according to the eighth aspect of the present invention, by performing the re-learning with the fifth aspect of the invention after the learning according to the sixth aspect of the invention, unnecessary intermediate layer elements in all the coupling portions are suppressed. Further, by repeating this process a plurality of times, it is possible to make the structure closer to the optimal structure. Of course, by combining the inventions of claims 2 and 4, it is needless to say that a structure that is easier to analyze can be obtained.

【0089】図11は、本発明の実施形態による学習と
それにより構築されるニューラルネットワーク構造の変
化を示す概念図である。なお、このニューラルネットワ
ークは、一例として電力需要量を予測するためのもので
あり、入力層には電力、気象、特異日等のデータが入力
されている。
FIG. 11 is a conceptual diagram showing learning according to the embodiment of the present invention and a change in a neural network structure constructed by the learning. Note that this neural network is for estimating an electric power demand amount as an example, and data such as electric power, weather, and unusual days are input to an input layer.

【0090】図11の(a)段階は学習開始前のニュー
ラルネットワーク構造であり、各サブネットワークごと
に2つの中間層素子(合計8個)を有している。このう
ち、中間層素子1〜6は疎結合部分、中間層素子7,8
は全結合部分(相互作用分)を構成している。(b)は
請求項6の発明の実施形態による学習(学習段階1)で
あり、疎結合部分、全結合部分の中間層素子が交互に配
置されている。また、部分ニューロは4個形成される。
(c)は請求項5の発明の実施形態による学習(学習段
階2)である。(b)の学習を経ているため、成長によ
っていくつかの中間層素子が削減されている(請求項
3、4の発明の実施形態を付加していた場合)。(c)
では部分ニューロは2個となっており、疎結合部分が部
分ニューロ1を、疎結合部分及び全結合部分が部分ニュ
ーロ2を構成している。
The stage (a) in FIG. 11 shows a neural network structure before learning is started, and each sub-network has two intermediate layer elements (eight in total). Among them, the intermediate layer elements 1 to 6 are loosely coupled portions, and the intermediate layer elements 7 and 8
Constitutes the entire binding portion (interaction component). (B) is learning (learning stage 1) according to the embodiment of the sixth aspect of the present invention, in which intermediate layer elements of loosely coupled portions and fully coupled portions are alternately arranged. Also, four partial neurons are formed.
(C) is learning (learning stage 2) according to the embodiment of the fifth aspect of the present invention. Since the learning of (b) has been performed, some intermediate layer elements have been reduced by growth (when the embodiments of the inventions of claims 3 and 4 are added). (C)
In the figure, the number of partial neurons is two, and the loosely coupled portion constitutes the partial neuro 1, and the loosely coupled portion and the fully coupled portion constitute the partial neuro 2.

【0091】請求項8の発明では、少なくとも上記
(b),(c)の学習を交互に繰り返して行うことによ
り、不要な中間層素子を削減することが可能である。特
に、(b),(c)の学習を複数回、交互に繰り返すと
一層効果的である。なお、(d)は、通常の重畳エネル
ギー関数法による学習を(c)の後に行った結果であ
り、このように他の学習アルゴリズムと組み合わせても
良い。(e)は、学習終了後に構築されるニューラルネ
ットワーク構造である。当初の構造に比べて中間層素子
が大幅に削減され、必要な中間層素子、重み結合のみに
よってネットワークが構築されている。
According to the eighth aspect of the present invention, unnecessary intermediate layer elements can be reduced by repeating at least the learning of the above (b) and (c) alternately. In particular, it is more effective to alternately repeat the learning of (b) and (c) a plurality of times. Note that (d) is a result obtained by performing learning by the ordinary superposition energy function method after (c), and may be combined with another learning algorithm as described above. (E) is a neural network structure constructed after the learning is completed. Compared with the original structure, the number of intermediate layer elements is greatly reduced, and a network is constructed only with the necessary intermediate layer elements and weight connections.

【0092】(9)請求項9の発明の実施形態 次に、請求項9の発明による解析方法を説明する。この
発明は、請求項2〜8,21〜25の何れか1項に記載
された方法により充分に学習をし、不要な中間層素子や
結合が削除されたニューラルネットワークを対象とし
て、その素子間の結合状態(入力層素子から出力層素子
に至る経路等)から内部状態を解析する手法である。典
型的なパターンを表2に示す。
(9) Embodiment of Claim 9 Next, an analysis method according to the invention of claim 9 will be described. The present invention is directed to a neural network which has been sufficiently learned by the method according to any one of claims 2 to 8, and 21 to 25, and is designed for a neural network from which unnecessary intermediate layer elements and connections are deleted. Is a method of analyzing the internal state from the coupling state (a path from the input layer element to the output layer element, etc.). A typical pattern is shown in Table 2.

【0093】[0093]

【表2】 [Table 2]

【0094】表2に示すように、例えば入力層から出力
層までに結合が1経路しか存在しない場合には、一元一
次関数で示されるように入出力関係が線形である可能性
が高く、また、複数経路を持つ場合には、一元二次関数
で示されるように入出力関係が非線形である可能性が高
い。更に、中間層素子に複数の入力層素子との結合が存
在する場合には、二元二次関数のように入力因子の相互
作用を有する非線形である可能性が高い。このように、
請求項2〜8,21〜25の何れか1項に記載された方
法により学習されたニューラルネットワークを対象とし
て、素子間の結合状態により線形性、非線形性といっ
た、入力因子(入力層素子及びこの素子に入力されるデ
ータを総称した概念である)の出力への影響度合いを大
まかに解析することができる。
As shown in Table 2, for example, when there is only one path from the input layer to the output layer, there is a high possibility that the input / output relationship is linear as shown by a one-dimensional linear function. When there are a plurality of paths, there is a high possibility that the input / output relationship is non-linear as indicated by a one-way quadratic function. Further, when the intermediate layer element has a coupling with a plurality of input layer elements, it is highly likely that the intermediate layer element is nonlinear having an interaction of input factors like a binary quadratic function. in this way,
An input factor such as linearity or non-linearity depending on a connection state between elements, for a neural network learned by the method according to claim 2. It is possible to roughly analyze the degree of influence of the data input to the element on the output.

【0095】(10)請求項10記載の発明の実施形態 請求項10の発明は、入力層素子・中間層素子の評価指
標からニューラルネットワーク構造を解析する方法であ
る。解析の対象となるのは請求項1の発明によるニュー
ラルネットワークであり、疎結合部分を有するニューラ
ルネットワークである。ここで、評価指標は、goodness
factor, effectiveness factor, 分散、逆写像の4種
類である。以下、これら4つの評価指標を概説するが、
評価指標そのものは本発明の趣旨ではない。表3に評価
指標を用いた解析例を示す。単独または複数の評価指標
により入力層素子、中間層素子を評価することで、ニュ
−ラルネットワ−クの内部構造を解析することができ
る。
(10) Embodiment of the Invention of Claim 10 The invention of claim 10 is a method of analyzing a neural network structure from an evaluation index of an input layer element / intermediate layer element. The analysis target is the neural network according to the first aspect of the present invention, which is a neural network having a loosely coupled portion. Here, the evaluation index is goodness
factor, effectiveness factor, variance, and inverse mapping. Hereinafter, these four evaluation indices are outlined,
The evaluation index itself is not the purpose of the present invention. Table 3 shows an analysis example using the evaluation index. The internal structure of the neural network can be analyzed by evaluating the input layer element and the intermediate layer element using one or a plurality of evaluation indices.

【0096】[0096]

【表3】 [Table 3]

【0097】(1)goodness factor(入力層素子、中
間層素子について使用) 入力信号を利用する方法である。これは、中間層素子か
ら出力層素子へ出力される入力信号の総和であり、中間
層素子の有効度を表す指標である。この値が小さいほど
出力層素子への影響が少ないため、「不良」素子とみな
される。
(1) Goodness factor (used for input layer element and intermediate layer element) This is a method using an input signal. This is the sum of input signals output from the intermediate layer element to the output layer element, and is an index indicating the effectiveness of the intermediate layer element. Smaller values have less effect on the output layer elements and are therefore considered "bad" elements.

【0098】(2)effectiveness factor(入力層素
子、中間層素子について使用) 重みを利用する方法である。effectiveness factorは中
間層素子に結合している全ての重みの二乗和で表され
る。これは、ニュ−ラルネットワ−ク収束時において、
素子に結合している全ての重みが小さければその素子の
有効度は低く、「不良」素子であるという考え方であ
る。この方法は、基本的に重みだけで判断が可能なた
め、前述のgoodness factorのように誤差や出力の計算
が不要であり、計算量が少ないという特徴がある。
(2) Effectiveness factor (used for input layer elements and intermediate layer elements) This is a method using weights. The effectiveness factor is expressed as the sum of squares of all weights connected to the intermediate layer element. This is because when the neural network converges,
If all the weights connected to an element are small, the validity of the element is low and the idea is that the element is a "bad" element. This method is basically characterized in that determination can be made only by weights, so that calculation of errors and outputs is not necessary as in the above-mentioned goodness factor, and the amount of calculation is small.

【0099】(3)分散(中間層について使用) 中間層素子の活性度合いを利用する方法である。不要素
子は、入力パターンが変化しても出力が変化しないとい
う考え方である。複数の検査用パターンを入力して、中
間層素子の出力の分散が大きいもの(出力の変化が大き
いもの)を有効素子、分散が小さいものを不要素子とす
る。
(3) Dispersion (Use for Intermediate Layer) This is a method utilizing the degree of activity of the intermediate layer element. The concept of unnecessary elements is that the output does not change even if the input pattern changes. A plurality of test patterns are input, and an element having a large output variance (a change in the output is large) is an effective element and an element having a small variance is an unnecessary element.

【0100】(4)逆写像(入力層について使用) シグモイド関数を無視し、ニューロ内部構造を線形近似
する手法である。入力層から出力層へ至る重みを積和す
ることで、感度の近似値を求める。この指標は、effect
iveness factor同様に計算量が少ない利点がある。
(4) Inverse Mapping (Used for Input Layer) This is a method of ignoring the sigmoid function and linearly approximating the neuron internal structure. The product of the weights from the input layer to the output layer is summed to obtain an approximate value of the sensitivity. This indicator is
As with the iveness factor, there is an advantage that the calculation amount is small.

【0101】図12は上記各種の評価指標を説明するた
めの図であり、入力層素子がI個、中間層素子がJ個、
出力層素子がK個の場合を示している。同図には、各評
価指標であるgoodness factor, effectiveness factor,
分散、逆写像の計算式もそれぞれ併記してある。ま
た、前記表3の解析例において、表3の上段に示すよう
に入力層素子x1,x2の各指標の大きさが全て同程度で
ある場合や、表3の中段に示すように特定の入力層素子
に結合される中間層素子の各指標の大きさが同程度であ
る場合には、入力層素子は対象構造である可能性が大き
いと判断できる。更に、表3の下段に示すごとく、入力
層素子の各指標の大きさに違いがある場合には、入出力
関係を示す関数の係数の大きさに違いがあると判断する
ことができる。
FIG. 12 is a diagram for explaining the above-mentioned various evaluation indices. The number of input layer elements is I, the number of intermediate layer elements is J,
The case where the number of output layer elements is K is shown. The figure shows the evaluation indexes of goodness factor, effectiveness factor,
The calculation formulas for dispersion and inverse mapping are also shown. In addition, in the analysis example of Table 3 above, when the indices of the input layer elements x 1 and x 2 are all substantially the same as shown in the upper part of Table 3, or when the index is specified as shown in the middle part of Table 3 When the indices of the intermediate layer elements coupled to the input layer element are similar, it can be determined that the input layer element has a high possibility of having the target structure. Furthermore, as shown in the lower part of Table 3, when there is a difference in the magnitude of each index of the input layer element, it can be determined that there is a difference in the magnitude of the coefficient of the function indicating the input / output relationship.

【0102】(11)請求項11の発明の実施形態 この発明は、任意のデータを入力したときの、中間層素
子から出力層素子に伝達される情報量から入力因子の出
力への影響を解析する方法である。なお、この発明の実
施形態も、請求項1の発明によるニューラルネットワー
クを対象としている。以下、この発明の概念を説明す
る。図13において、中間層から出力層に伝達される情
報は中間層出力Oと重みvとの積和である。つまり、こ
の情報は数式15によって表される。
(11) The eleventh embodiment of the present invention is to analyze the influence of the input factor on the output from the amount of information transmitted from the intermediate layer element to the output layer element when arbitrary data is input. How to The embodiment of the present invention is also directed to the neural network according to the first aspect of the present invention. Hereinafter, the concept of the present invention will be described. In FIG. 13, the information transmitted from the hidden layer to the output layer is the product sum of the hidden layer output O and the weight v. That is, this information is represented by Expression 15.

【0103】[0103]

【数15】 (Equation 15)

【0104】ここで、|vii|が最も大きい値を出力
する中間層素子は、出力への影響が最も強く、更にその
中間層素子に結合されている入力因子の影響も強いと言
える。例えば、図13において、中間層素子1による|
11|が最も大きい場合には、入力1の影響が強く、
中間層素子2による|v22|が最も大きい場合には入
力1,入力2の相互作用分が強いと言える。このため本
発明の実施形態では、各中間層素子から出力層素子に伝
達される情報量の大きさを検出することで中間層素子、
出力層素子及び入力層素子の間の結合の強さを知ること
ができ、ニューラルネットワークにおける入力因子の出
力への影響を解析することができる。
Here, it can be said that an intermediate layer element which outputs the largest value of | v i O i | has the strongest influence on the output, and further has a strong influence of the input factor coupled to the intermediate layer element. . For example, in FIG.
When v 1 O 1 | is the largest, the effect of input 1 is strong,
When | v 2 O 2 | by the intermediate layer element 2 is the largest, it can be said that the interaction between input 1 and input 2 is strong. Therefore, in the embodiment of the present invention, by detecting the amount of information transmitted from each intermediate layer element to the output layer element, the intermediate layer element,
The strength of the connection between the output layer element and the input layer element can be known, and the influence of the input factor on the output in the neural network can be analyzed.

【0105】(12)請求項12の発明の実施形態 請求項12の発明は、任意のデータを入力したときの、
入力データと中間層素子から出力層素子へ伝達される情
報との相関関係から、入力因子の出力への影響を解析す
る方法である。この発明も、請求項1記載のニューラル
ネットワークを対象とする。以下、本発明の概念を説明
する。図13のニューラルネットワークに、(入力1,
入力2)=(0,0)〜(1,1)の0.2刻みの複数
のデータを入力し、そのときに出力層素子へ伝達される
情報量が図14のようになったとする。すなわち、中間
層素子1については情報量が次第に増加し、中間層素子
2についてはほぼ一定であり、中間層素子3については
次第に減少していくとする。これから、以下のことが分
かる。
(12) Embodiment of the Invention of Claim 12 According to the invention of claim 12, when any data is input,
This is a method of analyzing the influence of an input factor on an output from a correlation between input data and information transmitted from an intermediate layer element to an output layer element. The present invention is also directed to the neural network according to the first aspect. Hereinafter, the concept of the present invention will be described. In the neural network shown in FIG.
Input 2) = Suppose that a plurality of data of (0,0) to (1,1) are input in increments of 0.2, and the amount of information transmitted to the output layer element at that time is as shown in FIG. That is, it is assumed that the information amount of the intermediate layer element 1 gradually increases, the information amount of the intermediate layer element 2 is almost constant, and the information amount of the intermediate layer element 3 gradually decreases. From this, the following can be understood.

【0106】中間層素子1は正の相関、つまり、入力
1は出力に対し正の相関がある。 中間層素子2は出力にほとんど影響を与えない。つま
り、中間層素子2に結合している入力1、入力2の相互
作用はほとんどない。 中間層素子3は、負の相関、つまり、入力2は出力に
対し負の相関がある。また、以上の〜より、が導
かれる。 出力を大きくするためには、入力1に大きな値を入力
し、入力2に小さな値を入力すればよい。 以上のように、入力値に対する中間層素子の挙動(それ
ぞれの中間層素子から出力層へ伝達される情報量)を検
出することにより、未知データ(学習していないx1
2のパターン)に対しても、各入力因子や中間層素子
の働きが判っているために出力値を容易に推定すること
ができる。
The intermediate layer element 1 has a positive correlation, that is, the input 1 has a positive correlation with the output. The intermediate layer element 2 hardly affects the output. That is, there is almost no interaction between the input 1 and the input 2 coupled to the intermediate layer element 2. The intermediate layer element 3 has a negative correlation, that is, the input 2 has a negative correlation with the output. Further, the above is derived. To increase the output, a large value may be input to input 1 and a small value may be input to input 2. As described above, by detecting the behavior of the hidden layer element with respect to the input value (the amount of information transmitted from each hidden layer element to the output layer), the unknown data (x 1 ,
even for x 2 pattern), the output value for the operation of each input divisor and the intermediate layer elements are known can be easily estimated.

【0107】(13)請求項13記載の発明の実施形態 次に、請求項13記載の発明の実施形態を説明する。請
求項1の発明に係るニューラルネットワークは、その内
部に数式16で示されるシグモイド関数を使用してい
る。
(13) Embodiment of the Invention of Claim 13 Next, an embodiment of the invention of claim 13 will be described. The neural network according to the first aspect of the present invention uses a sigmoid function represented by Expression 16 therein.

【0108】[0108]

【数16】y=1/{1+exp(−x)}## EQU16 ## y = 1 / {1 + exp (-x)}

【0109】シグモイド関数の出力範囲は0〜1である
ため、実際に使用するときには、0〜1や0.1〜0.
9の値に正規化して用いることが多い。例えば、気温を
予測するニューラルネットワークでは、−20〜+50
℃を0〜1にし、株価を予測するニューラルネットワー
クでは、1日の変動幅として−2000〜+2000円
を0〜1にする。しかし、学習により構築したニューラ
ルネットワークが期待通りの範囲の値を出力する保証は
なく、狭い範囲の値しか出力しないことも多い。そこで
本発明は、ニューラルネットワーク出力の実際の上下限
値を解析する方法に関する。
Since the output range of the sigmoid function is 0 to 1, when it is actually used, it is 0 to 1 or 0.1 to 0.
It is often used after being normalized to a value of 9. For example, in a neural network for predicting temperature, -20 to +50
In a neural network that predicts the stock price by setting the temperature to 0 to 1, the daily fluctuation range of -2000 to +2000 yen is set to 0 to 1. However, there is no guarantee that a neural network constructed by learning outputs a value in an expected range, and often outputs only a value in a narrow range. Therefore, the present invention relates to a method for analyzing the actual upper and lower limits of the output of the neural network.

【0110】その手順は、請求項12の発明の実施形態
と同様に、図14に示すような、入力データと中間層素
子から出力層素子へ伝達される情報量との関係を調べ
る。図14の例において、出力層素子へ伝達される情報
量を最小にするためには、中間層素子1(入力因子は入
力1のみ)に結合された入力1の入力を0にし、中間層
素子3(入力因子は入力2のみ)に結合された入力2の
入力を1にすれば良いことが分かる。つまり、このニュ
ーラルネットワーク出力の下限値は、(入力1,入力
2)=(0,1)を入力したときに得られる。ちなみ
に、このニューラルネットワーク出力の上限値は、(入
力1,入力2)=(1,0)を入力したときに得られる
ことになる。
In the procedure, as in the twelfth embodiment, the relationship between input data and the amount of information transmitted from the intermediate layer element to the output layer element as shown in FIG. 14 is examined. In the example of FIG. 14, in order to minimize the amount of information transmitted to the output layer element, the input of input 1 coupled to the intermediate layer element 1 (the input factor is only input 1) is set to 0, It can be seen that the input of input 2 coupled to 3 (input factor is only input 2) should be set to 1. That is, the lower limit of the neural network output is obtained when (input 1, input 2) = (0, 1) is input. Incidentally, the upper limit value of the neural network output is obtained when (input 1, input 2) = (1, 0) is input.

【0111】(14)請求項14記載の発明の実施形態 請求項14の発明は、請求項9〜12の発明によりニュ
ーラルネットワークを解析した結果、ニューラルネット
ワークが不合理な学習状態に陥ったことを判定するため
の異常判定方法に関する。また、これに付随する解析・
診断システムも開示している。ニューラルネットワーク
の学習対象がある程度既知である場合には、請求項9〜
12の解析方法によりニューラルネットワークの学習状
態の良否を判定することができる。例えば、ニューラル
ネットワークによってダム流入量を予測する場合、ダム
流入量は上流流量差分(上流流量の時間差分)との相関
が非常に高く、以下の例によって学習不良と判断するこ
とが可能である。 上流流量との結合が構築されなかった場合 既存の予測式と内部解析結果との相違が大きい(流量
が増加しているのに、流入量が減っているなど)
(14) Embodiment of the Invention of Claim 14 According to the invention of claim 14, as a result of analyzing the neural network according to the invention of claims 9 to 12, it is determined that the neural network has fallen into an irrational learning state. The present invention relates to an abnormality determination method for determining. In addition, the analysis and
A diagnostic system is also disclosed. Claims 9 to 9 when the learning target of the neural network is known to some extent.
With the twelfth analysis method, it is possible to determine whether the learning state of the neural network is good or not. For example, when predicting the dam inflow by a neural network, the dam inflow has a very high correlation with the upstream flow difference (time difference of the upstream flow), and it is possible to judge that the learning is poor in the following example. When the connection with the upstream flow rate is not established. The difference between the existing prediction formula and the internal analysis result is large (for example, the flow rate increases, but the inflow rate decreases).

【0112】図15を参照しつつ、本発明の実施形態を
説明する。 (1)学習済みニューロ読み込み(ステップE1) 請求項1のニューラルネットワーク構造のニューロを読
み込む。ニューロを読み込むとは、その重みや素子数の
定義を読み込むことである。 (2)異常判定用DB読み込み(ステップE2) 学習不良を判定するためのDBを読み込む。異常を判定
するための基準は、各現象ごとに異なる。例えば、ダム
流入量予測では、上述の判定項目,が考えられる。
具体的な異常判定基準については後述する。 (3)ニューロ解析・診断(ステップE3) ニューラルネットワークを請求項9〜12の何れかの発
明により解析する。そして、先に読み込んだ異常判定用
DBと照合して学習状態を診断する。具体的な異常判定
方法については後述する。 (4)診断結果表示(ステップE4) 解析・診断の結果を表示し、必要に応じて警告音を発生
したり外部へ伝送する。
An embodiment of the present invention will be described with reference to FIG. (1) Reading of the trained neuro (Step E1) The neural of the neural network structure of claim 1 is read. Reading the neuro means reading the definition of the weight and the number of elements. (2) DB reading for abnormality determination (step E2) A DB for determining a learning failure is read. The criterion for judging abnormality is different for each phenomenon. For example, in the prediction of the dam inflow amount, the above-described determination items can be considered.
Specific abnormality determination criteria will be described later. (3) Neuro Analysis / Diagnosis (Step E3) The neural network is analyzed according to any one of claims 9 to 12. Then, the learning state is diagnosed by collating with the previously read abnormality determination DB. A specific abnormality determination method will be described later. (4) Diagnosis result display (Step E4) The result of analysis / diagnosis is displayed, and a warning sound is generated or transmitted to the outside if necessary.

【0113】次に、本発明を実現する解析・診断システ
ムを図16に示す。図16において、記憶装置21と
は、FDD,HDD,MO,RAM,ROM等の内部記
憶装置と外部記憶装置を総称したものである。記憶装置
21には、ニューラルネットワークの重み、異常判定用
DBが保存されている。また、学習状態の診断結果も記
憶装置21に保存される。ニューロ読み込みモジュール
22、異常判定用DB読み込みモジュール23、解析・
診断モジュール24の作用は、図15のフローチャート
で説明した通りである。解析・診断の結果は、運用者に
知らせるためにCRT、プリンタ等の表示装置26に表
示(または印刷)される。この表示装置26を持たない
装置では、異常時にブザー25により警告したり、LA
N・電話回線27を介して他の計算機等へ伝送すること
も可能である。
Next, an analysis / diagnosis system for realizing the present invention is shown in FIG. In FIG. 16, the storage device 21 is a general term for an internal storage device such as an FDD, an HDD, an MO, a RAM, and a ROM and an external storage device. The storage device 21 stores a neural network weight and an abnormality determination DB. Further, the diagnosis result of the learning state is also stored in the storage device 21. Neuro reading module 22, abnormality determination DB reading module 23, analysis /
The operation of the diagnostic module 24 is as described in the flowchart of FIG. The results of the analysis and diagnosis are displayed (or printed) on a display device 26 such as a CRT or a printer in order to inform the operator. In a device without the display device 26, a warning is given by the buzzer 25 when an
It is also possible to transmit to another computer or the like via the N / telephone line 27.

【0114】(15)請求項15の発明の実施形態 請求項15の発明は、上述した請求項14の異常判定方
法において、学習対象の現象が定性的に判明していると
きに、ニューラルネットワークの結合状態から異常判定
を行う方法である。例えば、ダム流入量予測では、上述
のように上流流量差分の影響が大きいことが定性的に判
明している。つまり、入力因子としての上流流量差分に
つながる結合の重みが他の結合の重みと比較して一定値
以下ならば異常(学習不良)と判定する方法である。こ
こで、上流流量差分につながる結合とは、入力層素子
(上流流量差分の入力)と中間層素子との結合や、中間
層素子(上流流量に関係する疎結合の中間層素子)と出
力層素子との結合のことをいう。
(15) Embodiment of the Invention of Claim 15 According to the invention of claim 15, in the above-described abnormality determination method of claim 14, when the phenomenon to be learned is qualitatively known, the neural network is This is a method of performing an abnormality determination from the connection state. For example, in dam inflow prediction, it has been qualitatively found that the influence of the upstream flow rate difference is large as described above. That is, if the weight of the connection leading to the upstream flow rate difference as an input factor is equal to or smaller than a certain value compared to the weight of the other connections, it is a method of determining an abnormality (learning failure). Here, the connection that leads to the upstream flow difference means the connection between the input layer element (input of the upstream flow difference) and the intermediate layer element, or the connection between the intermediate layer element (the loosely-coupled middle layer element related to the upstream flow rate) and the output layer. Refers to the connection with the element.

【0115】上記異常判定を実現する具体的な方法とし
ては、異常判定データベースに、例えば上流流量差分に
つながる結合の重みが一定値以下の場合、もしくは他の
結合の重みより一定値未満(他の重み平均の80%未満
等)の場合を異常と判定するように登録する。
As a specific method for realizing the above-described abnormality determination, for example, when the weight of the connection leading to the difference in the upstream flow rate is less than a certain value in the abnormality determination database, or less than a certain value than the weight of another connection (other (E.g., less than 80% of the weighted average) is registered so as to be determined to be abnormal.

【0116】(16)請求項16の発明の実施形態 請求項16の発明は、請求項14の発明の異常判定方法
において、ニューラルネットワークの内部状態を示す数
値指標から異常判定を行う方法である。請求項15との
違いは、請求項15の発明は重み自体を対象として異常
判定データベースにより判定するのに対し、請求項16
の発明では、請求項10で説明した、goodness factor,
effectiveness factor, 分散、逆写像等の、入力層素
子、中間層素子の有効性を示す各種評価指標を用いて異
常判定を行う点である。
(16) An embodiment of the invention of claim 16 The invention of claim 16 is a method of performing an abnormality judgment from a numerical index indicating an internal state of a neural network in the abnormality judgment method of the invention of claim 14. The difference from the fifteenth aspect is that the invention of the fifteenth aspect determines the weight itself by using the abnormality determination database, while
According to the invention, the goodness factor,
The point is that abnormality determination is performed using various evaluation indices indicating the effectiveness of the input layer element and the intermediate layer element, such as effectiveness factor, variance, and inverse mapping.

【0117】例えば、ダム流入量予測で異常と判定する
基準は以下の通りであり、この一部もしくは複数が成立
するときに、異常と判断する。 上流流量差分に関するgoodness factorが他より低い 上流流量差分に関するeffectiveness factorが他より
低い 上流流量差分に関する分散が他より低い 上流流量差分に関する逆写像の正負が逆(負のときに
異常)
For example, the criterion for judging an abnormality in the prediction of the dam inflow amount is as follows. Goodness factor for upstream flow difference is lower than others Effectiveness factor for upstream flow difference is lower than others Dispersion for upstream flow difference is lower than others Positive / negative of inverse mapping for upstream flow difference is opposite (abnormal when negative)

【0118】(17)請求項17の発明の実施形態 請求項17の発明は、請求項14の発明の異常判定方法
において、学習対象の現象を表す数式が存在するとき
に、その数式とニューラルネットワークの内部状態との
相関係数が一定値以下の場合には、学習不良による不合
理な状態と判断して異常判定を行うものである。
(17) An embodiment of the seventeenth aspect of the present invention is the abnormality determination method according to the fourteenth aspect of the present invention, wherein when a mathematical expression representing a phenomenon to be learned exists, the mathematical expression and the neural network If the correlation coefficient with the internal state is less than or equal to a certain value, it is determined that the state is irrational due to learning failure and an abnormality is determined.

【0119】例えば、上述ダム流入量予測では、上流流
量差分は出力に対して線形の関係であるとする。そのと
き、上流流量差分に関する中間層素子出力が非線形を示
す場合には学習不良による異常と判断する。それ以外の
例として、翌日電力需要量予測において、気温と電力需
要量とは2次の関係があることが判明している。従っ
て、気温に関する中間層素子の出力が2次でないときに
は、学習不良による異常と判断する。この実施形態にお
ける具体的な異常判定には、相関係数を用いる。相関係
数とは、−1〜1の範囲で出力される統計指標であり、
運用者が予め異常判定データベースに設定した数式と、
判定対象であるニューラルネットワークの出力の関係式
との間の相関係数が一定値未満ならば、学習不良による
異常と判定すればよい。
For example, in the above-described dam inflow prediction, it is assumed that the upstream flow rate difference has a linear relationship with the output. At this time, if the output of the intermediate layer element relating to the difference in the upstream flow rate shows nonlinearity, it is determined that the abnormality is due to learning failure. As another example, in the next-day power demand forecast, it has been found that the temperature and the power demand have a secondary relationship. Therefore, when the output of the intermediate layer element relating to the temperature is not secondary, it is determined that the abnormality is due to learning failure. The correlation coefficient is used for specific abnormality determination in this embodiment. The correlation coefficient is a statistical index output in the range of −1 to 1,
A formula set in advance by the operator in the abnormality determination database,
If the correlation coefficient between the neural network to be determined and the relational expression of the output of the neural network is less than a certain value, it may be determined that the abnormality is due to learning failure.

【0120】(18)請求項18の発明の実施形態 請求項18の発明は、請求項14の発明の異常判定方法
において、ニューラルネットワークの出力の上限値が学
習データの上限値よりも小さいとき、または、ニューラ
ルネットワークの出力の下限値が学習データの下限値よ
りも大きいときに、学習不良による異常と判定する方法
である。
(18) An embodiment of the eighteenth aspect of the invention is the abnormality determination method according to the fourteenth aspect, wherein the upper limit value of the output of the neural network is smaller than the upper limit value of the learning data. Alternatively, when the lower limit value of the output of the neural network is larger than the lower limit value of the learning data, it is determined to be abnormal due to poor learning.

【0121】ニューラルネットワークは任意のデータを
学習することで、学習データ通りに作用する内部構造を
獲得する。しかし、学習不良時には、期待通りに作用し
ないこともある。学習不良の典型例は、上下限値の飽和
である。実験データや自然現象から学習データを構築す
る場合には、その限界値(上下限値)のデータが不足す
ることが多い。例えば、気温を予測するニューラルネッ
トワークでは、10〜20℃のデータは豊富に用意する
ことが可能であるが、40℃近辺のデータは少ないの
で、40℃近辺の学習不良が起こりやすい。通常、ニュ
ーラルネットワークには数十の入力因子があり、全ての
入力パターンをテストすることは困難である。本発明で
は、請求項13により解析したニューラルネットワーク
出力の上下限値が学習データの上下限値、もしくは期待
した上下限値よりも狭い範囲であった場合には、学習不
良と判断して異常判定を行う。
The neural network learns arbitrary data to obtain an internal structure that operates as learned data. However, when learning is poor, it may not work as expected. A typical example of learning failure is saturation of upper and lower limits. When constructing learning data from experimental data or natural phenomena, the data of the limit value (upper / lower limit value) is often insufficient. For example, in a neural network for predicting air temperature, data at 10 to 20 ° C. can be prepared abundantly, but since data around 40 ° C. is small, learning failures around 40 ° C. are likely to occur. Usually, a neural network has dozens of input factors, and it is difficult to test all input patterns. In the present invention, if the upper and lower limits of the neural network output analyzed by claim 13 are lower than the upper and lower limits of the learning data or a range narrower than the expected upper and lower limits, it is determined that the learning is defective and the abnormality is determined. I do.

【0122】(19)請求項19の発明の実施形態 請求項19の発明は、ニューラルネットワークが学習不
良であることが前述の請求項14〜18の発明等により
判明したときに、自動的に再学習する方法に関する。こ
の実施形態の処理を図17に示す。図17において、学
習(ステップF2)、解析・診断処理(ステップF3)
は、上述の各発明によって実現される。解析・診断によ
り学習したニューラルネットワークが異常(学習不良)
と判定されたとき(ステップF4)には、初期化(ステ
ップF1)を経て、再度学習を実施する。初期化(ステ
ップF1)では、学習条件、ニューラルネットワークの
構造等の各種情報をニューラルネットワークに入力する
が、通常は、前回の学習時と条件を変える。なお、初期
化処理は省略することもできる。
(19) Embodiment of the Invention of Claim 19 According to the invention of claim 19, when it is determined by the above-described inventions 14 to 18 that the neural network has a learning failure, it is automatically re-created. On how to learn. FIG. 17 shows the processing of this embodiment. In FIG. 17, learning (step F2), analysis / diagnosis processing (step F3)
Is realized by each of the above-described inventions. Abnormal neural network learned by analysis / diagnosis (learning failure)
Is determined (step F4), the learning is performed again through the initialization (step F1). In the initialization (step F1), various information such as learning conditions and the structure of the neural network are input to the neural network. Usually, the conditions are changed from those in the previous learning. Note that the initialization processing can be omitted.

【0123】(20)請求項20の発明の実施形態 請求項20の発明は、請求項17の発明において、学習
状態の悪い範囲を自動的に特定し、その範囲の学習デー
タを増加させて再学習させる方法に関する。例えば、一
般に上流流量差分と出力との間には線形の関係があると
言われているが、後述する図27では非線形であり、入
力データが0.8以上または0.2未満は飽和してい
る。つまり、入力データが0.8以上と0.2未満は学
習状態の悪い範囲である。
(20) An embodiment of the twentieth aspect of the invention according to the twelfth aspect of the present invention, in the invention of the seventeenth aspect, a range in which the learning state is poor is automatically specified, and the learning data in the range is increased to re-execute. Learn how to learn. For example, although it is generally said that there is a linear relationship between the upstream flow rate difference and the output, it is non-linear in FIG. 27 described below, and the input data is saturated when the input data is 0.8 or more or less than 0.2. I have. That is, when the input data is 0.8 or more and less than 0.2, the learning state is a bad range.

【0124】通常、ニューラルネットワークの学習不良
は、このようにある一定値以上または一定値以下におい
て飽和する状態を示すことが多いため、飽和領域を検索
することで容易に学習不良範囲を特定することが可能で
ある。学習不良の原因は、その範囲の学習データが極度
に不足していることが多い。従って、学習不良である範
囲の学習データを増加させて再度学習させることで、良
好な学習状態とすることができる。
Normally, the learning failure of the neural network often indicates a state of being saturated at a certain value or more or less than the certain value. Therefore, the range of the learning failure can be easily specified by searching the saturation region. Is possible. The cause of learning failure is often extremely short of learning data in that range. Therefore, a good learning state can be achieved by increasing the learning data in the range where learning is poor and performing learning again.

【0125】〔実施例〕以下、請求項1〜請求項20に
係る発明の実施例を説明する。第1実施例は、主として
請求項14,4,8の発明に係るものである。ここで
は、簡単のために数式17に示す2入力1出力の関数を
学習させた。なお、x1,x2の符号は、入力層素子と入
力データの両方の意味を持つものとする。
[Embodiments] Embodiments of the invention according to claims 1 to 20 will be described below. The first embodiment mainly relates to the invention of claims 14, 4 and 8. Here, for simplicity, the function of two inputs and one output shown in Expression 17 was learned. The signs x 1 and x 2 have the meaning of both input layer elements and input data.

【0126】[0126]

【数17】y=x1+x2+x12 (x1,x2={0.0〜1.0})Equation 17] y = x 1 + x 2 + x 1 x 2 (x 1, x 2 = {0.0~1.0})

【0127】学習のアルゴリズムは、図11に示したよ
うに3段階の学習を行う方法であり、請求項3,4の中
間層素子の融合学習方法、不要中間層素子を抑制する評
価関数も組み合わせて使用している。第1段階、第2段
階、第3段階で使用した各評価関数を数式18、数式1
9、数式20にそれぞれ示す。なお、これらの数式にお
いて、γiは部分ニューロの評価関数の重み、ε’は忘
却係数、wは結合の重みである。
The learning algorithm is a method of performing three-stage learning as shown in FIG. 11, and the method of claim 3 or 4 is combined with the evaluation function for suppressing unnecessary intermediate layer elements. Used. The respective evaluation functions used in the first, second, and third stages are represented by Expressions 18 and 1
9 and Equation 20 respectively. In these equations, γ i is the weight of the evaluation function of the partial neuro, ε ′ is the forgetting factor, and w is the weight of the connection.

【0128】[0128]

【数18】 (Equation 18)

【0129】[0129]

【数19】 [Equation 19]

【0130】[0130]

【数20】 (Equation 20)

【0131】このニューラルネットワークの学習誤差を
表4に示す。表4によれば、誤差が極めて小さく、良好
に学習できていることがわかる。
Table 4 shows the learning errors of this neural network. According to Table 4, the error is extremely small, and it can be seen that the learning is good.

【0132】[0132]

【表4】 [Table 4]

【0133】図18(a)は、このニューラルネットワ
ークの学習に使用した学習データx 1,x2,yを示し、
図18(b)は学習結果を示している。また、図19は
学習前のニューラルネットワークの構造であり、2個の
入力層素子と、9個の中間層素子と、1個の出力層素子
とからなっている。そして、入力層素子と中間層素子と
の結合関係では、入力層素子x1とのみ結合している3
個の中間層素子を含む疎結合部分12A及び入力層素子
2とのみ結合している3個の中間層素子を含む疎結合
部分12Bと、全ての入力層素子x1,x2と結合してい
る3個の中間層素子を含む全結合部分11とから構成さ
れている。
FIG. 18A shows this neural network.
Learning data x used for learning 1, XTwo, Y,
FIG. 18B shows the learning result. Also, FIG.
The structure of the neural network before learning
An input layer element, nine intermediate layer elements, and one output layer element
It consists of And the input layer element and the intermediate layer element
In the connection relationship of, the input layer element x1Is only connected with 3
Loosely Coupled Part 12A Containing Intermediate Layer Elements and Input Layer Element
xTwoLoosely Coupled Including Three Interlayer Elements Coupled Only to
Part 12B and all input layer elements x1, XTwoCoupled with
And a total coupling portion 11 including three intermediate layer elements.
Have been.

【0134】第2実施例として、第1実施例により学習
したニューラルネットワークの内部構造を解析する。こ
の実施例は、主として請求項9〜11,15,16の発
明に関するものである。図20において、左から1番目
の中間層素子1はx1にのみ結合しており、疎結合部分
を構成している。この経路の情報はx1にのみ影響され
るので、学習対象の関数には、x1だけの項が存在する
ことを示唆している。同様に、左から2番目の中間層素
子2はx2にのみ結合しており、疎結合部分を構成して
いる。この経路の情報はx2にのみ影響されるので、学
習対象の関数には、x2だけの項が存在することも示唆
している。これらのことは、ニューラルネットワークの
素子の結合状態から線形性等を判断する請求項9の発明
によって解析される。なお、図20では、入力層、中間
層、出力層の各層の素子間の結合の重みを実線の太さで
示してあり、細線が0.1〜1.0、太線が1.0〜10
である。
In the second embodiment, the internal structure of the neural network learned in the first embodiment is analyzed. This embodiment mainly relates to claims 9 to 11, 15, and 16. In Figure 20, the intermediate layer elements 1 of the first from the left is bonded only to x 1, constitutes a loose coupling portion. Because the information in this pathway is affected only to x 1, the function to be learned, suggesting that section only x 1 is present. Similarly, the intermediate layer element 2 of the second from the left is bonded only to x 2, constitutes a loose coupling portion. Because the information in this pathway is affected only x 2, the function to be learned, and also suggest that section only x 2 exists. These are analyzed by the invention of claim 9 in which the linearity or the like is determined from the connection state of the elements of the neural network. In FIG. 20, the weight of the coupling between the elements of the input layer, the intermediate layer, and the output layer is indicated by the thickness of the solid line, and the thin line is 0.1 to 1.0, and the thick line is 1.0 to 10
It is.

【0135】次に、図20のニューラルネットワークに
ついて、4個の中間層素子の評価指標を算出すると、表
5のようになった。また、2個の入力層素子(入力因子)
の評価指標は表6のようになった。
Next, with respect to the neural network of FIG. 20, evaluation indices of four intermediate layer elements are calculated, as shown in Table 5. In addition, two input layer elements (input factors)
Table 6 shows the evaluation indices for.

【0136】[0136]

【表5】 [Table 5]

【0137】[0137]

【表6】 [Table 6]

【0138】表5によれば、1番目と2番目の中間層素
子1,2のeffectiveness factor,goodness factor ,
分散は同程度であるので、請求項10の発明を適用する
ことにより、出力に対するx1,x2の性質やその寄与度
が同じ可能性が高いと判断される。また、3番目、4番
目の中間層素子3,4は入力層素子x1,x2の両方に結
合していて全結合部分を構成しており、請求項9の発明
によれば、これら入力層素子x1,x2の相互作用もしく
はx1,x2の非線形成分の存在が予想される。実際に、
数式17の対象関数は、x1,x2の独立した項とx1
2の相互作用の項(第3項)とを有し、また、x1,x
2は第3項において非線形結合している。更に、表6に
よれば、入力層素子x1,x2に関してもeffectiveness
factor,goodness factor ,分散は同程度であることが
わかる。
According to Table 5, the effectiveness factors, goodness factors,
Since the variances are substantially the same, it is determined that by applying the invention of claim 10, it is highly likely that the properties of x 1 and x 2 and the degree of contribution to the output are the same. Further, the third and fourth intermediate layer elements 3 and 4 are connected to both of the input layer elements x 1 and x 2 to form a fully connected portion. The interaction between the layer elements x 1 and x 2 or the existence of the nonlinear components x 1 and x 2 is expected. actually,
Target function independent claim and x 1 of x 1, x 2 of the formula 17,
x 2 interaction term (third term), and x 1 , x
2 is nonlinearly coupled in the third term. Further, according to Table 6, the effectiveness of the input layer elements x 1 and x 2 is also shown.
It can be seen that the factor, goodness factor, and variance are comparable.

【0139】図20に示すニューラルネットワークの入
力層素子に代表的な値を入力したときの中間層素子(疎
結合の中間層素子1,2、全結合の中間層素子3,4及
びバイアス素子)の出力を、表7に示す。表7によれ
ば、入力データに0を入れた場合でも出力が0にならな
い中間層素子があることが判る。従って、解析時には、
各中間層出力の下限値を調べ、対象関数のy=x1+x2
+x12には表れていない固定分(y=x1+x2+x1
2+dにおけるd)がどのくらいあるか調べる必要が
あることが判る。
Intermediate layer elements when inputting representative values to the input layer elements of the neural network shown in FIG. 20 (loosely coupled intermediate layer elements 1 and 2, fully coupled intermediate layer elements 3 and 4, and bias element) Are shown in Table 7. According to Table 7, it can be seen that there is an intermediate layer element whose output does not become 0 even when 0 is inserted in the input data. Therefore, at the time of analysis,
The lower limit value of each hidden layer output is checked, and the target function y = x 1 + x 2
+ X 1 fixed fraction not shown in x 2 (y = x 1 + x 2 + x 1
It turns out that it is necessary to check how much d) in x 2 + d.

【0140】[0140]

【表7】 [Table 7]

【0141】図21〜図24に、入力データの影響度合
いをシグモイド関数と共に模式的に表したグラフを示
す。図21は入力データx1,x2が(0,0)の場合、
図22は同じく(0.5,0.5)の場合、図23は同じ
く(1,1)の場合、図24は同じく(1,0)の場合
である。これらの図から、入力データの大きさに応じ
た、各中間層素子や各入力層素子の出力に対する影響度
合いを容易に把握することが可能である。このことは、
請求項11の発明の作用によるものである。更に、請求
項15の発明によれば、入力素子x1,x2につながる結
合が存在し、かつお互いの重みの結合が同程度であるの
で学習が正常に行われており、学習不良による異常はな
いと判定することができる。また、請求項16の発明で
も、表5、表6においてx1,x2に関する評価指標が同
程度であるので、良好な学習が行われていて異常はない
と判定することができる。
FIGS. 21 to 24 are graphs schematically showing the degree of influence of input data together with the sigmoid function. FIG. 21 shows that when the input data x 1 and x 2 are (0, 0),
22 shows the case of (0.5, 0.5), FIG. 23 shows the case of (1, 1), and FIG. 24 shows the case of (1, 0). From these figures, it is possible to easily grasp the degree of influence on the output of each intermediate layer element and each input layer element according to the size of the input data. This means
This is due to the function of the eleventh invention. Furthermore, according to the invention of claim 15, there is a connection connected to the input elements x 1 and x 2 and the connection of the weights is almost the same, so that the learning is performed normally, and the abnormality due to the learning failure is abnormal. Can be determined not to exist. Also in the invention of claim 16, since the evaluation indices for x 1 and x 2 in Tables 5 and 6 are almost the same, it can be determined that good learning has been performed and no abnormality has occurred.

【0142】次に、第3実施例を説明する。この実施例
は、主として請求項9,10,12,15〜17に関す
るものである。この実施例では、ダムの流入量を予測す
るニューラルネットワークを解析する。予測に使用する
入力因子は、表8に示すように、3つの測水所の流量、
流量差分(1時間おきの過去3時間分の流量)、予測対
象ダムの流量、流量差分(1時間おきの過去2時間分の
流量)、流域平均雨量(1時間おきの過去20時間分の
流域平均雨量)である。
Next, a third embodiment will be described. This embodiment mainly relates to claims 9, 10, 12, 15 to 17. In this embodiment, a neural network for predicting the inflow of a dam is analyzed. The input factors used for the prediction are the flow rates of the three gauging stations, as shown in Table 8.
Flow rate difference (flow rate for the past 3 hours every 1 hour), flow rate of dam to be predicted, flow rate difference (flow rate for the past 2 hours every 1 hour), basin average rainfall (watershed for the past 20 hours every 1 hour) Average rainfall).

【0143】[0143]

【表8】 [Table 8]

【0144】図25は予測対象ダムの上流域の模式図で
あり、各流域に雨量計が設置され、各流域ごとに測水所
が設けられている。第1実施例と同じ学習アルゴリズム
によって獲得したニューラルネットワークの構造を図2
6に示し、入力値に対する出力層に伝播する情報及び出
力値を図27に示す。
FIG. 25 is a schematic diagram of the upstream area of the dam to be predicted. A rain gauge is installed in each basin, and a water gauge is provided for each basin. FIG. 2 shows the structure of the neural network obtained by the same learning algorithm as in the first embodiment.
FIG. 27 shows information and output values which are shown in FIG.

【0145】学習前の初期中間層素子を12個として学
習を始めたが、学習により獲得した図26の構造によれ
ば、中間層素子が3個にまで削減された。構築された図
26のニューラルネットワークの中間層素子は、「上流
流量差分」、「雨量」、「相互作用分(全結合部分)」
につながり、「上流流量」、「ダム流量」、「ダム流量
差分」のみにつながる中間層素子は構築されなかった。
つまり、請求項9の発明から、「上流流量差分」、「雨
量」、「相互作用分(全結合部分)」は予測に重要な因
子であり、「上流流量」、「ダム流量」、「ダム流量差
分」は重要度の低い因子であることが分かる。ここで、
上記「相互作用分(全結合部分)」とは、複数の入力因
子の作用であって単独の成分では表せない複雑な成分を
示す。例えば、y=x1+x2+x12におけるx12
部分に相当する。
Learning was started with the number of the initial intermediate layer elements before learning being 12, but according to the structure of FIG. 26 obtained by learning, the number of intermediate layer elements was reduced to three. The intermediate layer elements of the constructed neural network of FIG. 26 include “upstream flow difference”, “rainfall”, and “interaction (all connected parts)”.
No intermediate layer element was constructed, which led to only "upstream flow rate", "dam flow rate", and "dam flow rate difference".
In other words, from the invention of claim 9, "upstream flow difference", "rainfall", "interaction (total coupling portion)" are important factors for prediction, and "upstream flow", "dam flow", "dam flow" It can be seen that the “flow rate difference” is a factor of low importance. here,
The “interaction component (all binding portions)” indicates a complex component which is an effect of a plurality of input factors and cannot be represented by a single component. For example, corresponds to a portion of the x 1 x 2 in y = x 1 + x 2 + x 1 x 2.

【0146】表9は、図26の中間層素子1〜3のeffe
ctiveness factor, goodness factor, 分散を示してい
る。
Table 9 shows the effe of intermediate layer elements 1 to 3 in FIG.
Shows ctiveness factor, goodness factor, and variance.

【0147】[0147]

【表9】 [Table 9]

【0148】表9のgoodness factorより、「上流流量
差分」のサブネットワークは非常に重要な働きを示すこ
とが分かる。これは請求項10の発明による解析結果で
ある。これらのことは、運用者の感覚とよく一致してお
り、良好な学習結果であると判定することができる。こ
れは、請求項15,16の異常判定方法によるものであ
る。
It can be seen from the goodness factor in Table 9 that the “upstream flow difference” subnetwork has a very important function. This is an analysis result according to the tenth aspect of the present invention. These are in good agreement with the operator's feelings, and can be determined to be good learning results. This is based on the abnormality determination method according to claims 15 and 16.

【0149】また、図27から、ニューロ出力に対して
は「上流流量差分」の成分が大きく影響しているが、入
力値(入力層)がほぼ0.2以下、0.7以上の範囲で
は飽和している。請求項12の発明により、この範囲の
入力値に対しては、このニューラルネットワークはほと
んど出力の変化がないことがわかる。更に、運用者の感
覚によれば、上流流量差分と出力とは線形の関係があ
る。図28に、上流流量差分のみにつながる中間層素子
1が出力層に伝搬する情報量を示す。上流流量差分は入
力値に対して線形度の相関係数R2が少し小さいので、
学習不良であることを示している。これは、請求項17
による異常判別の結果である。特に、入力値がほぼ0.
2以下と0.7以上の範囲の学習データに対しては学習
不良である。「雨量」は、請求項12の発明によれば、
入力値(入力層)が大きいときにのみ大きく変化する。
このことは、雨量が少ないときには地面に吸収されやす
く、多いときに流出しやすい現象を的確に表している。
「相互作用分」の変動はごく小さく、補正程度に作用し
ている。これは、請求項12の発明による解析結果であ
る。
Further, from FIG. 27, although the component of “upstream flow rate difference” has a great influence on the neuro output, when the input value (input layer) is in the range of approximately 0.2 or less and 0.7 or more, Saturated. According to the twelfth aspect, it is understood that the output of the neural network hardly changes for input values in this range. Furthermore, according to the operator's feeling, there is a linear relationship between the upstream flow rate difference and the output. FIG. 28 shows the amount of information transmitted from the intermediate layer element 1 to the output layer, which leads to only the upstream flow rate difference. Since the upstream flow difference has a slightly smaller linearity correlation coefficient R 2 with respect to the input value,
This indicates that learning is poor. This corresponds to claim 17
This is the result of the abnormality determination by the above. In particular, when the input value is approximately 0.
Learning data is poor for learning data in the range of 2 or less and 0.7 or more. According to the twelfth aspect, "rainfall"
It changes greatly only when the input value (input layer) is large.
This accurately represents the phenomenon that the rainfall is easy to be absorbed by the ground when the rainfall is small, and easily drained when the rainfall is large.
The fluctuation of the "interaction component" is very small and acts to the degree of correction. This is an analysis result according to the twelfth aspect.

【0150】表10は、各入力因子を個別に評価した指
標である。goodness factorが0.1以上の因子を見ると流
量差分や雨量の一部であり、運用者の感覚とほぼ一致す
る。これは、請求項16の発明による。10時間以前の
雨量の因子は小さいものが多い。対象のダムは10時間
前までの雨量との相関が高いことがすでに判明してお
り、その結果とも一致している。
Table 10 is an index for individually evaluating each input factor. When the goodness factor is a factor of 0.1 or more, it is a part of the flow rate difference and the rainfall, and almost matches the operator's feeling. This is according to the sixteenth invention. The factors of rainfall before 10 hours are often small. It has been found that the target dam has a high correlation with the rainfall up to 10 hours ago, which is consistent with the results.

【0151】[0151]

【表10】 [Table 10]

【0152】次に、第4実施例を説明する。この実施例
は、主として請求項11,13,17の発明に関するも
のである。本実施例では、翌日電力需要量予測を例題に
して解析を行う。入力因子は表11に示すとおりであ
り、電力(最大電力)、気象(最高気温、最低気温、最
小湿度、天気)、特異日フラグ(土曜、休日)に関して
季節ごとに当日iから2日前(i−2)まで、または当
日iから7日前(i−7)までとした。
Next, a fourth embodiment will be described. This embodiment mainly relates to the inventions of claims 11, 13 and 17. In the present embodiment, the analysis is performed using the next day's power demand prediction as an example. The input factors are as shown in Table 11, and the power (maximum power), the weather (highest temperature, the lowest temperature, the minimum humidity, the weather), and the special day flag (Saturday, holiday) are two days before (i) for each season. -2) or from i to 7 days before (i-7).

【0153】[0153]

【表11】 [Table 11]

【0154】中間層素子を12個用意して学習した結
果、図29に示す構造のニューラルネットワークが獲得
できた。図30はこのニューラルネットワークの入出力
関係を示すもので、電力需要量は、至近の電力実績に対
しては正の相関があり、気温に対しては、正の相関と負
の相関が入り交じっていることが分かる。気温が低い時
には暖房機を、気温が高いときには冷房機を動かすため
に電力需要が増大する現象と一致する。このことは、電
力需要予測を行う運用者の感覚とも完全に一致してい
る。
As a result of preparing and learning 12 intermediate layer elements, a neural network having the structure shown in FIG. 29 was obtained. FIG. 30 shows the input / output relationship of this neural network. The power demand has a positive correlation with the closest power record, and the temperature correlation has a positive correlation and a negative correlation. You can see that it is. This coincides with a phenomenon in which the demand for electric power increases in order to operate the heater when the temperature is low and to operate the cooler when the temperature is high. This is completely consistent with the operator's sense of power demand forecasting.

【0155】通常、気温と電力需要量との間には2次の
関係があると言われる。図31から、気温(気象)は2
次式との相関が非常に強いため、請求項17の発明によ
り学習が良好に行われていると判定することができる。
また、電力需要量を下げる要因は、気温が中程度であっ
て至近の電力需要量が小さいことであり、逆に電力需要
量が上がる要因は、気温が高すぎるか低すぎるかのどち
らかに偏り、至近の電力需要量が大きいことである。つ
まり、このニューラルネットワークの下限値を与える入
力データは、電力に関する入力が0、気象に関する入力
が0.5のときであることが請求項13の発明から判
る。具体的な実績データを表12に示す。
It is generally said that there is a quadratic relationship between temperature and power demand. From FIG. 31, the temperature (weather) is 2
Since the correlation with the following equation is very strong, it can be determined that the learning is well performed by the invention of claim 17.
The factor that lowers the power demand is that the temperature is moderate and the power demand in the immediate vicinity is small. Conversely, the factor that increases the power demand is whether the temperature is too high or too low. The bias is that the power demand in the immediate vicinity is large. In other words, it can be understood from the invention of claim 13 that the input data that gives the lower limit value of this neural network is when the input related to power is 0 and the input related to weather is 0.5. Table 12 shows specific performance data.

【0156】[0156]

【表12】 [Table 12]

【0157】表12における基準値は、図29のニュー
ラルネットワークによる解析結果から、電力需要量を最
低にするであろう入力データに基づいて作成した。これ
は、請求項13の発明による解析結果に基づく。実際、
実データの値を数例入力し、解析結果による下限値より
小さい値は出力されなかったことを確認した。
The reference values in Table 12 were created based on the input data that would minimize the power demand based on the results of analysis by the neural network in FIG. This is based on the analysis result according to the invention of claim 13. In fact,
Several values of actual data were input, and it was confirmed that values smaller than the lower limit according to the analysis result were not output.

【0158】以下は、3種類の春季予測用ニューラルネ
ットワークに対し、実データを用いて請求項11の発明
により入力因子の出力への影響を解析した例である。図
32(4月9日)は、気象と電力の相関がない時期であ
り、予測値は電力実績のみに左右される。図33(5月
30日)は、気象と電力の相関が現れ始め、予測値は電
力と気象の2つの要因で決定される。図34(6月25
日)は、夏季に近く気温と電力の相関が強い時期であ
る。予測値は電力の影響が低下し、気温の影響が強くな
ってきている。
The following is an example of analyzing the effect of the input factor on the output of the three types of neural networks for spring prediction by using the actual data according to the present invention. FIG. 32 (April 9) is a time when there is no correlation between weather and power, and the predicted value depends only on the actual power. In FIG. 33 (May 30), the correlation between the weather and the power starts to appear, and the predicted value is determined by two factors, the power and the weather. Figure 34 (June 25
Sun) is a season close to summer, when there is a strong correlation between temperature and electricity. As for the predicted value, the influence of electric power is decreasing and the influence of temperature is increasing.

【0159】以上、請求項1〜20記載の発明の実施形
態及び実施例を説明した。これらの発明によれば、従来
のニューラルネットワークと互換性があり、しかも内部
解析が可能である。すなわち、解析目的に応じたニュー
ラルネットワーク構造を学習時に与えることで、任意の
入力因子と出力との関係を容易に解析することができ
る。通常、この種の解析は目的を持って行うため、請求
項1〜20記載の発明によって必要を満たすことができ
るが、ニューラルネットワークの学習時に解析目的がは
っきりしていないときには、適切なニューラルネットワ
ークの構造を与えることができない場合がある。そこ
で、以下の発明は、請求項1〜20の発明を改良し、入
出力のデータの関係を自動的に解析して適切な構造のニ
ューラルネットワークを構築するようにした学習方法を
提供するものである。
The embodiments and examples of the first to twentieth aspects of the present invention have been described above. According to these inventions, it is compatible with the conventional neural network, and the internal analysis is possible. That is, by providing a neural network structure according to the analysis purpose at the time of learning, the relationship between an arbitrary input factor and an output can be easily analyzed. Usually, this type of analysis is performed with a purpose, and the invention described in claims 1 to 20 can satisfy the need. However, when the analysis purpose is not clear at the time of learning a neural network, an appropriate neural network It may not be possible to give the structure. Therefore, the following invention provides a learning method that improves the inventions of claims 1 to 20, and automatically analyzes the relationship between input and output data to construct a neural network having an appropriate structure. is there.

【0160】(21)請求項21の発明の実施形態 請求項1〜20の発明では、学習開始前に全結合部分と
疎結合部分につながる中間層素子をあらかじめ用意する
必要がある。そこで請求項21の発明では、疎結合部分
だけで学習を行い、疎結合部分だけでは学習しきれない
ときにのみ全結合部分を追加することとした。すなわ
ち、この発明によれば最初に用意する中間層素子が少な
く計算量が少ないため、学習時間の短縮が可能になる。
(21) Embodiment of the Invention of the Twenty-First Embodiment In the inventions of the first to twentieth aspects, it is necessary to prepare an intermediate layer element connected to the fully coupled part and the loosely coupled part before learning is started. Therefore, in the invention of claim 21, learning is performed only in the loosely coupled portion, and the fully coupled portion is added only when learning is not possible only in the loosely coupled portion. That is, according to the present invention, since the number of intermediate layer elements prepared first is small and the amount of calculation is small, the learning time can be reduced.

【0161】図35は、本発明の実施形態の処理を示す
フローチャートである。第1ステップG1は、通常のニ
ューラルネットワークの初期化処理である。具体的に
は、全ての重みに対し初期値を小さい数の乱数で与え
る。このステップは、図5におけるステップA1と同一
である。第2ステップG2は、解析可能なニューラルネ
ットワーク構造へ変形するための処理であり、任意の重
みを0にして削除する。ここで、全結合部分を生成せず
に、疎結合部分のみを生成することが必要である。第3
ステップG3は、通常のニューラルネットワークの重み
修正量の計算である。修正量を算出するための評価関数
は、前述した各評価関数の何れを用いても良い。
FIG. 35 is a flowchart showing the processing of the embodiment of the present invention. The first step G1 is a normal neural network initialization process. Specifically, an initial value is given by a small number of random numbers for all weights. This step is the same as step A1 in FIG. The second step G2 is a process for transforming the neural network structure into an analyzable neural network structure. Here, it is necessary to generate only loosely coupled portions without generating fully coupled portions. Third
Step G3 is a calculation of the weight correction amount of the ordinary neural network. Any of the evaluation functions described above may be used as the evaluation function for calculating the correction amount.

【0162】第4ステップG4は、解析可能なニューロ
構造のための修正量の再修正である。第3ステップG3
の計算により、削除したはずの結合が構築されることが
ある。それを防止するために、第2ステップで削除した
重みに関する修正量を強制的に0にする。第5ステップ
G5は、重みの修正処理である。計算された修正量にし
たがって重みを修正する。第6ステップG6は、学習終
了判断である。なお、このステップは図5におけるステ
ップA6と同一であり、請求項4における「第6ステッ
プ」とは異なる。このステップG6において、学習誤差
が規定値以下になるか、もしくは規定学習回数に達した
ら、学習終了と判断する。学習誤差が規定値以下になっ
たか否かは評価関数や全学習データに対する誤差により
判断する。ここで、学習誤差が規定値よりも大きい時に
は学習が終了していないと判断して第7ステップG7に
移行する。
The fourth step G4 is a re-correction of the correction amount for the neuro structure that can be analyzed. Third step G3
May construct a bond that should have been deleted. In order to prevent this, the correction amount regarding the weight deleted in the second step is forcibly set to zero. The fifth step G5 is a weight correction process. The weight is corrected according to the calculated correction amount. The sixth step G6 is a learning end determination. This step is the same as step A6 in FIG. 5, and is different from the "sixth step" in claim 4. In this step G6, when the learning error becomes equal to or smaller than the specified value or when the specified number of times of learning is reached, it is determined that the learning is completed. Whether the learning error has become equal to or less than the specified value is determined based on an evaluation function or an error with respect to all learning data. Here, when the learning error is larger than the specified value, it is determined that the learning is not completed, and the process shifts to the seventh step G7.

【0163】第7ステップG7は、全結合部分の中間層
素子を追加する処理である。ステップG6までに学習が
終了しないということは、疎結合部分の中間層だけでは
学習ができないことを意味する。よって、全結合部分の
中間層素子を任意の個数追加して第3ステップG3に戻
る。全結合部分の中間層素子は通常は1つずつ追加する
が、一度に複数個追加してもよい。また、上記ステップ
の説明では省略したが、請求項1〜20の発明では、不
要な中間層素子や結合を削除する技術を説明した。よっ
て、これらの技術を応用し、本実施形態においても、追
加しすぎた中間層素子や、学習中に発見された不要な中
間層素子等がある場合には、これらを削除するようにし
ても良い。
The seventh step G7 is a process for adding an intermediate layer element of the entire connection portion. The fact that learning is not completed by step G6 means that learning cannot be performed only by the intermediate layer of the loosely coupled portion. Therefore, the process returns to the third step G3 after adding an arbitrary number of intermediate layer elements in all the coupling portions. Normally, the intermediate layer elements of the entire coupling portion are added one by one, but a plurality of them may be added at one time. Further, although omitted in the description of the above steps, the inventions of claims 1 to 20 have described a technique for removing unnecessary intermediate layer elements and couplings. Therefore, by applying these techniques, in the present embodiment, if there are too many intermediate layer elements added or unnecessary intermediate layer elements discovered during learning, these may be deleted. good.

【0164】(22)請求項22の発明の実施形態 次に、請求項22記載の発明の実施形態を説明する。請
求項1〜請求項21の発明においては、ニューラルネッ
トワークの学習開始時(前記図5,図8等における第2
ステップとしての任意結合の削除ステップ)に、解析目
的に応じて任意のニューラルネットワーク構造を与えな
ければならない。つまり解析目的がはっきりしていない
ときには、不適切な構造を与えてしまう可能性がある。
そこで本発明では、学習開始時のステップ(任意結合の
削除ステップ)においてニューラルネットワーク構造を
自動的に構築する方法(自動的に結合を削除する方法)
を提供し、学習データの入出力関係から、入力因子を自
動的に複数のグループに分けることで適切な構造を与え
るようにした。これにより、将来の解析において不要と
思われる入力因子同士をまとめ、解析が必要と思われる
入力因子同士を別々にすることで、想定される解析目的
にあった構造のニューラルネットワークを前もって構築
することができる。
(22) Embodiment of the Invention of Claim 22 Next, an embodiment of the invention of claim 22 will be described. In the invention of claims 1 to 21, at the start of learning of the neural network (the second
An arbitrary neural network structure must be given to the step of removing an arbitrary connection as a step) according to the purpose of analysis. In other words, when the purpose of the analysis is not clear, there is a possibility that an inappropriate structure may be given.
Therefore, in the present invention, a method of automatically constructing a neural network structure in a step at the start of learning (a step of deleting an arbitrary connection) (a method of automatically deleting a connection)
And provided an appropriate structure by automatically dividing input factors into multiple groups based on the input / output relationship of learning data. In this way, by combining input factors that are considered unnecessary in future analysis and separating input factors that are considered necessary for analysis, a neural network with a structure suitable for the expected analysis purpose can be constructed in advance. Can be.

【0165】以下に、入力因子のグループ分けの原理を
示す。簡単のため、電力需要量予測問題を例に説明す
る。電力需要量予測問題とは、ある地域の翌日の最大電
力を予測する問題であり、電力会社において、発電機の
起動停止計画を立案するための重要な業務として位置付
けられている。電力需要量は、曜日、気温、至近の電力
実績等により予測することが可能である。表13に、電
力需要量予測を行うための入力因子の例を示す。
The principle of grouping input factors will be described below. For simplicity, a description will be given of an example of a power demand prediction problem. The power demand prediction problem is a problem of estimating the maximum power of the next day in a certain area, and is positioned as an important task for a power company to formulate a plan for starting and stopping a generator. The amount of power demand can be predicted based on the day of the week, the temperature, the results of the latest power, and the like. Table 13 shows examples of input factors for performing power demand prediction.

【0166】[0166]

【表13】 [Table 13]

【0167】表13において、入力因子は電力(最大電
力)、気象(最高気温、最低気温、天気)、特異日フラ
グ(土曜、休日)に関して季節ごとに当日iから2日前
(i−2)まで、または当日iから7日前(i−7)ま
でとし、合計で数十項目の因子により予測する。ここ
で、気温は1日前も2日前も極端に変化することは少な
く、似たデータになる確率が高い。また1日前の気温と
2日前の気温は予測値(ニューロ出力)に対し同じ傾向
を示すことが容易に想像でき、個別に解析する必要性は
低い。つまり、似ているデータ同士は個別に解析する必
要は低いので1グループにまとめ、似ていないデータ同
士は、個別に解析する可能性があるので別々にするよう
にした。以下に、入力因子をグループ化する方法を示
す。
In Table 13, input factors are electric power (maximum electric power), weather (highest temperature, lowest temperature, weather), and special day flag (Saturday, holiday) from the current day i to two days before (i-2) for each season. Or from the current day i to seven days before (i-7), and is predicted by a factor of several tens of items in total. Here, the temperature rarely changes extremely one day before or two days before, and the probability of obtaining similar data is high. In addition, it is easy to imagine that the temperature one day ago and the temperature two days ago show the same tendency with respect to the predicted value (neuro output), and it is not necessary to analyze them individually. In other words, similar data is not required to be analyzed separately, so they are grouped into one group, and dissimilar data are separately analyzed because they may be analyzed individually. Hereinafter, a method of grouping input factors will be described.

【0168】第1ステップ ニューラルネットワークが学習するための学習データの
入出力関係を解析する。ここで、入力因子の似たもの同
士を複数のグループに分ける。グループ分けの方法は、
各入力因子の最大・最小値、標準偏差、相関係数等の単
純な統計的手法を利用する方法や、クラスター分析、判
別分析等の高度な統計手法等がある。
First Step The input / output relationship of learning data for learning by the neural network is analyzed. Here, those having similar input factors are divided into a plurality of groups. The method of grouping is
There are a method using a simple statistical method such as a maximum / minimum value, a standard deviation, and a correlation coefficient of each input factor, and an advanced statistical method such as a cluster analysis and a discriminant analysis.

【0169】第2ステップ 第1ステップで得られたグループ分けにしたがって、ニ
ューラルネットワークを構築する。図36は4入力1出
力のニューラルネットワークであり、入力1と入力2が
同グループとして判定された例である。ここで、中間層
素子数は、あらかじめ定義された学習条件により異な
る。なお、11は全結合部分、12は疎結合部分を示
す。
Second Step A neural network is constructed according to the grouping obtained in the first step. FIG. 36 shows a four-input one-output neural network in which input 1 and input 2 are determined to be in the same group. Here, the number of intermediate layer elements differs depending on a learning condition defined in advance. Note that reference numeral 11 denotes a fully connected portion, and reference numeral 12 denotes a loosely connected portion.

【0170】(23)請求項23の発明の実施形態 請求項23の発明は、請求項22の発明と同様に学習開
始時のステップ(任意結合の削除ステップ)における入
力因子のグループ分けに関するものであり、データの最
大・最小・平均・標準偏差等の単純な統計値を用いて入
力因子のグループ分けを行う方法である。特に、各入力
因子の最大・最小値は、ニューラルネットワークがデー
タを学習する上で必ず算出する値であり、最大・最小値
を使用する方法は、計算量の増加をほとんど伴わない方
法である。以下に、グループ分けを行うための判別式の
一例を示す。勿論、これらの式以外の形式でもグループ
分けは可能である。ここで、評価値が同じ入力因子同士
を同じグループと定義する。
(23) Embodiment of the Invention of Claim 23 The invention of claim 23 relates to the grouping of input factors in the step at the start of learning (the step of deleting arbitrary combinations), similarly to the invention of claim 22. Yes, this is a method of grouping input factors using simple statistical values such as maximum, minimum, average, and standard deviation of data. In particular, the maximum / minimum value of each input factor is a value that is always calculated when the neural network learns data, and the method using the maximum / minimum value is a method that hardly increases the amount of calculation. An example of a discriminant for performing grouping is shown below. Of course, grouping is also possible in a format other than these formulas. Here, input factors having the same evaluation value are defined as the same group.

【0171】判別式例1 評価値i=int(log10(abs(最大値i−最小値i))+0.5)
(最小値i≧0) 評価値i=−int(log10(abs(最大値i−最小値i))+0.
5) (最小値i<0) 判別式例2 評価値i=int(ln(標準偏差i)+0.5) 判別式例3 評価値i=int(log10(平均i)+0.5) ただし、 i:入力因子番号 評価値i:i番目の入力因子の評価値 int:小数点以下を切り捨てて整数にする関数 abs:絶対値を求める関数 である。
Discriminant example 1 Evaluation value i = int (log 10 (abs (maximum value i −minimum value i )) + 0.5)
(Minimum value i ≧ 0) Evaluation value i = −int (log 10 (abs (maximum value i −minimum value i )) + 0.
5) (a minimum value i <0) discriminant Example 2 evaluation value i = int (ln (standard deviation i) +0.5) discriminant Example 3 evaluation value i = int (log 10 (mean i) +0.5) However I: input factor number evaluation value i : evaluation value of the i- th input factor int: function for rounding down decimal places to an integer abs: function for calculating absolute value

【0172】(24)請求項24の発明の実施形態 請求項24の発明も、請求項22の発明と同様に学習開
始時のステップ(任意結合の削除ステップ)における入
力因子のグループ分けに関するものであり、入力因子間
の相関係数を用いてグループ分けを行う方法である。相
関係数とは、−1〜1の値をとるデータの相似度を求め
る係数である。入力因子が3つあるときには、入力1と
入力2との相関係数、入力2と入力3との相関係数、入
力3と入力1との相関係数の計3つの値を求める。グル
ープ分けは、相関係数の高い入力因子同士を同じグルー
プとしてまとめる。詳細は、実施例で説明する。
(24) Embodiment of the Invention of the Twenty-fourth Embodiment The invention of the twenty-fourth aspect also relates to the grouping of input factors in the step at the start of learning (the step of deleting arbitrary combinations), similarly to the twenty-second aspect of the invention. This is a method of performing grouping using correlation coefficients between input factors. The correlation coefficient is a coefficient for calculating the similarity of data having values of −1 to 1. When there are three input factors, a total of three values of the correlation coefficient between input 1 and input 2, the correlation coefficient between input 2 and input 3, and the correlation coefficient between input 3 and input 1 are obtained. In the grouping, input factors having a high correlation coefficient are put together as the same group. Details will be described in Examples.

【0173】(25)請求項25の発明の実施形態 請求項24の発明では、入力因子間の相関係数によりグ
ループ分けを行っている。しかしこの方法は、入力因子
の数が増加すると指数関数的に計算量が増える欠点があ
る。そこで、簡便な方法として、入力因子と出力因子と
の間の相関係数だけに着目してグループ分けを行う。具
体的には、出力因子に対して同程度の相関係数である入
力因子同士を同じグループとしてまとめる。この発明で
は、学習開始時のステップ(任意結合の削除ステップ)
において、入力因子が4つあるときには、入力1と出力
との相関係数、入力2と出力との相関係数、入力3と出
力との相関係数、入力4と出力との相関係数と計4つの
相関係数を算出するだけで済む。従って、請求項24の
発明と比べて入力因子の数が多いときには計算量が大幅
に削減されるので効果的である。また、グループが多く
なり過ぎないようにその数を規定値以下にすることも容
易である。相関係数は−1〜1の値をとるので、2グル
ープ以下に分けたいときには、相関係数が−1〜0,0
〜1のグループ分けにし、4グループ以下に分けたいと
きには相関係数が−1〜−0.5,−0.5〜0,0〜
0.5,0.5〜1のグループに分ければよい。
(25) Embodiment of the Invention of the Claim 25 In the invention of the claim 24, grouping is performed based on the correlation coefficient between input factors. However, this method has a disadvantage that the amount of calculation increases exponentially as the number of input factors increases. Therefore, as a simple method, grouping is performed by focusing only on the correlation coefficient between the input factor and the output factor. Specifically, input factors that have the same degree of correlation coefficient with respect to the output factor are put together in the same group. In the present invention, a step at the start of learning (a step of deleting an arbitrary connection)
, When there are four input factors, the correlation coefficient between input 1 and output, the correlation coefficient between input 2 and output, the correlation coefficient between input 3 and output, the correlation coefficient between input 4 and output It is only necessary to calculate a total of four correlation coefficients. Therefore, when the number of input factors is large as compared with the invention of claim 24, the amount of calculation is greatly reduced, which is effective. It is also easy to reduce the number to a specified value or less so that the number of groups does not become too large. Since the correlation coefficient takes a value of -1 to 1, when the correlation coefficient is to be divided into two groups or less, the correlation coefficient is -1 to 0,0.
When it is desired to divide into groups of 11 and た い 4, the correlation coefficients should be -1 to -0.5, -0.5 to 0,0.
What is necessary is just to divide into 0.5, 0.5-1 groups.

【0174】〔実施例〕次に、請求項23の発明の実施
例を説明する。この実施例では、入力因子を自動的に分
類する方法を実施する。例題として用いるのは、冬季翌
日最大電力需要量予測用とダム流入量予測用のニューラ
ルネットワークである。翌日最大電力需要量予測におけ
る入力因子及び評価値を表14に示し、ダム流入量予測
における入力因子及び評価値を表15に示す。なお、評
価値は何れも以下の数式による。 評価値=int(log10(abs(最大値i−最小値i))+0.5)
(最小値i≧0) 評価値=−int(log10(abs(最大値i−最小値i))+0.5)
(最小値i<0)
[Embodiment] Next, an embodiment of the present invention will be described. In this embodiment, a method for automatically classifying input factors is implemented. An example is a neural network for predicting the maximum power demand on the day after winter and predicting the dam inflow. Table 14 shows input factors and evaluation values in the next day maximum power demand prediction, and Table 15 shows input factors and evaluation values in dam inflow prediction. The evaluation values are all based on the following formulas. Evaluation value = int (log 10 (abs (maximum value i −minimum value i )) + 0.5)
(Minimum value i ≧ 0) Evaluation value = −int (log 10 (abs (maximum value i −minimum value i )) + 0.5)
(Minimum value i <0)

【0175】[0175]

【表14】 [Table 14]

【0176】[0176]

【表15】 [Table 15]

【0177】翌日最大電力需要量予測用ニューラルネッ
トワークでは、表14に示すように、電力、気温、フラ
グ、天気がそれぞれグループ化された。ダム流入量予測
でも、表15に示すように、流量関係が2つに、流量差
分関係が2つに、雨量が1グループの計5グループにグ
ループ化された。これらの何れも、請求項1〜20の発
明の実施例において運用者が指定したグループとほぼ同
じ結果であり、良好な結果を得た。請求項1〜20の発
明では、手作業により入力因子をグループ化する必要が
あるが、請求項23の発明では、上記のように入力因子
を自動的にグループ分けすることが可能である。
In the neural network for predicting the maximum power demand the next day, as shown in Table 14, power, temperature, flags, and weather were grouped. As shown in Table 15, in the dam inflow prediction, the flow rate was divided into two, the flow rate difference relation was classified into two, and the rainfall was grouped into five groups, one group. All of these results were almost the same as those of the group specified by the operator in the embodiments of the first to twentieth aspects of the invention, and good results were obtained. In the inventions of claims 1 to 20, it is necessary to manually group input factors. In the invention of claim 23, input factors can be automatically grouped as described above.

【0178】次に、請求項24,25の発明の実施例を
説明する。この実施例では、入力因子を自動的に分類す
る方法を実施する。例題として用いるのは、冬季翌日最
大電力需要量予測である。入出力因子間の相関係数を表
16に示す。ここで、入力因子の番号は請求項23の発
明の実施例と同じである。
Next, embodiments of the present invention will be described. In this embodiment, a method for automatically classifying input factors is implemented. An example is prediction of the maximum power demand on the next day in winter. Table 16 shows the correlation coefficients between input and output factors. Here, the input factor numbers are the same as in the embodiment of the twenty-third aspect of the present invention.

【0179】[0179]

【表16】 [Table 16]

【0180】まず、最初に請求項24の発明の実施例に
ついて説明する。表16において、相関係数(表16の
右端の出力値の列を除く値)が0.5以上の入力因子
は、NO.3〜8の気温、No.9,NO.12のフラグ、NO.1
1,NO.14のフラグである。この3グループは非常に
似通った性質であり、良好にグループ分けされている。
つまりこの例では、総計15個の入力因子が7グループ
に分類された。
First, an embodiment of the present invention will be described. In Table 16, the input factors whose correlation coefficient (the value excluding the output value column at the right end of Table 16) is 0.5 or more are the temperatures of No. 3 to No. 8, the flags of No. 9 and No. 12, the NO. .1
1, No. 14 flags. These three groups have very similar properties and are well grouped.
That is, in this example, a total of 15 input factors were classified into 7 groups.

【0181】次に、請求項25の発明の実施例について
説明する。各入力因子と出力との相関係数(表16の右
端の列)を0.2刻みにグループ化すれば、以下のよう
に6グループに分類することができる。 グループ1(0.4〜0.6):入力因子1,2 グループ2(0.0〜0.2):入力因子13〜15 グループ3(−0.0〜−0.2):入力因子11 グループ4(−0.2〜−0.4):入力因子3〜7,10 グループ5(−0.4〜−0.6):入力因子8,12 グループ6(−0.6〜−0.8):入力因子9
Next, an embodiment of the twenty-fifth aspect of the present invention will be described. If the correlation coefficients between the input factors and the outputs (the rightmost column in Table 16) are grouped in increments of 0.2, they can be classified into six groups as follows. Group 1 (0.4 to 0.6): input factor 1 and 2 Group 2 (0.0 to 0.2): input factor 13 to 15 Group 3 (-0.0 to -0.2): input factor 11 Group 4 (-0.2 to -0.4): input Factors 3 to 7, 10 Group 5 (-0.4 to -0.6): input factor 8, 12 Group 6 (-0.6 to -0.8): input factor 9

【0182】[0182]

【発明の効果】以上詳述したように、請求項1〜20記
載の発明によれば、従来のニューラルネットワークと互
換性があり、容易に置き換えることが可能なニューラル
ネットワークを構築することができる。また、回帰式と
同様に、出力と入力との因果関係を容易に把握すること
が可能であり、学習データにない未知のデータに対して
も、出力値を容易に推定することができる。運用者の感
覚と違う解析結果が出た場合には(例えば、第3実施例
において上流流量変化が出力に対し飽和する現象が生じ
た場合など)、ニューラルネットワークの再学習などの
処理を事前に行うことが可能である。特に、ダム流入量
予測では、洪水時において下流域の安全性を確保するこ
とが重要であり、そのためにも正確な流入量予測が不可
欠である。本発明により、洪水発生前に、ニューラルネ
ットワークを適切に再学習させることができる。また、
再学習が間に合わなかったときにも、不適切な予測を把
握することが可能である。第3実施例では、入力データ
が0.7以上を越える急激な上流流量差分は飽和してし
まうため、ニューラルネットワークは実際よりも低めに
予測する傾向があるので、大きめに予測(補正)するの
が有効であることを容易に把握可能である。
As described in detail above, according to the first to twelfth aspects of the present invention, it is possible to construct a neural network which is compatible with a conventional neural network and can be easily replaced. Further, similarly to the regression equation, the causal relationship between the output and the input can be easily grasped, and the output value can be easily estimated even for unknown data not included in the learning data. If an analysis result that is different from the operator's feeling is obtained (for example, a case where the upstream flow rate change saturates the output in the third embodiment), processing such as re-learning of the neural network is performed in advance. It is possible to do. In particular, in predicting the inflow of dams, it is important to ensure the safety of downstream areas during floods, and therefore accurate prediction of inflow is essential. According to the present invention, a neural network can be appropriately re-learned before a flood occurs. Also,
Even when re-learning is not in time, inappropriate prediction can be grasped. In the third embodiment, since a sudden upstream flow difference exceeding 0.7 or more in input data is saturated, the neural network tends to predict lower than the actual value. Can be easily grasped as being effective.

【0183】また、請求項21の学習方法によれば、疎
結合部分の中間層素子だけで学習ができなかった場合に
のみ中間層素子を追加するので、学習時間の短縮が可能
である。また、請求項1〜20の発明と比較して、全結
合部分の中間層素子を少なく構築できることが多く、解
析が更に容易になる。請求項22〜25の発明は、学習
開始時の初期化に関係した発明である。請求項1〜20
の発明では、あらかじめ解析目的に応じてニューラルネ
ットワーク構造を定義しなければならない。すなわち、
任意の入力因子をグループ化しなければならない。この
点、請求項22〜25の発明では、ニューラルネットワ
ーク構造を学習データの関係から自動的に決定すること
ができる。実施例でも説明したように、請求項23の発
明では入力因子を大まかにグループ化するので、比較
的、人間の感覚に一致した構造が得られやすい(請求項
1〜20の発明の実施例のグループ分けとほぼ同じ構造
が得られた)。請求項24の発明は、かなり似通った入
力因子同士しかグループ分けしないため(細かく分類す
るため)、将来どのように解析するかわからない場合の
ように未知の現象を解析するときには、多くの入力因子
(入力因子グループ)について解析が可能であり、解析
時に効果を発揮する。請求項25の発明は請求項24の
発明を改良したものであり、入力因子の数が増加した時
には簡易的な方法でグループ分けを行うため、計算量が
少ない利点がある。
According to the learning method of the twenty-first aspect, the intermediate layer element is added only when the learning cannot be performed only by the intermediate layer element in the loosely coupled portion, so that the learning time can be reduced. In addition, as compared with the first to twentieth aspects of the present invention, the number of intermediate layer elements in the entire coupling portion can be reduced in many cases, and the analysis becomes easier. The inventions of claims 22 to 25 are related to the initialization at the start of learning. Claims 1 to 20
In the invention, the neural network structure must be defined in advance according to the purpose of analysis. That is,
Any input factors must be grouped. In this regard, in the invention of claims 22 to 25, the neural network structure can be automatically determined from the relationship between the learning data. As described in the embodiment, in the invention of claim 23, since the input factors are roughly grouped, it is relatively easy to obtain a structure which is relatively consistent with human senses. Almost the same structure as grouping was obtained). According to the invention of claim 24, since only considerably similar input factors are grouped (to be classified in detail), when analyzing unknown phenomena such as when it is not known how to analyze in the future, many input factors ( Input factor group) can be analyzed, and it is effective at the time of analysis. The invention of claim 25 is an improvement of the invention of claim 24. When the number of input factors increases, the grouping is performed by a simple method, and thus there is an advantage that the amount of calculation is small.

【図面の簡単な説明】[Brief description of the drawings]

【図1】請求項1の発明の実施形態における階層型ニュ
ーラルネットワーク構造を示す図である。
FIG. 1 is a diagram showing a hierarchical neural network structure according to an embodiment of the present invention.

【図2】従来の階層型ニューラルネットワーク構造を示
す図である。
FIG. 2 is a diagram showing a conventional hierarchical neural network structure.

【図3】階層型ニューラルネットワークの結合係数を示
す図である。
FIG. 3 is a diagram showing coupling coefficients of a hierarchical neural network.

【図4】従来のニューラルネットワーク装置の構成図で
ある。
FIG. 4 is a configuration diagram of a conventional neural network device.

【図5】請求項2の発明の実施形態の処理を示すフロー
チャートである。
FIG. 5 is a flowchart showing a process according to an embodiment of the present invention.

【図6】従来のコンパクト構造化法の処理を示すフロー
チャートである。
FIG. 6 is a flowchart showing processing of a conventional compact structuring method.

【図7】請求項4の発明の実施形態の処理を示すフロー
チャートである。
FIG. 7 is a flowchart showing a process according to an embodiment of the present invention.

【図8】請求項5の発明の実施形態の処理を示すフロー
チャートである。
FIG. 8 is a flowchart showing a process according to an embodiment of the present invention.

【図9】請求項5の発明の実施形態により並び替えたニ
ューラルネットワークの構造を示す図である。
FIG. 9 is a diagram showing a structure of a neural network rearranged according to the embodiment of the fifth invention.

【図10】請求項6の発明の実施形態により並び替えた
ニューラルネットワークの構造を示す図である。
FIG. 10 is a diagram showing a structure of a neural network rearranged according to the embodiment of the sixth invention.

【図11】請求項8の発明の実施形態による学習とそれ
により構築されるニューラルネットワーク構造の変化を
示す概念図である。
FIG. 11 is a conceptual diagram showing learning and a change in a neural network structure constructed by the learning according to the embodiment of the eighth aspect of the present invention.

【図12】請求項10の発明の実施形態における入力層
素子、中間層素子の有効性を判断する評価指標を示す図
である。
FIG. 12 is a diagram showing evaluation indices for judging the effectiveness of an input layer element and an intermediate layer element according to the embodiment of the tenth invention.

【図13】請求項11の発明の実施形態を説明するため
のニューラルネットワークの構造を示す図である。
FIG. 13 is a diagram showing a structure of a neural network for explaining an embodiment of the invention of claim 11;

【図14】請求項12,13の発明の実施形態の作用を
説明するための図である。
FIG. 14 is a diagram for explaining the operation of the embodiment of the invention according to claims 12 and 13;

【図15】請求項14の発明の実施形態を示すフローチ
ャートである。
FIG. 15 is a flowchart showing an embodiment of the invention according to claim 14;

【図16】請求項14の発明の実施形態が適用される解
析・診断システムの構成図である。
FIG. 16 is a configuration diagram of an analysis / diagnosis system to which the embodiment of the invention of claim 14 is applied.

【図17】請求項19の発明の実施形態を示すフローチ
ャートである。
FIG. 17 is a flowchart showing an embodiment of the invention of claim 19;

【図18】第1実施例における学習データ及び学習結果
の説明図である。
FIG. 18 is an explanatory diagram of learning data and learning results in the first embodiment.

【図19】第1実施例における学習前のニューラルネッ
トワークの構造を示す図である。
FIG. 19 is a diagram showing a structure of a neural network before learning in the first embodiment.

【図20】第2実施例における解析対象のニューラルネ
ットワークの構造を示す図である。
FIG. 20 is a diagram showing the structure of a neural network to be analyzed in the second embodiment.

【図21】第2実施例の作用を説明するための図であ
る。
FIG. 21 is a diagram for explaining the operation of the second embodiment.

【図22】第2実施例の作用を説明するための図であ
る。
FIG. 22 is a diagram for explaining the operation of the second embodiment.

【図23】第2実施例の作用を説明するための図であ
る。
FIG. 23 is a diagram for explaining the operation of the second embodiment.

【図24】第2実施例の作用を説明するための図であ
る。
FIG. 24 is a diagram for explaining the operation of the second embodiment.

【図25】第3実施例における予測対象ダムの上流域の
模式図である。
FIG. 25 is a schematic diagram of an upstream area of a prediction target dam in the third embodiment.

【図26】第3実施例における流量予測用ニューラルネ
ットワークの説明図である。
FIG. 26 is an explanatory diagram of a neural network for flow prediction in the third embodiment.

【図27】第3実施例におけるニューラルネットワーク
の入出力関係を示す図である。
FIG. 27 is a diagram showing the input / output relationship of the neural network in the third embodiment.

【図28】第3実施例における上流流量差分の線形度を
示す図である。
FIG. 28 is a diagram showing the linearity of the upstream flow rate difference in the third embodiment.

【図29】第4実施例における翌日電力需要量予測用ニ
ューラルネットワークの説明図である。
FIG. 29 is an explanatory diagram of the next day power demand forecasting neural network in the fourth embodiment.

【図30】第4実施例におけるニューラルネットワーク
の入出力関係を示す図である。
FIG. 30 is a diagram showing the input / output relationship of the neural network in the fourth embodiment.

【図31】第4実施例における入力値と出力層に伝達す
る情報との関係を示す図である。
FIG. 31 is a diagram illustrating a relationship between input values and information transmitted to an output layer in a fourth embodiment.

【図32】第4実施例において実データを用いて入力因
子の出力への影響を解析した例を示す図である。
FIG. 32 is a diagram illustrating an example in which the influence of an input factor on an output is analyzed using actual data in the fourth embodiment.

【図33】第4実施例において実データを用いて入力因
子の出力への影響を解析した例を示す図である。
FIG. 33 is a diagram illustrating an example in which the influence of an input factor on an output is analyzed using actual data in the fourth embodiment.

【図34】第4実施例において実データを用いて入力因
子の出力への影響を解析した例を示す図である。
FIG. 34 is a diagram illustrating an example of analyzing the influence of an input factor on an output using actual data in the fourth embodiment.

【図35】請求項21の発明の実施形態の処理を示すフ
ローチャートである。
FIG. 35 is a flowchart showing a process according to an embodiment of the present invention.

【図36】請求項22の発明の実施形態により構築され
たニューラルネットワークの構造を示す図である。
FIG. 36 is a diagram showing the structure of a neural network constructed according to an embodiment of the present invention.

【符号の説明】[Explanation of symbols]

11 全結合部分 12,12A,12B 疎結合部分 13 記憶装置 14 入力データ読み込み部 15 重み読み込み部 16 ニューロ算出部 17 表示・伝送装置 18 予測・診断の保存部 21 記憶装置 22 ニューロ読み込みモジュール 23 異常判定用データベース読み込みモジュール 24 解析・診断モジュール 25 ブザー 26 表示装置 27 LAN・電話回線 Reference Signs List 11 Fully connected part 12, 12A, 12B Loosely connected part 13 Storage device 14 Input data reading unit 15 Weight reading unit 16 Neuro calculation unit 17 Display / transmission device 18 Prediction / diagnosis storage unit 21 Storage device 22 Neuro reading module 23 Abnormality judgment Database reading module 24 analysis / diagnosis module 25 buzzer 26 display 27 LAN / telephone line

Claims (25)

【特許請求の範囲】[Claims] 【請求項1】 複数の入力層素子及び複数の中間層素子
を有する階層型構造のニューラルネットワークにおい
て、 複数の入力層素子のうちの一部に中間層素子が結合され
てなる疎結合部分を有することを特徴とするニューラル
ネットワーク。
1. A neural network having a hierarchical structure having a plurality of input layer elements and a plurality of intermediate layer elements, comprising a loosely coupled portion in which an intermediate layer element is coupled to a part of the plurality of input layer elements. A neural network, characterized in that:
【請求項2】 請求項1の全体に記載したニューラルネ
ットワークを学習するためのニューラルネットワークの
学習方法において、 入力層素子と中間層素子との間の全ての重みを初期化す
る第1ステップと、任意の入力層素子と中間層素子との
間の結合を削除する第2ステップと、学習誤差を評価す
るための評価関数を用いてこの評価関数が小さくなるよ
うに入力層素子と中間層素子との間の重みの修正量を算
出する第3ステップと、任意の入力層素子と中間層素子
との間の重みの修正量を0にする第4ステップと、第3
ステップ及び第4ステップを経て得られた最終的な修正
量を用いて入力層素子と中間層素子との間の重みを修正
する第5ステップとを有し、学習誤差が規定値以下にな
るまで第3ステップ以下の処理を繰り返し実行すること
を特徴とするニューラルネットワークの学習方法。
2. The neural network learning method for learning a neural network according to claim 1, wherein all weights between an input layer element and an intermediate layer element are initialized. A second step of removing the coupling between the arbitrary input layer element and the intermediate layer element, and using the evaluation function for evaluating the learning error so that the evaluation function is reduced so that the input layer element and the intermediate layer element are reduced. A third step of calculating the correction amount of the weight between the above, a fourth step of setting the correction amount of the weight between the arbitrary input layer element and the intermediate layer element to 0,
And a fifth step of correcting the weight between the input layer element and the intermediate layer element using the final correction amount obtained through the step and the fourth step, until the learning error becomes equal to or less than a specified value. A method for learning a neural network, comprising repeating the processing of the third step and thereafter.
【請求項3】 請求項2に記載した第3ステップにおい
て、 前記評価関数は、学習誤差を評価して学習誤差を小さく
するための項と、ニューラルネットワークの構造を簡素
化するために不要な中間層素子を削減するための項とを
併せ持つことを特徴とするニューラルネットワークの学
習方法。
3. The third step according to claim 2, wherein the evaluation function includes a term for evaluating a learning error to reduce the learning error and an intermediate term unnecessary for simplifying the structure of the neural network. A neural network learning method characterized by having a term for reducing layer elements.
【請求項4】 請求項2または請求項3において、 第6ステップとして、中間層素子の中の1個の素子の出
力値系列を用いて求めた分散が規定値以下である場合に
この素子をバイアス素子に融合し、中間層素子の中の2
個の素子の出力値系列を用いて求めた相関係数が別の規
定値以上である場合にこれら2個の中間層素子を情報伝
達的に同じ働きであるとして融合することによりコンパ
クト構造化を行って中間層素子を削減するステップを有
することを特徴とするニューラルネットワークの学習方
法。
4. The method according to claim 2, wherein, as a sixth step, when the variance obtained by using the output value sequence of one element in the intermediate layer element is equal to or smaller than a specified value, this element is determined. Fused with the bias element, 2
When the correlation coefficient obtained by using the output value series of the two elements is equal to or larger than another specified value, the two intermediate layer elements are fused assuming that they have the same function in information transmission, thereby achieving compact structuring. A method for learning a neural network, comprising the steps of:
【請求項5】 請求項2における第2ステップと第3ス
テップとの間に、中間層素子を並べ替えることにより、
疎結合部分を構成する中間層素子と、複数の入力層素子
の全てに中間層素子が結合されてなる全結合部分を構成
する中間層素子とを、それぞれ別のグループにまとめる
処理を行うステップを挿入すると共に、 請求項2における第3ステップにおいて、疎結合部分を
構成する中間層素子の結合を全結合部分を構成する中間
層素子の結合よりも早く成長させるような評価関数を用
いて重みの修正量を算出することを特徴とするニューラ
ルネットワークの学習方法。
5. A method according to claim 2, wherein the intermediate layer elements are rearranged between the second step and the third step.
Performing a process of grouping the intermediate layer elements constituting the loosely coupled portion and the intermediate layer elements constituting the fully coupled portion formed by coupling the intermediate layer element to all of the plurality of input layer elements into separate groups. In addition, in the third step in claim 2, the weighting is performed using an evaluation function such that the coupling of the intermediate layer elements forming the loosely coupled portion grows faster than the coupling of the intermediate layer elements forming the fully coupled portion. A method for learning a neural network, comprising calculating a correction amount.
【請求項6】 請求項2における第2ステップと第3ス
テップとの間に、中間層素子を並べ替えて疎結合部分を
構成する中間層素子を有する部分ニューロと全結合部分
を構成する中間層素子を有する部分ニューロとを交互に
配置するステップを挿入すると共に、 請求項2における第3ステップにおいて、任意の中間層
素子の結合を他の中間層素子の結合よりも早く成長させ
るような評価関数を用いて重みの修正量を算出すること
を特徴とするニューラルネットワークの学習方法。
6. A partial neuro having an intermediate layer element constituting a loosely coupled part by rearranging intermediate layer elements between the second step and the third step in claim 2, and an intermediate layer constituting a fully coupled part A step of alternately arranging partial neurons having elements and an evaluation function in the third step according to claim 2, wherein a coupling of an arbitrary intermediate layer element grows faster than a coupling of other intermediate layer elements. A learning method for a neural network, wherein a weight correction amount is calculated by using.
【請求項7】 請求項2における第3ステップにおい
て、 任意の中間層素子の結合を他の中間層素子の結合よりも
早く成長させる項と、ニューラルネットワークの構造を
簡素化するために不要な中間層素子を削減するための項
とを併せ持つ評価関数を用いて重みの修正量を算出する
ことを特徴とするニューラルネットワークの学習方法。
7. The third step according to claim 2, wherein a term for growing a connection of an arbitrary intermediate layer element faster than a connection of other intermediate layer elements and an intermediate section unnecessary for simplifying the structure of a neural network. A neural network learning method, comprising calculating an amount of weight correction using an evaluation function having a term for reducing layer elements.
【請求項8】 請求項5に記載した学習方法と請求項6
に記載した学習方法とを交互に実施することを特徴とす
るニューラルネットワークの学習方法。
8. The learning method according to claim 5, and claim 6.
A learning method for a neural network, which alternately performs the learning method described in (1).
【請求項9】 請求項2〜8の何れか1項に記載された
学習方法により構築されたニューラルネットワークを対
象として、 入力層素子、中間層素子及び出力層素子の相互の結合状
態から、線形性、非線形性等の入力因子の出力への影響
度合いを解析することを特徴とするニューラルネットワ
ークの解析方法。
9. For a neural network constructed by the learning method according to any one of claims 2 to 8, a linear network is obtained from a mutual connection state of an input layer element, an intermediate layer element, and an output layer element. A method for analyzing a neural network, characterized by analyzing the degree of influence of input factors such as gender and nonlinearity on output.
【請求項10】 請求項1の全体に記載されたニューラ
ルネットワークを対象として、 入力層素子及び中間層素子の有効性を示す評価指標を用
いてニューラルネットワークの構造を解析することを特
徴とするニューラルネットワークの解析方法。
10. The neural network according to claim 1, wherein a structure of the neural network is analyzed by using an evaluation index indicating the effectiveness of the input layer element and the intermediate layer element. How to analyze the network.
【請求項11】 請求項1の全体に記載されたニューラ
ルネットワークを対象として、 任意の入力データを入力したときの、中間層素子から出
力層素子に伝達される情報量の大きさに基づいて入力因
子の出力への影響を解析することを特徴とするニューラ
ルネットワークの解析方法。
11. An input based on the magnitude of the amount of information transmitted from an intermediate layer element to an output layer element when arbitrary input data is input to the neural network described in claim 1 as a whole. A method for analyzing a neural network, comprising analyzing an influence of a factor on an output.
【請求項12】 請求項1の全体に記載されたニューラ
ルネットワークを対象として、 任意の入力データを入力したときの、中間層素子から出
力層素子に伝達される情報量と入力データとの相関関係
に基づいて、入力因子の出力への影響を解析することを
特徴とするニューラルネットワークの解析方法。
12. A correlation between the amount of information transmitted from an intermediate layer element to an output layer element and input data when arbitrary input data is input to the neural network according to claim 1. A method for analyzing a neural network, comprising: analyzing an influence of an input factor on an output based on the information.
【請求項13】 請求項1の全体に記載されたニューラ
ルネットワークを対象として、 任意の入力データを入力したときの、中間層素子から出
力層素子に伝達される情報量と入力データとの相関関係
に基づいて、ニューラルネットワーク出力値の上下限値
を解析することを特徴とするニューラルネットワークの
解析方法。
13. A correlation between the amount of information transmitted from an intermediate layer element to an output layer element and input data when arbitrary input data is input to the neural network described in claim 1 as a whole. A method for analyzing a neural network, comprising analyzing upper and lower limits of a neural network output value on the basis of the above.
【請求項14】 請求項9〜13の何れかに記載された
解析方法によりニューラルネットワークを解析し、異常
判定用データベースと照らし合わせてニューラルネット
ワークの学習不良を判定し、その結果を出力することを
特徴とするニューラルネットワークの異常判定方法。
14. A method for analyzing a neural network by the analysis method according to claim 9, determining a learning failure of the neural network by comparing the neural network with an abnormality determination database, and outputting the result. Characteristic neural network abnormality determination method.
【請求項15】 請求項14に記載した異常判定方法に
おいて、 学習対象の現象が予め定性的に判明しているときに、ニ
ューラルネットワークの素子間の結合状態に基づいてニ
ューラルネットワークの学習不良を判定することを特徴
とするニューラルネットワークの異常判定方法。
15. The abnormality determination method according to claim 14, wherein when the phenomenon to be learned is qualitatively known in advance, the learning failure of the neural network is determined based on a connection state between elements of the neural network. A neural network abnormality determination method.
【請求項16】 請求項14に記載した異常判定方法に
おいて、 学習対象の現象が定性的に判明しているときに、ニュー
ラルネットワークの内部状態を示す数値指標として入力
層素子及び中間層素子の有効性を示す評価指標に基づい
てニューラルネットワークの学習不良を判定することを
特徴とするニューラルネットワークの異常判定方法。
16. The abnormality judging method according to claim 14, wherein when the phenomenon to be learned is qualitatively known, the validity of the input layer element and the intermediate layer element is used as a numerical index indicating the internal state of the neural network. A neural network abnormality determination method, comprising: determining a learning failure of a neural network based on an evaluation index indicating sexuality.
【請求項17】 請求項14に記載した異常判定方法に
おいて、学習対象の現象を表す数式が存在するときに、
その数式とニューラルネットワークの内部状態の相関係
数とを比較して学習不良を判定することを特徴とするニ
ューラルネットワークの異常判定方法。
17. The abnormality determination method according to claim 14, wherein when a mathematical expression representing a phenomenon to be learned exists,
A method for determining an abnormality in a neural network, comprising determining a learning failure by comparing the expression with a correlation coefficient of an internal state of the neural network.
【請求項18】 請求項14に記載した異常判定方法に
おいて、 ニューラルネットワークの出力の上限値が学習データの
上限値よりも小さいとき、または、ニューラルネットワ
ークの出力の下限値が学習データの下限値よりも大きい
ときに学習不良を判定することを特徴とするニューラル
ネットワークの異常判定方法。
18. The abnormality determination method according to claim 14, wherein the upper limit of the output of the neural network is smaller than the upper limit of the learning data, or the lower limit of the output of the neural network is smaller than the lower limit of the learning data. A method for determining an abnormality in a neural network, wherein a learning failure is determined when the value is also large.
【請求項19】 請求項14〜18の何れかに記載され
た異常判定方法によりニューラルネットワークの学習不
良が判明したときに、必要に応じて再学習を行うことを
特徴とするニューラルネットワークの学習方法。
19. A learning method for a neural network according to claim 14, wherein when learning failure of the neural network is found by the abnormality determination method according to any one of claims 14 to 18, re-learning is performed as necessary. .
【請求項20】 請求項17の発明において、 学習状態の悪い範囲を自動的に特定し、その範囲の学習
データを増加させて再学習させることを特徴とするニュ
ーラルネットワークの学習方法。
20. The neural network learning method according to claim 17, wherein a range in which the learning state is bad is automatically specified, and the learning data in the range is increased and re-learned.
【請求項21】 請求項1の全体に記載したニューラル
ネットワークを学習するためのニューラルネットワーク
の学習方法において、 入力層素子と中間層素子との間の全ての重みを初期化す
る第1ステップと、任意の入力層素子と中間層素子との
間の結合を削除して全結合部分を生成することなく疎結
合部分の中間層部分のみを生成する第2ステップと、学
習誤差を評価するための評価関数を用いてこの評価関数
が小さくなるように入力層素子と中間層素子との間の重
みの修正量を算出する第3ステップと、任意の入力層素
子と中間層素子との間の重みの修正量を0にする第4ス
テップと、第3ステップ及び第4ステップを経て得られ
た最終的な修正量を用いて入力層素子と中間層素子との
間の重みを修正する第5ステップと、学習誤差が規定値
以下になったときに学習終了と判断する第6ステップ
と、学習誤差が規定値以上であるときに第3ステップ以
下の処理を再度実行するために中間層素子を追加する第
7ステップとを有することを特徴とするニューラルネッ
トワークの学習方法。
21. The neural network learning method for learning a neural network according to claim 1, wherein a first step of initializing all weights between an input layer element and an intermediate layer element is provided. A second step of deleting only the coupling between the arbitrary input layer element and the intermediate layer element and generating only the intermediate layer part of the loosely coupled part without generating a fully coupled part, and an evaluation for evaluating a learning error A third step of calculating a correction amount of the weight between the input layer element and the intermediate layer element so as to reduce the evaluation function using the function, and calculating the weight of the weight between the arbitrary input layer element and the intermediate layer element. A fourth step of setting the correction amount to 0, a fifth step of correcting the weight between the input layer element and the intermediate layer element using the final correction amount obtained through the third step and the fourth step; , Learning error A sixth step of determining that the learning is completed when the value becomes equal to or less than a value, and a seventh step of adding an intermediate layer element to execute the processing of the third step and less again when the learning error is equal to or more than the specified value. A neural network learning method, comprising:
【請求項22】 請求項1〜8,21のうちの何れか1
項における第2ステップにおいて、 複数の入力因子を学習データの入出力関係に基づいて複
数のグループに分類し、それらのグループごとに疎結合
部分の中間層部分を生成することを特徴とするニューラ
ルネットワークの学習方法。
22. Any one of claims 1 to 8, 21
In the second step of the term, a plurality of input factors are classified into a plurality of groups based on an input / output relationship of learning data, and an intermediate layer portion of a loosely coupled portion is generated for each of the groups. Learning method.
【請求項23】 請求項1〜8,21のうちの何れか1
項における第2ステップにおいて、 複数の入力因子を学習データの最大・最小・平均・標準
偏差等の統計指標に基づいて複数のグループに分類し、
それらのグループごとに疎結合部分の中間層部分を生成
することを特徴とするニューラルネットワークの学習方
法。
23. Any one of claims 1 to 8, 21
In the second step in the term, the plurality of input factors are classified into a plurality of groups based on statistical indexes such as maximum, minimum, average, and standard deviation of the training data,
A method for learning a neural network, comprising generating an intermediate layer portion of a loosely coupled portion for each of these groups.
【請求項24】 請求項1〜8,21のうちの何れか1
項における第2ステップにおいて、 複数の入力因子を学習データの入力因子間の相関係数に
基づいて複数のグループに分類し、それらのグループご
とに疎結合部分の中間層部分を生成することを特徴とす
るニューラルネットワークの学習方法。
24. Any one of claims 1 to 8, 21
In the second step of the term, a plurality of input factors are classified into a plurality of groups based on a correlation coefficient between the input factors of the learning data, and an intermediate layer portion of a loosely coupled portion is generated for each of the groups. Neural network learning method.
【請求項25】 請求項1〜8,21のうちの何れか1
項における第2ステップにおいて、 複数の入力因子を学習データの入力と出力との間の相関
係数に基づいて複数のグループに分類し、それらのグル
ープごとに疎結合部分の中間層部分を生成することを特
徴とするニューラルネットワークの学習方法。
25. Any one of claims 1 to 8, 21
In the second step of the term, the plurality of input factors are classified into a plurality of groups based on a correlation coefficient between the input and the output of the training data, and an intermediate layer portion of a loosely coupled portion is generated for each of the groups. A method for learning a neural network, comprising:
JP2000166528A 2000-05-31 2000-05-31 Neural network and method for learning the same and method for analyzing the same and method for judging abnormality Pending JP2001344590A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000166528A JP2001344590A (en) 2000-05-31 2000-05-31 Neural network and method for learning the same and method for analyzing the same and method for judging abnormality

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000166528A JP2001344590A (en) 2000-05-31 2000-05-31 Neural network and method for learning the same and method for analyzing the same and method for judging abnormality

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2010252478A Division JP5234085B2 (en) 2010-11-11 2010-11-11 Learning method of neural network

Publications (1)

Publication Number Publication Date
JP2001344590A true JP2001344590A (en) 2001-12-14

Family

ID=18669828

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000166528A Pending JP2001344590A (en) 2000-05-31 2000-05-31 Neural network and method for learning the same and method for analyzing the same and method for judging abnormality

Country Status (1)

Country Link
JP (1) JP2001344590A (en)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005352900A (en) * 2004-06-11 2005-12-22 Canon Inc Device and method for information processing, and device and method for pattern recognition
CN104748962A (en) * 2015-04-03 2015-07-01 西安交通大学 Planetary gear box intelligent diagnosis method based on stacking automatic encoding machine
JP2016152039A (en) * 2015-02-19 2016-08-22 富士通株式会社 Data output method, data output program and data output device
WO2017168865A1 (en) * 2016-03-28 2017-10-05 ソニー株式会社 Information processing device and information processing method
JP2018109947A (en) * 2016-12-30 2018-07-12 富士通株式会社 Device and method for increasing processing speed of neural network, and application of the same
JP2018124754A (en) * 2017-01-31 2018-08-09 日本電信電話株式会社 Apparatus, method, and program for extracting rough structure of multilayered neural network
CN108846475A (en) * 2018-05-30 2018-11-20 华侨大学 A kind of section dense connecting-type depth network establishing method
JP2019020915A (en) * 2017-07-13 2019-02-07 日本電信電話株式会社 Apparatus, method, and program for extracting rough structure of multilayered neural network
JP2019507442A (en) * 2016-03-04 2019-03-14 アリババ・グループ・ホールディング・リミテッドAlibaba Group Holding Limited Training method and training system for machine learning system
CN112985830A (en) * 2021-02-05 2021-06-18 深圳大雷汽车检测股份有限公司 Abs result automatic judging algorithm
JP2021096771A (en) * 2019-12-19 2021-06-24 トヨタ自動車株式会社 Model diagnosing apparatus and model diagnosing system
CN116205544A (en) * 2023-05-06 2023-06-02 山东卓文信息科技有限公司 Non-invasive load identification system based on deep neural network and transfer learning
JP7471924B2 (en) 2020-06-04 2024-04-22 清水建設株式会社 Earthquake motion evaluation model generation method, earthquake motion evaluation model generation device, earthquake motion evaluation method, and earthquake motion evaluation device

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005352900A (en) * 2004-06-11 2005-12-22 Canon Inc Device and method for information processing, and device and method for pattern recognition
JP2016152039A (en) * 2015-02-19 2016-08-22 富士通株式会社 Data output method, data output program and data output device
CN104748962A (en) * 2015-04-03 2015-07-01 西安交通大学 Planetary gear box intelligent diagnosis method based on stacking automatic encoding machine
JP7004661B2 (en) 2016-03-04 2022-01-21 アリババ・グループ・ホールディング・リミテッド Machine learning system training method and training system
US11257005B2 (en) 2016-03-04 2022-02-22 Alibaba Group Holding Limited Training method and training system for machine learning system
JP2019507442A (en) * 2016-03-04 2019-03-14 アリババ・グループ・ホールディング・リミテッドAlibaba Group Holding Limited Training method and training system for machine learning system
WO2017168865A1 (en) * 2016-03-28 2017-10-05 ソニー株式会社 Information processing device and information processing method
JPWO2017168865A1 (en) * 2016-03-28 2019-02-07 ソニー株式会社 Information processing apparatus and information processing method
JP7006585B2 (en) 2016-03-28 2022-01-24 ソニーグループ株式会社 Information processing equipment and information processing method
JP2018109947A (en) * 2016-12-30 2018-07-12 富士通株式会社 Device and method for increasing processing speed of neural network, and application of the same
JP2018124754A (en) * 2017-01-31 2018-08-09 日本電信電話株式会社 Apparatus, method, and program for extracting rough structure of multilayered neural network
JP2019020915A (en) * 2017-07-13 2019-02-07 日本電信電話株式会社 Apparatus, method, and program for extracting rough structure of multilayered neural network
CN108846475B (en) * 2018-05-30 2021-10-26 华侨大学 Method for constructing segmented dense connection type deep network
CN108846475A (en) * 2018-05-30 2018-11-20 华侨大学 A kind of section dense connecting-type depth network establishing method
JP2021096771A (en) * 2019-12-19 2021-06-24 トヨタ自動車株式会社 Model diagnosing apparatus and model diagnosing system
JP7471924B2 (en) 2020-06-04 2024-04-22 清水建設株式会社 Earthquake motion evaluation model generation method, earthquake motion evaluation model generation device, earthquake motion evaluation method, and earthquake motion evaluation device
CN112985830A (en) * 2021-02-05 2021-06-18 深圳大雷汽车检测股份有限公司 Abs result automatic judging algorithm
CN116205544A (en) * 2023-05-06 2023-06-02 山东卓文信息科技有限公司 Non-invasive load identification system based on deep neural network and transfer learning
CN116205544B (en) * 2023-05-06 2023-10-20 山东卓文信息科技有限公司 Non-invasive load identification system based on deep neural network and transfer learning

Similar Documents

Publication Publication Date Title
JP5234085B2 (en) Learning method of neural network
Vahdani et al. A new design of the elimination and choice translating reality method for multi-criteria group decision-making in an intuitionistic fuzzy environment
Ata et al. An adaptive neuro-fuzzy inference system approach for prediction of tip speed ratio in wind turbines
Xu A direct approach to group decision making with uncertain additive linguistic preference relations
Bee-Hua Evaluating the performance of combining neural networks and genetic algorithms to forecast construction demand: the case of the Singapore residential sector
Aladag et al. Improving weighted information criterion by using optimization
JP2001344590A (en) Neural network and method for learning the same and method for analyzing the same and method for judging abnormality
CN113537600B (en) Medium-long-term precipitation prediction modeling method for whole-process coupling machine learning
Ong et al. Utilization of random forest classifier and artificial neural network for predicting the acceptance of reopening decommissioned nuclear power plant
CN112861006B (en) Recommendation method and system for fusion element path semantics
CN111931989A (en) Power system short-term load prediction method based on deep learning neural network
JPH10222493A (en) Mutual causality analysis system
CN111178585A (en) Fault reporting amount prediction method based on multi-algorithm model fusion
CN112308281A (en) Temperature information prediction method and device
CN112085384A (en) Mailing risk evaluation method and system based on combination of fuzzy reasoning and LSTM
CN107633294A (en) A kind of improvement Sobol Sensitivity Analysis applied to RBF neutral nets
CN115114128A (en) Satellite health state evaluation system and evaluation method
Lin et al. An integrated neuro-genetic approach incorporating the Taguchi method for product design
Osowski et al. Regularisation of neural networks for improved load forecasting in the power system
CN112579708A (en) Link prediction similarity index method based on improved local path
Marza et al. Estimating development time of software projects using a neuro fuzzy approach
CN115713032A (en) Power grid prevention control method, device, equipment and medium
CN114784795A (en) Wind power prediction method and device, electronic equipment and storage medium
JP6950647B2 (en) Data determination device, method, and program
Maksimović et al. RETRACTED ARTICLE: Analyses of Economic Development Based on Different Factors

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20051114

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20081029

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081226

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091222

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100215

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20100902

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101111