JPH08212181A - Construction system for neural network - Google Patents

Construction system for neural network

Info

Publication number
JPH08212181A
JPH08212181A JP7019310A JP1931095A JPH08212181A JP H08212181 A JPH08212181 A JP H08212181A JP 7019310 A JP7019310 A JP 7019310A JP 1931095 A JP1931095 A JP 1931095A JP H08212181 A JPH08212181 A JP H08212181A
Authority
JP
Japan
Prior art keywords
input
neural network
learning
data
output data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP7019310A
Other languages
Japanese (ja)
Inventor
Noriko Suzuki
紀子 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Plant Technologies Ltd
Original Assignee
Hitachi Plant Technologies Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Plant Technologies Ltd filed Critical Hitachi Plant Technologies Ltd
Priority to JP7019310A priority Critical patent/JPH08212181A/en
Publication of JPH08212181A publication Critical patent/JPH08212181A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE: To provide a construction system for neural network which can decide an optimum neural network parameter in a small number of trial-and-error. CONSTITUTION: A preprocessing part 10 sets the input items, a learning rule, a transfer function and the learning frequency, i.e., the parameters of a neural network and also stores the learning data and the recollection data. A neural network 20 carries out the learning and the recollection based on those parameters and data. A postprocessing part 30 displays a table that shows an average square error of the recollection results and a table and a graph that show the results of comparison between the learning and recollection results and each desirable output result. Thus, the quality of parameters can be studied in the order of the input items, the learning rule, the transfer function and the learning frequency. When the input items are studied, each of different items is deleted among all conceivable input items and the learning and recollection of the network 20 are carried out to study the influences against the output results of deleted items. Then an optimum input item is decided based on the result of the preceding study of influences.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明はニューラルネットワーク
の構築システムに係わり、特にニューラルネットワーク
の構築システムの前処理及び後処理システムに関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a neural network construction system, and more particularly to a pre-processing and post-processing system for a neural network construction system.

【0002】[0002]

【従来の技術】新たにニューラルネットワークを構築す
る場合、ニューラルネットワークで精度良く出力データ
を予測するために、例えば、ニューラルネットワークの
入力項目の種類や入力データ及び出力データの型、即
ち、値そのもので使うか、偏差を取るか、対数にするの
かなどを検討する必要がある。また、結合の重みを変え
る方法である学習則、各層の出力関数である伝達関数、
結合の重みを何回変えるかの学習回数を検討しなければ
ならない。
2. Description of the Related Art When a new neural network is constructed, in order to accurately predict output data by the neural network, for example, the type of input items of the neural network, the type of input data and output data, that is, the value itself is used. It is necessary to consider whether to use, take deviation, or make logarithm. In addition, a learning rule that is a method of changing the weight of coupling, a transfer function that is an output function of each layer,
It is necessary to consider the number of times of learning how many times the connection weight is changed.

【0003】更に、これらの入力項目、学習則、伝達関
数、学習回数は互いに係わり合っているため、一つのパ
ラメータを変えたら他のパラメータで検討しなければな
らず検討手順が煩雑であるため、無駄な検討を行わない
ためにも実験計画をしっかりとたてる必要がある。そこ
で、従来におけるニューラルネットワークの構築システ
ムは、前処理として、入力データと出力データの相関係
数や重回帰係数などを求めて各入力データと出力データ
の関係をグラフに示すなど、各入力データの出力データ
に及ぼす影響を示してユーザの入力データの決定に役立
てようとしている。また後処理として、学習したデータ
の平均自乗誤差のグラフや、結合の重みの強さを示すグ
ラフや、ニューラルネットワークの出力値と望むべき出
力値との相関図などを表示するように構成されている。
Further, since these input items, learning rules, transfer functions, and number of learnings are related to each other, if one parameter is changed, another parameter must be considered and the study procedure is complicated. It is necessary to make a good plan for the experiment in order to avoid unnecessary examination. Therefore, in the conventional neural network construction system, as preprocessing, the correlation coefficient between input data and output data, multiple regression coefficient, etc. are obtained and the relationship between each input data and output data is shown in a graph. We are trying to show the effect on output data and help determine the input data for the user. In addition, as post-processing, it is configured to display a graph of the mean square error of the learned data, a graph showing the strength of the connection weight, a correlation diagram between the output value of the neural network and the desired output value, etc. There is.

【0004】[0004]

【発明が解決しようとする課題】しかしながら、上述の
前処理では、出力データに影響を及ぼす入力データを実
際に決定するのは困難である。即ち、前処理において算
出される相関係数や重回帰係数などはデータが線形であ
るとして扱う統計的手法であり、それに対してニューラ
ルネットワークが考えているデータの組は非線形であ
る。従って、いくら相関係数や重回帰係数などで出力デ
ータと非常に強い相関がある入力データという結果が表
示されていてもニューラルネットワークで出力データと
非常に強い相関がある入力データという結果になるとは
限らず、逆に、相関係数や重回帰係数などから出力デー
タとほとんど相関がない入力データという結果になった
場合でもニューラルネットワークでは非常に重要な入力
因子になる場合もあり得る。
However, in the above-mentioned preprocessing, it is difficult to actually determine the input data that affects the output data. That is, the correlation coefficient and the multiple regression coefficient calculated in the pre-processing are statistical methods that treat data as being linear, whereas the neural network considers a data set to be non-linear. Therefore, no matter how much the input data has a very strong correlation with the output data due to the correlation coefficient or the multiple regression coefficient, it will be the input data having a very strong correlation with the output data in the neural network. Not limited to this, conversely, even when the result of the input data having almost no correlation with the output data due to the correlation coefficient or the multiple regression coefficient, it may be a very important input factor in the neural network.

【0005】また、入力データと出力データを一つのグ
ラフ上で表示してもこれらの関係が簡単に把握できるよ
うな事象にニューラルネットワークを使うことは滅多に
ないので、グラフを見ても試行錯誤の回数を減らすこと
は出来ない。後処理においても、学習データの平均自乗
誤差のグラフやニューラルネットワークの出力値と望む
べき出力値との相関図の表示からは、ニューラルネット
ワークの演算精度がわかるのみで精度を向上させるには
次に何をしたら良いのかわからず、オーバーランニング
の問題は解決されない。また、結合の重みの強さを表示
してもニューラルネットワークのパラメータを決定しよ
うとしているときには、各入力データの各出力データへ
の影響がわかっていない場合が多いので役に立たない。
Further, since it is rare to use a neural network for an event in which input data and output data are displayed on one graph and the relationship between them can be easily grasped, trial and error can be made even if the graph is viewed. You cannot reduce the number of times. Also in the post-processing, from the graph of the mean square error of the learning data and the display of the correlation diagram between the output value of the neural network and the desired output value, only the operation accuracy of the neural network can be known. I don't know what to do and the problem of overrunning is not solved. In addition, even if the strength of the connection weight is displayed, it is not useful because the influence of each input data on each output data is often unknown when trying to determine the parameters of the neural network.

【0006】本発明はこのような事情に鑑みてなされた
もので、少ない試行錯誤の回数で最適なニューラルネッ
トワークのパラメータを決定することができるニューラ
ルネットワークの構築システムを提供することを目的と
する。
The present invention has been made in view of the above circumstances, and an object of the present invention is to provide a neural network construction system capable of determining optimal neural network parameters with a small number of trials and errors.

【0007】[0007]

【課題を解決するための手段】本発明は前記目的を達成
するために、ニューラルネットワークの入力項目、学習
則、伝達関数、学習回数等のパラメータを検討して前記
ニューラルネットワークを構築するニューラルネットワ
ークの構築システムであって、前記入力項目を検討する
入力項目検討システムは、前記ニューラルネットワーク
の入力項目として想定される全入力項目を入力する入力
部と、前記入力部から入力された全入力項目の中から任
意の入力項目を組み合わたものを生成する入力項目生成
部と、前記入力部から入力された全入力項目と前記入力
項目生成部によって生成された入力項目のそれぞれに関
して、あらかじめ用意された学習に使用する入力データ
とその望むべき出力データから成る学習データに基づい
て学習し、該学習の後、あらかじめ用意された想起に使
用する入力データとその望むべき出力データからなる想
起データに基づいて想起してその出力データを算出する
ニューラルネットワークと、前記ニューラルネットワー
クで算出され出力データとその望むべき出力データに基
づいてニューラルネットワークの演算精度を示す情報を
出力する後処理部と、から成ることを特徴としている。
In order to achieve the above object, the present invention is directed to a neural network for constructing the neural network by examining parameters such as input items of the neural network, learning rules, transfer functions, and the number of learnings. A construction system, wherein an input item examination system for examining the input items includes: an input unit for inputting all input items assumed as input items of the neural network; and all input items input from the input unit. From the input item generation unit that generates a combination of arbitrary input items from the input unit, all input items input from the input unit and the input items generated by the input item generation unit Learning based on learning data composed of input data to be used and desired output data, After that, a neural network that recollects and calculates the output data based on recollection data composed of input data used for recollection and its desired output data, and output data calculated by the neural network and its desired data And a post-processing unit that outputs information indicating the calculation accuracy of the neural network based on the output data.

【0008】[0008]

【作用】本発明によれば、ニューラルネットワークの入
力項目を検討する際に、入力部から入力されたニューラ
ルネットワークの入力項目として想定される全入力項目
の中から任意の入力項目を組み合わせたものを入力項目
生成部で生成する。そして、これら全入力項目及び入力
項目を組み合わせたものそれぞれに関して、予め用意さ
れた学習データ及び想起データに基づいてニューラルネ
ットワークの学習及び想起を行い、出力データを算出
し、後処理部に出力する。後処理部ではニューラルネッ
トワークで算出した出力データとその望むべき出力デー
タとに基づいてニューラルネットワークの演算精度を示
す情報を出力する。これにより、各入力項目の入力デー
タが出力データに及ぼす影響の程度を知ることができ
る。そして、出力データに及ぼす影響の強い入力項目を
選出することにより、ニューラルネットワークの入力項
目を決定することができる。
According to the present invention, when considering the input items of the neural network, a combination of arbitrary input items from all input items assumed as the input items of the neural network input from the input unit is selected. Generated by the input item generator. Then, with respect to all of these input items and each combination of the input items, the neural network is learned and recalled based on the learning data and the recall data prepared in advance, and the output data is calculated and output to the post-processing unit. The post-processing unit outputs information indicating the calculation accuracy of the neural network based on the output data calculated by the neural network and the desired output data. As a result, it is possible to know the degree of influence of the input data of each input item on the output data. Then, the input item of the neural network can be determined by selecting the input item having a strong influence on the output data.

【0009】[0009]

【実施例】以下添付図面に従って本発明に係るニューラ
ルネットワークの構築システムの好ましい実施例を詳説
する。図1は本発明に係わるニューラルネットワークの
構築システムを示す構成図である。同図に示すようにニ
ューラルネットワークの構築システムは大別して前処理
部10、ニューラルネットワーク20、後処理部30か
ら構成されており、以下各部の作用について説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS A preferred embodiment of a neural network construction system according to the present invention will be described in detail below with reference to the accompanying drawings. FIG. 1 is a block diagram showing a construction system of a neural network according to the present invention. As shown in the figure, the construction system of the neural network is roughly divided into a pre-processing unit 10, a neural network 20, and a post-processing unit 30, and the operation of each unit will be described below.

【0010】前記前処理部10は、同図に示すように第
1入力部10A、第2入力部10Bと入力項目生成部1
0C、学習則・伝達関数設定部10D、学習回数設定部
10Eから構成されている。第1入力部10Aは、ユー
ザからニューラルネットワーク20の学習及び想起(想
起とは、学習したニューラルネットワークで出力データ
を算出することをいう)に使用される学習データと想起
データ(想起データは、学習に使用する学習データとは
異なる入力データとそれに対する望むべき出力データを
いう)を入力するとともにこれらデータを記憶し、ニュ
ーラルネットワーク20の学習及び想起を行う際にこれ
ら学習データ又は想起データを第2入力部10Bに出力
する。尚、第1入力部10Aの学習データ及び想起デー
タには出力データに関係があると思われる全ての入力項
目に対する入力データを記録させておく。
The preprocessing section 10 includes a first input section 10A, a second input section 10B and an input item generation section 1 as shown in FIG.
0C, a learning rule / transfer function setting unit 10D, and a learning number setting unit 10E. The first input unit 10A uses learning data and recollection data (recollection data refers to learning) used for learning and recollection of the neural network 20 from a user (recollection refers to calculating output data by the learned neural network). Input data different from the learning data used for the above and desired output data corresponding thereto) are stored and these data are stored, and the learning data or the recall data is used as the second data when learning and recalling the neural network 20. Output to the input unit 10B. The learning data and the recall data of the first input unit 10A are recorded with the input data for all the input items that are considered to be related to the output data.

【0011】入力項目生成部10Cでは第1入力部10
Aに記憶された学習データ及び想起データの入力項目
(以下、第1入力部10Aに記憶された学習データ及び
想起データの入力項目を全入力項目という)のうちから
ニューラルネットワーク20に入力する入力データの入
力項目を決定する。第2入力部10Bはこの入力項目生
成部10Cで決定された入力項目に対応する学習データ
及び想起データの入力データのみを第1入力部10Aに
記憶された学習データ及び想起データから抽出し、これ
をニューラルネットワーク20に入力する。
In the input item generating section 10C, the first input section 10
Input data to be input to the neural network 20 from among the input items of the learning data and the recall data stored in A (hereinafter, the input items of the learning data and the recall data stored in the first input unit 10A are referred to as all input items). Determine the input items for. The second input unit 10B extracts only the input data of the learning data and the recall data corresponding to the input item determined by the input item generation unit 10C from the learning data and the recall data stored in the first input unit 10A. To the neural network 20.

【0012】また、学習則・伝達関数設定部10Dでは
学習則及び伝達関数を決定し、学習回数設定部10Eで
は学習回数を決定する。そして、入力項目生成部10
C、学習則・伝達関数設定部10D、学習回数設定部1
0Eで決定したパラメータ(入力項目、学習則及び各層
の伝達関数、学習回数)を用いてニューラルネットワー
ク20の学習を行う。
The learning rule / transfer function setting unit 10D determines the learning rule and the transfer function, and the learning number setting unit 10E determines the learning number. Then, the input item generation unit 10
C, learning rule / transfer function setting unit 10D, learning number setting unit 1
Learning of the neural network 20 is performed using the parameters (input item, learning rule, transfer function of each layer, number of learning) determined in 0E.

【0013】尚、入力項目生成部10C、学習則・伝達
関数設定部10D、学習回数設定部10Eにおける入力
項目、学習則及び伝達関数、学習回数の決定方法の詳細
については後述する。前記ニューラルネットワーク20
は前処理部10で決定されたパラメータの基に学習し、
学習が終了した後は、この学習の良否を評価するため
に、学習データ及び想起データの入力データを第2入力
部10Bから入力して出力データを算出する。そして、
この算出した出力データを後処理部30に出力する。
The details of the method of determining the input items, the learning rule and the transfer function, and the learning number in the input item generating section 10C, the learning rule / transfer function setting section 10D, and the learning number setting section 10E will be described later. The neural network 20
Learns based on the parameters determined by the preprocessing unit 10,
After the learning is finished, in order to evaluate the quality of the learning, the input data of the learning data and the recall data is input from the second input unit 10B and the output data is calculated. And
The calculated output data is output to the post-processing unit 30.

【0014】前記後処理部30は第1後処理部30A、
第2後処理部30Bから構成され、第1後処理部30A
は想起データの入力データをニューラルネットワーク2
0に入力して算出された出力データの(望むべき出力デ
ータ(第1入力部10Aに記録されている想起データの
出力データ)に対する)平均自乗誤差を計算し、表にし
てモニタ又はプリント表示する。
The post-processing unit 30 is a first post-processing unit 30A,
The second post-processing unit 30B includes the first post-processing unit 30A.
Input data of recall data to neural network 2
The mean square error (with respect to the desired output data (the output data of the recall data recorded in the first input unit 10A)) of the output data calculated by inputting to 0 is calculated, and the result is tabulated and displayed on a monitor or printed. .

【0015】また、第2後処理部30Bは学習データと
想起データそれぞれに関してニューラルネットワーク2
0によって算出された出力データとその望むべき出力デ
ータとを比較したグラフと、相関図をモニタ又はプリン
ト表示する。尚、後処理部30で表示される表、グラ
フ、相関図の詳細については後述する。図2は図1に示
したニューラルネットワークの構築システムにおける構
築手順の概要を示したフローチャートである。
Further, the second post-processing unit 30B uses the neural network 2 for each of the learning data and the recall data.
A graph in which the output data calculated by 0 is compared with the desired output data and a correlation diagram are displayed on a monitor or printed. Details of the tables, graphs, and correlation diagrams displayed by the post-processing unit 30 will be described later. FIG. 2 is a flowchart showing an outline of the construction procedure in the construction system of the neural network shown in FIG.

【0016】ニューラルネットワークを構築する場合に
は、より良い演算精度を得るために、ニューラルネット
ワークのパラメータである、入力項目、学習則(一般化
デルタルール等)、伝達関数(シグモイド関数等)、学
習回数(同一学習データによる学習反復回数)を検討す
る必要がある。本実施例ではこれらのパラメータのうち
ニューラルネットワークの構築に与える影響の強いもの
から順に検討し、決定する。即ち、入力項目、学習則及
び伝達関数、学習回数の順に決定する。
When constructing a neural network, in order to obtain better calculation accuracy, the parameters of the neural network are input items, learning rules (generalized delta rules, etc.), transfer functions (sigmoid functions, etc.), learning. It is necessary to examine the number of times (the number of learning iterations with the same learning data). In this embodiment, among these parameters, those having a strong influence on the construction of the neural network are examined and determined in order. That is, the input item, the learning rule and the transfer function, and the learning frequency are determined in this order.

【0017】そこで、図2に示すように、まず出力デー
タの算出に最も適したニューラルネットワークの入力項
目を決定する(ステップS10)。入力項目を決定した
ら、次にこの入力項目において出力データの算出に最も
適した学習則と各層の伝達関数を決定する(ステップS
20)。そして最後に、ステップS10とステップS2
0において決定した入力項目、学習則及び伝達関数にお
いて出力データの算出に最も適した学習回数を決定する
(ステップS30)。
Therefore, as shown in FIG. 2, first, the input item of the neural network most suitable for the calculation of the output data is determined (step S10). After the input item is determined, the learning rule and the transfer function of each layer that are most suitable for calculating the output data are determined for this input item (step S).
20). And finally, step S10 and step S2
In the input item, learning rule, and transfer function determined in 0, the number of times of learning most suitable for calculation of output data is determined (step S30).

【0018】以上がニューラルネットワークの構築手順
の概要である。次に図3のフローチャートを用いて図2
に示したニューラルネットワークの構築手順の詳細を説
明する(図3には図2のステップS10の詳細が示され
ている)。まず、初めに出力データに関係があると思わ
れる全ての入力項目に対する入力データとその出力デー
タを学習データと想起データに関して第1入力部10A
に入力し、記憶する(ステップS100)。そして、入
力項目生成部10Cにおいて第1入力部10Aに記憶し
た全入力項目の中からニューラルネットワーク20の入
力項目とするものを選択する。このとき、最初のニュー
ラルネットワーク20の学習及び想起においては全入力
項目をニューラルネットワーク20の入力項目とする
(ステップS102)。また、学習則・伝達関数設定部
10Dにおいて学習則及び伝達関数を設定し、学習回数
設定部10Eにおいて学習回数を設定する。ただし、学
習則、伝達関数、学習回数に関しては、出力データの算
出に最も適した入力項目が決定されるまで検討は行わ
ず、それまでは学習則に一般化デルタルール、伝達関数
にシグモイド関数、学習回数に100回/個を適用す
る。
The above is the outline of the procedure for constructing the neural network. Next, referring to the flowchart of FIG.
The details of the procedure for constructing the neural network shown in FIG. 3 will be described (details of step S10 of FIG. 2 are shown in FIG. 3). First, the input data and output data for all input items that are considered to be related to the output data are first input unit 10A for learning data and recall data.
Is input and stored (step S100). Then, in the input item generation unit 10C, the one to be the input item of the neural network 20 is selected from all the input items stored in the first input unit 10A. At this time, in the first learning and recall of the neural network 20, all the input items are set as the input items of the neural network 20 (step S102). The learning rule / transfer function setting unit 10D sets the learning rule and the transfer function, and the learning number setting unit 10E sets the learning number. However, the learning rule, transfer function, and number of learnings are not examined until the most suitable input item for calculating the output data is determined. Until then, the learning rule is a generalized delta rule, the transfer function is a sigmoid function, 100 times / piece is applied to the number of times of learning.

【0019】次に、上記入力項目生成部10C、学習則
・伝達関数設定部10D、学習回数設定部10Eにおい
て設定したニューラルネットワーク20のパラメータに
基づいてニューラルネットワーク20の学習を行う(ス
テップS104)。ニューラルネットワーク20の学習
は例えば第2入力部10Bから出力される学習データの
入力データとその望むべき出力データである教師データ
を使用して、バックプロパゲーション法によって行う。
そして、ニューラルネットワーク20の学習が終了した
後に、上記の学習データと想起データの入力データを第
2入力部10Bからニューラルネットワーク20に入力
して出力データを算出し(ニューラルネットワークの想
起)、この算出結果を後処理部30に出力する(ステッ
プS106)。
Next, the neural network 20 is learned based on the parameters of the neural network 20 set in the input item generation unit 10C, the learning rule / transfer function setting unit 10D, and the learning number setting unit 10E (step S104). Learning of the neural network 20 is performed by the back propagation method using, for example, the input data of the learning data output from the second input unit 10B and the teacher data that is the desired output data.
Then, after the learning of the neural network 20 is finished, the input data of the learning data and the recall data is input to the neural network 20 from the second input unit 10B to calculate the output data (recall of the neural network), and this calculation The result is output to the post-processing unit 30 (step S106).

【0020】上記のように全入力項目をパラメータとし
てニューラルネットワークの学習及び想起を行った後
は、ステップS108とステップS110の処理を介し
てステップS102に戻り、ニューラルネットワーク2
0の入力項目を再度設定する。このときにはニューラル
ネットワーク20の入力項目を、全入力項目から一項目
を削除したものに設定する。そして、上記と同様にニュ
ーラルネットワーク20の学習及び想起を行う(ステッ
プS102からステップS106までの処理を行う)。
After learning and recalling the neural network using all the input items as parameters as described above, the process returns to step S102 through the processes of steps S108 and S110, and the neural network 2
Set the input item of 0 again. At this time, the input item of the neural network 20 is set to one obtained by deleting one item from all the input items. Then, the neural network 20 is learned and recalled in the same manner as described above (the processing from step S102 to step S106 is performed).

【0021】尚、ステップS108とステップS110
は、上記ステップS102からステップS106までの
処理を、全入力項目の中から1項目を削除したもの全て
の組み合わせについて繰り返し行うために、ステップS
102からステップS106までの処理が全入力項目の
数だけ繰り返されるようにしている(全入力項目の中か
ら1項目を削除したものの組み合わせの数は全入力項目
の数に等しい)。
Incidentally, step S108 and step S110
In order to repeat the processing from step S102 to step S106 for all combinations in which one item is deleted from all input items, step S
The processing from 102 to step S106 is repeated for the number of all input items (the number of combinations of one input item deleted from all input items is equal to the number of all input items).

【0022】以上、全入力項目の中から1項目を削除し
たものの全ての組み合わせに対してニューラルネットワ
ーク20の学習及び想起した結果は、後処理部30に出
力される。そして、後処理部30の第1後処理部30A
はニューラルネットワーク20の想起結果である想起デ
ータの出力データとその望むべき出力データから出力デ
ータの平均自乗誤差を計算し、全ての入力項目の組み合
わせについて一覧表にしてモニタ又はプリント表示する
(ステップS112)。
As described above, the learning and recall results of the neural network 20 for all combinations of one input item deleted from all input items are output to the post-processing unit 30. Then, the first post-processing unit 30A of the post-processing unit 30
Calculates the mean square error of the output data from the output data of the recall data which is the recall result of the neural network 20 and the desired output data thereof, and makes a list of all the combinations of the input items for monitor or print display (step S112). ).

【0023】図4はこのとき第1後処理部30Aにおい
て表示される一覧表の一例である。同図に示すように、
一覧表には入力項目の組み合わせ(同図丸印の記された
入力項目がニューラルネットワーク20のパラメータと
して選択された入力項目を示している)とそのパラメー
タによって学習したニューラルネットワーク20の出力
データの平均自乗誤差が示されている。
FIG. 4 is an example of a list displayed in the first post-processing section 30A at this time. As shown in the figure,
In the list, a combination of input items (the input items marked with circles in the figure show the input items selected as parameters of the neural network 20) and the average of the output data of the neural network 20 learned by the parameters. The squared error is shown.

【0024】同図からは、全入力項目の中から削除した
入力項目が出力データにどの程度影響を与えるかを読み
取ることができる。即ち、全入力項目を使用して学習及
び想起した場合の出力データの平均自乗誤差に対して、
入力項目を一つ削除して学習及び想起した場合の出力デ
ータの平均自乗誤差があまり変わらない場合には、この
時に削除した入力項目は出力データにほとんど影響を与
えないということが読み取れる。逆に全入力項目を使用
して学習及び想起した場合の出力データの平均自乗誤差
に対して、入力項目を一つ削除して学習及び想起した場
合の出力データの平均自乗誤差が大きく変化したときに
は、この時に削除した入力項目は出力データに大きな影
響を与えるということが読み取れる。
From the figure, it is possible to read how much the input items deleted from all the input items affect the output data. That is, for the mean square error of the output data when learning and recalling using all input items,
When the mean square error of the output data when learning and recalling by deleting one input item does not change much, it can be read that the input item deleted at this time has almost no effect on the output data. On the contrary, when the mean square error of the output data when learning and recalling using all input items is greatly changed, the mean square error of the output data when one input item is deleted and learning and recalling changes significantly. , It can be seen that the input items deleted at this time have a great influence on the output data.

【0025】従って、この図4の一覧表から、全入力項
目のうち出力データの計算に本当に必要な(最も適し
た)入力項目を選出することができる。尚、全入力項目
を使用して学習及び想起した場合の出力データの平均自
乗誤差に対して、入力項目を一つ削除して学習及び想起
した場合の出力データの平均自乗誤差の変化量が大きい
か小さいかは、全入力項目を使用して学習及び想起した
場合の出力データの平均自乗誤差に対する変化量の割合
から判断するようにして、自動的に最も適した入力項目
を選出するようにしてもよい。
Therefore, from the list of FIG. 4, it is possible to select the input item that is really necessary (most suitable) for calculating the output data among all the input items. The mean square error of the output data when one input item is deleted and the mean square error of the output data when the learning and recall are performed using all the input items is large. Whether it is small or not is determined by the ratio of the amount of change to the mean square error of the output data when learning and recalling using all input items, and the most suitable input item is automatically selected. Good.

【0026】また、必要に応じて第2後処理部30Bに
おいて図5から図9に示すような学習データと想起デー
タそれぞれに関するニューラルネットワーク20の出力
データとその望むべき出力データを表示したグラフ(図
5,6)、これら出力データの相関図(図7,8)及び
出力データの絶対誤差と相対誤差を示す表(図9)をモ
ニタ又はプリント表示することができるようになってい
る。
If necessary, in the second post-processing unit 30B, a graph displaying the output data of the neural network 20 and the desired output data concerning the learning data and the recall data as shown in FIGS. 5, 6), a correlation diagram of these output data (FIGS. 7, 8) and a table (FIG. 9) showing the absolute error and the relative error of the output data can be displayed on a monitor or printed.

【0027】以上のように後処理部30において図4及
び図5〜図9のような表やグラフを参照して出力データ
の算出に最も適した入力項目を決定する(ステップS1
14)。そして、この入力項目を入力項目生成部10C
において最終的な入力項目として設定する。出力データ
の算出に最も適した入力項目が決定した後は、次に図2
に示したように最適な学習則及び伝達関数を検討する。
この検討の際には候補となる学習則、伝達関数において
ニューラルネットワーク20の学習及び想起を行い図4
及び図5で示したような出力データの平均自乗誤差の一
覧表やニューラルネットワーク20の出力データとその
望むべき出力データを表示したグラフ、相関図をモニタ
又はプリント表示する。そして、これらの表示結果か
ら、最も適した学習則及び伝達関数を決定する。また、
学習回数に関しても学習則及び伝達関数を決定した後
に、学習則及び伝達関数の決定方法と同様にして決定す
る。
As described above, the post-processing unit 30 determines the most suitable input item for calculating the output data by referring to the tables and graphs shown in FIGS. 4 and 5 to 9 (step S1).
14). Then, this input item is input item generation unit 10C.
Set as the final input item in. After determining the most suitable input items for calculating output data,
Consider the optimal learning rule and transfer function as shown in.
At the time of this examination, learning and recall of the neural network 20 are performed using candidate learning rules and transfer functions.
Further, a list of mean square errors of the output data as shown in FIG. 5, a graph showing the output data of the neural network 20 and the desired output data, and a correlation diagram are displayed on a monitor or printed. Then, the most suitable learning rule and transfer function are determined from these display results. Also,
Regarding the number of times of learning, after the learning rule and the transfer function are determined, they are determined in the same manner as the method of determining the learning rule and the transfer function.

【0028】尚、上記ニューラルネットワーク20の入
力項目を決定する際に、全入力項目から一つの入力項目
を削除して、この削除した入力項目の出力データに対す
る影響の程度を検討していたが、必ずしも一項目ずつ削
除する必要はなく、入力項目をいくつかのブロックに分
けてブロック毎に削除して検討してもよい。また、以上
に示したニューラルネットワークの構築システムは平均
自乗誤差に基づいて全てのニューラルネットワークのパ
ラメータを決定することが可能であり、全てのパラメー
タの決定手順を自動化することができる。また、対話式
にパラメータの検討を行えるようにしてパラメータの最
終的な決定はユーザの判断に委ねるようにしてもよい。
When determining the input items of the neural network 20, one input item was deleted from all the input items, and the degree of influence of the deleted input items on the output data was examined. It is not always necessary to delete one item at a time, and the input item may be divided into some blocks and deleted for each block for consideration. The neural network construction system described above can determine all the parameters of the neural network based on the mean square error, and the procedure of determining all the parameters can be automated. Alternatively, the parameters may be interactively examined, and the final determination of the parameters may be left to the user's judgment.

【0029】[0029]

【発明の効果】以上説明したように本発明に係るニュー
ラルネットワークの構築システムによれば、ニューラル
ネットワークのパラメータのうち出力データに与える影
響の大きいものから検討していくことにしたことと、検
討を平均自乗誤差で評価していくことでニューラルネッ
トワークの学習に時間がかからなくなった。また、出力
のグラフに、学習結果、想起結果を表示するので与えた
データがよく学習出来ているかどうか、どういうことを
ニューラルネットワークは表しているかということをひ
とめでわかるようになった。
As described above, according to the neural network construction system of the present invention, it is decided that the parameters of the neural network that have a great influence on the output data will be examined first. Learning the neural network took less time by evaluating the mean square error. Also, since the learning results and recall results are displayed in the output graph, it became possible to understand at a glance whether the given data could be learned well and what the neural network represents.

【図面の簡単な説明】[Brief description of drawings]

【図1】図1は本発明に係わるニューラルネットワーク
の構築システムを示す構成図である。
FIG. 1 is a block diagram showing a construction system of a neural network according to the present invention.

【図2】図2は図1に示したニューラルネットワークの
構築システムにおける構築手順の概要を示したフローチ
ャートである。
2 is a flowchart showing an outline of a construction procedure in the neural network construction system shown in FIG. 1;

【図3】図3はニューラルネットワークの構築手順を詳
細を示したフローチャートである。
FIG. 3 is a flowchart showing details of a procedure for constructing a neural network.

【図4】図4はニューラルネットワークにおいて算出さ
れる出力データの平均自乗誤差を示す一覧表の一例であ
る。
FIG. 4 is an example of a list showing a mean square error of output data calculated in a neural network.

【図5】図5は後処理部30Bにおいて表示される学習
データに関する出力データのグラフである。
FIG. 5 is a graph of output data related to learning data displayed on the post-processing unit 30B.

【図6】図6は後処理部30Bにおいて表示される想起
データに関する出力データのグラフである。
FIG. 6 is a graph of output data regarding recall data displayed in the post-processing unit 30B.

【図7】図7は後処理部30Bにおいて表示される学習
データに関する予測値と実測値との相関図である。
FIG. 7 is a correlation diagram between predicted values and actual measured values regarding learning data displayed in the post-processing unit 30B.

【図8】図8は後処理部30Bにおいて表示される学習
データに関する予測値と実測値との相関図である。
FIG. 8 is a correlation diagram between a predicted value and an actually measured value regarding learning data displayed in the post-processing unit 30B.

【図9】図9は後処理部30Bにおいて表示される出力
データの絶対誤差及び相対誤差を示した表である。
FIG. 9 is a table showing absolute errors and relative errors of output data displayed in the post-processing unit 30B.

【符号の説明】[Explanation of symbols]

10…前処理部 10A…第1入力部 10B…第2入力部 10C…入力項目生成部 10D…学習則・伝達関数設定部 10E…学習回数設定部 20…ニューラルネットワーク 30…後処理部 30A…第1後処理部 30B…第2後処理部 10 ... Pre-processing unit 10A ... First input unit 10B ... Second input unit 10C ... Input item generation unit 10D ... Learning rule / transfer function setting unit 10E ... Learning number setting unit 20 ... Neural network 30 ... Post-processing unit 30A ... 1 post-processing section 30B ... second post-processing section

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】 ニューラルネットワークの入力項目、学
習則、伝達関数、学習回数等のパラメータを検討して前
記ニューラルネットワークを構築するニューラルネット
ワークの構築システムであって、 前記入力項目を検討する入力項目検討システムは、 前記ニューラルネットワークの入力項目として想定され
る全入力項目を入力する入力部と、 前記入力部から入力された全入力項目の中から任意の入
力項目を組み合わたものを生成する入力項目生成部と、 前記入力部から入力された全入力項目と前記入力項目生
成部によって生成された入力項目のそれぞれに関して、
あらかじめ用意された学習に使用する入力データとその
望むべき出力データから成る学習データに基づいて学習
し、該学習の後、あらかじめ用意された想起に使用する
入力データとその望むべき出力データからなる想起デー
タに基づいて想起してその出力データを算出するニュー
ラルネットワークと、 前記ニューラルネットワークで算出され出力データとそ
の望むべき出力データに基づいてニューラルネットワー
クの演算精度を示す情報を出力する後処理部と、 から成ることを特徴とするニューラルネットワークの構
築システム。
1. A neural network construction system for constructing the neural network by examining parameters such as an input item of a neural network, a learning rule, a transfer function, and a learning frequency, and an input item examination for examining the input item. The system includes an input unit for inputting all input items assumed as input items of the neural network, and an input item generation for generating a combination of arbitrary input items from all input items input from the input unit. Section, with respect to each of all the input items input from the input unit and the input items generated by the input item generation unit,
Learning based on learning data composed of input data used for learning prepared in advance and desired output data thereof, and after the learning, recall composed of input data used for recall prepared in advance and its desired output data A neural network that recollects the output data based on the data, and a post-processing unit that outputs information indicating the calculation accuracy of the neural network based on the output data calculated by the neural network and the desired output data, A system for constructing a neural network, which comprises:
【請求項2】 前記入力項目生成部で生成される入力項
目は、前記全入力項目の中から各入力項目を1項目削除
したものであることを特徴とする請求項1のニューラル
ネットワークの構築システム。
2. The system for constructing a neural network according to claim 1, wherein the input item generated by the input item generating unit is one in which each input item is deleted from all the input items. .
【請求項3】 前記入力項目検討システムで先ず入力項
目を決定してから、学習則と伝達関数、学習回数を順次
検討して決定することを特徴とする請求項1のニューラ
ルネットワークの構築システム。
3. The system for constructing a neural network according to claim 1, wherein the input item examination system first decides an input item and then sequentially examines and decides the learning rule, the transfer function, and the learning frequency.
【請求項4】 前記後処理部では、前記ニューラルネッ
トワークの演算部から出力された学習結果と想起結果と
に基づいて平均自乗誤差を用いて表に表すことを特徴と
する請求項1のニューラルネットワークの構築システ
ム。
4. The neural network according to claim 1, wherein the post-processing unit uses a mean square error based on the learning result and the recall result output from the arithmetic unit of the neural network to display in a table. Building system.
JP7019310A 1995-02-07 1995-02-07 Construction system for neural network Pending JPH08212181A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP7019310A JPH08212181A (en) 1995-02-07 1995-02-07 Construction system for neural network

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP7019310A JPH08212181A (en) 1995-02-07 1995-02-07 Construction system for neural network

Publications (1)

Publication Number Publication Date
JPH08212181A true JPH08212181A (en) 1996-08-20

Family

ID=11995854

Family Applications (1)

Application Number Title Priority Date Filing Date
JP7019310A Pending JPH08212181A (en) 1995-02-07 1995-02-07 Construction system for neural network

Country Status (1)

Country Link
JP (1) JPH08212181A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000315111A (en) * 1999-04-30 2000-11-14 Nippon Steel Corp Method and device for diagnosing abnormal state in equipment and product process

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000315111A (en) * 1999-04-30 2000-11-14 Nippon Steel Corp Method and device for diagnosing abnormal state in equipment and product process

Similar Documents

Publication Publication Date Title
Lee et al. Cutting-parameter selection for maximizing production rate or minimizing production cost in multistage turning operations
EP0495092B1 (en) Computer neural network process control system
Koshal et al. Regularized iterative stochastic approximation methods for stochastic variational inequality problems
Dolado A validation of the component-based method for software size estimation
Kaya et al. Process capability analyses with fuzzy parameters
Li et al. An extended grey forecasting model for omnidirectional forecasting considering data gap difference
Tan et al. Grey-box model identification via evolutionary computing
CN109767301A (en) Recommended method and system, computer installation, computer readable storage medium
EP3499375B1 (en) Predicting quality of an information system using system dynamics modelling and machine learning
Graham et al. Modeling the ready mixed concrete delivery system with neural networks
EP0495085A1 (en) On-line process control neural network using data pointers
Eger et al. Correlation analysis methods in multi-stage production systems for reaching zero-defect manufacturing
Antony Ten key ingredients for making SPC successful in organisations
WO2019160138A1 (en) Causality estimation device, causality estimation method, and program
JP5082511B2 (en) Causal structure determination apparatus, control method for causal structure determination apparatus, and control program for causal structure determination apparatus
Fogliatto et al. A hierarchical method for evaluating products with quantitative and sensory characteristics
Shamsuzzaman et al. Design of EWMA control chart for minimizing the proportion of defective units
Corney Designing food with bayesian belief networks
JP3638310B2 (en) Case reasoning support device
Chan et al. On-line optimization of quality in a manufacturing system
JPH08212181A (en) Construction system for neural network
Beiter et al. Assembly quality method: a tool in aid of product strategy, design, and process improvements
JP7188950B2 (en) Data processing method and data processing program
Cheng et al. A neural network-based procedure for the monitoring of exponential mean
US5333238A (en) Method and apparatus for checking input-output characteristic of neural network