JPH08314880A - Method for learning neural network and neural network system - Google Patents

Method for learning neural network and neural network system

Info

Publication number
JPH08314880A
JPH08314880A JP7138857A JP13885795A JPH08314880A JP H08314880 A JPH08314880 A JP H08314880A JP 7138857 A JP7138857 A JP 7138857A JP 13885795 A JP13885795 A JP 13885795A JP H08314880 A JPH08314880 A JP H08314880A
Authority
JP
Japan
Prior art keywords
input
neural network
node
layer
feature amount
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP7138857A
Other languages
Japanese (ja)
Inventor
Yasuhiro Tsutsumi
康弘 堤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Omron Tateisi Electronics Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp, Omron Tateisi Electronics Co filed Critical Omron Corp
Priority to JP7138857A priority Critical patent/JPH08314880A/en
Publication of JPH08314880A publication Critical patent/JPH08314880A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

PURPOSE: To select an amt. of valid featured by inputting teacher data and an amt. of valid feature and repeatedly performing the learning of a neural network(NN), the selection of an amt. of valid feature and the substitution for an input node. CONSTITUTION: Valid feature amount and data showing the node of the corresponding intermediate layer are given from a feature amount determination processing 14 to an NN update processing 15. In this NN update processing 15, the structure of an NN included in the NN 11 is changed because all the couplings of the node of a selected intermediate layer and the node of the previous layer are deleted and the node is defined as the input node for inputting corresponding valid feature amount. As for each node of an input layer, a contribution degree is calculated and whether the combination of valid feature amount is decided or not is judged. When it is judged that the combination of valid feature amount is not decided, a system (teacher data) is inputted in the input layer, the selected valid feature amount is inputted in the input node, the learning of a neural network is performed and processing above is repeated.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【技術分野】この発明は,学習を高速に行うニューラル
・ネットワークの学習方法およびニューラル・ネットワ
ーク・システムに関する。
TECHNICAL FIELD The present invention relates to a neural network learning method and a neural network system for performing learning at high speed.

【0002】[0002]

【従来技術とその問題点】一般に,制御システムにおい
ては,制御対象の状態がセンサによって検出され,その
センサ出力,またはセンサ出力に代えてもしくは加えて
センサ出力に基づいて作成される特徴量を用いて制御が
行なわれる。また,情報処理システムにおいても,入力
される処理すべき情報(データ),または入力情報に代
えてもしくは加えて入力情報に基づいて作成される特徴
量について処理が行われる。センサ出力,センサ出力に
基づく特徴量,入力情報および入力情報に基づく特徴量
を,以下単に特徴量という。
2. Description of the Related Art Generally, in a control system, the state of a controlled object is detected by a sensor, and a sensor output, or a characteristic amount created based on the sensor output instead of or in addition to the sensor output is used. Control is performed. Further, also in the information processing system, processing is performed on the input information (data) to be processed, or the characteristic amount created based on the input information instead of or in addition to the input information. Hereinafter, the sensor output, the feature amount based on the sensor output, the input information, and the feature amount based on the input information are simply referred to as the feature amount.

【0003】方程式をベースにした算術的方法により表
現したシステムにおいては,そのシステムに入力すべき
特徴量は画一的に決定される。一方,エキスパート・シ
ステム,ファジィ・システム,ニューラル・ネットワー
ク・システム等の知的推論システムにおいては,そのシ
ステムに入力すべき特徴量の決定は確定的な指針はな
く,入力される特徴量(入力変数)がその知的推論シス
テムの性能に与える影響が大きい。このため,知的推論
システムの設計を行う際には,入力変数の決定(選択)
が重要となる。したがって,知的推論システムの設計
は,取扱う対象の専門家とその知的推論システムの専門
家とが共同で行っていた。
In a system represented by an arithmetic method based on an equation, the feature quantity to be input to the system is uniformly determined. On the other hand, in intelligent reasoning systems such as expert systems, fuzzy systems, and neural network systems, there is no definite guideline for determining the amount of features to be input to the system, and the input features (input variables ) Greatly affects the performance of the intelligent reasoning system. Therefore, when designing an intelligent inference system, the input variables are decided (selected).
Is important. Therefore, the design of the intelligent inference system was carried out jointly by the expert to be handled and the expert of the intelligent inference system.

【0004】しかしながら,このような知的推論システ
ムに入力すべき特徴量の選択が,対象の専門家と知的推
論システムの専門家とによって共同で行われるため,シ
ステムの構築に多大な労力と時間を必要とする。また,
対象の専門家とシステムの専門家との間に行違いが生じ
ることがあり,充分な推論性能をもつ知的推論システム
を構築できないことがある。このため,ニューラル・ネ
ットワークを用いて,複数の特徴量(これを特徴量候補
という)の中から有効な特徴量(これを有効特徴量とい
う)を選択する方法が提案されている。この有効特徴量
の選択方法には,たとえば次の2つの方法がある。
However, since the selection of the feature amount to be input to such an intelligent inference system is jointly performed by the subject expert and the expert of the intelligent inference system, a great deal of labor and effort is required to construct the system. Need time. Also,
There may be a difference between the subject expert and the system expert, and it may not be possible to construct an intelligent reasoning system with sufficient reasoning performance. Therefore, a method has been proposed in which an effective feature amount (this is called an effective feature amount) is selected from a plurality of feature amounts (this is called a feature amount candidate) using a neural network. There are, for example, the following two methods for selecting the effective feature amount.

【0005】その1つは,複数の特徴量の中からいくつ
かの有効特徴量を選択し,これらの有効特徴量をニュー
ラル・ネットワークに入力し,選択された有効特徴量の
一部を他の特徴量候補に入替えて特徴量の評価しながら
有効特徴量を模索するものである。しかしながら,実際
には一の有効特徴量と他の有効特徴量との相関関係が重
要であるが,相関関係が考慮されないことが多い。
[0005] One of them is to select some effective feature quantities from a plurality of feature quantities, input these effective feature quantities to a neural network, and to replace a part of the selected effective feature quantities with another. It seeks an effective feature amount while replacing the feature amount candidate with the feature amount and evaluating the feature amount. However, in reality, the correlation between one effective feature amount and another effective feature amount is important, but the correlation is often not taken into consideration.

【0006】もう1つは,すべての特徴量候補をニュー
ラル・ネットワークに入力しセンサの出力または入力情
報を教師データとしてニューラル・ネットワークに学習
を行わせ,そのニューラル・ネットワークの各ノードに
ついて,後の層(出力層側)に与える影響が小さいノー
ドを削除することにより,最終的に残った入力層のノー
ドから入力される特徴量を有効特徴量として選択するも
のである。ノードの削除は,入力層のノードと中間層の
ノードとの結合度および中間層のノードと出力層のノー
ドとの結合度が0に近い結合(後の層に与える影響が小
さい結合)を削除し,前の層のノードとの結合がすべて
無くなったノードを削除するすることによって行われ
る。
The other is to input all the feature quantity candidates to the neural network and let the neural network learn by using the output of the sensor or the input information as teacher data, and for each node of the neural network, By deleting the node that has a small effect on the layer (output layer side), the feature amount input from the finally remaining node of the input layer is selected as the effective feature amount. The node is deleted by deleting the coupling between the input layer node and the intermediate layer node and the coupling degree between the intermediate layer node and the output layer node close to 0 (a coupling that has a small effect on the subsequent layers). Then, it deletes the nodes that are no longer connected to the nodes in the previous layer.

【0007】一方,ニューラル・ネットワークにおい
て,教師データに基づく誤差逆伝搬法により学習を行う
と,ノードの総数によってその学習の演算量が決る。入
力層のノード数が2倍に増えそれに応じて中間層のノー
ドが2倍に増えたと仮定すると,入力層のノードと中間
層のノードとの結合数は4倍になり,学習の演算量が4
倍に増えることになる。また,ニューラル・ネットワー
クの規模が大きくなる(層数とノード数が増える)と,
学習が収束するまでの学習回数も多くなり,たとえば入
力層のノード数が2倍になると,学習回数が2倍以上に
なることもある。したがって,入力層のノード数が増加
すると,学習が収束するまでに要する演算量は入力層の
ノード数の増加割合の3乗以上に比例することになる。
一般に,ニューラル・ネットワークの規模が大きくなる
ほどその冗長性が高くなり,大局的最適解に収束する前
に局所解に陥る可能性が高くなる。局所解に陥らないよ
うな学習方法があるが,それらは学習に多大の時間また
は演算を要する。
On the other hand, in the neural network, when learning is performed by the error back-propagation method based on the teacher data, the calculation amount of the learning is determined by the total number of nodes. Assuming that the number of nodes in the input layer has doubled and the number of nodes in the intermediate layer has doubled accordingly, the number of connections between the nodes in the input layer and the nodes in the intermediate layer is quadrupled, and the computational complexity of learning is increased. Four
It will be doubled. Also, as the scale of the neural network increases (the number of layers and the number of nodes increase),
The number of times of learning until the learning converges also increases. For example, when the number of nodes in the input layer doubles, the number of learning times may double or more. Therefore, when the number of nodes in the input layer increases, the amount of calculation required until the learning converges is proportional to the cube or more of the increase rate of the number of nodes in the input layer.
In general, the larger the size of the neural network, the higher its redundancy, and the more likely it is to fall into a local solution before it converges to the global optimal solution. There are learning methods that do not fall into local solutions, but they require a great deal of time or computation for learning.

【0008】しかしながら,このような従来の特徴量選
択装置においては,特徴量候補の数が増えると,それに
応じて入力層のノード数も増えるので,上述のように,
学習に多大な演算または時間を要することになる。特徴
量候補の数が増えるほど非効率である。また局所解に陥
る可能性も高くなり,これを回避するためにはニューラ
ル・ネットワークに関する専門的な知識を必要となる。
However, in such a conventional feature amount selection device, as the number of feature amount candidates increases, the number of nodes in the input layer also increases accordingly.
Learning will require a great deal of calculation or time. The greater the number of feature quantity candidates, the less efficient. In addition, the possibility of falling into a local solution increases, and in order to avoid this, specialized knowledge about neural networks is required.

【0009】[0009]

【発明の開示】この発明は,ニューラル・ネットワーク
の構造を簡素化しながらニューラル・ネットワークの学
習を行うことにより,ニューラル・ネットワークの学習
を高速に行えるようにすることを目的としている。
DISCLOSURE OF THE INVENTION An object of the present invention is to enable learning of a neural network at high speed by learning the neural network while simplifying the structure of the neural network.

【0010】この発明は,ニューラル・ネットワークを
用いて複数の特徴量の中から有効特徴量を選択できるよ
うにすることを目的としている。
An object of the present invention is to enable selection of an effective feature amount from a plurality of feature amounts by using a neural network.

【0011】この発明は,教師データに基づくニューラ
ル・ネットワークの学習を行うと,中間層のノードの中
には出力層のノードの振舞いと同一でなくかつ相関性を
もつものが現れる。この中間層のノードの振舞いと類似
した振舞いをする特徴量が複数の特徴量の中から見付か
れば,その特徴量は有効特徴量であるということに基づ
いている。
According to the present invention, when the learning of the neural network based on the teacher data is performed, some of the nodes in the intermediate layer are not the same as the behavior of the nodes in the output layer and have a correlation. This is based on the fact that if a feature quantity that behaves similarly to the behavior of a node in the middle layer is found from a plurality of feature quantities, that feature quantity is an effective feature quantity.

【0012】この発明によるニューラル・ネットワーク
の学習方法およびニューラル・ネットワーク・システム
について説明する。
A neural network learning method and a neural network system according to the present invention will be described.

【0013】この発明によるニューラル・ネットワーク
の学習方法は,複数のノードを含む入力層と,複数のノ
ードを含む一層または複数層の中間層と,入力層と同数
のノードを含む出力層とからなるニューラル・ネットワ
ークを設け,入力される教師データに基づいて複数の特
徴量をあらかじめ作成しておき,上記教師データを上記
ニューラル・ネットワークの入力層に入力したときの上
記ニューラル・ネットワークの出力が上記教師データに
等しくなるように上記ニューラル・ネットワークに学習
を行わせ,上記ニューラル・ネットワークの中間層の各
ノードの出力と上記特徴量とがどの程度類似しているか
を表す類似度をそれぞれ算出し,これらの類似度に基づ
いて上記複数の特徴量の中から1つの特徴量を有効特徴
量として選択するとともに,この有効特徴量に対応する
中間層のノードを上記有効特徴量を入力するための入力
ノードに置換え,上記教師データを入力層に入力し,上
記有効特徴量を入力ノードに入力してニューラル・ネッ
トワークの学習と,有効特徴量の選択および入力ノード
への置換とを繰返し行うものである。
The neural network learning method according to the present invention comprises an input layer including a plurality of nodes, a single or a plurality of intermediate layers including a plurality of nodes, and an output layer including the same number of nodes as the input layer. A neural network is provided, a plurality of feature quantities are created in advance based on input teacher data, and the output of the neural network when the teacher data is input to the input layer of the neural network is the teacher. The neural network is trained so as to be equal to the data, and the degree of similarity between the output of each node in the intermediate layer of the neural network and the feature quantity is calculated, and these are calculated. One feature amount is selected as an effective feature amount from the plurality of feature amounts based on the similarity of In both cases, the node in the middle layer corresponding to this effective feature amount is replaced with an input node for inputting the effective feature amount, the teacher data is input to the input layer, and the effective feature amount is input to the input node. -It is a method of repeatedly learning the network, selecting effective features and replacing them with input nodes.

【0014】この発明によるニューラル・ネットワーク
・システムは,複数のノードを含む入力層と,複数のノ
ードを含む一層または複数層の中間層と,入力層と同数
のノードを含む出力層とからなるニューラル・ネットワ
ーク,入力される教師データを上記ニューラル・ネット
ワークに入力したときの上記ニューラル・ネットワーク
の出力が上記教師データに等しくなるように上記ニュー
ラル・ネットワークに学習を行わせる学習手段,上記ニ
ューラル・ネットワークの中間層のノードの出力と,上
記教師データに基づいて作成された上記特徴量とがどの
程度類似しているかを表す類似度をそれぞれ算出し,こ
れらの類似度に基づいて上記複数の特徴量の中から1つ
の特徴量を有効特徴量として選択するとともに,この有
効特徴量に対応する中間層のノードを上記有効特徴量を
入力するための入力ノードに置換える構造変更手段,お
よび上記教師データと上記有効特徴量を用いたニューラ
ル・ネットワークの学習を上記学習手段に,有効特徴量
の選択および入力ノードの置換とを上記構造変更手段に
繰返し行わせる制御手段を備えている。
A neural network system according to the present invention is a neural network including an input layer including a plurality of nodes, a single or a plurality of intermediate layers including a plurality of nodes, and an output layer including the same number of nodes as the input layer. Network, learning means for causing the neural network to perform learning so that the output of the neural network when the inputted teacher data is inputted to the neural network becomes equal to the teacher data, The similarity representing the degree of similarity between the output of the node in the middle layer and the feature quantity created based on the teacher data is calculated, and the similarity of the plurality of feature quantities is calculated based on these similarities. One of the features is selected as an effective feature and the effective feature is The structure changing means for replacing the node in the middle layer with the input node for inputting the effective feature quantity, and the learning means for learning the neural network using the teacher data and the effective feature quantity The control means is provided for causing the structure changing means to repeatedly perform the selection and the replacement of the input node.

【0015】この発明によると,複数のノードを含む入
力層と,複数のノードを含む一層または複数層の中間層
と,入力層と同数のノードを含む出力層とからなるニュ
ーラル・ネットワークがあらかじめ設けられている。入
力される教師データに基づいて複数の特徴量があらかじ
め作成される。この教師データをニューラル・ネットワ
ークに入力したときのニューラル・ネットワークの出力
が入力される教師データに等しくなるようにニューラル
・ネットワークに学習が行われる。ニューラル・ネット
ワークの中間層のノードの出力と特徴量とがどの程度類
似しているかを表す類似度がそれぞれ算出される。これ
らの類似度に基づいて複数の特徴量の中から1つの特徴
量が有効特徴量として選択されるとともに,この有効特
徴量に対応する中間層のノードが有効特徴量を入力する
ための入力ノードに置換えられる。中間層のノードが特
徴量の入力ノードに置換えられることによって,その入
力ノードとその前の層のノードとの結合が無くなり,ニ
ューラル・ネットワークの学習において演算量が少なく
なる。教師データと上記有効特徴量を用いたニューラル
・ネットワークの学習と,有効特徴量の選択および入力
ノードへの置換とが繰返し行われる。
According to the present invention, a neural network including an input layer including a plurality of nodes, a one-layer or a plurality of intermediate layers including a plurality of nodes, and an output layer including the same number of nodes as the input layer is provided in advance. Has been. A plurality of feature quantities are created in advance based on the input teacher data. The neural network is trained so that the output of the neural network when the teacher data is input to the neural network becomes equal to the input teacher data. Similarities representing the degree of similarity between the output of the node in the middle layer of the neural network and the feature amount are calculated. Based on these similarities, one feature quantity is selected from the plurality of feature quantities as an effective feature quantity, and an intermediate node corresponding to this effective feature quantity is an input node for inputting the effective feature quantity. Is replaced by By replacing the node in the middle layer with the input node of the feature amount, the connection between the input node and the node in the previous layer is eliminated, and the amount of calculation is reduced in learning of the neural network. Learning of a neural network using teacher data and the above-mentioned effective feature amount, selection of the effective feature amount, and replacement with an input node are repeated.

【0016】したがって,中間層のノードが有効特徴量
の入力ノードに置換えられることによって入力ノードと
その前の層のノードとの結合が無くなるので,その結合
が減少量に相当する学習の演算量が減るので,ニューラ
ル・ネットワークの学習を高速に行うことができる。ま
た複数の特徴量の中から有効な特徴量を自動的に選択す
ることができる。
Therefore, since the node in the middle layer is replaced with the input node of the effective feature amount, the connection between the input node and the node in the previous layer is eliminated, so that the amount of calculation of learning corresponding to the decrease in the connection is reduced. Since the number is reduced, the neural network can be learned at high speed. Also, an effective feature amount can be automatically selected from a plurality of feature amounts.

【0017】このようにして選択された有効特徴量は,
ファジィ・システム,GA(ジェネティック・アルゴリ
ズム),ニューラル・ネットワーク等を用いた知的推論
システムの入力として用いられる。
The effective feature amount thus selected is
It is used as an input for an intelligent inference system using a fuzzy system, GA (genetic algorithm), neural network, etc.

【0018】この発明の一実施態様においては,入力層
の各ノードについてそのノードがどの程度その後の層に
寄与しているかを表す寄与度を算出し,これらの寄与度
のすべてが所定の閾値以下になったときに,上記ニュー
ラル・ネットワークの学習と有効特徴量の選択および入
力ノードへの置換とを終了する。
According to one embodiment of the present invention, for each node in the input layer, a contribution representing how much the node contributes to the subsequent layer is calculated, and all of these contributions are equal to or less than a predetermined threshold value. When, the learning of the neural network, the selection of the effective feature amount, and the replacement with the input node are completed.

【0019】この発明の好ましい実施態様においては,
有効特徴量として選択されるべき1または複数の特徴量
を入力するための入力ノードを上記ニューラル・ネット
ワークの中間層にあらかじめ設けられる。
In a preferred embodiment of the present invention,
An input node for inputting one or a plurality of feature quantities to be selected as effective feature quantities is provided in advance in the middle layer of the neural network.

【0020】この実施態様によると,有効特徴量として
選択されるべき特徴量がニューラル・ネットワークにあ
らかじめ設けられるので,必要な有効特徴量を選択する
ことができる。
According to this embodiment, since the feature quantity to be selected as the effective feature quantity is provided in the neural network in advance, the necessary effective feature quantity can be selected.

【0021】この発明のさらに好ましい実施態様におい
ては,上記ニューラル・ネットワークの中間層のノード
について,そのノードがどの程度その後の層に寄与して
いるかを表す寄与度をそれぞれ算出し,この寄与度およ
び上記類似度に基づいて上記有効特徴量を選択するもの
である。
[0021] In a further preferred aspect of the present invention, with respect to the nodes in the intermediate layer of the neural network, the contributions representing how much the node contributes to the subsequent layers are calculated, and the contributions and the contributions are calculated. The effective feature amount is selected based on the similarity.

【0022】この実施態様によると,寄与度と類似度に
基づいて有効特徴量が選択される。たとえば,寄与度が
大きいノードの中で類似度が最も大きい特徴量が有効特
徴量として選択される。
According to this embodiment, the effective feature quantity is selected based on the contribution degree and the similarity degree. For example, among the nodes having a large contribution, the feature having the highest similarity is selected as the effective feature.

【0023】[0023]

【実施例】図1は,ジャケット・タンクの温度制御シス
テムの全体的な構成を示すブロック図である。この温度
制御システムは,所定の品質の製品を生産するために,
タンク内の原料(生成された製品を含む)の温度を所定
の目標温度になるように制御するものである。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENT FIG. 1 is a block diagram showing the overall construction of a jacket tank temperature control system. This temperature control system, in order to produce a product of a certain quality,
The temperature of the raw materials (including the produced product) in the tank is controlled to reach a predetermined target temperature.

【0024】生産を行うときには,原料Bをタンク1内
にあらかじめ投入しておき,その後原料Aがタンク1内
に投入され,原料Aと原料Bとが化学反応することによ
って製品Cが得られる。
At the time of production, the raw material B is put in the tank 1 in advance, the raw material A is then put in the tank 1, and the raw material A and the raw material B are chemically reacted to obtain the product C.

【0025】原料が投入されるタンク1には,それを取
巻くようにジャケット2が設けられ,そのジャケット2
内には冷水(常温),水蒸気または冷水と水蒸気を混合
した温水が流入する。またタンク1内が攪拌器7により
攪拌される。
The tank 1 into which the raw material is put is provided with a jacket 2 so as to surround it, and the jacket 2
Cold water (normal temperature), steam, or hot water in which cold water and steam are mixed flows into the inside. Further, the inside of the tank 1 is agitated by the agitator 7.

【0026】タンク1内の温度(これを内温という)
と,ジャケット2内の温度(これを外温という)とがそ
れぞれ,温度センサ(図示略)によって検出され,内温
を表す内温信号および外温を表す外温信号がコントロー
ラ6に入力される。バルブ開度信号がコントローラ6か
らバルブ3および4にそれぞれ出力されることにより,
冷水および水蒸気の流量がバルブ3および4によってそ
れぞれ調整される。冷水または水蒸気がジャケット2に
流入することによって,タンク1内の原料を冷却または
加熱することができる。
Temperature in the tank 1 (this is called internal temperature)
And a temperature inside the jacket 2 (this is called an outside temperature) are respectively detected by a temperature sensor (not shown), and an inside temperature signal indicating the inside temperature and an outside temperature signal indicating the outside temperature are input to the controller 6. . By outputting the valve opening signal from the controller 6 to the valves 3 and 4, respectively,
The flow rates of cold water and steam are adjusted by valves 3 and 4, respectively. By flowing cold water or steam into the jacket 2, the raw material in the tank 1 can be cooled or heated.

【0027】またタンク1に投入される原料(これを原
料Aという)の投入量がバルブ5により調整される。原
料Aの投入量がセンサ(図示略)によって検出され,そ
の投入量を表す投入量信号がコントローラ6に入力され
る。さらに投入される原料Aの温度が温度センサ(図示
略)によって検出され,その温度を表す原料温度がコン
トローラ6に入力される。
Further, the amount of the raw material (which is referred to as the raw material A) input to the tank 1 is adjusted by the valve 5. An input amount of the raw material A is detected by a sensor (not shown), and an input amount signal representing the input amount is input to the controller 6. Further, the temperature of the supplied raw material A is detected by a temperature sensor (not shown), and the raw material temperature representing the temperature is input to the controller 6.

【0028】ジャケット2の辺りの気温(外気温)もま
た温度センサ(図示略)によって検出され,その外気温
を表す外気温信号がコントローラ6に入力される。
The temperature around the jacket 2 (outside temperature) is also detected by a temperature sensor (not shown), and an outside temperature signal representing the outside temperature is input to the controller 6.

【0029】原料Aと原料Bとの化学反応は発熱反応で
あり,この発熱によりタンク1内の温度が上がる。原料
Aの投入量が多すぎると発熱量が大きくなりジャケット
2の冷却能力を超え,タンク1内の温度を目標温度に制
御することができなくなる。したがって,発熱量を少な
くするため原料Aの投入量を制御する必要がある。
The chemical reaction between the raw material A and the raw material B is an exothermic reaction, and this heat generation raises the temperature in the tank 1. If the input amount of the raw material A is too large, the amount of heat generation increases, which exceeds the cooling capacity of the jacket 2 and the temperature inside the tank 1 cannot be controlled to the target temperature. Therefore, it is necessary to control the input amount of the raw material A in order to reduce the heat generation amount.

【0030】図2は製品の一回の生産におけるタンク1
内の内温,ジャケット2内の外温および原料Aの投入量
のグラフの一例を示している。原料Aが投入されると原
料AとBが化学反応を開始し内温が上がり始める。内温
を目標温度に保つため,すなわち,タンク1内を冷却す
るため,ジャケット2内に冷水が流入し外温が下がる。
ジャケット2に流入する冷水が最大になっても(冷却能
力が最大になっても)内温が上がるため,タンク1内の
発熱反応を抑えるように原料Aの投入量が減らされ,内
温が目標温度に近づけるように制御される。その後,内
温が下がると再び原料Aの投入量を増やし,反応を増大
させる。
FIG. 2 shows a tank 1 in one production of a product.
An example of a graph of the internal temperature of the inside, the external temperature of the jacket 2 and the input amount of the raw material A is shown. When the raw material A is charged, the raw materials A and B start a chemical reaction and the internal temperature starts to rise. In order to keep the internal temperature at the target temperature, that is, to cool the inside of the tank 1, cold water flows into the jacket 2 and the external temperature decreases.
Even if the amount of cold water flowing into the jacket 2 is maximized (even if the cooling capacity is maximized), the internal temperature rises, so the input amount of the raw material A is reduced so as to suppress the exothermic reaction in the tank 1, and the internal temperature increases. The temperature is controlled to approach the target temperature. After that, when the internal temperature is lowered, the amount of the raw material A added is increased again to increase the reaction.

【0031】このように,内温を目標温度に制御するた
めには,タンク1内に投入する原料Aの投入量と,ジャ
ケット2に流入する冷水および水蒸気の流量とをコント
ローラ6によって調整しなけれはならないが,タンク1
内がジャケット2により最大冷却されるため,外温(ジ
ャケット2内の温度)を必ずしも制御しなくてもよい。
したがって,上述のように,内温,外温,外気温,投入
量および原料温度がコントローラ6に入力されるが,こ
れらのすべてを制御に用いる必要はない。また内温を目
標温度に制御するためにはタンク1内の発熱反応を考慮
しなければならないため,内温,外温,外気温,投入量
および原料温度に基づいて制御のための特徴量を作成す
る必要がある。内温,外温,外気温,投入量および原料
温度に基づく特徴量には,たとえば次の50個が挙げられ
る。
As described above, in order to control the internal temperature to the target temperature, the amount of the raw material A charged into the tank 1 and the flow rates of cold water and steam flowing into the jacket 2 must be adjusted by the controller 6. Not, but tank 1
Since the inside is maximally cooled by the jacket 2, the outside temperature (the temperature inside the jacket 2) does not necessarily have to be controlled.
Therefore, as described above, the internal temperature, the external temperature, the external temperature, the input amount, and the raw material temperature are input to the controller 6, but it is not necessary to use all of them for control. Further, in order to control the internal temperature to the target temperature, it is necessary to consider the exothermic reaction in the tank 1. Therefore, the characteristic amount for control is determined based on the internal temperature, the external temperature, the external temperature, the input amount and the raw material temperature. Need to create. The feature values based on the inside temperature, the outside temperature, the outside temperature, the input amount, and the raw material temperature include, for example, the following 50 items.

【0032】1)内温 2)外温 3)原料投入量 4)〜9)内温の現在とN分前との差(N=1,2,5,10,20,5
0) 10)〜15)外温の現在とN分前との差(N=1,2,5,10,20,5
0) 16)〜21)投入量の現在とN分前との差(N=1,2,5,10,2
0,50) 22)反応開始からの経過時間 23)反応開始からの内温の積分値 24)反応開始からの投入量の積分値 25)〜28)反応開始からN分後から内温の積分値(N=10,
20,50,100) 29)〜32)反応開始からN分後から投入量の積分値(N=1
0,20,50,100) 33)〜36)N分前から現在の内温の積分値(N=10,20,50,
100) 37)〜40)N分後から現在の投入量の積分値(N=10,20,5
0,100) 41)〜44)内温が(目標温度-M度)を最初に越えるまで
の時間(M=5,10,15,20) 45)〜48)内温が(目標温度-M度)を越えてからの経過
時間(M=5,10,15,20) 49)原料Aの投入前の原料温度 50)外気温
1) Internal temperature 2) External temperature 3) Raw material input 4) -9) Difference between the present internal temperature and N minutes before (N = 1,2,5,10,20,5)
0) 10) ~ 15) Difference between outside temperature and current N minutes ago (N = 1,2,5,10,20,5
0) 16) ~ 21) Difference between the current input amount and N minutes ago (N = 1,2,5,10,2
0,50) 22) Elapsed time from the start of the reaction 23) Integrated value of the internal temperature from the start of the reaction 24) Integrated value of the input amount from the start of the reaction 25) to 28) Integration of the internal temperature from N minutes after the start of the reaction Value (N = 10,
20,50,100) 29) ~ 32) N minutes after the start of the reaction, the integrated value (N = 1
0,20,50,100) 33) to 36) N minutes before the present internal temperature integrated value (N = 10,20,50,
100) 37) ~ 40) N minutes later, the integrated value of the current input amount (N = 10,20,5
0,100) 41) ~ 44) Time until the internal temperature first exceeds (Target temperature-M degrees) (M = 5,10,15,20) 45) ~ 48) Internal temperature is (Target temperature-M degrees) (M = 5,10,15,20) 49) Raw material temperature before input of raw material A 50) Outside temperature

【0033】これらの特徴量の中には制御に不要なもの
または冗長なものがあり,それらの特徴量の中から有効
な特徴量(これを有効特徴量という)を選択する。有効
特徴量は,以下説明するニューラル・ネットワークを用
いた特徴量選択装置により選択する。この特徴量選択装
置は,ニューラル・ネットワークの中間層のノード(ニ
ューロン)の振舞いが,入力層のノードの振舞いよりも
出力層のノードに対して圧縮された密度の高い情報をも
つことに着目したものである。
Some of these feature quantities are unnecessary or redundant for control, and an effective feature quantity (this is called an effective feature quantity) is selected from these feature quantities. The effective feature amount is selected by a feature amount selecting device using a neural network described below. In this feature quantity selection device, we paid attention to the fact that the behavior of the nodes (neurons) in the middle layer of the neural network has a higher density of compressed information for the nodes of the output layer than the behavior of the nodes of the input layer. It is a thing.

【0034】センサによって検出されたセンサ出力(以
下,これをシステム出力という)を教師データ)として
これに基づくニューラル・ネットワークの学習を行う
と,中間層のノードの中には出力層のノードの振舞いと
同一でなくかつ相関性をもつものが現れる。この中間層
のノードの振舞いと類似した振舞いをする特徴量が特徴
量の候補の中から見付かれば,その特徴量は有効特徴量
である。
When the neural network is trained based on the sensor output detected by the sensor (hereinafter referred to as system output) as teacher data, the behavior of the nodes in the output layer is included in the nodes in the intermediate layer. Something that is not the same as and has a correlation appears. If a feature quantity that behaves similarly to the behavior of the node in the middle layer is found from the feature quantity candidates, the feature quantity is an effective feature quantity.

【0035】図3は,ニューラル・ネットワークを用い
た特徴量選択装置の詳細な構成を示す機能ブロック図で
ある。特徴量選択装置は,ニューラル・ネットワーク
(NN)11,類似度算出処理12,寄与度算出処理13,特
徴量決定処理14およびニューラル・ネットワーク(N
N)構造変更処理15を含んでいる。
FIG. 3 is a functional block diagram showing a detailed structure of a feature quantity selection device using a neural network. The feature amount selection device includes a neural network (NN) 11, a similarity degree calculation process 12, a contribution degree calculation process 13, a feature amount determination process 14, and a neural network (N
N) Includes structure modification processing 15.

【0036】この特徴量選択装置は,コンピュータとそ
の上で動作するソフトウェアとにより実現される。この
特徴量選択装置はまた,そのすべてをハードウェアによ
り実現することもできる。さらにこの特徴量選択装置の
一部をハードウェアにより実現し,その他の一部をソフ
トウェアにより実現することもできる。
This feature amount selection device is realized by a computer and software operating on the computer. This feature amount selection device can also be realized entirely by hardware. Further, a part of the feature amount selection device can be realized by hardware and the other part can be realized by software.

【0037】NN11はアーティフィシャル・ニューラル
・ネットワーク(以下,単にNNという)と,入力され
る教師データに基づくNNの学習を行う学習処理を含
む。
The NN11 includes an artificial neural network (hereinafter, simply referred to as NN) and a learning process for learning the NN based on the input teacher data.

【0038】図4はNNの構造の一例を示す。たとえば
ホップフィールド・タイプのNNである。NNは入力
層,3層の中間層および出力層を含んでいる。入力層と
出力層はシステム出力の数と同じノード(ニューロン)
が設けられる。たとえば上述のシステムではシステム出
力は5である。中間層は各層が6個のノードをもつ。中
間層は3層に限られず,1層,2層または4層以上設け
てもよく,各層のノードの数も6個よりも少なくしても
よいし,多くしてもよい。中間層の数および各層のノー
ドの数は,学習の収束の速さおよびその安定性と,教師
データへの追従性とを考慮して,入力層のノードの数に
基づいて決定される。
FIG. 4 shows an example of the structure of the NN. For example, a Hopfield type NN. The NN includes an input layer, three intermediate layers and an output layer. Input layer and output layer have the same number of nodes (neurons) as the number of system outputs
Is provided. For example, in the system described above, the system output is 5. The middle layer has 6 nodes in each layer. The number of intermediate layers is not limited to three, and one layer, two layers, or four or more layers may be provided, and the number of nodes in each layer may be less than or more than six. The number of intermediate layers and the number of nodes in each layer are determined based on the number of nodes in the input layer, in consideration of the speed of convergence of learning and its stability, and the followability to the teacher data.

【0039】中間層を入力層側から順に第1中間層,第
2中間層および第3中間層とし,入力層から出力層まで
順に第i(i=1〜5)層とする,すなわち,入力層,第1中
間層,第2中間層,第3中間層および出力層をそれぞ
れ,第1層,第2層,第3層,第4層および第5層とす
る。第i層の第j番のノードをNi,j で表し,各層のノ
ード数をJi で表す。第i層の第k番のノードNi,k
出力をUi,k とし,第i層の第j番のノードNi,j とそ
の後の第(i+1)層の第k番のノードNi+1,kとの結
合度をWi+1,j,k とする。
The intermediate layers are the first intermediate layer, the second intermediate layer, and the third intermediate layer in order from the input layer side, and the i-th (i = 1 to 5) layer in order from the input layer to the output layer, that is, the input The layer, the first intermediate layer, the second intermediate layer, the third intermediate layer, and the output layer are referred to as a first layer, a second layer, a third layer, a fourth layer, and a fifth layer, respectively. The j-th node in the i-th layer is represented by N i, j , and the number of nodes in each layer is represented by J i . The output of the k-th node N i, k of the i-th layer is U i, k, and the j-th node N i, j of the i- th layer and the subsequent k-th node N of the (i + 1) -th layer The degree of coupling with i + 1, k is W i + 1, j, k .

【0040】NN11に含まれる学習処理はたとえば誤差
逆伝搬法によるNNの学習を行う。学習処理はその他の
学習方法によりNNを学習してもよい。
The learning processing included in NN11 is to perform NN learning by the error back propagation method, for example. In the learning process, the NN may be learned by another learning method.

【0041】図5および図6は特徴量選択装置における
有効特徴量の選択処理の手順を示すフロー・チャートで
ある。
FIGS. 5 and 6 are flow charts showing the procedure of the effective feature amount selection processing in the feature amount selection device.

【0042】NN11において,システム出力(教師デー
タ)のそれぞれを入力層のノードにそれぞれ入力すると
ともに,出力層の各ノードの出力が対応するシステム出
力に一致するように学習が行われる(ステップ21)。
In NN11, each system output (teacher data) is input to each node of the input layer, and learning is performed so that the output of each node of the output layer matches the corresponding system output (step 21). .

【0043】このNNの学習には,G組の教師データ
(システム出力)が用いられる。これらのシステム出力
に基づいて特徴量Vh (h=1〜H;Hは特徴量候補の
総数)がそれぞれ算出されている。第g組の第h番の特
徴量をYh,g で表す。また,第g組のシステム出力に基
づく学習の結果得られる第i層の第j番のノードNi,j
の出力をUi,j,g で表す。
G learning data (system output) is used for learning the NN. The feature amount V h (h = 1 to H; H is the total number of feature amount candidates) is calculated based on these system outputs. The h-th feature amount of the g-th group is represented by Y h, g . Also, the j-th node N i, j of the i- th layer obtained as a result of learning based on the system output of the g-th set
Is represented by U i, j, g .

【0044】寄与度算出処理12において,中間層(i=
2〜4)の第j番のノードNi,j がその後の層(出力層
側)の第k番のノードNi+1,k にどの程度寄与している
かを表す寄与度Di,j が,学習により最終的に得られた
結合度wi+1,j,k に基づいて次式により算出される(ス
テップ22)。
In the contribution degree calculation process 12, the intermediate layer (i =
2-4) contribution degree D i, j indicating how much the j-th node N i, j contributes to the k-th node N i + 1, k of the subsequent layer (output layer side) Is calculated by the following formula based on the coupling degree w i + 1, j, k finally obtained by learning (step 22).

【0045】[0045]

【数1】 [Equation 1]

【0046】式(1) は結合度の自乗和を寄与度としてい
る。
Equation (1) uses the sum of squares of the coupling degree as the contribution degree.

【0047】寄与度Di,j は式(1) の代わりに,式(2)
または(3) のいずれか一方を用いてもよい。
The contribution D i, j is obtained by using the equation (2) instead of the equation (1).
Alternatively, either one of (3) may be used.

【0048】[0048]

【数2】 [Equation 2]

【0049】[0049]

【数3】 (Equation 3)

【0050】式(2) は結合度が最大のものを寄与度と
し,式(3) は結合度の自乗が最大のものを寄与度として
いる。
In the equation (2), the contribution degree is the one having the maximum coupling degree, and in the equation (3), the contribution degree is the one having the maximum square of the coupling degree.

【0051】類似度はその他の方法により算出すること
ができる。寄与度Di,j は寄与度算出処理12から特徴量
決定処理14に与えられる。
The degree of similarity can be calculated by other methods. The contribution degree D i, j is given from the contribution degree calculation processing 12 to the feature amount determination processing 14.

【0052】各中間層(i=2〜4)の第j番のノード
i,j の出力Ui,j,g と,第h番の特徴量候補Yh,g
がどの程度類似しているかを表す類似度h,i,j が類似度
算出処理13において次式により算出される(ステップ2
3)。
The degree of similarity between the output U i, j, g of the j-th node N i, j in each intermediate layer (i = 2 to 4) and the h-th feature candidate Y h, g The similarity h, i, j indicating whether or not there is calculated is calculated by the following equation in the similarity calculation processing 13 (step 2
3).

【0053】[0053]

【数4】 [Equation 4]

【0054】式(4) はG組のノードの出力と特徴量との
差の総和を表している。
Expression (4) represents the total sum of the differences between the outputs of the G nodes and the feature quantities.

【0055】類似度はその他の方法により算出すること
ができる。類似度Ch,i,j は類似度算出処理13から特徴
量選択処理14に与えられる。
The degree of similarity can be calculated by other methods. The similarity C h, i, j is given to the feature amount selection processing 14 from the similarity calculation processing 13.

【0056】特徴量選択処理14において,寄与度算出処
理12において算出された寄与度Di, j と類似度算出処理
13において算出された類似度Ch,i,j とに基づいて,1
つの有効特徴量とこれを入力する中間層のノードとが次
のようにして選択される(ステップ24)。
In the feature amount selection processing 14, the contribution degree D i, j calculated in the contribution degree calculation processing 12 and the similarity degree calculation processing
1 based on the similarity C h, i, j calculated in 13
One effective feature quantity and the node in the middle layer to which it is input are selected as follows (step 24).

【0057】類似度Ch,i,j が一定値Thc以上をもつノ
ードとこれに対応する特徴量とが見付け出される。それ
らのノードの中で寄与度Di,j が最大のノードが選択さ
れ,そのノードの寄与度Di,j が一定値Thd以上であれ
ば,そのノードとこれに対応する特徴量が有効特徴量と
して選択される。
A node having a similarity C h, i, j having a constant value Thc or more and a feature quantity corresponding to the node are found. Contribution D i among those nodes, j is selected maximum nodes, contribution D i of the node, if j is a constant value Thd or more, the feature is enabled features corresponding to its node Selected as quantity.

【0058】類似度Ch,i,j が一定値Thc以上をもつノ
ードと特徴量がなければ,寄与度が大きい順に所定数の
ノードが選択され,それらのノードの中で類似度が最大
のノードとこれに対応する特徴量が有効特徴量として選
択される。
If there is no node having a similarity C h, i, j having a constant value Thc or more and no feature quantity, a predetermined number of nodes are selected in descending order of contribution, and the similarity is maximum among those nodes. The node and the feature amount corresponding to the node are selected as the effective feature amount.

【0059】また上述の有効特徴量の選択に代えて,類
似度と特徴量とに基づく信頼度が最大となるノードとこ
れに対応する特徴量を有効特徴量として選択するように
してもよい。
Instead of selecting the above-mentioned effective feature quantity, the node having the maximum reliability based on the similarity and the feature quantity and the feature quantity corresponding thereto may be selected as the effective feature quantity.

【0060】信頼度Ch,i,j は次式により算出される。The reliability C h, i, j is calculated by the following equation.

【0061】 Ch,i,j =Lh,i,j ×Di,j …(5) C h, i, j = L h, i, j × D i, j (5)

【0062】信頼度はまた,式(5) に代えて次式により
算出してもよい。
The reliability may be calculated by the following equation instead of the equation (5).

【0063】[0063]

【数5】 (Equation 5)

【0064】[0064]

【数6】 (Equation 6)

【0065】[0065]

【数7】 (Equation 7)

【0066】有効特徴量とこれに対応するノードはその
他の方法により選択してもよい。
The effective feature quantity and the corresponding node may be selected by other methods.

【0067】有効特徴量とこれに対応する中間層のノー
ドを表わすデータとが特徴量決定処理14からNN更新処
理15に与えられる。
The effective feature amount and the data representing the corresponding intermediate layer node are given from the feature amount determining process 14 to the NN updating process 15.

【0068】NN更新処理15において,特徴量選択処理
14により選択された中間層のノードとその前の層のノー
ドとの結合がすべて削除され,そのノードがこれに対応
する有効特徴量を入力するための入力ノードとすること
により,NN11に含まれるNNの構造が変更される(ス
テップ25,26)。たとえば,図8は第2中間層(第3
層)の第1番のノードN3,1 が有効特徴量V1 を入力す
るための入力ノードに変更された様子を示している。
In the NN update process 15, feature amount selection process
It is included in NN11 by deleting all the connections between the nodes in the middle layer selected by 14 and the nodes in the previous layer, and making that node an input node for inputting the corresponding effective feature quantity. The structure of the NN is changed (steps 25 and 26). For example, FIG. 8 shows the second intermediate layer (third
The first node N 3,1 in the (layer) is changed to an input node for inputting the effective feature amount V 1 .

【0069】入力層(i=1)の各ノードについて上記
式(1) にしたがって寄与度が算出され(ステップ27),
この寄与度に基づいて有効特徴量の組合わせが確定した
かどうかが判定される(ステップ28)。たとえば,寄与
度がすべて所定値以下になったかどうかによって有効特
徴量の組合わせが確定したかどうかが判定される。
For each node in the input layer (i = 1), the contribution is calculated according to the above equation (1) (step 27),
Based on this contribution, it is judged whether or not the combination of effective feature amounts has been decided (step 28). For example, it is determined whether or not the combination of effective feature quantities has been decided depending on whether or not the contributions have all fallen below a predetermined value.

【0070】有効特徴量の組合わせが確定していないと
判定されると(ステップ28でNO),システム出力(教師
データ)を入力層に入力し,選択された有効特徴量をそ
の入力ノードに入力してニューラル・ネットワークの学
習が行われる(ステップ31)。その後ステップ22に戻
り,ステップ22〜28の処理が行われる。
When it is determined that the combination of effective feature amounts is not fixed (NO in step 28), the system output (teaching data) is input to the input layer, and the selected effective feature amount is input to the input node. Neural network learning is performed by inputting (step 31). After that, the process returns to step 22 and the processes of steps 22 to 28 are performed.

【0071】ステップ28において有効特徴量の組合わせ
が確定したと判定されると(ステップ28でYES ),入力
層のノードがすべて削除される(ステップ29)。入力層
のノードが削除されることによって,それらのノードと
次の中間層のノードとの結合がすべて削除される。さら
に第1中間層から第3中間層について前の層のノードか
らの結合が全くない中間層のノードが削除される(ステ
ップ30)。
When it is determined in step 28 that the combination of effective feature amounts has been determined (YES in step 28), all the nodes in the input layer are deleted (step 29). By deleting the nodes in the input layer, all the connections between those nodes and the nodes in the next middle layer are deleted. Further, the nodes of the middle layer that have no connection from the nodes of the previous layer for the first to third middle layers are deleted (step 30).

【0072】このようにして有効特徴量が選択される。
たとえば図8は4つの有効特徴量V1,V2,V22およびV
24が選択されている。
In this way, the effective feature amount is selected.
For example, FIG. 8 shows four effective feature quantities V 1 , V 2 , V 22 and V.
24 is selected.

【0073】有効特徴量として選択されるべき特徴量
(これを確定特徴量という)がある場合,この確定特徴
量を入力するための入力ノードがあらかじめ加わえられ
たNNを用いて有効特徴量を選択する処理手順を示すフ
ロー・チャートが図9,図10および図11に示されてい
る。図5および図6に示す処理と同一処理には同一符号
を付し詳細な説明を省略する。
If there is a feature quantity to be selected as an effective feature quantity (this is called a deterministic feature quantity), the effective feature quantity is calculated using an NN to which an input node for inputting this deterministic feature quantity is added in advance. Flow charts showing the processing procedure to be selected are shown in FIGS. 9, 10 and 11. The same processes as those shown in FIG. 5 and FIG.

【0074】確定特徴量を入力するための入力ノードが
NNに追加される(ステップ41)。図12は図4に示すN
Nの構造に確定特徴量V1 を追加したNNの構造を示し
ている。
An input node for inputting the definite feature amount is added to the NN (step 41). FIG. 12 shows N shown in FIG.
The structure of NN in which the definite feature amount V 1 is added to the structure of N is shown.

【0075】NN11において,システム出力と確定特徴
量とを用いて確定特徴量が追加されたNNについて学習
が行われる(ステップ42)。
In the NN11, learning is performed on the NN to which the definite feature quantity is added by using the system output and the definite feature quantity (step 42).

【0076】各中間層の各ノードについて寄与度および
類似度が算出され(ステップ22,23),1つの有効特徴
量と入力ノードとが選択される(ステップ24)。中簡層
のノードが入力ノードに変更されることによりNNの構
造が変更され(ステップ25),その入力ノードとその前
の層のノードとの結合が削除される(ステップ26)。
The degree of contribution and the degree of similarity are calculated for each node in each intermediate layer (steps 22 and 23), and one effective feature amount and one input node are selected (step 24). The structure of the NN is changed by changing the node in the medium-simplified layer to the input node (step 25), and the connection between the input node and the node in the previous layer is deleted (step 26).

【0077】NN構造変更処理15において,ステップ26
において変更されたNNの構造が記憶される(ステップ
43)。このNNの構造を第1構造という。
In the NN structure change processing 15, step 26
The structure of the NN modified in is stored (step
43). This NN structure is called the first structure.

【0078】入力層のすべてのノードが削除され(ステ
ップ44),さらに前の層のノードからの結合がない中間
層のノードが削除される(ステップ45)。この入力層の
ノードと中間層のノードとが削除されたNNの構造を第
2構造という。
All the nodes of the input layer are deleted (step 44), and the nodes of the intermediate layer which have no connection from the nodes of the previous layer are deleted (step 45). The NN structure in which the nodes of the input layer and the nodes of the intermediate layer are deleted is referred to as a second structure.

【0079】第2構造について,システム出力に加えて
確定特徴量および有効特徴量を入力とし,システム出力
を教師データとしてNNの学習が行われる(ステップ4
6)。この学習は,有効特徴量を入力ノードから入力
し,NNの各出力が対応する教師データに近づくように
行われる。
For the second structure, NN learning is performed using the system output as well as the deterministic feature amount and the effective feature amount as input and using the system output as teacher data (step 4).
6). This learning is performed so that the effective feature amount is input from the input node and each output of the NN approaches the corresponding teacher data.

【0080】NNの出力とシステム出力との誤差が算出
され(ステップ47),その誤差が充分に小さいか,すな
わち誤差があらかじめ設定された充分小さい閾値ε以下
でかるかが判断される(ステップ48)。
An error between the NN output and the system output is calculated (step 47), and it is determined whether the error is sufficiently small, that is, the error is less than a preset sufficiently small threshold value ε (step 48). ).

【0081】誤差が閾値ε以下であるときには(ステッ
プ48でYES ),有効特徴量の選択を終了することにな
る。
When the error is equal to or less than the threshold value ε (YES in step 48), the selection of the effective feature amount is ended.

【0082】誤差が閾値εを超えたときには(ステップ
48でNO),NNの構造が第2構造からステップ41におい
て記憶されたNNの第1構造に戻され(ステップ49),
この第1構造のNNの結合度のうち,第2構造に対応す
る第1構造の結合の結合度がステップ46において学習さ
れた第2構造における結合度に変更される(ステップ5
3)。
When the error exceeds the threshold value ε (step
48 NO), the structure of the NN is returned from the second structure to the first structure of the NN stored in step 41 (step 49),
Among the NN coupling degrees of the first structure, the coupling degree of the first structure corresponding to the second structure is changed to the coupling degree of the second structure learned in step 46 (step 5
3).

【0083】その後,システム出力,確定特徴量および
有効特徴量を入力とし,NNの出力がシステム出力にな
るように,第1構造のNNの学習が行われ(ステップ5
1),ステップ22に戻り,ステップ22〜48の処理が繰返
し行われる。
After that, the NN of the first structure is learned so that the system output, the definite feature quantity and the effective feature quantity are input, and the output of the NN becomes the system output (step 5
1), the process returns to step 22, and the processes of steps 22 to 48 are repeated.

【0084】このようにして有効特徴量を選択すること
ができる。
In this way, the effective feature amount can be selected.

【図面の簡単な説明】[Brief description of drawings]

【図1】ジャケット・タンクの温度制御システムの全体
的構成を示すブロック図である。
FIG. 1 is a block diagram showing an overall configuration of a temperature control system for a jacket tank.

【図2】製品の一回の生産におけるタンク内の温度,ジ
ャケット内の温度および原料の投入量のグラフである。
FIG. 2 is a graph of the temperature in the tank, the temperature in the jacket, and the input amount of raw materials in one production of the product.

【図3】特徴量選択装置の詳細な構成を示す機能ブロッ
ク図である。
FIG. 3 is a functional block diagram showing a detailed configuration of a feature amount selection device.

【図4】NNの構造の一例を示す。FIG. 4 shows an example of the structure of an NN.

【図5】有効特徴量の選択処理の手順を示すフロー・チ
ャートである。
FIG. 5 is a flow chart showing a procedure of effective feature amount selection processing.

【図6】有効特徴量の選択処理の手順を示すフロー・チ
ャートである。
FIG. 6 is a flow chart showing a procedure of effective feature amount selection processing.

【図7】1つの有効特徴量とこれを入力するための中間
層のノードが選択されたNNの構造を示す。
FIG. 7 shows a structure of an NN in which one effective feature quantity and a node in the middle layer for inputting the effective feature quantity are selected.

【図8】有効特徴量の組合わせが確定したNNの構造を
示す。
FIG. 8 shows a structure of an NN in which a combination of effective feature amounts is fixed.

【図9】1つの確定特徴量をNNに追加した場合の有効
特徴量の選択処理の手順を示すフロー・チャートであ
る。
FIG. 9 is a flowchart showing a procedure of effective feature amount selection processing when one definite feature amount is added to the NN.

【図10】1つの確定特徴量をNNに追加した場合の有
効特徴量の選択処理の手順を示すフロー・チャートであ
る。
FIG. 10 is a flowchart showing a procedure of effective feature amount selection processing when one definite feature amount is added to the NN.

【図11】1つの確定特徴量をNNに追加した場合の有
効特徴量の選択処理の手順を示すフロー・チャートであ
る。
FIG. 11 is a flowchart showing a procedure of effective feature amount selection processing when one definite feature amount is added to the NN.

【図12】1つの確定特徴量をNNに追加したNNの構
造の一例を示す。
FIG. 12 shows an example of an NN structure in which one deterministic feature is added to the NN.

【符号の説明】[Explanation of symbols]

11 NN 12 寄与度算出処理 13 類似度算出処理 14 特徴量選択処理 15 NN構造変更処理 11 NN 12 Contribution calculation processing 13 Similarity calculation processing 14 Feature amount selection processing 15 NN structure change processing

Claims (5)

【特許請求の範囲】[Claims] 【請求項1】 複数のノードを含む入力層と,複数のノ
ードを含む一層または複数層の中間層と,入力層と同数
のノードを含む出力層とからなるニューラル・ネットワ
ークを設け,入力される教師データに基づいて複数の特
徴量をあらかじめ作成しておき,上記教師データを上記
ニューラル・ネットワークの入力層に入力したときの上
記ニューラル・ネットワークの出力が上記教師データに
等しくなるように上記ニューラル・ネットワークに学習
を行わせ,上記ニューラル・ネットワークの中間層の各
ノードの出力と上記特徴量とがどの程度類似しているか
を表す類似度をそれぞれ算出し,これらの類似度に基づ
いて上記複数の特徴量の中から1つの特徴量を有効特徴
量として選択するとともに,この有効特徴量に対応する
中間層のノードを上記有効特徴量を入力するための入力
ノードに置換え,上記教師データを入力層に入力し,上
記有効特徴量を入力ノードに入力してニューラル・ネッ
トワークの学習と,有効特徴量の選択および入力ノード
への置換とを繰返し行う,ニューラル・ネットワークの
学習方法。
1. A neural network comprising an input layer including a plurality of nodes, a one-layer or a plurality of intermediate layers including a plurality of nodes, and an output layer including the same number of nodes as the input layer is provided and input. A plurality of feature quantities are created in advance based on the teacher data, and the neural network is configured so that the output of the neural network when the teacher data is input to the input layer of the neural network is equal to the teacher data. The network is trained to calculate the degree of similarity between the output of each node in the intermediate layer of the neural network and the feature quantity, and the plurality of similarity values are calculated based on these similarity degrees. One feature amount is selected from the feature amounts as the effective feature amount, and the node in the middle layer corresponding to this effective feature amount is The input node for inputting the effective feature amount is replaced, the teacher data is input to the input layer, and the effective feature amount is input to the input node to learn the neural network and select the effective feature amount and the input node. A learning method for a neural network in which replacement with is repeated.
【請求項2】 入力層の各ノードについてそのノードが
どの程度その後の層に寄与しているかを表す寄与度を算
出し,これらの寄与度のすべてが所定の閾値以下になっ
たときに,上記ニューラル・ネットワークの学習と有効
特徴量の選択および入力ノードへの置換とを終了する,
請求項1に記載のニューラル・ネットワークの学習方
法。
2. For each node of the input layer, a contribution degree representing how much the node contributes to the subsequent layer is calculated, and when all of these contribution degrees are equal to or less than a predetermined threshold value, End learning of the neural network, selection of effective features and replacement with input nodes,
The neural network learning method according to claim 1.
【請求項3】 有効特徴量として選択されるべき1また
は複数の特徴量を入力するための入力ノードを上記ニュ
ーラル・ネットワークの中間層にあらかじめ設ける,請
求項1に記載のニューラル・ネットワークの学習方法。
3. The neural network learning method according to claim 1, wherein an input node for inputting one or a plurality of feature quantities to be selected as effective feature quantities is provided in advance in an intermediate layer of the neural network. .
【請求項4】 上記ニューラル・ネットワークの中間層
のノードについて,そのノードがどの程度その後の層に
寄与しているかを表す寄与度をそれぞれ算出し,この寄
与度および上記類似度に基づいて上記有効特徴量を選択
する,請求項1から3のいずれか一項に記載のニューラ
ル・ネットワークの学習方法。
4. For each node in the middle layer of the neural network, a contribution representing the degree to which the node contributes to the subsequent layers is calculated, and the validity is calculated based on this contribution and the similarity. The neural network learning method according to claim 1, wherein a feature amount is selected.
【請求項5】 複数のノードを含む入力層と,複数のノ
ードを含む一層または複数層の中間層と,入力層と同数
のノードを含む出力層とからなるニューラル・ネットワ
ーク,入力される教師データを上記ニューラル・ネット
ワークに入力したときの上記ニューラル・ネットワーク
の出力が上記教師データに等しくなるように上記ニュー
ラル・ネットワークに学習を行わせる学習手段,上記ニ
ューラル・ネットワークの中間層のノードの出力と,上
記教師データに基づいて作成された上記特徴量とがどの
程度類似しているかを表す類似度をそれぞれ算出し,こ
れらの類似度に基づいて上記複数の特徴量の中から1つ
の特徴量を有効特徴量として選択するとともに,この有
効特徴量に対応する中間層のノードを上記有効特徴量を
入力するための入力ノードに置換える構造変更手段,お
よび上記教師データと上記有効特徴量を用いたニューラ
ル・ネットワークの学習を上記学習手段に,有効特徴量
の選択および入力ノードの置換とを上記構造変更手段に
繰返し行わせる制御手段,を備えたニューラル・ネット
ワーク・システム。
5. A neural network comprising an input layer including a plurality of nodes, a one-layer or a plurality of intermediate layers including a plurality of nodes, and an output layer including the same number of nodes as the input layer, and input teacher data. Learning means for causing the neural network to perform learning so that the output of the neural network when inputting to the neural network becomes equal to the teacher data, the output of the node in the intermediate layer of the neural network, The similarity representing the degree of similarity with the feature quantity created based on the teacher data is calculated, and one feature quantity is validated from the plurality of feature quantities based on these similarity degrees. Input for selecting the feature amount and inputting the effective feature amount of the node in the middle layer corresponding to this effective feature amount The structure changing means for replacing the nodes, and the learning of the neural network using the teacher data and the effective feature quantity are repeatedly performed by the learning means, and the selection of the effective feature quantity and the replacement of the input node are repeatedly performed by the structure changing means. Neural network system equipped with control means to make it.
JP7138857A 1995-05-15 1995-05-15 Method for learning neural network and neural network system Pending JPH08314880A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP7138857A JPH08314880A (en) 1995-05-15 1995-05-15 Method for learning neural network and neural network system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP7138857A JPH08314880A (en) 1995-05-15 1995-05-15 Method for learning neural network and neural network system

Publications (1)

Publication Number Publication Date
JPH08314880A true JPH08314880A (en) 1996-11-29

Family

ID=15231775

Family Applications (1)

Application Number Title Priority Date Filing Date
JP7138857A Pending JPH08314880A (en) 1995-05-15 1995-05-15 Method for learning neural network and neural network system

Country Status (1)

Country Link
JP (1) JPH08314880A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100300788B1 (en) * 1998-05-27 2001-09-26 포만 제프리 엘 publish&subscribe data processing apparatus, method and computer program product with use of a stream to distribute administrative and configuration information
KR100300787B1 (en) * 1998-06-25 2001-11-01 포만 제프리 엘 publish&subscribe data processing apparatus, method, and computer program product with use of a stream to distribute local information between neighbors in a broker structure
JP2012073761A (en) * 2010-09-28 2012-04-12 Dainippon Screen Mfg Co Ltd Characteristic quantity selection method for classification, image classification method, visual inspection method and visual inspection device
JP2017134853A (en) * 2017-03-16 2017-08-03 ヤフー株式会社 Generation device, generation method, and generation program
JP2020510862A (en) * 2017-02-24 2020-04-09 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation Sound Discrimination Using Periodic Display
JP2020118950A (en) * 2019-07-01 2020-08-06 株式会社テクノスピーチ Speech processing device and speech processing method
WO2021111788A1 (en) * 2019-12-05 2021-06-10 日立Astemo株式会社 Neural network compression device and method for same

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100300788B1 (en) * 1998-05-27 2001-09-26 포만 제프리 엘 publish&subscribe data processing apparatus, method and computer program product with use of a stream to distribute administrative and configuration information
KR100300787B1 (en) * 1998-06-25 2001-11-01 포만 제프리 엘 publish&subscribe data processing apparatus, method, and computer program product with use of a stream to distribute local information between neighbors in a broker structure
JP2012073761A (en) * 2010-09-28 2012-04-12 Dainippon Screen Mfg Co Ltd Characteristic quantity selection method for classification, image classification method, visual inspection method and visual inspection device
JP2020510862A (en) * 2017-02-24 2020-04-09 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation Sound Discrimination Using Periodic Display
JP2017134853A (en) * 2017-03-16 2017-08-03 ヤフー株式会社 Generation device, generation method, and generation program
JP2020118950A (en) * 2019-07-01 2020-08-06 株式会社テクノスピーチ Speech processing device and speech processing method
WO2021111788A1 (en) * 2019-12-05 2021-06-10 日立Astemo株式会社 Neural network compression device and method for same
JP2021089628A (en) * 2019-12-05 2021-06-10 日立Astemo株式会社 Neural network contraction device and method thereof

Similar Documents

Publication Publication Date Title
Thrift Fuzzy Logic Synthesis with Genetic Algorithms.
Jang et al. Neuro-fuzzy modeling and control
Ghoshal Application of GA/GA-SA based fuzzy automatic generation control of a multi-area thermal generating system
Ghoshal et al. Application of GA based optimal integral gains in fuzzy based active power-frequency control of non-reheat and reheat thermal generating systems
Jain et al. Hybrid intelligent engineering systems
JPH03164804A (en) Process control system and power plant process control system
Lian et al. Tuning of a neuro-fuzzy controller by genetic algorithms with an application to a coupled-tank liquid-level control system
Babuška Neuro-fuzzy methods for modeling and identification
Liu et al. Efficient learning algorithms for three-layer regular feedforward fuzzy neural networks
Nikravesh et al. Model identification of nonlinear time variant processes via artificial neural network
JPH08314880A (en) Method for learning neural network and neural network system
Ignatyev et al. System for automatic adjustment of intelligent controller parameters
Korbicz et al. Confidence estimation of GMDH neural networks and its application in fault detection systems
Farag Synthesis of intelligent hybrid systems for modeling and control
Mosleh Numerical solution of fuzzy differential equations under generalized differentiability by fuzzy neural network
Kim A neuro-fuzzy approach to integration and control of industrial processes: Part I
Zhao et al. Fuzzy rule learning during simulation of manufacturing resources
Dorrah et al. Design of PSO-based optimal fuzzy PID controllers for the two-coupled distillation column process
van Lith et al. Fuzzy clustering, genetic algorithms and neuro-fuzzy methods compared for hybrid fuzzy-first principles modeling
Bettenhausen et al. BioX++-new results and conceptions concerning the intelligent control of biotechnological processes
Lemma et al. Model Identification Using Neuro-Fuzzy Approach
Cabrita et al. Design of B-spline neural networks using a bacterial programming approach
Karray Soft computing techniques for intelligent machines
Sabeti et al. Hybrid evolutionary algorithms based on PSO-GA for training ANFIS structure
Nikravesh et al. Process control of nonlinear time variant processes via artificial neural network