JPH05197821A - Method for optimizing hierarchical neural network and device therefor - Google Patents

Method for optimizing hierarchical neural network and device therefor

Info

Publication number
JPH05197821A
JPH05197821A JP4314305A JP31430592A JPH05197821A JP H05197821 A JPH05197821 A JP H05197821A JP 4314305 A JP4314305 A JP 4314305A JP 31430592 A JP31430592 A JP 31430592A JP H05197821 A JPH05197821 A JP H05197821A
Authority
JP
Japan
Prior art keywords
learning
neural network
neuron
intermediate layer
defective
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP4314305A
Other languages
Japanese (ja)
Inventor
Toru Fujii
徹 藤井
Hirohide Ushida
牛田  博英
Tokumasa Yakura
得正 矢倉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Omron Tateisi Electronics Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp, Omron Tateisi Electronics Co filed Critical Omron Corp
Priority to JP4314305A priority Critical patent/JPH05197821A/en
Publication of JPH05197821A publication Critical patent/JPH05197821A/en
Pending legal-status Critical Current

Links

Landscapes

  • Feedback Control In General (AREA)
  • Image Analysis (AREA)

Abstract

PURPOSE:To provide a hierarchical neural network optimizing method which can approximate the number and the weight of neurons arranged in an intermedi ate class to each optimum value. CONSTITUTION:It is judged whether the optimum solution is converged or not (learning state), whether a local solution is caused or not, and whether the number of neurons is proper or not in regard of a neural network which is learnt by the prescribed frequency with the detection of the changed variable of the error square sum and the correct answer rate and its changed variable. The neurons are added to an intermediate class as necessary, the defective neurons are deleted away, or the weight of the defective neurons is initia1ized. Then the neural. network is learnt again. Thus the optimum number of neurons is set to the intermediate class during the learning and at the same time an optimum solution is obtained. The defective neurons have the low affecting force to the analysis of the input data.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、階層型ニューラルネッ
トの最適化方法及び装置に関するもので、より具体的に
は階層型ニューラルネットワークにおける中間層の構造
の最適化を図るものに関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method and apparatus for optimizing a hierarchical neural network, and more particularly to optimizing the structure of an intermediate layer in a hierarchical neural network.

【0002】[0002]

【従来の技術】階層型ニューラルネットワークは、入力
層,中間層(必要に応じ複数層から構成される)並びに
出力層から構成され、各層にはそれぞれ所定数のニュー
ロンが配置されるとともに、各層間のニューロンがシナ
プスにて連結されており、各シナプスには所定の結合係
数(以下、単にニューロンに付与された「重み」と称す
る)が付与されている。そして、その重みを適正な値に
設定するため、ニューラルネットワーク自身で自己学習
が行われる。
2. Description of the Related Art A hierarchical neural network is composed of an input layer, an intermediate layer (consisting of a plurality of layers as necessary) and an output layer. Each layer is provided with a predetermined number of neurons, Neurons are connected by synapses, and a predetermined coupling coefficient (hereinafter, simply referred to as “weight” given to neurons) is given to each synapse. Then, in order to set the weight to an appropriate value, the neural network itself performs self-learning.

【0003】この自己学習の一例としては、バックプロ
パゲーションと称されるものがある。この方法は、最初
に各シナプスに付与される重みを乱数にて初期設定し、
その状態で入力層にある入力データを入力し、その入力
データに基づいて入力層から出力層まで順次計算し、出
力データを得る。そして、その出力データを、上記入力
データにより得られるべき期待出力データとを比較し、
両者の差を求め、この差が小さくなるように、重みを変
更するようになっている。しかも、この学習処理中にお
いては、各層に配置したニューロンの数が固定されてい
る。
An example of this self-learning is called back propagation. This method first initializes the weights given to each synapse with random numbers,
In that state, input data in the input layer is input, and from the input layer to the output layer are sequentially calculated based on the input data to obtain output data. Then, compare the output data with the expected output data that should be obtained by the input data,
The difference between the two is obtained, and the weight is changed so that this difference becomes smaller. Moreover, during this learning process, the number of neurons arranged in each layer is fixed.

【0004】[0004]

【発明が解決しようとする課題】ところで、中間層に設
置したニューロンの数が少ないと、入力データの特徴量
空間を旨く分割することができず、たとえ上記学習処理
を行ったとしても、十分な入出力関係を獲得することが
できない。一方、ニューロンの数が多くなると、正しい
入出力関係を得ることができるものの、実際にシステム
内に組み込んだ場合にメモリ容量が膨大になるだけでな
く、処理時間も長くなり、実用に供し得なくなる。しか
も、最適なニューロンの数をあらかじめ知得することは
できない。したがって、せっかく上記学習処理を行った
としても、ニューロンの数が最適でないために、中間層
におけるニューラルネットワークの構造を最適化するこ
とができないという問題がある。さらに、図19に示す
ように、階層型ニューラルネットでは、学習により得ら
れた入出力関係が局所解となってしまい、最適解を得る
ことができないおそれがある。ここで、最適解とは、誤
差曲面において誤差2乗和が最小となる重みの値をい
い、局所解とは誤差曲面において局所的に誤差2乗和
(の変化量)が小さくなる(最適解ではない)ときの重
みの値を示す。
By the way, if the number of neurons installed in the intermediate layer is small, the feature quantity space of the input data cannot be properly divided, and even if the above learning processing is performed, it is sufficient. I / O relationship cannot be obtained. On the other hand, when the number of neurons increases, the correct input / output relationship can be obtained, but when it is actually built in the system, not only the memory capacity becomes huge, but also the processing time becomes long and it cannot be put to practical use. .. Moreover, the optimal number of neurons cannot be known in advance. Therefore, even if the learning process is performed, the structure of the neural network in the intermediate layer cannot be optimized because the number of neurons is not optimal. Further, as shown in FIG. 19, in the hierarchical neural network, the input / output relationship obtained by learning becomes a local solution, and there is a possibility that an optimal solution cannot be obtained. Here, the optimum solution is a value of a weight that minimizes the error sum of squares on the error curved surface, and the local solution is that the sum of error squares (amount of change) locally decreases on the error curved surface (the optimum solution). Not) indicates the weight value.

【0005】本発明は、上記した背景に鑑みてなされた
もので、その目的とするところは、中間層に配置される
ニューロンの数並びに重みをともに最適な値に近付けこ
とにより、最適なニューラルネットワークの構造を得る
ことのできる階層型ニューラルネットの最適化方法及び
装置を提供することにある。
The present invention has been made in view of the above background, and an object of the present invention is to make an optimum neural network by making both the number of neurons arranged in the intermediate layer and the weights close to the optimum values. It is an object of the present invention to provide a method and an apparatus for optimizing a hierarchical neural network capable of obtaining the structure of.

【0006】[0006]

【課題を解決するための手段】上記した目的を達成する
ために、本発明に係る階層型ニューラルネットの最適化
方法では、階層型ニューラルネットに対して所定の学習
を行っている途中で、中間層のニューロン間に付与され
ている重みが局所解に陥っているか否かを判断し、局所
解に陥っているときに中間層の所定位置に新たなニュー
ロンを追加するようにした。
In order to achieve the above-mentioned object, in the optimization method of a hierarchical neural network according to the present invention, an intermediate process is performed while a predetermined learning is being performed on the hierarchical neural network. It is determined whether the weight given between the neurons in the layer falls into the local solution, and a new neuron is added to a predetermined position in the intermediate layer when the weight falls into the local solution.

【0007】また、階層型ニューラルネットに対して所
定の学習を行っている途中で、中間層を構成する各ニュ
ーロンに対し入力データの認識に貢献している度合いを
あらわす不良ニューロン評価値を求め、その評価値に基
づいて不良ニューロンを決定し、その不良ニューロンを
所定のタイミングで削除したり、その不良ニューロンに
対し付与されている重みを初期化した後、学習を続行す
るようにしてもよい。
Further, during the predetermined learning for the hierarchical neural network, a defective neuron evaluation value representing the degree of contribution to the recognition of the input data is obtained for each neuron forming the intermediate layer, The defective neuron may be determined based on the evaluation value, the defective neuron may be deleted at a predetermined timing, or the weight assigned to the defective neuron may be initialized, and then the learning may be continued.

【0008】さらには、上記各手法を組み合せて中間層
に対しニューロンの追加或いは削除を適宜行うようにし
ても良く、さらに一度削除した不良ニューロンを復帰さ
せた後、学習を続行させるようにしても良い。
Further, the above methods may be combined to appropriately add or delete neurons to or from the intermediate layer, and further, after the once deleted defective neuron is restored, learning may be continued. good.

【0009】また、上記方法を実施するに適した本発明
に係る最適化装置では、階層型ニューラルネットに対し
て学習を行うニューラルネット学習装置と、そのニュー
ラルネット学習装置から出力される学習状況データに基
づいて中間層のニューロン間に付与されている重みが局
所解に陥っているか否かを判断する装置と、その判断す
る装置から送られる制御信号に基づいて前記中間層に新
たなニューロンを追加する中間層ニューロン追加装置と
を設けた。
Further, in the optimizing apparatus according to the present invention suitable for carrying out the above method, a neural network learning apparatus for learning a hierarchical neural network and learning situation data output from the neural network learning apparatus. A device for determining whether or not the weight given to the neurons in the intermediate layer falls into a local solution based on the above, and a new neuron is added to the intermediate layer based on a control signal sent from the determining device. And a device for adding an intermediate layer neuron.

【0010】また、階層型ニューラルネットに対して学
習を行うニューラルネット学習装置と、そのニューラル
ネット学習装置から出力される学習状況データに基づい
て中間層を構成する各ニューロンに対し入力データの認
識に貢献している度合いをあらわす不良ニューロン評価
値を算出する不良ニューロン評価値算出装置と、前記ニ
ューラルネット学習装置から出力される学習状況データ
に基づいて学習が最適解に近付いている否かを判断する
装置と、その判断する装置から送られる制御信号と、前
記不良ニューロン評価値算出装置から送られる不良ニュ
ーロンの評価値データとに基づいて、前記中間層の不良
ニューロンを削除する中間層ニューロン削減装置とを設
けても良い。
A neural network learning device for learning a hierarchical neural network and recognition of input data for each neuron forming an intermediate layer based on learning status data output from the neural network learning device. A defective neuron evaluation value calculation device that calculates a defective neuron evaluation value that indicates the degree of contribution, and whether learning is close to an optimal solution is determined based on the learning situation data output from the neural network learning device. A device, a control signal sent from the device for judging the device, and an intermediate layer neuron reduction device for deleting the defective neuron in the intermediate layer based on the evaluation value data of the defective neuron sent from the defective neuron evaluation value calculation device. May be provided.

【0011】さらに、階層型ニューラルネットに対して
学習を行うニューラルネット学習装置と、そのニューラ
ルネット学習装置から出力される学習状況データに基づ
いて中間層を構成する各ニューロンに対し入力データの
認識に貢献している度合いをあらわす不良ニューロン評
価値を算出する不良ニューロン評価値算出装置と、その
ニューラルネット学習装置から出力される学習状況デー
タに基づいて中間層のニューロン間に付与されている重
みが局所解に陥っているか否かを判断する装置と、その
判断する装置から送られる制御信号と、前記不良ニュー
ロン評価値算出装置から送られる不良ニューロンの評価
値データとに基づいて、前記中間層の不良ニューロンの
重みを初期化する中間層ニューロン重み初期化装置とを
設けてもよい。そして好ましくは上記各装置を適宜組み
合わせて構成することである。
Further, a neural network learning device for learning a hierarchical neural network and recognition of input data for each neuron forming an intermediate layer based on the learning situation data output from the neural network learning device. A defective neuron evaluation value calculation device that calculates a defective neuron evaluation value that indicates the degree of contribution, and the weights assigned between neurons in the intermediate layer based on the learning situation data output from the neural network learning device A device that determines whether or not a solution is present, a control signal that is sent from the device that determines whether the solution is in solution, and a defective neuron evaluation value data that is sent from the defective neuron evaluation value calculation device. An intermediate layer neuron weight initialization device that initializes the weight of the neuron may be provided. And, preferably, the above-mentioned respective devices are appropriately combined and configured.

【0012】さらに、上記各種の構成からなる階層型ニ
ューラルネットの最適化装置に対し、与えられる要求仕
様に基づいて設定される出力誤差重みデータを格納した
記憶手段を設け、前記各種の判断する装置が、前記記憶
手段に格納された出力誤差重みデータを考慮して前記各
種の判断を行うようにしてもよい。
Further, in addition to the hierarchical neural network optimizing device having the above-mentioned various configurations, a storage means for storing output error weight data set based on a given required specification is provided, and the various determining devices are provided. However, the various determinations may be made in consideration of the output error weight data stored in the storage means.

【0013】そして、係る出力誤差重みデータを格納し
た記憶手段を設けた場合には、さらにその出力誤差重み
データを修正する出力誤差重み調整手段を設け、前記判
断する手段が、前記出力誤差重みデータを修正するか否
かの判断機能を付与するのが好ましい。そして、そのよ
うに出力誤差重みデータを記憶する手段並びにそのデー
タを修正する調整手段を備えた場合には、上記中間層の
ニューロン削減,追加,重み初期化手段を設けなくて
も、最適化を図ることができる。
When storage means for storing the output error weight data is provided, output error weight adjusting means for further correcting the output error weight data is further provided, and the judging means is provided with the output error weight data. It is preferable to add a function of determining whether or not to correct. When the means for storing the output error weight data and the adjusting means for correcting the data are provided as described above, the optimization can be performed without providing the neuron reduction / addition / weight initialization means in the intermediate layer. Can be planned.

【0014】[0014]

【作用】本発明では、階層型ニューラルネットの学習を
行っている途中で、その学習状況(効果)を監視し、局
所解に陥っていると判断したらニューロンを追加する。
すると、特徴量空間をより多くの曲面で分割することが
可能となり、認識率が向上し、局所解から脱出して最適
解が求まる。
In the present invention, the learning situation (effect) is monitored during the learning of the hierarchical neural network, and if it is determined that the local solution is present, a neuron is added.
Then, the feature space can be divided into more curved surfaces, the recognition rate is improved, and the optimal solution is obtained by escaping from the local solution.

【0015】一方、不良ニューロンは、次段(出力側)
への影響力(入力データの認識に対する貢献度)が低
い。したがって、学習状況が局所解に陥っていると判断
された場合には、不良ニューロンの次段への影響力が大
きくなることにより局所解から脱出する可能性がある。
よって、係る影響力の低い不良ニューロンの重みを初期
化し直すとともに学習を続行する。一方、学習状況を判
断し、最適解にいたっていると判断した場合には、かか
る不良ニューロンがなくても正しい入出力関係を維持で
きると思量できる。よって、係る不良ニューロンを削除
するとともに学習を続行する。そして、削除後も最適解
の状態を維持できるならば、中間層を構成するニューロ
ン数が減少し、高速処理が行える。なお、不良ニューロ
ンを削除した結果、最適解が得られなくなった場合に
は、削除した不良ニューロンを復帰させたり或いは新た
なニューロンを追加することにより最適解が求められ
る。
On the other hand, the defective neuron is the next stage (output side).
Influence on the input data (contribution to recognition of input data) is low. Therefore, when it is determined that the learning situation falls into a local solution, there is a possibility that the defective neuron may escape from the local solution due to its greater influence on the next stage.
Therefore, the weight of the defective neuron having low influence is reinitialized and learning is continued. On the other hand, when the learning situation is judged and it is judged that the optimum solution is reached, it can be considered that the correct input / output relationship can be maintained even without such a defective neuron. Therefore, the defective neuron is deleted and learning is continued. Then, if the state of the optimum solution can be maintained even after the deletion, the number of neurons forming the intermediate layer is reduced and high-speed processing can be performed. If the optimal solution cannot be obtained as a result of deleting the defective neuron, the optimal solution is obtained by restoring the deleted defective neuron or adding a new neuron.

【0016】さらに、出力誤差重みデータを考慮して学
習後のニューラルネットに対する各種評価を行うことに
より、より高速に要求仕様を満たす最適解に達すること
ができる。そして、出力誤差重み調整手段を設けた場合
には、初期設定された出力誤差重みデータを、学習状況
に応じて修正し、修正後の出力誤差重みデータをも地位
各種評価を行う。よって、より高速に学習が終了するこ
とになる。
Further, by performing various evaluations on the learned neural network in consideration of the output error weight data, it is possible to reach an optimum solution that satisfies the required specifications at a higher speed. When the output error weight adjusting means is provided, the initially set output error weight data is corrected according to the learning situation, and the corrected output error weight data is also subjected to various status evaluations. Therefore, learning is completed at a higher speed.

【0017】[0017]

【実施例】以下、本発明に係る階層型ニューラルネット
最適化方法及び装置の好適な実施例を添付図面を参照に
して詳述する。まず、本発明の一実施例の概要について
説明すると、例えばバックプロパゲーション等を用いて
学習を行っている最中に、中間層を形成するニューロン
のうち、検出に貢献していない不良ニューロンを削除し
たり、新たなニューロンを追加することにより、ニュー
ロンの数を最適なものに設定し、また必要に応じて、不
良ニューロンの重みを初期化し直すこと等により各重み
が局所解に陥るのを抑制するようにしている。そして、
係る制御を行うための検出ファクターとして本例では、
誤差2乗和、誤差2乗和の変化量、正答率並びに正答率
の変化量等を用いている。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENT A preferred embodiment of a hierarchical neural network optimization method and apparatus according to the present invention will be described in detail with reference to the accompanying drawings. First, an outline of one embodiment of the present invention will be described. For example, during learning using back propagation or the like, defective neurons that do not contribute to detection are deleted from neurons forming the intermediate layer. Or add new neurons to set the optimal number of neurons, and if necessary, re-initialize bad neuron weights to prevent each weight from falling into a local solution. I am trying to do it. And
In this example, as a detection factor for performing such control,
The sum of error squares, the amount of change in the sum of error squares, the percentage of correct answers, and the amount of change in the percentage of correct answers are used.

【0018】そして、それらを実行するための具体的な
回路構成は、図1に示すようになっている。すなわち、
この図は本発明の第1実施例を示し、図示するようにま
ずニューラルネット学習装置10に学習用データベース
12,重みデータベース14並びに中間層最適化パラメ
ータデータベース16の出力がそれぞれ接続されてい
る。
The specific circuit configuration for executing them is as shown in FIG. That is,
This drawing shows the first embodiment of the present invention. As shown in the drawing, the outputs of the learning database 12, the weight database 14, and the intermediate layer optimization parameter database 16 are connected to the neural network learning device 10, respectively.

【0019】学習用データベース12は、階層型ニュー
ラルネットの学習用データとして、階層型ニューラルネ
ットの入力層に与える入力データと、出力層に与える期
待出力データが記録保持されている。そして、具体的な
データ構造は、それぞれ図2(A),(B)に示すよう
になっている。また、重みデータベース14は、階層型
ニューラルネットのあるニューロンから他のニューロン
への結合状況を表す重みデータ並びに、ニューラルネッ
ト構造データ(各層のニューロンの数)を記憶保持して
おり、具体的なデータ構造はそれぞれ図3(A),
(B)に示すようになっている。さらに、中間層最適化
パラメータデータベース16は、階層型ニューラルネッ
トの中間層を最適化するために必要な各種パラメータが
格納されており、具体的なデータ構造は図4に示すよう
になっており、各閾値等は予め固定データとして登録さ
れている。そして、ニューラルネット学習装置10で
は、各データベース12,14,16からそれぞれのデ
ータを受けとり、階層型ニューラルネットを形成すると
ともに、バックプロパゲーションアルゴリズムを使用し
て最適化学習間隔で示された所定回数だけ学習させるよ
うになっている。
The learning database 12 records and holds, as learning data for the hierarchical neural network, input data to be provided to the input layer of the hierarchical neural network and expected output data to be provided to the output layer. The specific data structures are as shown in FIGS. 2A and 2B, respectively. Further, the weight database 14 stores and holds weight data representing a connection state from one neuron of the hierarchical neural network to another neuron, and neural net structure data (the number of neurons in each layer), and concrete data The structure is shown in FIG.
It is as shown in (B). Further, the intermediate layer optimization parameter database 16 stores various parameters necessary for optimizing the intermediate layer of the hierarchical neural network, and the specific data structure is as shown in FIG. Each threshold value and the like are registered in advance as fixed data. Then, the neural network learning device 10 receives each data from each of the databases 12, 14 and 16 to form a hierarchical neural network, and uses the back propagation algorithm to perform a predetermined number of times indicated by the optimization learning interval. Only to learn.

【0020】ここで本発明では、上記ニューラルネット
学習装置10並びに各データベース12,14,16
に、階層型ニューラルネット最適化装置20を接続して
いる。この階層型ニューラルネット最適化装置20は、
誤差2乗和とその変化量算出装置21,正答率とその変
化量算出装置22,不良ニューロン評価値算出装置2
3,中間層ニューロン削減装置24,中間層ニューロン
追加装置25,中間層ニューロン重み初期化装置26並
びに中間層ニューロン最適化判定装置27とから構成さ
れている。そして、それら各装置21〜27と、ニュー
ラルネット学習装置10並びに各データベース12,1
4,16との具体的な接続構成は以下のようになってい
る。
Here, in the present invention, the neural network learning device 10 and the databases 12, 14, 16 are described.
A hierarchical neural network optimization device 20 is connected to the. This hierarchical neural network optimization device 20
Error square sum and change amount calculation device 21, correct answer rate and change amount calculation device 22, defective neuron evaluation value calculation device 2
3, an intermediate layer neuron reduction device 24, an intermediate layer neuron addition device 25, an intermediate layer neuron weight initialization device 26, and an intermediate layer neuron optimization determination device 27. Then, the respective devices 21 to 27, the neural network learning device 10 and the respective databases 12, 1
The specific connection configuration with 4, 16 is as follows.

【0021】すなわち、ニューラルネット学習装置10
の出力が誤差2乗和とその変化量算出装置21,正答率
とその変化量算出装置22,不良ニューロン評価値算出
装置23,中間層ニューロン削減装置24,中間層ニュ
ーロン追加装置25並びに中間層ニューロン重み初期化
装置26に入力されている。
That is, the neural network learning device 10
Output of error sum of squares and change amount calculation device 21, correct answer rate and change amount calculation device 22, bad neuron evaluation value calculation device 23, hidden layer neuron reduction device 24, hidden layer neuron addition device 25, and hidden layer neurons It is input to the weight initialization device 26.

【0022】また学習用データベース12の出力が、誤
差2乗和とその変化量算出装置21,正答率とその変化
量算出装置22並びに不良ニューロン評価値算出装置2
3に入力されている。
The learning database 12 outputs the sum of squared error and its variation calculating device 21, the correct answer rate and its variation calculating device 22, and the defective neuron evaluation value calculating device 2.
It is entered in 3.

【0023】そして、誤差2乗和とその変化量算出装置
21並びに正答率とその変化量算出装置22の出力が、
中間層ニューロン最適化判定装置27に入力されてい
る。また、不良ニューロン評価算出装置23,中間層ニ
ューロン最適化判定装置27並びに中間層最適化パラメ
ータデータベース16の出力が、中間層ニューロン削減
装置24,中間層ニューロン追加装置25並びに中間層
ニューロン重み初期化装置26にそれぞれ入力されてい
る。そしてそれら各装置24,25,26の出力がニュ
ーラルネット学習装置10並びに重みデータベース14
に入力されている。
The outputs of the error sum of squares and its variation calculating device 21 and the correct answer rate and its variation calculating device 22 are
It is input to the intermediate layer neuron optimization determination device 27. Further, the outputs of the bad neuron evaluation calculation device 23, the hidden layer neuron optimization determination device 27, and the hidden layer optimization parameter database 16 are the output of the hidden layer neuron reduction device 24, the hidden layer neuron addition device 25, and the hidden layer neuron weight initialization device. 26 respectively. The outputs of the respective devices 24, 25 and 26 are the neural network learning device 10 and the weight database 14.
Has been entered in.

【0024】さらに、中間層最適化パラメータデータベ
ース16の出力は、中間層ニューロン最適化判定装置2
7にも入力されており、その中間層ニューロン最適化判
定装置27の出力がニューラルネット学習装置10に入
力されている。
Further, the output of the intermediate layer optimization parameter database 16 is the intermediate layer neuron optimization determining device 2
7, and the output of the intermediate layer neuron optimization determining device 27 is input to the neural network learning device 10.

【0025】次に、上記階層型ニューラルネット最適化
装置20を構成する各装置21〜27の機能について説
明する。 *誤差2乗和とその変化量算出装置 まず、本装置21は、ニューラルネット学習装置10に
おいて所定回数の学習をさせた後、そのニューラルネッ
ト学習装置10よりその時の重みデータ並びにニューラ
ルネット構造データを受け取るとともに、学習用データ
(入力データ,期待出力データ)を学習用データベース
12より受けとる。そして、その重みデータ並びにニュ
ーラルネット構造データより階層型ニューラルネットを
形成し、想起処理を行う。ここで想起処理とは、階層型
ニューラルネットの入力層のニューロンに入力データを
与え、学習による修正後の重みを使用して、階層型ニュ
ーラルネットの入力層から出力層に向かって想起の演算
処理を行い、階層型ニューラルネットの出力層のニュー
ロンから出力データを得ることをいう。
Next, the function of each of the devices 21 to 27 constituting the hierarchical neural network optimizing device 20 will be described. * Sum of squared error and its variation calculation device First, this device 21 causes the neural network learning device 10 to perform a predetermined number of times of learning, and then the weighting data and neural network structure data at that time are obtained from the neural network learning device 10. At the same time, the learning data (input data, expected output data) is received from the learning database 12. Then, a hierarchical neural net is formed from the weight data and the neural net structure data, and the recall process is performed. Here, the recollection process is a calculation process of recollection from the input layer to the output layer of the hierarchical neural network by using the weights after learning by giving the input data to the neurons of the input layer of the hierarchical neural network. And obtain output data from the neurons in the output layer of the hierarchical neural network.

【0026】そして、その得られた出力データと期待出
力データとを用いて誤差2乗和(E1)を計算するとと
もに保持し、さらに前回計算して得られた誤差2乗和
(E0)との差の絶対値の百分率を誤差2乗変化量(d
E)として算出する。そして、その得られた誤差2乗和
並びに変化量を中間層ニューロン最適化判定装置27に
供給する働きを成す。
Then, using the obtained output data and the expected output data, the error square sum (E1) is calculated and held, and the calculated error square sum (E0) is obtained. The percentage of the absolute value of the difference is the error squared variation (d
Calculate as E). Then, it serves to supply the obtained error square sum and change amount to the intermediate layer neuron optimization determination device 27.

【0027】ここで、上記各値を得るための計算式を示
すと、以下の通りである。
Here, the calculation formulas for obtaining the above respective values are shown below.

【0028】[0028]

【数1】<誤差2乗和> <誤差2乗和変化量> dE={|E0−E1|*100}/E0 但し、 ptn :全パターン数,pe3 :出力層ニューロン数,L:
全層数, di[j]:j番目のパターン出力層i番目のニューロ
ンに対する期待出力 yi[L]:出力層i番面のニューロンの出力値であ
る。
[Formula 1] <Error sum of squares> <Amount of change in error sum of squares> dE = {| E0-E1 | * 100} / E0 where ptn: total number of patterns, pe3: number of output layer neurons, L:
Total number of layers, di [j]: Expected output for j-th pattern output layer i-th neuron yi [L]: Output value of neuron on output layer i-th surface.

【0029】*正答率とその変化量算出装置 本装置22は、上記した誤差2乗和とその変化量算出装
置21と同様に、ニューラルネット学習装置10並びに
学習用データベース12より所定のデータを受け取ると
ともに、階層型ニューラルネットを形成し、想起処理を
行って得られた出力データと期待出力データとを比較す
ることにより正答率(C0)を計算するとともに保持
し、さらにその値を前回計算して得られた正答率(C
0)との差の絶対値の百分率を正答率変化量(dC)と
して算出する。そして、その得られた正答率並びに変化
量を中間層ニューロン最適化判定装置27に供給する働
きを成す。
Correct Answer Rate and Change Amount Calculation Device This device 22 receives predetermined data from the neural network learning device 10 and the learning database 12 like the above error square sum and change amount calculation device 21. At the same time, a correct answer rate (C0) is calculated and held by forming a hierarchical neural network and comparing the output data obtained by performing the recall process with the expected output data, and further calculating the value thereof, and calculating the value last time. Obtained correct answer rate (C
The percentage of the absolute value of the difference from 0) is calculated as the correct answer rate change amount (dC). Then, the obtained correct answer rate and the obtained variation amount are supplied to the intermediate layer neuron optimization determination device 27.

【0030】ここで、上記各値を得るための計算式を示
すと以下のようになる。すなわち、まずすべてのパター
ンptn について、*y[L](出力データ)と*d
[p](期待出力データ)とを比較し、両者が等しい場
合にはそのパターンpは正答パターンとして教える。
Here, the calculation formulas for obtaining the above respective values are shown below. That is, first, for all patterns ptn, * y [L] (output data) and * d
[P] (expected output data) is compared, and if both are the same, the pattern p is taught as a correct answer pattern.

【0031】[0031]

【数2】但し、*y[L]=(y1[L],y2
[L],…,y(peL )[L]) *d[p]=(d1[p],d2[p],…,d(peL
)[p]) とする。
## EQU00002 ## where * y [L] = (y1 [L], y2
[L], ..., y (peL) [L]) * d [p] = (d1 [p], d2 [p], ..., d (peL
) [P]).

【0032】そして、その時の正答パターン数をptn1,
全パターン数をptn とすると、正答率C0が次式で得ら
れる。
Then, the number of correct answer patterns at that time is ptn1,
If the total number of patterns is ptn, the correct answer rate C0 is obtained by the following equation.

【0033】C0=ptn1/ptn また、正答率変化量dCは、 dC=C0−C1 より求められる。C0 = ptn1 / ptn The correct answer rate change amount dC is obtained from dC = C0-C1.

【0034】*不良ニューロン評価値算出装置 本装置23は、中間層を構成する各ニューロンに対し、
その不良ニューロン評価値を求めるもので、本発明でい
う不良ニューロン評価値とは、パターンの認識に貢献し
ている度合いを意味する。そして、係る貢献度の少ない
ニューロンは、出力層への影響が小さいといえる。よっ
て、(1)仮に係る評価値の低いニューロンを削減した
としてもニューラルネットの能力を損なう可能性が少な
く、正しい出力データを得ることができると思量でき
る。(2)また、ニューラルネットが学習中に局所解に
陥った場合に、不良ニューロンの重みを初期化した後学
習を続行することにより、局所解から脱出し、最適解を
求めることができる。すなわち本装置23は、係る効果
(1),(2)を得るための前処理として不良ニューロ
ン評価値を求めるもので、具体的手段は以下のようにな
っている。
* Defective Neuron Evaluation Value Calculating Device This device 23 calculates, for each neuron constituting the intermediate layer,
The defective neuron evaluation value is obtained, and the defective neuron evaluation value in the present invention means the degree of contribution to pattern recognition. Then, it can be said that the neuron having such a low degree of contribution has a small influence on the output layer. Therefore, (1) Even if the number of neurons having a low evaluation value is reduced, it is unlikely that the ability of the neural network is impaired, and it can be considered that correct output data can be obtained. (2) Further, when the neural network falls into a local solution during learning, it is possible to escape from the local solution and find the optimum solution by continuing the learning after initializing the weights of the bad neurons. That is, the present device 23 obtains a defective neuron evaluation value as a pre-process for obtaining the effects (1) and (2), and the specific means is as follows.

【0035】上記両装置21,22と同様に、所定回数
だけ階層型ニューラルネットを学習させた後、ニューラ
ルネット学習装置10並びに学習用データベース12よ
り所定のデータを受け取るとともに、階層型ニューラル
ネットを形成する。そして、本装置で23では、入力層
並びに中間層に対して想起処理を行い、第m層i番目の
ニューロンの不良ニューロン評価値evalm [i]を以下
の式にて求める。
Similar to the above-mentioned devices 21 and 22, after the hierarchical neural network is learned a predetermined number of times, predetermined data is received from the neural network learning device 10 and the learning database 12, and a hierarchical neural network is formed. To do. Then, in this apparatus 23, the recalling process is performed on the input layer and the intermediate layer, and the defective neuron evaluation value evalm [i] of the m-th layer i-th neuron is obtained by the following formula.

【0036】[0036]

【数3】 ここでptn :全パターン数 pe(m+1) :第m+1 層のニューロン数 wij[m]:第m層第i番面のニューロンと第m+1 層j
番目のニューロンとの間の重み yi[m]:第m層第i番面のニューロンの出力値 とする。
[Equation 3] Here, ptn: total number of patterns pe (m + 1): number of neurons in m + 1 layer wij [m]: neuron in m-th layer i-th layer and m + 1-th layer j
Weight with respect to the n-th neuron yi [m]: The output value of the neuron on the m-th layer and the i-th surface.

【0037】そして、上記式にて得られた中間層を構成
する各ニューロンの不良ニューロン評価値を、中間層ニ
ューロン削減装置24,中間層ニューロン重み初期化装
置26に供給する働きを成す。
Then, the defective neuron evaluation value of each neuron forming the intermediate layer obtained by the above equation is supplied to the intermediate layer neuron reduction device 24 and the intermediate layer neuron weight initialization device 26.

【0038】また、上記式により求められる評価値eval
m [i]が小さいほど、中間層のi番目ニューロンの上
位層への重みの絶対値が小さい、または、その中間層i
番面のニューロンの出力が小さいことを意味する。よっ
て、その評価値の低いニューロンに対して所定の処理を
行うことにより、上記した効果が期待でき、ニューラル
ネットの最適化が図れるのである。尚、上記式により求
められる不良ニューロン評価値は、図5に示すようなデ
ータ構造として記憶保持される。
The evaluation value eval obtained by the above equation
The smaller m [i], the smaller the absolute value of the weight of the upper layer of the i-th neuron in the intermediate layer, or the intermediate layer i
This means that the output of the numbered neuron is small. Therefore, by performing a predetermined process on the neuron having a low evaluation value, the above effect can be expected and the neural network can be optimized. The defective neuron evaluation value obtained by the above equation is stored and held as a data structure as shown in FIG.

【0039】*中間層ニューロン削減装置 本装置24は、中間層ニューロン最適化判定装置27か
ら送られてくる信号に基づき、所定のニューロンを削減
するもので、具体的な処理は以下のようになっている。
* Intermediate Layer Neuron Reduction Device This device 24 reduces predetermined neurons based on the signal sent from the intermediate layer neuron optimization decision device 27. The specific processing is as follows. ing.

【0040】まず、不良ニューロン評価値算出装置23
より不良ニューロン評価値を受けとり、また、中間層最
適化パラメータデータベース16より最適化パラメータ
を受けとる。そして、その最適化パラメータのうち、
「削減する不良ニューロンの数」だけ各中間層の不良ニ
ューロンを削減する。なお、上記削減する数値は、上記
のとおり、中間層最適化パラメータD/B16内に格納
(del pe num[m] )されている。またこの削減するニュ
ーロンの選択指標は、各層ごとに不良ニューロン評価値
の小さい順に削減する。
First, the defective neuron evaluation value calculation device 23
The poorer neuron evaluation value is received, and the optimization parameter is received from the hidden layer optimization parameter database 16. And among the optimization parameters,
The number of defective neurons in each hidden layer is reduced by "the number of defective neurons to be reduced". The numerical value to be reduced is stored (del pe num [m]) in the intermediate layer optimization parameter D / B 16 as described above. Further, the selection index of the neurons to be reduced is reduced for each layer in ascending order of the bad neuron evaluation value.

【0041】ここで、ニューロンの削減とは、削除対象
となるニューロンに結合している重みを、重みデータベ
ース14に格納されている重みデータから削除し、また
ニューラルネット構造データに格納されている各層のニ
ューロン数を削除分だけ減らす処理をする。そして、具
体例を示すと、例えば、第m層j番目ニューロンを削除
する場合、重みデータから、以下のデータを削除する。
Here, the reduction of neurons means that the weights connected to the neurons to be deleted are deleted from the weight data stored in the weight database 14 and each layer stored in the neural network structure data is deleted. Perform processing to reduce the number of neurons in. Then, as a specific example, for example, when deleting the m-th layer j-th neuron, the following data is deleted from the weight data.

【0042】[0042]

【数4】w1j[m-1 ],w2j[m-1 ],…,w(pe(m-
1))j[m-1 ] wj1[m],wj2[m],…,wj(pe(m+1)) [m] また、del pe num[m]個だけ削減した場合、第m層の
ニューロン数pem を pem =pem −del pe num[m] とする。
[Mathematical formula-see original document] w1j [m-1], w2j [m-1], ..., w (pe (m-
1)) j [m-1] wj1 [m], wj2 [m], ..., wj (pe (m + 1)) [m] Also, if only del pe num [m] are reduced, the m-th layer Let pem = pem-del pe num [m] be the number of neurons pem in.

【0043】そして、上記削減処理を行った後、すべて
の重みデータ並びにニューラルネット構造データをニュ
ーラルネット学習装置10並びに重みデータベース14
に送る。尚、上記削除の方法としては、該当する不良ニ
ューロンを物理的に削除しても良く、或いは、その不良
ニューロンの重みを「零」に設定し、出力側への影響を
なくすようにしても良い。
After performing the above-mentioned reduction processing, all the weight data and the neural network structure data are set to the neural network learning device 10 and the weight database 14.
Send to. As a method of the above deletion, the corresponding defective neuron may be physically deleted, or the weight of the defective neuron may be set to "zero" to eliminate the influence on the output side. ..

【0044】*中間層ニューロン追加装置 本装置25は、中間層ニューロン最適化判定装置27か
ら送られてくる信号に基づき、所定のニューロンを追加
するもので、具体的な処理は以下のようになっている。
* Intermediate layer neuron adding device This device 25 adds a predetermined neuron based on the signal sent from the intermediate layer neuron optimization judging device 27. The specific processing is as follows. ing.

【0045】中間層最適化パラメータデータベース16
から最適化パラメータを受け取る。そして、最適化パラ
メータのうち「追加するニューロンの数」だけ、各中間
層にニューロンを追加する。ここでニューロンの追加と
は、新たにニューロンを設置すると共に追加したニュー
ロンに結合する重みを、重みデータに追加し、ニューラ
ルネット構造データの各層のニューロン数を追加分だけ
増やすことにより行う。そして、上記追加する数値は、
中間層最適化パラメータD/B16内に格納(add pe n
um[m] )されている。また、追加した重みの値は、乱数
により決定させる。具体例を示すと、例えば、第m層に
j番目のニューロンを追加する場合、重みデータに、以
下のデータを追加する。
Intermediate layer optimization parameter database 16
Receives optimization parameters from. Then, among the optimization parameters, neurons are added to each intermediate layer by the number of neurons to be added. Here, the addition of a neuron is performed by newly installing a neuron, adding a weight that is coupled to the added neuron to the weight data, and increasing the number of neurons in each layer of the neural network structure data by the additional amount. And the number to add is
Store in the middle layer optimization parameter D / B16 (add pen n
um [m]) has been. Moreover, the value of the added weight is determined by a random number. As a specific example, for example, when the j-th neuron is added to the m-th layer, the following data is added to the weight data.

【0046】[0046]

【数5】w1j[m-1 ],w2j[m-1 ],…,w(pe(m-
1))j[m-1 ] wj1[m],wj2[m],…,wj(pe(m+1)) [m] また、add pe num[m]個だけ追加した場合、第m層の
ニューロン数pem を pem =pem +add pe num[m] とする。
[Mathematical formula-see original document] w1j [m-1], w2j [m-1], ..., w (pe (m-
1)) j [m-1] wj1 [m], wj2 [m], ..., wj (pe (m + 1)) [m] When only add pe num [m] are added, the m-th layer Let pem = pem + add pe num [m] be the number of neurons pem in.

【0047】そして、上記追加処理を行った後、すべて
の重みデータ並びにニューラルネット構造データをニュ
ーラルネット学習装置10並びに重みデータベース14
に送る。このように、中間層にニューロンを追加するこ
とで、特徴量空間をより多くの曲面で分割することが可
能となり、認識率が向上する。
After performing the above-mentioned additional processing, all the weight data and the neural network structure data are set to the neural network learning device 10 and the weight database 14.
Send to. In this way, by adding neurons to the intermediate layer, it becomes possible to divide the feature quantity space by more curved surfaces, and the recognition rate is improved.

【0048】*中間層ニューロン重み初期化装置 本装置26は、中間層ニューロン最適化判定装置27か
ら送られてくる信号に基づき、所定の不良ニューロンの
重みを初期化するもので、具体的な処理は以下のように
なっている。
* Intermediate layer neuron weight initialization device This device 26 initializes the weight of a predetermined defective neuron on the basis of the signal sent from the intermediate layer neuron optimization determination device 27. Is as follows.

【0049】すなわち、不良ニューロン評価値算出装置
23から不良ニューロン評価値を、また、中間層最適化
パラメータデータベース16から最適化パラメータを受
けとる。そして、最適化パラメータのうち、「初期化す
るニューロンの数」だけ、各中間層にニューロンの重み
を初期化する(乱数により新たに初期値を設定する)。
そして、この時初期化するニューロンの選択指標は、不
良ニューロン評価値の小さい順にニューロンの重みを初
期化する。具体例を示すと、例えば、第m層にj番目の
ニューロンを初期化する場合、以下の重みの値を乱数で
与え直す。
That is, the defective neuron evaluation value calculation device 23 receives the defective neuron evaluation value and the optimization parameter from the hidden layer optimization parameter database 16. Then, among the optimization parameters, the neuron weights are initialized in each intermediate layer by the “number of neurons to be initialized” (new initial values are set by random numbers).
Then, as the selection index of the neuron to be initialized at this time, the weight of the neuron is initialized in ascending order of the bad neuron evaluation value. As a specific example, for example, when the j-th neuron is initialized in the m-th layer, the following weight values are re-assigned with random numbers.

【0050】[0050]

【数6】w1j[m-1 ],w2j[m-1 ],…,w(pe(m-
1) )j[m-1 ] wj1[m],wj2[m],…,wj(pe(m+1) )[m] そして、上記初期化処理を行った後、すべての重みデー
タ並びにニューラルネット構造データをニューラルネッ
ト学習装置10並びに重みデータベース14に送る。
[Expression 6] w1j [m-1], w2j [m-1], ..., w (pe (m-
1)) j [m-1] wj1 [m], wj2 [m], ..., wj (pe (m + 1)) [m] Then, after performing the above initialization processing, all weight data and neural The net structure data is sent to the neural network learning device 10 and the weight database 14.

【0051】また、この中間層ニューロン重み初期化装
置26の他の機能としては、上記中間層ニューロン削減
装置24にて不良ニューロンの重みが「零」となり削除
されたものに対し、その重みを初期化し直すことで不良
ニューロンを復帰させる機能を付加しても良い。
Another function of the intermediate layer neuron weight initialization device 26 is to initialize the weight of the defective neuron reduced by the intermediate layer neuron reduction device 24 to "0". A function of restoring a defective neuron by re-establishing it may be added.

【0052】尚、初期化の方法としては、上記したごと
く乱数による設定のほかに、例えばある特定の値(大き
くても小さくても可)を初期値用重みデータとし、係る
値に設定するようにしても良く、種々の手段がとれる。
すなわち、要は初期化した結果、初期化後の重みと初期
化前の不良ニューロンと判断された時の重みとが一致す
る可能性が低くなるような初期化の方法であれば良い
(可能性が無いほうが望ましく、しかも、初期化前の重
みに対し、初期化後の重みが極端に違う値になるのが望
ましい)。
As an initialization method, in addition to the setting by the random number as described above, for example, a specific value (can be large or small) can be used as the initial value weight data and set to the value. However, various means can be taken.
In other words, the point is that the initialization method can reduce the possibility that the weight after initialization and the weight when it is determined as a bad neuron before initialization are less likely to match (probability Is desirable, and it is desirable that the weight after initialization be extremely different from the weight before initialization).

【0053】*中間層ニューロン最適化判定装置 本装置27では、誤差2乗和とその変化量算出装置21
並びに、正答率とその変化量算出装置22から各種デー
タを受け取る。そして、与えられた誤差2乗和,誤差2
乗和の変化量、正答率並びに正答率の変化量、さらに
は、不良ニューロンの初期化をおこなった回数等に基づ
いて、階層型ニューラルネットの状態、すなわち、学習
の習熟度(最適解に近付いている度合い)や局所解に陥
っていないか等の学習状態を判断し、中間層のニューロ
ンの数を最適なものにし、かつ、各重みを最適なものに
すべく中間層ニューロン削減装置24,中間層ニューロ
ン追加装置25並びに中間層ニューロン重み初期化装置
26に所定の命令信号を送るようになっている。また、
学習が十分か否かを判断し、学習続行信号をニューラル
ネット学習層10に送る働きも有している。
* Intermediate Layer Neuron Optimization Judgment Device In the present device 27, the error square sum and its change amount calculation device 21
Also, various data are received from the correct answer rate and its change amount calculation device 22. Then, the given sum of squared errors, error 2
The state of the hierarchical neural network, that is, the learning proficiency (approaching the optimal solution) based on the amount of change in the sum of sums, the correct answer rate, the amount of change in the correct answer rate, and the number of times the defective neurons are initialized. Level) and whether or not a local solution has fallen into the learning state, the number of neurons in the intermediate layer is optimized, and each weight is optimized in order to optimize each weight. A predetermined command signal is sent to the intermediate layer neuron adding device 25 and the intermediate layer neuron weight initializing device 26. Also,
It also has a function of judging whether or not the learning is sufficient and sending a learning continuation signal to the neural network learning layer 10.

【0054】そして、本実施例ではこの中間層ニューロ
ン最適化判定装置27並びに上述した誤差2乗和とその
変化量算出装置21,正当率とその変化量算出装置22
にて、本発明に係るニューラルネット学習装置から出力
される学習状況データに基づいて中間層のニューロン間
に付与されている重みが局所解に陥っているか否かを判
断する装置,学習が最適解に近付いている否かを判断す
る装置及び学習の状態を判断する装置を構成している。
In this embodiment, the hidden layer neuron optimization judging device 27, the above-mentioned error sum of squares and its change amount calculating device 21, and the correctness rate and its change amount calculating device 22.
A device for determining whether or not the weight given to the neurons in the intermediate layer falls into a local solution based on the learning situation data output from the neural network learning device according to the present invention, and learning is an optimal solution. And a device for determining the learning state.

【0055】次に、上記した装置を用い、本発明に係る
ニューラルネット最適化方法について図6〜図7を参照
しつつ説明する。まず、すべてのニューロンの重みを初
期化し、リセット回数(初期化を行った回数)を0に設
定するとともに、初期データとして正答率C1並びに誤
差2乗和E0を算出する(S101〜104)。そし
て、ニューラルネット学習装置10において所定回数学
習したなら(S105,106)、誤差2乗和E1を求
め(S107)、それと上記初期データの誤差2乗和E
0とから誤差2乗和の変化量dEを算出し(S10
8)、その値dEが所定の値(閾値(最適化パラメータ
として与えられている))より小さいか否かを判断する
(S109)。尚、本例では、判断式として「dE<閾
値」としたが、「dE≦閾値」としてもよいのはもちろ
んであり、以下同様に各種データと各閾値と比較するに
際し「=」を含ませるようにしても良い。
Next, the neural network optimizing method according to the present invention using the above apparatus will be described with reference to FIGS. 6 to 7. First, the weights of all neurons are initialized, the number of resets (the number of initializations) is set to 0, and the correct answer rate C1 and the error sum of squares E0 are calculated as initial data (S101 to 104). If the neural network learning device 10 has learned a predetermined number of times (S105, 106), the error sum of squares E1 is obtained (S107), and the error sum of squares E and the initial data is calculated.
The change amount dE of the sum of squared errors is calculated from 0 (S10
8) It is determined whether or not the value dE is smaller than a predetermined value (threshold value (given as an optimization parameter)) (S109). In this example, the determination formula is “dE <threshold”, but it is of course possible to set “dE ≦ threshold”. Similarly, “=” is included when comparing various data with each threshold. You may do it.

【0056】そして、変化量dEが大きい場合にはニュ
ーラルネットの重みがダイナミックに変化しており、重
みが最適解に近付いていない(収束していない)ことを
意味し、学習が不十分であると判断できる。よって、ス
テップ104に戻り再度学習を続行する。なお、ステッ
プ107で得られた誤差2乗和E1の値がステップ10
4にて次回の判断における比較対象の誤差2乗和E0と
なる。
When the amount of change dE is large, the weight of the neural network is dynamically changing, which means that the weight is not close to the optimal solution (not converged), and learning is insufficient. Can be judged. Therefore, the process returns to step 104 to continue learning again. Note that the value of the error sum of squares E1 obtained in step 107 is the value in step 10
At 4, the error sum of squares E0 to be compared in the next determination is obtained.

【0057】また、逆に上記変化量dEが小さい場合に
はニューラルネットの重みが収束に向かいつつあると判
断できるため、不良ニューロン評価値を算出する(S1
10)とともに、正答率C0を算出し(S111)、そ
の値C0が所定の値(閾値(最適化パラメータとして与
えられている))より小さいか否かを判断する(S11
2)。
On the contrary, when the change amount dE is small, it can be judged that the weight of the neural network is approaching the convergence, and therefore the defective neuron evaluation value is calculated (S1).
Along with 10), the correct answer rate C0 is calculated (S111), and it is determined whether or not the value C0 is smaller than a predetermined value (threshold value (given as an optimization parameter)) (S11).
2).

【0058】そして、正答率C0が大きい場合には、最
適解に近付いていると判断できるため、現在の中間層の
ニューロンの数で十分である(ニューロンを追加する必
要はない)と判断できる。よって、これよりもニューロ
ン数が少なくとも最適解が得られるかどうかを試すた
め、そのときの評価値の低い不良ニューロンを幾つか削
除した後学習を続行する。具体的には、そのときの正答
率C0をC1に置き換えると共に、すべてのニューロン
の重みデータを重みデータベース14に格納する(S1
13,114)。そして、所定の不良ニューロンを削除
すると共にリセット回数Rを0に設定した後(S11
5,116)、ステップ104に戻り、上記操作を繰り
返し行う。
When the correct answer rate C0 is large, it can be determined that the solution is close to the optimum solution, and therefore it can be determined that the current number of neurons in the intermediate layer is sufficient (no need to add neurons). Therefore, in order to test whether the optimal number of neurons is obtained at least, the learning is continued after deleting some defective neurons having a low evaluation value at that time. Specifically, the correct answer rate C0 at that time is replaced with C1, and the weight data of all neurons is stored in the weight database 14 (S1).
13, 114). Then, after deleting the predetermined defective neuron and setting the reset count R to 0 (S11
5, 116) and returns to step 104 to repeat the above operation.

【0059】一方、正答率C0が小さい場合には、学習
が不十分か或るいは局所解に陥っている可能性があるた
め、正答率の変化量を算出しそれが所定の値(閾値(最
適化パラメータとして与えられている))より小さいか
否かを判断する(S117)。そして、変化量が大きい
場合には、学習が不十分であると判断できさらなる学習
で正答率が上がる可能性があるため、そのときの正答率
C0をC1に置き換えた(S118)後、ステップ10
4に戻り学習を続行する。また、変化量が小さい場合に
は、局所解に陥っていると判断できるため、その状態か
ら打開して最適解を得るべく、評価値の低い不良ニュー
ロンの重みを初期化するか、或いは新たなニューロン中
間に追加する。そして、いずれの手段をとるかはリセッ
ト回数の多少により判断する。
On the other hand, when the correct answer rate C0 is small, there is a possibility that learning is insufficient or there is a local solution. Therefore, the change rate of the correct answer rate is calculated, and this is calculated as a predetermined value (threshold (threshold ( (Given as optimization parameter))) is smaller than (S117). When the amount of change is large, it can be determined that the learning is insufficient, and the correct answer rate may be increased by further learning. Therefore, the correct answer rate C0 at that time is replaced with C1 (S118), and then step 10 is performed.
Return to 4 to continue learning. If the amount of change is small, it can be determined that a local solution has fallen. Therefore, in order to break out from that state and obtain an optimal solution, the weight of the defective neuron with a low evaluation value is initialized or a new one is added. Add to the middle of the neuron. Then, which means to take is determined depending on the number of resets.

【0060】すなわち、そのときの正答率C0をC1に
置き換えた(S119)後、リセット数が所定の値(閾
値(最適化パラメータとして与えられている))より小
さいか否かを判断し(S120)、小さい場合(リセッ
ト回数が少ない)には、再度不良ニューロンに対して初
期化を行うことにより局所解から脱出する可能性がある
ため、その時のすべてのニューロンの重みデータを重み
データベース14に格納し(S121)、所定の不良ニ
ューロンの重みを初期化すると共にリセット回数Rに1
を加えた後(S122,123)、ステップ104に戻
り、上記操作を繰り返し行う。
That is, after the correct answer rate C0 at that time is replaced with C1 (S119), it is determined whether or not the reset number is smaller than a predetermined value (threshold value (given as an optimization parameter)) (S120). ), If it is small (the number of resets is small), the weight data of all the neurons at that time may be stored in the weight database 14 because there is a possibility that the defective neuron may be initialized to escape from the local solution. (S121), the weight of a predetermined defective neuron is initialized, and the reset count R is set to 1
After adding (S122, 123), the process returns to step 104 and the above operation is repeated.

【0061】一方、リセット回数が大きい場合には再度
不良ニューロンの初期化を行っても局所解から脱出でき
る可能性が低いため、中間層のニューロンの数が不十分
であると判断し、新たなニューロンを追加する。すなわ
ち、その時のすべてのニューロンの重みデータを重みデ
ータベース14に格納し(S124)、所定数のニュー
ロンを中間層に追加すると共にその追加したニューロン
の重みを初期化し(S125,126)、次いでリセッ
ト回数Rを0に設定した後(S127)、ステップ10
4に戻り、上記操作を繰り返し行う。なお、この追加の
態様としては、本例では、まったく新たにニューロンを
追加するものはもちろんのこと、ステップ115にて一
旦削除した不良ニューロンの重みに対して初期化を行う
ことにより係るニューロンを復帰させるものも含む。
On the other hand, if the number of resets is large, it is unlikely that the defective solution can be escaped from the local solution even if the defective neurons are initialized again. Add neurons. That is, the weight data of all the neurons at that time are stored in the weight database 14 (S124), a predetermined number of neurons are added to the intermediate layer, the weights of the added neurons are initialized (S125, 126), and then the number of resets is performed. After setting R to 0 (S127), step 10
Returning to step 4, the above operation is repeated. In this example, as a mode of this addition, not only a new neuron is added but also the weight of the defective neuron once deleted in step 115 is initialized to restore the neuron. Including those that cause

【0062】そして、上記した各処理を繰り返し行い、
ステップ106にてニューロン数並びに重みデータが十
分であると判断すると、ニューラルネット学習装置10
での学習を終了する。なお、この図6中のS109,S
112〜S119並びに図7に示すフロー部分が、中間
層ニューロン最適化判定装置27における、機能を示し
ている。
Then, the above-mentioned respective processes are repeated,
If it is determined in step 106 that the number of neurons and the weight data are sufficient, the neural network learning device 10
Finish the study in. Note that S109 and S in FIG.
112 to S119 and the flow portion shown in FIG. 7 show the functions of the intermediate layer neuron optimization determination device 27.

【0063】また、上記した実施例では、中間層ニュー
ロン最適化判定装置27の機能を、図6の一部並びに図
7に示すフローのようにしたが、それに替えて例えば図
9に示すような機能を有する装置とすることもできる。
すなわち、上記第1実施例では、作成された中間層ニュ
ーロンが最適か否かの判定装置27における判断基準と
して、誤差2乗和の変化量dE,正答率C0並びにその
正答率の変化量dCとしたが、本例ではそれに加えて、
まず誤差2乗和E1も判断基準に加えた。
Further, in the above-mentioned embodiment, the function of the hidden layer neuron optimization judging device 27 is as shown in a part of FIG. 6 and the flow shown in FIG. 7, but instead of this, for example, as shown in FIG. It may be a device having a function.
That is, in the first embodiment described above, the change amount dE of the error sum of squares, the correct answer rate C0, and the change amount dC of the correct answer rate thereof are used as the determination criteria in the determining device 27 as to whether or not the created intermediate layer neuron is optimal. However, in this example, in addition to that,
First, the error sum of squares E1 was also added to the criterion.

【0064】さらに、それら4つの判断基準の比較対象
となる閾値も、上記第1実施例のものでは、その後の処
理(ニューロンの追加,削除,重み初期化)の種類に関
係なく同一としたが、本例では、削除用の基準値と、そ
れ以外の基準値を設けた。すなわち、上記第1実施例で
は、誤差変化量の閾値として「th d sq err 」1つであ
ったのが、「dEth+ 」と「dEth- 」の2つに、正答
率の閾値として「th right」1つであったのが、「Cth
+ 」と「Cth- 」の2つに、正答率の変化量の閾値とし
て「th d right」1つであったのが、「dCth+ 」と
「dCth- 」の2つに設定し、さらに、新たに、誤差2
乗和の閾値として「Eth+ 」と「Eth- 」の2つが追加
された。それら各基準値は、図10に示すように中間層
最適化パラメータD/B16に格納されている。係る構
成としたことにより、本例では上記第1実施例に比し、
より高速かつ確実に最適解を得ることができるようにな
った。なお、図9中括弧で示した処理ステップは、実際
には中間層ニューロン最適化判定装置27にて決定され
た処理を行う中間層ニューロン削減装置24,中間層ニ
ューロン追加装置25並びに中間層ニューロン重み初期
化装置26の各装置で行われる。
Further, the thresholds to be compared with these four judgment criteria are also the same in the first embodiment, regardless of the types of subsequent processing (addition / deletion of neurons, weight initialization). In this example, reference values for deletion and other reference values are provided. That is, in the first embodiment, the threshold value of the error change amount is one “th d sq err”, but the two threshold values “dEth +” and “dEth−” and the threshold value of the correct answer rate are “th right”. "One was" Cth
"Th d right" was one of the thresholds for the change rate of the correct answer rate to "+" and "Cth-", but it was set to two of "dCth +" and "dCth-". New error 2
Two thresholds for sum of multiplication, "Eth +" and "Eth-", have been added. The respective reference values are stored in the intermediate layer optimization parameter D / B16 as shown in FIG. With this configuration, in this example, as compared with the first example,
It has become possible to obtain the optimal solution faster and more reliably. The processing steps shown in parentheses in FIG. 9 are the intermediate layer neuron reduction device 24, the intermediate layer neuron addition device 25, and the intermediate layer neuron weight that actually perform the processing determined by the intermediate layer neuron optimization determination device 27. This is performed by each device of the initialization device 26.

【0065】図11は、本発明の第3実施例を示してい
る。この実施例は、上記第2実施例(判定装置27にお
ける判断パラメータを4つにするとともに、各パラメー
タの閾値を判定後行う処理に応じて2つずつ設定したも
の)を基準にさらに改良を行ったものである。
FIG. 11 shows a third embodiment of the present invention. This embodiment is further improved on the basis of the above-mentioned second embodiment (one in which the determination device 27 has four determination parameters and two threshold values for each parameter are set according to the processing performed after determination). It is a thing.

【0066】まず、本実施例の概念について説明する
と、入出力パターンの分離曲面が複雑になるほど階層型
NNを構成する中間層のニューロン数が多く必要とな
り、必然的に学習速度並びに想起速度が遅くなってしま
う。ところで、例えば2入力1出力のシステムにおい
て、その入出力パターンが図12(A)に示すようにな
っているとすると、その分離曲面はK1となる。この
時、要求仕様として出力の種類(この例では「○」また
は「×」)に優先順位、すなわち、例えば誤判別しては
いけない領域(必然性領域)と、存在する可能性(誤判
別をしても良い)のある領域(可能性領域)があるとす
ると、各分離曲面K2,K3は同図(B)または同図
(C)に示すようになり、疑似的に簡単となる。したが
って、係る可能性・必然性領域を入力した状態で学習さ
せることにより、学習・想起速度を早くするようにして
いる。
First, the concept of this embodiment will be explained. As the separating curved surface of the input / output pattern becomes more complicated, the number of neurons in the intermediate layer constituting the hierarchical NN becomes larger, and the learning speed and the recall speed are inevitably slower. turn into. By the way, for example, in a 2-input 1-output system, if the input / output pattern is as shown in FIG. 12A, the separation curved surface is K1. At this time, the output specifications (“○” or “×” in this example) have a priority order as required specifications, that is, for example, an area (necessity area) that should not be erroneously discriminated and a possibility that it exists (even if erroneous discrimination is made). If there is a region (possibility region) with "good", each of the separating curved surfaces K2 and K3 will be as shown in FIG. Therefore, the learning / remembering speed is increased by performing the learning with the possibility / necessity area being input.

【0067】そして、実際には、出力誤差に乗算する係
数として出力誤差重みなる概念を設け、優先順位の高い
出力の属性の時は係る出力誤差重みを大きくし、優先順
位の低い出力の属性の時は逆に出力誤差重みを小さくす
ることにより、優先順位の高い出力の属性がニューラル
ネットの認識に与える影響を大きくし、その状態で学習
することにより優先順位の高い出力を確実に認識できる
ようになる。
In practice, the concept of output error weighting is provided as a coefficient for multiplying the output error, and the output error weighting is increased when the attribute of the output having a high priority is set, and the output error weighting of the attribute of the output having a low priority is set. On the contrary, by decreasing the output error weight, the effect of the attribute of the output with high priority on the recognition of the neural network is increased, and by learning in that state, the output with high priority can be surely recognized. become.

【0068】そして、具体例を示すと、ニューラルネッ
トが例えば良品・不良品の判別(認識)を行うような検
査装置に用いられるとすると、不良品に対して誤判別を
することは認められないが、良品を不良と誤判別するこ
とはある程度許容されるため、不良品の認識率は100
%となるが、良品の認識率は例えば99%というような
要求仕様が与えられこととなる。係る場合に、良品のカ
テゴリの学習用データの時は、出力誤差重みを小さく
(例えば0.8)とり、不良品のカテゴリの学習用デー
タの時は出力誤差重みを大きく(例えば1.0)とれば
よい。なお、本例では出力誤差重みの最大値が1.0
で、係る値を初期値としている。
As a concrete example, if the neural network is used in an inspection device for discriminating (recognizing) a non-defective product or a defective product, for example, it is not recognized that the defective product is erroneously discriminated. However, since it is permissible to misidentify a non-defective product as a defect to some extent, the recognition rate of a defective product is 100.
%, But a required specification such as a recognition rate of a non-defective product is 99%, for example. In such a case, the output error weight is set small (for example, 0.8) for the learning data of the good product category, and the output error weight is set large (for example, 1.0) for the learning data of the defective product category. You should take. In this example, the maximum value of the output error weight is 1.0
Then, such a value is used as an initial value.

【0069】ここで、上記優先順位に基づく出力誤差重
みの概念を実行するために、本例では、図11に示すよ
うにそれら所定の出力誤差重みデータOWを格納した出
力誤差重みデータベース18を設け、その出力誤差重み
データOWを考慮して各種評価を行うようにし、さらに
本例では、そのデータベース18に格納された重みデー
タOWを修正する出力誤差重み調整装置28を設けてい
る。なお、出力誤差重みデータは、図13(A)に示す
ようなデータ構造となっている。また、このように出力
誤差重みデータOWを設けたことから最適化処理用パラ
メータPも図13(B)に示すように、上記第2実施例
のものに対してさらに、出力誤差重みのリセット回数の
閾値Nowth 並びに出力誤差重みの修正量dOWを加えた構
造となっている。さらにdEth+ ,dCth+ は、出力誤
差重み調整時の各閾値を兼ねている。
Here, in order to execute the concept of the output error weight based on the above priority, in this example, an output error weight database 18 storing the predetermined output error weight data OW is provided as shown in FIG. The output error weight data OW is taken into consideration for various evaluations, and in this example, an output error weight adjusting device 28 for correcting the weight data OW stored in the database 18 is provided. The output error weight data has a data structure as shown in FIG. Since the output error weight data OW is provided in this way, the optimization processing parameter P is also set to the number of resets of the output error weight as compared with that of the second embodiment as shown in FIG. 13B. The threshold value Nowth and the output error weight correction amount dOW are added. Further, dEth + and dCth + also serve as respective threshold values when adjusting the output error weight.

【0070】そして本例では、上記各実施例における学
習結果に伴う各種修正(不良ニューロンの削除,新規ニ
ューロンの追加等)に加えて出力誤差重みの修正処理が
追加されたことから、上記各実施例における中間層ニュ
ーロン最適化判定装置27の機能に、出力誤差重みの修
正を行うか否かの判断機能を備える必要がある。そこで
図11に示すように、第1,第2実施例における中間層
ニューロン最適化判定装置27に替えて、最適化処理選
択装置29を設け、その最適化処理選択装置29の出力
を上記出力誤差重み調整装置28並びに不良ニューロン
評価値算出装置23′に入力し、さらにその不良ニュー
ロン評価値算出装置23′の出力が各中間層ニューロン
削除,追加,重み初期化装置24′,25′,26′に
接続された構成をとる。なお、この接続の仕方は、図1
に示すものと同様に最適化処理選択装置29の出力を上
記各装置24′,25′,26′に接続し、不良ニュー
ロン評価値算出装置23′には、学習装置10′等から
直接所定のデータを与えるようにしても同様の作用効果
が得られる。
In this example, the output error weight correction process is added in addition to various corrections (deletion of defective neuron, addition of new neuron, etc.) associated with the learning result in each of the above-described examples. The function of the intermediate layer neuron optimization determination device 27 in the example needs to have a determination function of whether or not to correct the output error weight. Therefore, as shown in FIG. 11, an optimization processing selection device 29 is provided in place of the intermediate layer neuron optimization determination device 27 in the first and second embodiments, and the output of the optimization processing selection device 29 is set to the above output error. It is input to the weight adjusting device 28 and the defective neuron evaluation value calculating device 23 ', and the output of the defective neuron evaluation value calculating device 23' is deleted, added, and weight initialization device 24 ', 25', 26 'for each intermediate layer neuron. Is connected to. The connection method is shown in Fig. 1.
Similar to the one shown in FIG. 5, the output of the optimization processing selection device 29 is connected to the above devices 24 ', 25', 26 ', and the defective neuron evaluation value calculation device 23' is directly specified by the learning device 10 'or the like. Even if data is given, the same effect can be obtained.

【0071】ここで、最適化処理選択装置29について
説明すると、ニューラルネット学習装置10′から出力
される階層型ニューラルネット重みデータW等、並びに
各種算出装置21′,22′で求められる誤差2乗和
E,正答率C及びその変化量dE,dC(具体的には図
14に示すようなデータ構造の形)を読み込み、最適化
処理用パラメータデータベース16′から最適化パラメ
ータPを読み込む。そして、与えられたデータから最適
化するための処理方法を決定するもので、具体的には図
15に示すフローチャートに従って判別処理がなされ、
次に行う処理(実行する装置)を決定する。なお、上記
求められる正答率変化量dC等、正答率に関するデータ
は図14と同様のデータ構造(行列)から構成される。
そして、この図15においても上記した図9の場合と同
様に、処理ステップ中括弧で示した処理は実際には次段
の各種装置(24′〜26′,28)で行われる。
Here, the optimization processing selection device 29 will be described. The hierarchical neural network weight data W output from the neural network learning device 10 ', and the error square obtained by the various calculation devices 21' and 22 '. The sum E, the correct answer rate C, and the variations dE and dC thereof (specifically, the form of the data structure shown in FIG. 14) are read, and the optimization parameter P is read from the optimization processing parameter database 16 '. Then, the processing method for optimizing is determined from the given data, and specifically, the determination processing is performed according to the flowchart shown in FIG.
The next process (device to be executed) is determined. The data regarding the correct answer rate, such as the calculated correct answer rate change amount dC, has the same data structure (matrix) as in FIG.
In this FIG. 15 as well, as in the case of FIG. 9 described above, the processing indicated by the curly braces is actually performed by the various devices (24'-26 ', 28) in the next stage.

【0072】そして、出力誤差の重み修正をすると決定
した場合には出力誤差重み調整装置28に、また、他の
修正等を行うと決定したなら、不良ニューロン評価値算
出装置23′にそれぞれ決定内容とともに所定のデータ
を送るようになっている。そして、不良ニューロン評価
値算出装置23′では、上記第1実施例と同様の処理を
行う、各ニューロンの評価値を求め、求められて来た決
定内容にしたがって、所定の装置(24′〜26′の内
のいずれか1つ)にその評価値とともに所定のデータを
送り、各種処理を行うようになっているが、各装置2
4′〜26′における具体的な処理内容は、上記実施例
と同様であるため、その説明を省略する。
If it is determined that the output error weight is to be corrected, the output error weight adjusting device 28 is selected. If it is determined that another correction is to be performed, the defective neuron evaluation value calculating device 23 'is selected. At the same time, predetermined data is sent. Then, the defective neuron evaluation value calculation device 23 'performs the same processing as in the first embodiment, obtains the evaluation value of each neuron, and according to the determined contents, a predetermined device (24'-26) Each of the devices 2'is configured to send predetermined data together with the evaluation value to any one of ‘
The specific processing contents in 4'to 26 'are the same as those in the above-mentioned embodiment, and therefore their explanations are omitted.

【0073】一方、出力誤差重み調整装置28は、上記
のように最適化処理選択装置29にて出力誤差重みを修
正すると判断された際に、係る装置29から最適化パラ
メータP,ニューラルネット重みデータWを読み込み、
出力誤差重みデータベース18′から、出力誤差重みデ
ータOWを読み込み、係るデータに基づいて出力誤差重
みデータOWを修正後、データベース28に修正後の内
容を保存・格納するもので、具体的には以下のようにな
っている。
On the other hand, the output error weight adjusting device 28, when the optimization process selecting device 29 determines to correct the output error weight, as described above, the device 29 adjusts the optimization parameter P and the neural network weight data. Read W,
The output error weight data OW is read from the output error weight database 18 ', the output error weight data OW is corrected based on the data, and the corrected contents are stored / stored in the database 28. It looks like.

【0074】すなわち、基本的には、要求仕様を満たし
ている出力に対する出力誤差重みを、減少させるように
修正する。つまり、下記式に従って、左辺に該当する出
力誤差重みは、最適化パラメータPに格納された出力誤
差重みの修正量dOWだけ、減算する。
That is, basically, the output error weight for the output satisfying the required specifications is corrected so as to be reduced. That is, according to the following formula, the output error weight corresponding to the left side is subtracted by the correction amount dOW of the output error weight stored in the optimization parameter P.

【0075】 if c lth+(i) ≦ C l(i) & dOW ≦ ow l(i) then ow l(i) = ow l(i) − dOW if c hth+(i) ≦ C h(i) & dOW ≦ ow h(i) then ow h(i) = ow h(i) − dOW 但し、「c l(i)」は、di[j] =0.0 の時のi番目の正答
率であり、「c h(i)」は、di[j] =1.0 の時のi番目の
正答率である。同様に、「c lth+(i) 」は、di[j] =0.
0 の時のi番目の正答率の閾値(要求仕様)であり、
「c hth+(i) 」は、di[j] =1.0 の時のi番目の正答率
の閾値(要求仕様)である(ともに、ニューロン重みリ
セット・追加・出力誤差重み修正時)。また、「ow h
(i) 」は、di[j] =1.0 の時のi番目の出力誤差重みで
ある。「ow l(i) 」は、di[j] =0.0の時のi番目の出
力誤差重みであり、「ow h(i) 」は、di[j] =1.0 の時
のi番目の出力誤差重みである。なお、i=1,2,…,pe3
で、出力層ニューロンの順番を示し(peL は、出力層
(第L層)のニューロン数)、di[j] は、j番目のパタ
ーン出力層i番目のニューロンに対する期待出力データ
である。
If c lth + (i) ≤ C l (i) & dOW ≤ ow l (i) then ow l (i) = ow l (i) − dOW if c hth + (i) ≤ C h (i) & dOW ≤ ow h (i) then ow h (i) = ow h (i) -dOW where "cl (i)" is the i-th correct answer rate when di [j] = 0.0, and "ch (i) ”is the i-th correct answer rate when di [j] = 1.0. Similarly, "c lth + (i)" is di [j] = 0.
It is the i-th correct answer threshold value (required specification) when 0,
“C hth + (i)” is the threshold value (required specification) of the i-th correct answer rate when di [j] = 1.0 (both at the time of neuron weight reset / addition / output error weight correction). Also, "ow h
(i) ”is the i-th output error weight when di [j] = 1.0. "Ow l (i)" is the i-th output error weight when di [j] = 0.0, and "ow h (i)" is the i-th output error weight when di [j] = 1.0. It is a weight. Note that i = 1,2, ..., pe3
Here, the order of output layer neurons is shown (peL is the number of neurons in the output layer (Lth layer)), and di [j] is expected output data for the j-th pattern output layer and the i-th neuron.

【0076】そして、係る構成にすることにより、要求
仕様を満たしている出力、すなわち、それまでに学習さ
れたニューラルネットにて十分に正しく認識できるもの
に付いては、その出力誤差重みを減少させ、その後の学
習では、学習結果の好ましくない、つまり要求仕様を満
たしていない教師用入力データと期待出力データのペア
について重点的に学習をすることにより、より高速に学
習を行い、最適解を得ることができる。
With this configuration, the output error weight is reduced for outputs that satisfy the required specifications, that is, for outputs that can be recognized correctly by the neural nets learned up to that point. , In the subsequent learning, the learning result is faster, and the optimal solution is obtained by focusing the learning on the pair of the input data for the teacher and the expected output data that do not satisfy the required specifications be able to.

【0077】なお、その他の構成並びに作用は上記した
各実施例と同様であるためその説明を省略する。そし
て、本実施例における装置全体の作用の概略処理フロー
を図16に示す。
The rest of the configuration and operation are the same as those of the above-mentioned embodiments, so the description thereof will be omitted. Then, FIG. 16 shows a schematic processing flow of the operation of the entire apparatus in the present embodiment.

【0078】図17は、本発明の第4実施例を示してい
る。この例では、本発明の最も簡単な構成の1つであ
り、上記した第3実施例と同様に可能性・必然性領域な
る概念を用い、出力誤差に出力誤差重みデータを乗算し
て得られた算出結果に基づいて、学習状況の評価を行う
ことを基本とし、出力誤差重みデータ調整装置28′に
より、学習結果に応じて出力誤差重みデータを修正し、
修正後の出力誤差重みデータに基づいて次に行った学習
の評価を行うようにしている。そして、上記各実施例と
相違して、中間層ニューロンの追加・削減処理並びに重
みのリセット処理を行うための各種装置(上記の24〜
26や24′〜26′等)を設けないようにした。
FIG. 17 shows a fourth embodiment of the present invention. This example is one of the simplest configurations of the present invention, and is obtained by multiplying the output error by the output error weight data using the concept of the possibility / necessity region as in the case of the third embodiment. The output error weight data adjusting device 28 'corrects the output error weight data according to the learning result, based on the evaluation of the learning status based on the calculation result.
The learning performed next is evaluated based on the corrected output error weight data. And, unlike the above-mentioned respective embodiments, various devices for performing the addition / reduction processing of the intermediate layer neurons and the weight reset processing (the above 24 to 24).
26 and 24 'to 26') are not provided.

【0079】そして、中間層ニューロンに対する処理装
置を設置しないことから、所定の学習後次に学習をする
前に必要に応じて行う最適化処理としては、出力誤差重
みデータの修正だけとなるため、中間層ニューロン最適
化判定装置27′における機能も図18に示すように簡
略化される。なお、係る構成にすると、中間層ニューロ
ンの追加/削除などする上記した第3実施例に比較する
とその機能は低下するものの、出力誤差重みデータを修
正する機能を有することから、学習中の出力誤差重みを
自動的に決定でき、単に可能性・必然性領域を設定して
行うものに比しその学習速度が十分高速化する。
Since no processing device is installed for the middle-layer neurons, the output error weight data is only corrected as an optimization process that is performed as necessary after the predetermined learning and before the next learning. The function of the intermediate layer neuron optimization determining device 27 'is also simplified as shown in FIG. With such a configuration, although its function is lower than that of the above-described third embodiment such as addition / deletion of hidden layer neurons, since it has a function of correcting the output error weight data, the output error during learning is The weights can be automatically determined, and the learning speed is sufficiently high compared to the one in which the possibility / necessity area is simply set.

【0080】なお、上記した各実施例は、本発明の一態
様例であり、本発明はこれに限ること無く、例えば、学
習処理を行いながらニューロンの数の適正化否かを判断
し、必要に応じて不良ニューロンを削除するだけでも良
い。また、それとは逆に学習中に中間層のニューロンの
数が不足であると判断した場合に、中間層に新たなニュ
ーロンを追加するようにするだけでも良い。さらには、
上記追加の作業に変えて、或いはそれと共に一度削除し
た不良ニューロンを復帰するようにしても良く、本発明
では任意の工程を適宜抽出し組み合わせて階層型ニュー
ラルネットの最適化を図ることができる。
The above-described embodiments are merely examples of the present invention, and the present invention is not limited to this. For example, it is necessary to judge whether or not the number of neurons should be optimized while performing learning processing. It is also possible to simply delete the bad neuron according to. On the contrary, if it is determined that the number of neurons in the intermediate layer is insufficient during learning, a new neuron may be added to the intermediate layer. Moreover,
Instead of the above-mentioned additional work, or the defective neuron once deleted may be restored together with it, and in the present invention, an arbitrary step can be appropriately extracted and combined to optimize the hierarchical neural network.

【0081】そして、上記のように所望の処理を行う場
合には、それに応じて使用する最適化装置の構成部材
(不良ニューロン評価値算出装置23,中間層ニューロ
ン削減装置24,中間層ニューロン追加装置25並びに
中間層ニューロン重み初期化装置26等)のうち処理に
不要な構成を除き、他の構成部材を適宜組み合わせるこ
とにより最適化装置を構成しても良いのはもちろんであ
る。
When the desired processing is performed as described above, the components of the optimizing device used accordingly (the defective neuron evaluation value calculating device 23, the intermediate layer neuron reducing device 24, the intermediate layer neuron adding device). 25 and the intermediate layer neuron weight initialization device 26, etc.), the configuration of the optimization device may be configured by appropriately combining other components except the configuration unnecessary for processing.

【0082】さらには、第3実施例(図11)で示した
構成のうち、例えば出力誤差重み調整装置を無くし、出
力誤差重みデータベース18に格納された出力誤差重み
データOWを用いて各種評価を行い、次に行う中間層ニ
ューロンに対する所定の処理(追加,削減,重み初期
化)を決定するようにしても良い。さらに係る場合、上
記した各変形例と同様に、それら中間層ニューロンに対
して行う3つの処理のうち1または2個を行うための処
理装置をさらに設けなくても良い。
Further, in the configuration shown in the third embodiment (FIG. 11), for example, the output error weight adjusting device is omitted and various evaluations are performed using the output error weight data OW stored in the output error weight database 18. The predetermined processing (addition, reduction, weight initialization) for the intermediate layer neuron to be performed next may be determined. Further, in this case, as in the above-described modified examples, it is not necessary to further provide a processing device for performing one or two of the three processes performed on the intermediate layer neurons.

【0083】さらにまた、上記第3実施例では、第2実
施例の構造の装置を基準としてそれに出力誤差重みデー
タ調整装置を設置した例について説明したが、第1実施
例のもの(中間層ニューロンが最適か否かの判断基準が
少ない)に、出力誤差重みデータベースとともに設置す
るようにしても良く、種々変更実施が可能である。
Furthermore, in the third embodiment, an example in which the output error weight data adjusting device is installed on the device having the structure of the second embodiment as a reference has been described. May be installed together with the output error weight database, and various changes can be made.

【0084】さらに、上記した実施例では、ニューラル
ネットの学習方法としてバックプロパゲーションを用い
た例について説明したが、学習方法は任意のものを利用
することができる。また、不良ニューロンの抽出方法と
して、上記した実施例では、不良ニューロン評価値の低
いものから順に所定数だけ抽出するようにしたが、本発
明はこれに限ることなく、例えば係る不良ニューロン評
価値が所定値を超えるか否かで判断するなど種々の方法
を採ることができる。
Further, in the above-mentioned embodiment, an example in which back propagation is used as the learning method of the neural network has been described, but any learning method can be used. Further, as the method of extracting defective neurons, in the above-described embodiment, a predetermined number of defective neuron evaluation values are extracted in order, but the present invention is not limited to this, and, for example, Various methods can be adopted, such as determining whether or not the value exceeds a predetermined value.

【0085】[0085]

【発明の効果】以上のように、本発明に係る階層型ニュ
ーラルネットの最適化方法及び装置では、学習の最中に
中間層にニューロンを追加し、再度学習を続行すること
により、たとえ学習により得られた重みが局所解に陥っ
ていたとしてもそれから脱出し、最適解を得ることがで
きる。
As described above, in the method and apparatus for optimizing a hierarchical neural network according to the present invention, a neuron is added to the intermediate layer during learning and learning is continued again. Even if the obtained weight falls into a local solution, it is possible to escape from it and obtain an optimal solution.

【0086】また、中間層を構成する各ニューロンに対
し入力データの認識に貢献している度合いをあらわす不
良ニューロン評価値を求め、その評価値に基づいて不良
ニューロンを決定し、その不良ニューロンを所定のタイ
ミングで削除することにより、ニューロン数の削減に伴
い使用するメモリの容量を小さくすることができるとと
もに高速処理が可能となる。
Further, a defective neuron evaluation value representing the degree of contribution to the recognition of the input data is obtained for each neuron constituting the intermediate layer, the defective neuron is determined based on the evaluation value, and the defective neuron is predetermined. By deleting at the timing of, the capacity of the memory used can be reduced as the number of neurons is reduced, and high-speed processing becomes possible.

【0087】さらに、必要に応じて係る不良ニューロン
の重みを初期化し、学習を続行することにより、局所解
から脱出し、最適解を得ることができる。そして、学習
状況に応じてニューロン数を増減することにより、認識
率を上げつつ処理速度が増加し、しかもコストを下げる
ことができる。また、一度削除されたニューロンが復帰
するようにしたことにより、たとえ誤って削除してしま
い認識率の低下などの弊害が生じたとしても、元の状態
に復帰させることができる。さらにまた、出力誤差重み
調整装置等を設けることにより、より高速に学習を行
い、最適解を求めることができる。
Furthermore, by initializing the weight of the defective neuron as necessary and continuing the learning, it is possible to escape from the local solution and obtain the optimum solution. Then, by increasing or decreasing the number of neurons according to the learning situation, it is possible to increase the recognition rate, increase the processing speed, and reduce the cost. Further, by allowing the once deleted neuron to recover, even if it deletes by mistake and a problem such as a decrease in recognition rate occurs, it can be recovered to the original state. Furthermore, by providing an output error weight adjusting device or the like, it is possible to perform learning at a higher speed and obtain an optimum solution.

【0088】さらに、出力誤差重みデータを考慮して学
習後のニューラルネットに対する各種評価を行うように
した場合には、可能性/必然性領域の概念が導入され、
要求仕様を満たす最適解に、高速に達することができ
る。そして、出力誤差重み調整手段を設けた場合には、
初期設定された出力誤差重みデータを、学習状況に応じ
て修正し、自動的に決定することができ、修正後の出力
誤差重みデータを用い各種評価を行うことになり、より
高速に学習が終了させることができる。
Furthermore, when various evaluations are performed on the neural network after learning in consideration of the output error weight data, the concept of the possibility / necessity region is introduced,
The optimal solution that meets the required specifications can be reached at high speed. When the output error weight adjusting means is provided,
The output error weight data that has been initialized can be corrected and automatically determined according to the learning situation, and various evaluations will be performed using the corrected output error weight data, and learning will end faster. Can be made

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明に係る階層型ニューラルネット最適化装
置の好適な一実施例を示すブロック構成図である。
FIG. 1 is a block diagram showing a preferred embodiment of a hierarchical neural network optimization device according to the present invention.

【図2】学習用データベース内に格納されたデータ構造
の一例を示す図である。
FIG. 2 is a diagram showing an example of a data structure stored in a learning database.

【図3】重みデータベース内に格納されたデータ構造の
一例を示す図である。
FIG. 3 is a diagram showing an example of a data structure stored in a weight database.

【図4】中間層最適化パラメータデータベース内に格納
されたデータ構造の一例を示す図である。
FIG. 4 is a diagram showing an example of a data structure stored in a middle layer optimization parameter database.

【図5】不良ニューロン評価値のデータ構造の一例を示
す図である。
FIG. 5 is a diagram showing an example of a data structure of a defective neuron evaluation value.

【図6】本発明に係る階層型ニューラルネットの最適化
方法の好適な一実施例を示すフローチャート図の一部で
ある。
FIG. 6 is a part of a flow chart showing a preferred embodiment of the optimization method of the hierarchical neural network according to the present invention.

【図7】図6に示されるフローチャート図の続きを示す
分図である。
FIG. 7 is a partial diagram showing a continuation of the flowchart shown in FIG. 6;

【図8】図6,図7で示される作業手順の要部を示す工
程図である。
8 is a process diagram showing a main part of the work procedure shown in FIGS. 6 and 7. FIG.

【図9】本発明に係る階層型ニューロンの最適化装置の
第2実施例の要部である、中間層ニューロン最適化判定
装置の機能を説明するフローチャート図である。
FIG. 9 is a flow chart diagram for explaining the function of an intermediate layer neuron optimization determination device, which is a main part of a second embodiment of a hierarchical neuron optimization device according to the present invention.

【図10】本実施例に用いられる最適化パラメータのデ
ータ構造の一例を示す図である。
FIG. 10 is a diagram showing an example of a data structure of optimization parameters used in this embodiment.

【図11】本発明に係る階層型ニューロンの最適化装置
の第3実施例を示すブロック構成図である。
FIG. 11 is a block diagram showing a third embodiment of the optimization apparatus for hierarchical neurons according to the present invention.

【図12】出力誤差重みデータの機能を説明する図であ
る。
FIG. 12 is a diagram illustrating a function of output error weight data.

【図13】本実施例における出力誤差重みデータ並びに
最適化パラメータのデータ構造の一例を示す図である。
FIG. 13 is a diagram showing an example of a data structure of output error weight data and optimization parameters in the present embodiment.

【図14】本実施例における正答率のデータ構造の一例
を示す図である。
FIG. 14 is a diagram showing an example of a data structure of a correct answer rate in the present embodiment.

【図15】本実施例の最適化処理選択装置の機能を説明
するフローチャート図である。
FIG. 15 is a flowchart illustrating the functions of the optimization processing selection device of this embodiment.

【図16】本実施例の装置の全体の作用を説明するフロ
ーチャート図である。
FIG. 16 is a flow chart for explaining the overall operation of the apparatus of this embodiment.

【図17】本発明に係る階層型ニューロンの最適化装置
の第4実施例を示すブロック構成図である。
FIG. 17 is a block diagram showing a fourth embodiment of the optimization apparatus for hierarchical neurons according to the present invention.

【図18】本実施例の中間層ニューロン最適化判定装置
の機能を説明するフローチャート図である。
FIG. 18 is a flow chart diagram illustrating the function of the hidden layer neuron optimization determination apparatus of the present embodiment.

【図19】局所解と最適解の関係の一例を示すグラフで
ある。
FIG. 19 is a graph showing an example of the relationship between the local solution and the optimum solution.

【符号の説明】[Explanation of symbols]

10 ニューラルネット学習装置 18′ 出力誤差重みデータD/B 20,20′,20″ 階層型ニューラルネット最適化
装置 21,21′,21″ 誤差2乗和とその変化量算出装
置 22,22′,22″ 正答率とその変化量算出装置 23,23′,23″ 不良ニューロン評価値算出装置 24,24′,24″ 中間層ニューロン削減装置 25,25′,25″ 中間層ニューロン追加装置 26,26′,26″ 中間層ニューロン重み初期化装
置 27,27′,27″ 中間層ニューロン最適化判定装
置 28,28″ 出力誤差重み調整装置 29 最適化処理選択装置
10 Neural network learning device 18 'Output error weight data D / B 20, 20', 20 "Hierarchical neural network optimizing device 21, 21 ', 21" Error sum of squares and its variation calculation device 22, 22', 22 "Correct answer rate and its change amount calculation device 23, 23 ', 23" Bad neuron evaluation value calculation device 24, 24', 24 "Intermediate layer neuron reduction device 25, 25 ', 25" Intermediate layer neuron addition device 26, 26 ′, 26 ″ Intermediate layer neuron weight initialization device 27, 27 ′, 27 ″ Intermediate layer neuron optimization determination device 28, 28 ″ Output error weight adjustment device 29 Optimization processing selection device

Claims (12)

【特許請求の範囲】[Claims] 【請求項1】 階層型ニューラルネットに対して所定の
学習を行っている途中で、中間層のニューロン間に付与
されている重みが局所解に陥っているか否かを判断し、
局所解に陥っているときに前記中間層の所定位置に新た
なニューロンを追加するようにしたことを特徴とする階
層型ニューラルネットの最適化方法。
1. While performing a predetermined learning on a hierarchical neural network, it is determined whether or not the weight given to the neurons in the intermediate layer falls into a local solution,
A method for optimizing a hierarchical neural network, characterized in that a new neuron is added to a predetermined position of the intermediate layer when a local solution is encountered.
【請求項2】 階層型ニューラルネットに対して学習を
行うニューラルネット学習装置と、 そのニューラルネット学習装置から出力される学習状況
データに基づいて中間層のニューロン間に付与されてい
る重みが局所解に陥っているか否かを判断する装置と、 その判断する装置から送られる制御信号に基づいて前記
中間層に新たなニューロンを追加する中間層ニューロン
追加装置とを備えたことを特徴とする階層型ニューラル
ネットの最適化装置。
2. A neural network learning device that performs learning on a hierarchical neural network, and weights given to neurons in an intermediate layer based on learning status data output from the neural network learning device are local solutions. And a device for determining whether or not the device has fallen into the intermediate layer, and an intermediate layer neuron adding device for adding a new neuron to the intermediate layer based on a control signal sent from the determining device. Neural network optimization device.
【請求項3】 階層型ニューラルネットに対して所定の
学習を行っている途中で、中間層を構成する各ニューロ
ンに対し入力データの認識に貢献している度合いをあら
わす不良ニューロン評価値を求め、その評価値に基づい
て不良ニューロンを決定し、その不良ニューロンを所定
のタイミングで削除した後、学習を続行するようにした
ことを特徴とする階層型ニューラルネットの最適化方
法。
3. A defective neuron evaluation value, which indicates the degree of contribution to the recognition of input data, is obtained for each neuron that constitutes an intermediate layer during the predetermined learning for a hierarchical neural network, A method for optimizing a hierarchical neural network, characterized in that a defective neuron is determined based on the evaluation value, the defective neuron is deleted at a predetermined timing, and then learning is continued.
【請求項4】 階層型ニューラルネットに対して学習を
行うニューラルネット学習装置と、 そのニューラルネット学習装置から出力される学習状況
データに基づいて中間層を構成する各ニューロンに対し
入力データの認識に貢献している度合いをあらわす不良
ニューロン評価値を算出する不良ニューロン評価値算出
装置と、 前記ニューラルネット学習装置から出力される学習状況
データに基づいて学習が最適解に近付いている否かを判
断する装置と、 その判断する装置から送られる制御信号と、前記不良ニ
ューロン評価値算出装置から送られる不良ニューロンの
評価値データとに基づいて、前記中間層の不良ニューロ
ンを削除する中間層ニューロン削減装置とを備えたこと
を特徴とする階層型ニューラルネットの最適化装置。
4. A neural network learning device for learning a hierarchical neural network, and recognition of input data for each neuron constituting an intermediate layer based on learning situation data output from the neural network learning device. A defective neuron evaluation value calculation device that calculates a defective neuron evaluation value indicating the degree of contribution, and whether learning is close to an optimal solution is determined based on the learning situation data output from the neural network learning device. A device, a control signal sent from the device for judging the device, and an intermediate layer neuron reduction device for deleting the defective neuron in the intermediate layer based on the evaluation value data of the defective neuron sent from the defective neuron evaluation value calculation device. An apparatus for optimizing a hierarchical neural network, characterized by comprising:
【請求項5】 階層型ニューラルネットに対して所定の
学習を行っている途中で、中間層を構成する各ニューロ
ンに対し入力データの認識に貢献している度合いをあら
わす不良ニューロン評価値を求め、その評価値に基づい
て不良ニューロンを決定し、所定のタイミングでその不
良ニューロンに対し付与されている重みを初期化した
後、学習を続行するようにしたことを特徴とする階層型
ニューラルネットの最適化方法。
5. A defective neuron evaluation value, which represents the degree of contribution to the recognition of input data, is obtained for each neuron that constitutes an intermediate layer during the predetermined learning performed on the hierarchical neural network, Optimal hierarchical neural network characterized by determining a defective neuron based on the evaluation value, initializing the weight given to the defective neuron at a predetermined timing, and continuing learning Method.
【請求項6】 階層型ニューラルネットに対して学習を
行うニューラルネット学習装置と、 そのニューラルネット学習装置から出力される学習状況
データに基づいて中間層を構成する各ニューロンに対し
入力データの認識に貢献している度合いをあらわす不良
ニューロン評価値を算出する不良ニューロン評価値算出
装置と、 そのニューラルネット学習装置から出力される学習状況
データに基づいて中間層のニューロン間に付与されてい
る重みが局所解に陥っているか否かを判断する装置と、 その判断する装置から送られる制御信号と、前記不良ニ
ューロン評価値算出装置から送られる不良ニューロンの
評価値データとに基づいて、前記中間層の不良ニューロ
ンの重みを初期化する中間層ニューロン重み初期化装置
とを備えたことを特徴とする階層型ニューラルネットの
最適化装置。
6. A neural network learning device for learning a hierarchical neural network, and recognition of input data for each neuron constituting an intermediate layer based on learning situation data output from the neural net learning device. A defective neuron evaluation value calculation device that calculates a defective neuron evaluation value that expresses the degree of contribution, and the weights assigned between neurons in the intermediate layer based on the learning situation data output from the neural network learning device. A device that determines whether or not a solution is present, a control signal that is sent from the device that determines whether the solution is in solution, and defective neuron evaluation value data that is sent from the defective neuron evaluation value calculation device. And a middle-layer neuron weight initialization device for initializing neuron weights. Optimization device for hierarchical neural networks.
【請求項7】 階層型ニューラルネットに対して所定の
学習を行っている途中で、前記請求項1並びに前記請求
項3に記載した手法を用い、中間層のニューロンの追加
処理と削除処理を適宜使い分けながら実行するようにし
たことを特徴とする階層型ニューラルネットの最適化方
法。
7. A method of adding and deleting neurons in an intermediate layer is appropriately performed by using the method described in claim 1 or 3 while performing a predetermined learning on a hierarchical neural network. A method for optimizing a hierarchical neural network, which is characterized in that it is executed while being used properly.
【請求項8】 前記請求項3または請求項7の処理を行
って一度削除された不良ニューロンを復帰させた後、学
習を続行させることを特徴とする階層型ニューラルネッ
トの最適化方法。
8. A method for optimizing a hierarchical neural network, which comprises performing the process according to claim 3 or claim 7 to restore a once deleted defective neuron and then continuing learning.
【請求項9】 階層型ニューラルネットに対して学習を
行うニューラルネット学習装置と、 そのニューラルネット学習装置から出力される学習状況
データに基づいて中間層を構成する各ニューロンに対し
入力データの認識に貢献している度合いをあらわす不良
ニューロン評価値を算出する不良ニューロン評価値算出
装置と、 前記ニューラルネット学習装置から出力される学習状況
データに基づいて学習の状態を判断する装置と、 その判断する装置から送られる制御信号に基づいて前記
中間層に新たなニューロンを追加する中間層ニューロン
追加装置と、 前記判断する装置から送られる制御信号と、前記不良ニ
ューロン評価値算出装置から送られる不良ニューロンの
評価値データとに基づいて、前記中間層の不良ニューロ
ンを削除する中間層ニューロン削減装置と、 前記中間層のニューロンの重みを初期化する中間層ニュ
ーロン重み初期化装置とを備えたことを特徴とする階層
型ニューラルネットの最適化装置。
9. A neural network learning device for learning a hierarchical neural network, and recognition of input data for each neuron constituting an intermediate layer based on learning situation data output from the neural network learning device. Defective neuron evaluation value calculation device for calculating a defective neuron evaluation value representing the degree of contribution, a device for judging a learning state based on learning situation data output from the neural network learning device, and a device for judging the learning state A device for adding a new neuron to the intermediate layer based on a control signal sent from the device, a control signal sent from the device for judging, and an evaluation of a defective neuron sent from the defective neuron evaluation value calculation device. An intermediate layer for eliminating bad neurons in the intermediate layer based on the value data and Yuron reduction apparatus and optimization system of the hierarchical neural network which is characterized in that an intermediate layer neuron weights initialization device for initializing the weights of the neurons of the intermediate layer.
【請求項10】 請求項2,4,6,9のいずれか1項
に記載された階層型ニューラルネットの最適化装置に対
し、 与えられる要求仕様に基づいて設定される出力誤差重み
データを格納した記憶手段を設け、 前記各種の判断する装置が、前記記憶手段に格納された
出力誤差重みデータを考慮して前記各種の判断を行うよ
うにしたことを特徴とする階層型ニューラルネットの最
適化装置。
10. The output error weight data set based on a required specification is stored in the hierarchical neural network optimizing device according to any one of claims 2, 4, 6, and 9. The optimization of the hierarchical neural network is characterized in that the device for making various judgments is adapted to make the various judgments in consideration of the output error weight data stored in the memory means. apparatus.
【請求項11】 請求項10に記載の階層型ニューラル
ネットの最適化装置に対し、 前記記憶手段に格納された出力誤差重みデータを修正す
る出力誤差重み調整手段を設け、 前記判断する手段が、前記出力誤差重みデータを修正す
るか否かの判断機能をさらに備えたことを特徴とする階
層型ニューラルネットの最適化装置。
11. The optimization apparatus for a hierarchical neural network according to claim 10, further comprising output error weight adjustment means for correcting the output error weight data stored in the storage means, and the determination means, An optimization apparatus for a hierarchical neural network, further comprising a function of determining whether to correct the output error weight data.
【請求項12】 階層型ニューラルネットに対して学習
を行うニューラルネット学習装置と、 所定の出力誤差重みデータを格納した記憶手段と、その
ニューラルネット学習装置から出力される学習状況デー
タと、前記記憶手段から与えられる出力誤差重みデータ
に基づいて、学習状況を判断し前記出力誤差重みデータ
の修正の要否を判断する手段と、 前記判断する手段の判断結果に基づいて、前記出力誤差
重みデータを修正するとともにその修正後の出力誤差重
みデータ前記記憶手段に格納する出力誤差重み調整手段
とを備えた階層型ニューラルネットの最適化装置。
12. A neural network learning device for performing learning on a hierarchical neural network, storage means for storing predetermined output error weight data, learning status data output from the neural network learning device, and the storage. Based on the output error weight data provided from the means, a means for determining the learning status to determine whether or not the output error weight data needs to be corrected, and the output error weight data based on the determination result of the determining means. An apparatus for optimizing a hierarchical neural network, which comprises an output error weight adjusting means for correcting and storing the corrected output error weight data in the storage means.
JP4314305A 1991-11-11 1992-10-30 Method for optimizing hierarchical neural network and device therefor Pending JPH05197821A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP4314305A JPH05197821A (en) 1991-11-11 1992-10-30 Method for optimizing hierarchical neural network and device therefor

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP32148191 1991-11-11
JP3-321481 1991-11-11
JP4314305A JPH05197821A (en) 1991-11-11 1992-10-30 Method for optimizing hierarchical neural network and device therefor

Publications (1)

Publication Number Publication Date
JPH05197821A true JPH05197821A (en) 1993-08-06

Family

ID=26567895

Family Applications (1)

Application Number Title Priority Date Filing Date
JP4314305A Pending JPH05197821A (en) 1991-11-11 1992-10-30 Method for optimizing hierarchical neural network and device therefor

Country Status (1)

Country Link
JP (1) JPH05197821A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005352900A (en) * 2004-06-11 2005-12-22 Canon Inc Device and method for information processing, and device and method for pattern recognition
WO2007096954A1 (en) * 2006-02-22 2007-08-30 Saga University Neural network device and its method
CN103902783B (en) * 2014-04-11 2017-03-01 北京工业大学 A kind of drainage pipeline networks optimization method dividing algorithm based on the reverse poor learning of broad sense
JP2019530105A (en) * 2016-10-10 2019-10-17 ディープマインド テクノロジーズ リミテッド Neural network for selecting actions to be performed by robot agents
US10460236B2 (en) 2015-08-07 2019-10-29 Toyota Jidosha Kabushiki Kaisha Neural network learning device
JP2020161031A (en) * 2019-03-28 2020-10-01 株式会社日立製作所 Computer system and control method of machine learning
CN112534446A (en) * 2018-09-10 2021-03-19 日立汽车系统株式会社 Electronic control device and neural network updating system

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005352900A (en) * 2004-06-11 2005-12-22 Canon Inc Device and method for information processing, and device and method for pattern recognition
US8015130B2 (en) 2004-06-11 2011-09-06 Canon Kabushiki Kaisha Information processing apparatus, information processing method, pattern recognition apparatus, and pattern recognition method
WO2007096954A1 (en) * 2006-02-22 2007-08-30 Saga University Neural network device and its method
JP5002821B2 (en) * 2006-02-22 2012-08-15 国立大学法人佐賀大学 Neural network device and method thereof
CN103902783B (en) * 2014-04-11 2017-03-01 北京工业大学 A kind of drainage pipeline networks optimization method dividing algorithm based on the reverse poor learning of broad sense
US10460236B2 (en) 2015-08-07 2019-10-29 Toyota Jidosha Kabushiki Kaisha Neural network learning device
JP2019530105A (en) * 2016-10-10 2019-10-17 ディープマインド テクノロジーズ リミテッド Neural network for selecting actions to be performed by robot agents
US11534911B2 (en) 2016-10-10 2022-12-27 Deepmind Technologies Limited Neural networks for selecting actions to be performed by a robotic agent
CN112534446A (en) * 2018-09-10 2021-03-19 日立汽车系统株式会社 Electronic control device and neural network updating system
JP2020161031A (en) * 2019-03-28 2020-10-01 株式会社日立製作所 Computer system and control method of machine learning

Similar Documents

Publication Publication Date Title
US5214746A (en) Method and apparatus for training a neural network using evolutionary programming
CN107729999A (en) Consider the deep neural network compression method of matrix correlation
CN108062572A (en) A kind of Fault Diagnosis Method of Hydro-generating Unit and system based on DdAE deep learning models
CN111914727A (en) Small target human body detection method based on balance sampling and nonlinear feature fusion
CN110009030A (en) Sewage treatment method for diagnosing faults based on stacking meta learning strategy
CN114170789A (en) Intelligent network connected vehicle lane change decision modeling method based on space-time diagram neural network
JPH05197821A (en) Method for optimizing hierarchical neural network and device therefor
CN114202065B (en) Stream data prediction method and device based on incremental evolution LSTM
JPH05158910A (en) Training method for neural network and classifying apparatus of neural network
CN110852435A (en) Neural evolution calculation model
CN114662653A (en) Double-LSTM battery capacity estimation method based on generative countermeasure network
JPH0683792A (en) Device for learning neural network and method for displaying learning pattern of neural network
JPH0991263A (en) Method and device for optimizing neural network structure
CN109492746A (en) Deepness belief network parameter optimization method based on GA-PSO Hybrid Algorithm
Lizhe et al. BP network model optimized by adaptive genetic algorithms and the application on quality evaluation for class teaching
CN115906959A (en) Parameter training method of neural network model based on DE-BP algorithm
JP2907486B2 (en) Neural network device
CN115359062A (en) Method and system for dividing and calibrating monitoring target through semi-supervised example
JP3757722B2 (en) Multi-layer neural network unit optimization method and apparatus
CN113807005A (en) Bearing residual life prediction method based on improved FPA-DBN
CN113035348A (en) Diabetes diagnosis method based on GRU feature fusion
Hassan et al. Rough neural classifier system
JP2002288625A (en) Multipurpose optimization method, program and planning device
JP2847395B2 (en) Learning control device
JP3329202B2 (en) Neural network learning method

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20010807