JPH05298277A - Method and device for learning neural network - Google Patents
Method and device for learning neural networkInfo
- Publication number
- JPH05298277A JPH05298277A JP4106770A JP10677092A JPH05298277A JP H05298277 A JPH05298277 A JP H05298277A JP 4106770 A JP4106770 A JP 4106770A JP 10677092 A JP10677092 A JP 10677092A JP H05298277 A JPH05298277 A JP H05298277A
- Authority
- JP
- Japan
- Prior art keywords
- learning
- neural net
- teacher
- algorithm
- neural network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Image Analysis (AREA)
Abstract
Description
【0001】[0001]
【産業上の利用分野】本発明は多層ニュ−ラルネットの
学習を行なう装置、並びに多層ニュ−ラルネットの各種
応用装置(認識,予測,推定,関数近似,制御等を行な
う装置)の学習方法に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an apparatus for learning a multi-layer neural net, and a learning method for various applied apparatuses (devices for performing recognition, prediction, estimation, function approximation, control, etc.) of the multi-layer neural net.
【0002】[0002]
【従来の技術】ニュ−ラルネットの学習は一般に、ある
信号(教師入力信号)をネットワ−クに入力して得られ
たネットワ−クの出力と、この教師入力信号に対応した
望ましい出力(教師出力信号)との偏差を求め、これを
小さくする方向にニュ−ロン間のシナプスの重みを修正
することにより行われる。この学習はバックプロパゲ−
ションと呼ばれ多くの文献で参照できるが、例えば“入
門と学習ニュ−ロコンピュ−タ”(技術評論社)P47に
フロ−チャ−トが記されている。2. Description of the Related Art In general, learning of a neural net outputs a network obtained by inputting a certain signal (teacher input signal) into the network and a desired output (teacher output) corresponding to the teacher input signal. Signal), and the synaptic weight between neurons is corrected in the direction of decreasing the deviation. This learning is backpropagation
It is called "Shon" and can be referred to in many documents. For example, the flowchart is described in "Introduction and Learning Neurocomputer" (Technical Review Co., Ltd.) P47.
【0003】一方、ニュ−ラルネットの汎化能力(推論
能力、認識能力)向上を目差した学習方法の改善手段と
しては、インターナショナル・ニューラル・ネットワー
ク・ソサイアティ(International Neural Network Soc
iety)の論文誌であるニューラル・ネットワークス
(“Neural Networks”)Vol.4, Number 1, P67-P79(19
91)に記載の方法がある。この方法では、教師入力信号
に一定振幅の乱数を重畳するようにしている。On the other hand, as a means for improving the learning method aimed at improving the generalization ability (inference ability, cognitive ability) of the neural network, the International Neural Network Soc is used.
Society, "Neural Networks" Vol.4, Number 1, P67-P79 (19
There is a method described in 91). In this method, random numbers of constant amplitude are superimposed on the teacher input signal.
【0004】また、日本音響学会春期全国大会講演論文
集P29(平成3年、論文番号1−5−13)にも趣旨を
同じくした記載があり、汎化を行なう環境で教師入力信
号に重畳されるノイズに一致した一定振幅のノイズをあ
らかじめ教師入力デ−タに加算して学習すると、最も汎
化能力の高いネットワ−クが得られるとされている。更
に、ロスアンジェルスのカリフォルニア大学の技術レポ
ート(University ofCalifornia, Los AngelesのTechni
cal Report)、CSD-910068(September 1991)には、汎化
能力を向上させるために乱数の値を一様に減少させ、最
終的に0に至らしめる手法が記されている。[0004] In addition, there is also a similar statement in P29 of the Acoustical Society of Japan Spring National Convention Lectures (1993, Paper No. 1-5-13), which is superimposed on the teacher input signal in the generalization environment. It is said that a network having the highest generalization ability can be obtained by adding noise having a constant amplitude corresponding to the noise to the teacher input data in advance for learning. In addition, a technical report from the University of California, Los Angeles (Technology from the University of California, Los Angeles
Cal Report) and CSD-910068 (September 1991) describe a method of uniformly reducing the value of random numbers to improve the generalization ability and finally reaching 0.
【0005】[0005]
【発明が解決しようとする課題】上述した従来技術で種
々検討されている学習方式は、ニュ−ラルネット演算手
段の性能を、あらゆる問題に対し万能的に向上させるも
のではない。例えば、バックプロパゲ−ションと、教師
入力信号に乱数を重畳させて改善する技法との比較をし
てみる。ネットワ−クで学習する問題が非線形関数の近
似の場合は、単純なバックプロパゲ−ションの方がネッ
トワ−クに高い汎化能力を与えられる。しかし、クラス
タリングやパタ−ン認識の場合は、逆に、教師入力信号
に適当な乱数を重畳することで汎化能力を向上させられ
るときがある。またクラスタリング問題であっても、教
師信号が各クラスタを包含する程度に十分備えられてい
る場合には、単純なバックプロパゲ−ションで高い汎化
能力が得られ、乱数の重畳は処理を煩雑化させるのみで
ある。これに対し、教師信号が不十分な場合には逆に汎
化能力向上に効果が大きい。さらに、中間層ニュ−ロン
数が多く、中間層の自由度が大きい場合には、乱数重畳
は汎化能力を向上させるが、中間層ニュ−ロン数が小さ
い場合には、ネットワ−クが限られた解に収れんするの
を妨げるため、乱数の加算が汎化能力を逆に低下させる
ことがある。The learning methods that have been variously studied in the above-mentioned prior art do not universally improve the performance of the neural net computing means for all problems. For example, let us compare back propagation with a technique of superimposing a random number on a teacher input signal to improve it. If the problem learned by the network is an approximation of a non-linear function, simple backpropagation gives the network a higher generalization ability. However, in the case of clustering or pattern recognition, on the contrary, the generalization ability may be improved by superposing an appropriate random number on the teacher input signal. Even in the clustering problem, if the teacher signal is sufficiently prepared to include each cluster, a high generalization ability can be obtained by simple back propagation, and the superposition of random numbers complicates the processing. Only. On the other hand, when the teacher signal is insufficient, it has a great effect on improving the generalization ability. Furthermore, random number superposition improves generalization ability when the number of intermediate layer neurons is large and the degree of freedom of the intermediate layer is large, but when the number of intermediate layer neurons is small, the network is limited. The addition of random numbers may adversely reduce the generalization ability because it prevents the solution from being converged.
【0006】従って、従来のニュ−ラルネットの学習装
置は、そのニューラルネット学習装置が解決しようとす
る問題毎に専用の装置として用意され、汎用のニューラ
ルネット学習装置というものは考えられていなかった。Therefore, the conventional neural network learning apparatus is prepared as a dedicated apparatus for each problem to be solved by the neural network learning apparatus, and a general-purpose neural network learning apparatus has not been considered.
【0007】また、ニュ−ラルネットがクラスタリング
やパタ−ン認識に用いられる場合、従来学習法であるバ
ックプロパゲ−ションでは、ネットワ−ク出力の教師出
力からの誤差(出力誤差)を最小化する操作と、境界を
理想位置(たとえばクラスタの中間位置)に近づける操
作が直接対応しないため、一定の出力誤差に到達した後
さらに学習を進めて誤差を減少させても、汎化能力が向
上しないことがある。When a neural net is used for clustering or pattern recognition, the conventional learning method, backpropagation, involves an operation of minimizing an error (output error) from the teacher output of the network output. , Since the operation of bringing the boundary closer to the ideal position (for example, the intermediate position of the cluster) does not directly correspond, even if the learning is further advanced and the error is reduced after reaching a certain output error, the generalization ability may not be improved. ..
【0008】この解決を目的として教師入力信号に乱数
を重畳する前記従来技術は、汎化を行なう環境のノイズ
があらかじめ分かっている場合には、その振幅を教師入
力信号に加算するノイズの振幅とすれば良い。しかし、
ノイズが不明の場合や、あるいは様々な振幅のノイズが
加わったデ−タが汎化の対象となる場合等については考
慮しておらず、このときに教師入力信号に加算すべき乱
数の振幅を容易に特定できないという問題がある。更
に、汎化能力を高める上で最適な乱数の重畳プログラム
が問題に応じて異なっているにもかかわらず、これを考
慮していないため、乱数を重畳することが汎化能力を逆
に低下させる虞がある。例えば、教師入力信号同士の類
似度と、加算する乱数の振幅の関係について考慮されて
いないため、類似した教師入力信号が異なったクラスタ
に属しているとき、過大な乱数の加算によって逆にこれ
らを識別できなくなる問題がある。更にまた、乱数の振
幅を学習の進行とともに漸減させる手法も、教師入出力
信号の特性やネットワ−クの中間層ニュ−ロン数により
最適な減少プログラムが異なるにもかかわらず、これに
ついて配慮していないため常に良好なネットワ−クが得
られないことが問題となる。In order to solve this problem, the prior art for superimposing a random number on a teacher input signal, in the case where the noise of the environment for generalization is known in advance, has the amplitude of the noise added to the teacher input signal and the amplitude of the noise. Just do it. But,
No consideration is given to the case where the noise is unknown, or the case where the data to which noise with various amplitudes is added is subject to generalization, and the amplitude of the random number to be added to the teacher input signal at this time is not considered. There is a problem that it cannot be easily specified. Furthermore, although the optimal random number superimposing program for increasing generalization ability differs depending on the problem, this is not taken into consideration. Therefore, superimposing a random number decreases generalization ability. There is a risk. For example, since the relationship between the similarity between the teacher input signals and the amplitude of the random numbers to be added is not taken into consideration, when similar teacher input signals belong to different clusters, these are reversed by the addition of excessive random numbers. There is a problem that cannot be identified. Furthermore, even in the method of gradually reducing the amplitude of random numbers as learning progresses, this is taken into consideration even though the optimum reduction program differs depending on the characteristics of the teacher input / output signals and the number of middle-layer neurons in the network. The problem is that a good network cannot always be obtained because it does not exist.
【0009】本発明の第1の目的は、学習すべき問題に
適したアルゴリズムでネットワ−クの学習を行い、汎化
能力に優れたニュ−ラルネットの構築を行うニューラル
ネット学習装置を提供することにある。A first object of the present invention is to provide a neural network learning apparatus for learning a network with an algorithm suitable for a problem to be learned and constructing a neural network having a high generalization ability. It is in.
【0010】本発明の第2の目的は、従来の学習方法で
汎化能力向上が困難なクラスタリング(パタ−ン認識、
識別)問題を解決し、ネットワ−クに最大の汎化能力を
与えることのできるニューラルネット学習装置を提供す
ることにある。すなわち、汎化の対象となるデ−タが教
師入力デ−タからどの程度異なっていた場合でも、また
類似な教師入力信号が異なった出力を与える場合であっ
ても、これらに依存せず、最大汎化能力を備えたネット
ワ−クを構築可能なニューラルネット学習装置を提供す
ることにある。A second object of the present invention is clustering (pattern recognition, which is difficult to improve generalization ability by a conventional learning method).
It is an object of the present invention to provide a neural network learning device that can solve the identification problem and give the network the maximum generalization ability. That is, no matter how different the generalization target data is from the teacher input data, or when similar teacher input signals give different outputs, they do not depend on them, An object of the present invention is to provide a neural network learning device capable of constructing a network having a maximum generalization ability.
【0011】[0011]
【課題を解決するための手段】上記第1の目的は、ニュ
−ラルネット学習装置に学習アルゴリズムを複数種類設
け、さらにネットワ−クの構成や扱う問題,教師信号の
性質に対応した適当なアルゴリズムを選択し学習に供す
る学習アルゴリズム選択手段を設けることで、達成され
る。A first object of the present invention is to provide a neural network learning apparatus with a plurality of types of learning algorithms, and to provide an appropriate algorithm corresponding to the network configuration, the problem to be handled, and the nature of the teacher signal. This is achieved by providing learning algorithm selection means for selection and learning.
【0012】上記第2の目的は、各教師信号とこれらが
属するクラスタの境界線との距離(空間距離)を検出す
る空間距離検出手段を設け、検出された距離が特定の教
師信号について小さい値とならないことを目標に学習を
行うことで、達成される。更に好適には、乱数発生手段
と、発生された乱数の振幅を修正したのち教師入力信号
に加算するデ−タ処理手段とを設けると共に、このデ−
タ処理手段に、教師信号の性質を解析する機能と、解析
結果から乱数振幅の初期値を決定する機能と、学習の進
行状況から乱数の振幅を望ましい値に修正する機能を設
けることで、達成される。The second object is to provide spatial distance detecting means for detecting the distance (spatial distance) between each teacher signal and the boundary line of the cluster to which they belong, and the detected distance is a small value for a particular teacher signal. It is achieved by learning with the goal of not becoming. More preferably, the random number generating means and the data processing means for correcting the amplitude of the generated random number and adding the corrected random number to the teacher input signal are provided.
Achieved by providing the data processing means with the function of analyzing the nature of the teacher signal, the function of determining the initial value of the random number amplitude from the analysis result, and the function of correcting the random number amplitude to a desired value based on the progress of learning. To be done.
【0013】[0013]
【作用】ネットワ−クの学習アルゴリズムとして、教師
信号を繰り返し学習する従来型のバックプロパゲ−ショ
ン、教師信号に適当なノイズを重畳したものを新たに教
師入力信号として学習を行う修正型のバックプロパゲ−
ション、ベクトル量子化手法等の複数種類が用意されて
いるので、学習アルゴリズム選択手段は、これらのうち
実際に用いるアルゴリズムを選択する。この選択は、オ
ペレータが外部から操作して行っても良いし、学習アル
ゴリズム選択手段自身が、予想される学習結果の良否
(ネットワ−クの汎化能力)を基に、自動的に行っても
良い。またオペレータがネットワ−クの汎化能力や学習
の完了速度等から優先すべき項目を指示し、これに基づ
いて学習アルゴリズム選択手段が望ましいアルゴリズム
を選択しても良い。いずれにしてもネットワ−クが扱う
問題や、教師信号の性質に従って最善のアルゴリズムが
選択する機構が備えられる。As a network learning algorithm, a conventional backpropagation that repeatedly learns a teacher signal, and a modified backpropagation that newly learns by superimposing appropriate noise on the teacher signal as a new teacher input signal.
Since a plurality of types such as an application and a vector quantization method are prepared, the learning algorithm selecting means selects an algorithm to be actually used among these. This selection may be performed by the operator from the outside, or the learning algorithm selection means itself may automatically make the selection based on the quality of the expected learning result (the generalization ability of the network). good. Further, the operator may designate an item to be prioritized from the generalization ability of the network, the speed of completion of learning, etc., and the learning algorithm selecting means may select the desired algorithm based on this. In any case, a mechanism for selecting the best algorithm according to the problem handled by the network and the nature of the teacher signal is provided.
【0014】空間距離検出手段は教師入力信号と、その
信号が属しているクラスタの境界線までの空間距離を検
出する。これを教師入力信号総てについて行い、この値
が特定の教師入力信号について小さくならないようにニ
ュ−ラルネットの内部状態を更新し、学習を行う。The spatial distance detecting means detects the spatial distance between the teacher input signal and the boundary line of the cluster to which the signal belongs. This is performed for all teacher input signals, and the internal state of the neural net is updated so that this value does not become small for a particular teacher input signal, and learning is performed.
【0015】デ−タ処理手段は教師信号について、各ク
ラスタ(パタ−ン)に属する教師信号数および異なるク
ラスタに属する教師信号の空間距離から、教師入力信号
に重畳する乱数振幅の初期値を決定する。また積算学習
回数やシナプスの重みの値からネットワ−クの出来上が
り具合を評価し、これを基に乱数振幅値を最適に修正す
る。For the teacher signal, the data processing means determines the initial value of the random number amplitude to be superimposed on the teacher input signal from the number of teacher signals belonging to each cluster (pattern) and the spatial distance of the teacher signals belonging to different clusters. To do. In addition, the degree of completion of the network is evaluated from the cumulative learning number and the value of the synapse weight, and the random number amplitude value is optimally corrected based on this.
【0016】[0016]
【実施例】以下、本発明の一実施例を図面を参照して説
明する。図1は、本発明の一実施例に係るニュ−ラルネ
ット学習装置の構成図である。このニュ−ラルネット学
習装置101は、ニュ−ラルネット演算手段102、教
師信号メモリ103、複数の学習アルゴリズムが用意さ
れた学習アルゴリズム群104、この中から実際に学習
に供するアルゴリズムを選択する学習アルゴリズム選択
手段105からなる。ニュ−ラルネット演算手段102
として、図示する実施例では、3層構造のラメルハ−ト
型ネットワ−クを用いている。各層(入力層108,中
間層109,出力層110)は適当数のニュ−ロンによ
り構成され、層間のニュ−ロンはシナプス111で結合
されている。ネットワ−クにおける信号の流れ及び通常
用いられる学習アルゴリズム(バックプロパゲ−ショ
ン)の詳細は、たとえば技術評論社“入門と実習ニュ−
ロコンピュ−タ”のP15(信号の流れ)、P47(学習のア
ルゴリズム)など多数の文献で参照できる。DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of the present invention will be described below with reference to the drawings. FIG. 1 is a configuration diagram of a neural net learning apparatus according to an embodiment of the present invention. This neural net learning device 101 includes a neural net computing means 102, a teacher signal memory 103, a learning algorithm group 104 prepared with a plurality of learning algorithms, and a learning algorithm selecting means for selecting an algorithm to be actually used for learning from these. It consists of 105. Neural net computing means 102
As an example, in the illustrated embodiment, a three-layered Lamelhard type network is used. Each layer (the input layer 108, the intermediate layer 109, and the output layer 110) is composed of an appropriate number of neurons, and the neurons between the layers are connected by synapses 111. For details of signal flow in networks and commonly used learning algorithms (backpropagation), refer to, for example, “Introduction and practical training
It can be referred to in many documents such as P15 (Signal flow) and P47 (Learning algorithm) of the "lo computer".
【0017】教師信号メモリ103には、ニュ−ラルネ
ット演算手段102の学習に用いるデ−タが格納されて
いる。具体的には、ニュ−ラルネット演算手段102へ
の入力(教師入力信号106)と、教師入力信号に対応
した望ましい演算部の出力(教師出力信号107)との
ペアが、複数蓄えられている。The teacher signal memory 103 stores data used for learning of the neural network computing means 102. Specifically, a plurality of pairs of an input (teacher input signal 106) to the neural net operation means 102 and a desired output of the operation unit (teacher output signal 107) corresponding to the teacher input signal are stored.
【0018】学習アルゴリズム群104には、教師信号
メモリ103の内容を用いて、ニュ−ラルネット演算手
段102を学習するアルゴリズムが夫々独立したアルゴ
リズムとして複数種類設けられている。アルゴリズムと
しては、(a)通常のバックプロパゲ−ション、(b)
University of California, Los AngelesのTechnical R
eport、CSD-910068(September 1991)記載の、教師入力
信号に一様乱数を重畳してネットワ−クに入力しバック
プロパゲ−ションで学習する手法、(c)Springer-Ver
lag の“Complex System and Cognitive Processes”の
P135-137 記載の、kohonenのLearning Vector Quantiza
tion を応用したアルゴリズム、(d)本実施例で新た
に開発した図8に示す学習方法などが、必要に応じて種
々考えられる。尚、これらは必ずしも独立して設ける必
要はなく、共有できる部分は共用化した構成としても良
い。The learning algorithm group 104 is provided with a plurality of types of independent algorithms for learning the neural net computing means 102 using the contents of the teacher signal memory 103. The algorithms are (a) normal back propagation and (b)
Technical R at University of California, Los Angeles
eport, CSD-910068 (September 1991), a method of superimposing a uniform random number on the teacher input signal and inputting it to the network and learning by backpropagation, (c) Springer-Ver
lag's “Complex System and Cognitive Processes”
Kohonen's Learning Vector Quantiza, described on P135-137
Various algorithms such as (d) a learning method newly developed in the present embodiment shown in FIG. 8 can be considered as necessary. Note that these do not necessarily have to be provided independently, and a sharable part may have a shared configuration.
【0019】学習アルゴリズム選択手段105は、学習
に用いるアルゴリズムを切り替えにより選択する。The learning algorithm selection means 105 selects the algorithm used for learning by switching.
【0020】ニュ−ラルネット学習装置101は、図2
のように計算装置(ワ−クステ−ション,パソコン,あ
るいは専用の計算装置)201の中のアプリケ−ション
ソフトウェアの一つとして実現されるのが一般的であ
る。実現形態としては、学習済みのニュ−ラルネット演
算手段102が計算装置201のI/O203に対して
演算結果を出力し、対象202の運転を行う「学習・演
算一体型」の構造と、図3のように学習結果として、た
とえばシナプス111の重みの値だけを演算装置301
にダウンロ−ドし、実際の運転はニュ−ラルネット演算
手段102を備えた演算装置301で行う「学習・演算
分離型」の構造が考えられる。演算の対象は制御,認
識,予測,診断など様々であり、演算装置301は場合
に応じて制御用のコントロ−ラ(PIDコントロ−ラ,
プログラマブルコントロ−ラ,プロセスコントロ−ラ)
や画像認識装置であり、対象202は制御プラントや各
種被認識システムである。The neural net learning apparatus 101 is shown in FIG.
As described above, it is generally realized as one of the application software in the computing device (workstation, personal computer, or dedicated computing device) 201. As an implementation mode, a learned and arithmetic integrated type structure in which the learned neural network arithmetic unit 102 outputs an arithmetic result to the I / O 203 of the computer 201 to drive the target 202, and FIG. As the learning result, for example, only the value of the weight of the synapse 111 is calculated in the arithmetic unit 301.
It is conceivable that the "learning / computation separated type" structure in which the actual operation is performed by the arithmetic unit 301 equipped with the neural network operation means 102 is downloaded. The target of calculation is various, such as control, recognition, prediction, diagnosis, etc., and the arithmetic unit 301 may be a controller for control (PID controller, PID controller,
Programmable controller, process controller)
And an image recognition device, and the target 202 is a control plant or various recognized systems.
【0021】図4は、学習アルゴリズム選択手段102
を外部スイッチ401から操作できる構成としたニュー
ラルネット学習装置の例である。ニュ−ラルネット学習
装置101がワ−クステ−ション等で実現されている場
合、アルゴリズム選択メニュー画面の中から目的のアル
ゴリズムをキ−ボ−ドを使って選択し、アルゴリズム選
択手段を切り替える構造とするのが一般的であるが、専
用の学習装置で実現する場合には、専用の外部切替スイ
ッチを設けても良い。この場合、学習アルゴリズム選択
手段105は、オペレータが外部切替スイッチ401に
より設定したアルゴリズムを選択する。報知手段402
は、どのアルゴリズムが学習に用いられているかをオペ
レータに報知する。報知手段としては、ワ−クステ−シ
ョンのディスプレイを用いてオペレータに対して表示し
ても良いし、LED等を用いた専用の表示手段をニュ−
ラルネット学習装置に設置しても良い。また音声により
オペレータに知らせることも考えられる。FIG. 4 shows the learning algorithm selection means 102.
Is an example of a neural network learning device configured to be operated from an external switch 401. When the neural network learning apparatus 101 is realized by a workstation or the like, the structure is such that the desired algorithm is selected from the algorithm selection menu screen using the keyboard and the algorithm selection means is switched. In general, a dedicated learning device may be provided with a dedicated external changeover switch. In this case, the learning algorithm selection means 105 selects the algorithm set by the operator using the external changeover switch 401. Notification means 402
Informs the operator which algorithm is used for learning. As a notifying means, a workstation display may be used to display to the operator, or a dedicated display means using an LED or the like may be displayed.
It may be installed in a Larnet learning device. It is also possible to inform the operator by voice.
【0022】図5は、学習アルゴリズム選択手段105
が教師信号メモリ103およびニュ−ラルネット演算手
段102の内容を取り込み、これを解析して自動的にア
ルゴリズを選択する実施例の説明図である。今仮に、学
習アルゴリズム群104に通常のバックプロパゲ−ショ
ン(SBP)と、University of California, Los Ange
lesのTechnical Report、CSD-910068(September 1991)
記載の、教師入力信号に一様乱数を重畳してネットワ−
クに入力するバックプロパゲ−ション(DBP)で学習
する手法が備えられているとする。これらのバックプロ
パゲーションSBP,DBPには、図6に示すような優
劣関係がある。すなわちネットワ−クが学習する問題が
非線形関数近似の場合、SBPのほうが良好な汎化能力
(ネットワ−クが真の値に近い値を出力する能力)とな
る。一方、クラスタリング問題の場合、University of
California, Los AngelesのTechnical Report、CSD-910
068(September 1991)のP12に記載されているように、一
般にDBPの方が汎化能力(ノイズの加わった文字等を
正しく認識する能力)が高くなるが、たとえば中間層ニ
ュ−ロン数が十分に備えられていない場合には、逆にS
BPの汎化能力が高くなる。従って、ニュ−ラルネット
演算手段102の応答性やメモリ容量の問題の関係か
ら、中間層のニュ−ロン数に制約が加わる場合には、学
習アルゴリズムとしてSBPを選択した方が良いことに
なる。このため、この優劣関係を勘案して使用する学習
アルゴリズムを選択する。FIG. 5 shows the learning algorithm selection means 105.
FIG. 9 is an explanatory diagram of an embodiment in which the contents of the teacher signal memory 103 and the neural network calculation means 102 are loaded, the contents are analyzed, and the algorithm is automatically selected. Now, it is assumed that the learning algorithm group 104 has normal back propagation (SBP) and University of California, Los Ange.
les Technical Report, CSD-910068 (September 1991)
Network by superimposing uniform random numbers on the teacher input signal
It is assumed that a method of learning by back propagation (DBP) input to the client is provided. These backpropagation SBPs and DBPs have a superiority relationship as shown in FIG. That is, when the problem learned by the network is a non-linear function approximation, the SBP has a better generalization ability (the ability of the network to output a value close to a true value). On the other hand, in the case of the clustering problem, the University of
California, Los Angeles Technical Report, CSD-910
As described in P12 of September 1991, DBP generally has a higher generalization ability (ability to correctly recognize letters with noise, etc.), but for example, the number of intermediate-layer neurons is sufficient. If it is not equipped with S, conversely S
The generalization ability of BP is increased. Therefore, when the number of neurons in the intermediate layer is restricted due to the problem of the responsiveness of the neural net computing means 102 and the memory capacity, it is better to select SBP as the learning algorithm. Therefore, the learning algorithm to be used is selected in consideration of this superiority / inferiority relationship.
【0023】優劣関係の例として、図7に、電気学会論
文誌D,Vol111-D,No.1.P36-P44(Jan.,1991)記載の車番
認識システムにおいて、中間層ニュ−ロン数を変化さ
せ、SBP,DBPで学習したネットワ−クで認識率を
評価した結果を示す。図7で、中間層ニュ−ロン数が6
個以上のときにはDBPの認識率が勝っているが、ニュ
−ロン数が4個のときには逆にSBPの認識率が上回っ
ている。学習アルゴリズム選択手段105は図6の優劣
関係をデ−タとして保持し、パス1により教師信号メモ
リ103に備えられている教師信号の数やバラツキ具
合、またパス2によりニュ−ラルネット演算手段102
の中間層ニュ−ロン数を検出した上で、選択すべきアル
ゴリズムを判定する。判定規準は、図7に例を示したシ
ミュレ−ションの結果から設定すれば良い。選択枝とし
て他の学習アルゴリズムが加わった場合にも、基本的に
は、条件に応じたこれらの優劣をシミュレ−ション等で
明らかにし、同様の考え方で選択規準を設定できる。ま
たこの場合にもニュ−ラルネット学習装置に図4のよう
な報知手段402を備えることが可能である。As an example of the superiority / inferiority relationship, FIG. 7 shows the number of intermediate layer neurons in the vehicle number recognition system described in IEEJ Transactions D, Vol111-D, No.1.P36-P44 (Jan., 1991). Shows the result of evaluation of the recognition rate by the network learned by SBP and DBP. In Fig. 7, the number of intermediate layers is 6
The recognition rate of the DBP is superior when the number is equal to or more than the number, but the recognition rate of the SBP is conversely exceeded when the number of neurons is four. The learning algorithm selection means 105 holds the superiority or inferiority relation of FIG. 6 as data, and the number 1 and the degree of variation of the teacher signals stored in the teacher signal memory 103 by the path 1 and the neural net operation means 102 by the path 2.
The algorithm to be selected is determined after detecting the number of intermediate layer neurons. The determination criterion may be set based on the result of the simulation shown in FIG. Even when another learning algorithm is added as a selection branch, basically, the superiority or inferiority according to the conditions can be clarified by simulation or the like, and the selection criterion can be set by the same idea. Also in this case, it is possible to equip the neural network learning device with the notifying means 402 as shown in FIG.
【0024】図8は、学習アルゴリズム群104が、ク
ラスタ(カテゴリ)の境界線を各クラスタから均等に隔
たらせるアルゴリズムを備えた例である。実施例ではア
ルゴリズム1として備えた例を示す。入力空間801の
ように各クラスタが複数の教師信号で定義されている場
合、クラスタと境界線との距離は、境界線に最も近接す
る信号と境界線との距離で代表できる。また境界線は各
入力に対応したニュ−ラルネット演算手段102の出力
から計算できる。検出手段802は各クラスタについて
近接した境界との間の距離(a,b,c,d,・・・・
・)を計算し、これらをアルゴリズム1に転送する。こ
れを受けてアルゴリズム1はニュ−ラルネット演算手段
102のシナプスの重みを、(a,b,c,d,・・・
・・)の値が等しくなる方向に更新する。FIG. 8 shows an example in which the learning algorithm group 104 includes an algorithm for evenly separating the boundaries of clusters (categories) from the clusters. In the embodiment, an example provided as Algorithm 1 is shown. When each cluster is defined by a plurality of teacher signals as in the input space 801, the distance between the cluster and the boundary line can be represented by the distance between the signal closest to the boundary line and the boundary line. Further, the boundary line can be calculated from the output of the neural net calculation means 102 corresponding to each input. The detection means 802 detects distances (a, b, c, d, ...
*) And transfer them to Algorithm 1. In response to this, the algorithm 1 sets the weights of the synapses of the neural net computing means 102 to (a, b, c, d, ...
・ ・) Update so that the values become equal.
【0025】図9は、学習アルゴリズム群104が、教
師信号メモリ103から取り込んだ信号を適当に修正
し、修正後の信号を用いて学習を行うアルゴリズムを備
えた例である。ここで乱数発生手段901は、教師信号
のペアが抽出されたタイミングであらかじめ定められた
仕様の乱数を発生する。教師入力信号が複数の要素を備
えたベクトルであるときは、要素の数に対応した数の乱
数が一度に発生される。本実施例では、学習監視手段9
02が、学習に繰り返し回数を監視する。すなわち教師
信号のペアがニュ−ラルネット演算手段102に提示さ
れた回数が格納される。これはたとえば学習監視手段9
02にカウンタを備えておき、教師信号メモリ103か
らペアが抽出される度にこのカウンタをインクリメント
することにより、容易に実現できる(パス1)。デ−タ
処理手段903には、教師信号メモリ103から抽出さ
れた教師入力(パス2)と、これに対応して乱数発生手
段901から出力された乱数の値が入力される(パス
3)。そして学習監視手段902の内容をもとに乱数の
値を修正し(パス4)、これを教師入力に加算する。修
正の内容として、乱数発生手段901が一定振幅の乱数
を発生させる場合であれば、たとえば次の第1式のよう
に乱数の振幅値を学習回数に比例して一様に減少させ
る。FIG. 9 shows an example in which the learning algorithm group 104 is provided with an algorithm for appropriately correcting the signal fetched from the teacher signal memory 103 and performing learning using the corrected signal. Here, the random number generation means 901 generates a random number having a predetermined specification at the timing when the pair of teacher signals is extracted. When the teacher input signal is a vector having a plurality of elements, a random number corresponding to the number of elements is generated at one time. In this embodiment, the learning monitoring means 9
02 monitors the number of repetitions for learning. That is, the number of times the pair of teacher signals has been presented to the neural net computing means 102 is stored. This is, for example, the learning monitoring means 9
02 is provided with a counter, and this counter is incremented each time a pair is extracted from the teacher signal memory 103, so that it can be easily realized (path 1). The teacher input (path 2) extracted from the teacher signal memory 103 and the value of the random number output from the random number generating means 901 corresponding to this are input to the data processing means 903 (path 3). Then, the value of the random number is corrected based on the content of the learning monitoring means 902 (pass 4) and added to the teacher input. If the random number generator 901 generates a random number with a constant amplitude as the content of the correction, the amplitude value of the random number is uniformly reduced in proportion to the number of learning times, for example, as in the following first equation.
【0026】[0026]
【数1】 Rm =R×(1−Nt/Ntotal) …(1) Rm ・・・・・・・ 修正された乱数の値 R ・・・・・・・・ 乱数発生手段103から出力された乱数の
値 Nt ・・・・・・・ 現在の学習回数 Ntotal ・・・ 学習の打切り回数。## EQU1 ## Rm = R.times. (1-Nt / Ntotal) (1) Rm ..... Modified random number value R ........ Output from the random number generating means 103. Random number value Nt ··· Current learning count Ntotal · Number of learning cutoffs.
【0027】また、乱数の振幅を学習回数の2乗に比例
して減少させる場合であれば、次の第2式となる。If the amplitude of the random number is reduced in proportion to the square of the number of learnings, the following second equation is obtained.
【0028】[0028]
【数2】 Rm =R×[1−(Nt/Ntotal)・(Nt/Ntotal)] …(2)。 教師信号を修正する方法としては、この他に、ゆらぎを
与えて減少させる方法を初め多数考えられる。また学習
監視手段902の監視内容としては、ネットワ−クの重
みの更新量や、学習回数に対する重みの増分等を検出し
ても良い。さらに乱数発生手段103に学習を監視する
機構を設け、乱数の振幅を直接修正して発生させること
もできる。教師入力信号が複数の要素を備えているとき
は、必要に応じて各要素ごとに異なった内容の修正を行
なってもよい。最終的にニュ−ラルネット演算手段10
2には、Rmを加算された教師入力信号(パス5)と、
教師出力信号(パス6)がペアとして提示され、これに
従って学習が行なわれる。ここで教師信号解析手段90
4は、教師信号メモリ103に蓄えられている信号の数
およびその拡がり具合を検出し(パス7)、この値から
乱数発生手段901が発生する乱数の値Rを決定する
(パス8)。例えば、クラスタ1とクラスタ2に属する
教師入力信号のうち、入力空間801で最も近接する信
号の距離がrのとき、両クラスタを識別するのに最適な
乱数の振幅値はr/2である。そこで教師信号解析手段
902は、乱数発生手段901が発生する乱数の値を、
R=r/2に設定する。第1式,第2式にあるように、
デ−タ処理手段903は教師入力信号に対する修正の初
期値をR/2から開始することになり、汎化能力の点で
最適化される。## EQU2 ## Rm = R.times. [1- (Nt / Ntotal) .multidot. (Nt / Ntotal)] (2). In addition to this, as a method of correcting the teacher signal, a number of methods of giving fluctuation to reduce the teacher signal can be considered. Further, as the monitoring content of the learning monitoring means 902, the update amount of the weight of the network, the increment of the weight with respect to the number of times of learning, or the like may be detected. Further, the random number generating means 103 may be provided with a mechanism for monitoring learning, and the amplitude of the random number may be directly corrected and generated. When the teacher input signal includes a plurality of elements, the content different for each element may be modified as necessary. Finally, the neural net computing means 10
2, the teacher input signal (path 5) to which Rm is added,
The teacher output signal (path 6) is presented as a pair, and learning is performed according to the pair. Here, the teacher signal analysis means 90
4 detects the number of signals stored in the teacher signal memory 103 and the extent of their spread (path 7), and determines the value R of the random number generated by the random number generation means 901 from this value (path 8). For example, when the distance between the signals closest to each other in the input space 801 of the teacher input signals belonging to the cluster 1 and the cluster 2 is r, the amplitude value of the optimum random number for identifying both clusters is r / 2. Therefore, the teacher signal analysis unit 902 calculates the value of the random number generated by the random number generation unit 901 as
Set R = r / 2. As in the first and second equations,
The data processing means 903 starts the initial value of correction for the teacher input signal from R / 2, and is optimized in terms of generalization ability.
【0029】[0029]
【発明の効果】本発明によれば、複数のニュ−ラルネッ
ト学習アルゴリズムを備え、これらを選択して学習に供
する機能を備えたため、ネットワ−クが実行する演算や
教師信号の特性、ネットワ−ク自身の構成により、最適
な学習アルゴリズムを用いることができる。従ってネッ
トワ−クの汎化能力を常に最大化できる。またクラスタ
の境界と教師入力信号の空間距離を検出する手段を設
け、この値をネットワ−クシナプスの重み更新に反映で
きるようにした。従ってクラスタの境界と特定の教師入
力信号の空間距離が小さくなることを防止でき、クラス
タリングにおける汎化能力を高めることができる。さら
に教師入力信号に乱数を加算してネットワ−クに入力す
る学習アルゴリズムに対して、教師信号の内容を解析
し、乱数振幅の初期値をネットワ−クの汎化能力が最大
になる値に設定する手段と、学習の進行状況を解析し、
振幅値を任意に変更する手段を設けた。これによりクラ
スタリングにおける汎化能力を高めることができる。According to the present invention, since a plurality of neural net learning algorithms are provided and a function of selecting them for learning is provided, the characteristics of the arithmetic operations and teacher signals executed by the network, the network, and the like. The optimal learning algorithm can be used depending on its own configuration. Therefore, the generalization ability of the network can always be maximized. Further, means for detecting the spatial distance between the cluster boundary and the teacher input signal is provided so that this value can be reflected in the weight update of the network synapse. Therefore, it is possible to prevent the spatial distance between the boundary of the cluster and the specific teacher input signal from becoming small, and it is possible to improve the generalization ability in the clustering. Furthermore, the content of the teacher signal is analyzed for a learning algorithm that adds random numbers to the teacher input signal and is input to the network, and the initial value of the random number amplitude is set to a value that maximizes the generalization ability of the network. And the progress of learning,
A means for arbitrarily changing the amplitude value is provided. This can enhance the generalization ability in clustering.
【図1】本発明の一実施例に係るニューラルネット学習
装置の構成図である。FIG. 1 is a configuration diagram of a neural network learning apparatus according to an embodiment of the present invention.
【図2】学習・演算一体化システムの構成図である。FIG. 2 is a configuration diagram of a learning / calculation integrated system.
【図3】学習・演算分離システムの構成図である。FIG. 3 is a configuration diagram of a learning / operation separation system.
【図4】学習アルゴリズム選択手段を外部切替スイッチ
で切り替える構成のニューラルネット学習装置の構成図
である。FIG. 4 is a configuration diagram of a neural network learning device configured to switch the learning algorithm selection means with an external changeover switch.
【図5】学習アルゴリズムを自動選択する構成のニュー
ラルネット学習装置の構成図である。FIG. 5 is a configuration diagram of a neural network learning device configured to automatically select a learning algorithm.
【図6】学習方式による汎化能力の優劣関係図である。FIG. 6 is a diagram showing the superiority and inferiority of generalization ability according to a learning method.
【図7】シミュレ−ション結果の一例を示すグラフであ
る。FIG. 7 is a graph showing an example of a simulation result.
【図8】学習アルゴリズム群中にクラスタ(カテゴリ)
の境界線を各クラスタから均等に隔たらせるアルゴリズ
ムを備えた例の説明図である。FIG. 8: Clusters (category) in the learning algorithm group
FIG. 6 is an explanatory diagram of an example including an algorithm that evenly separates the boundary line of from each cluster.
【図9】本発明の一実施例に係るニューラルネット学習
装置の動作説明図である。FIG. 9 is an operation explanatory diagram of the neural network learning apparatus according to the embodiment of the present invention.
101…ニュ−ラルネット学習装置、102…ニュ−ラ
ルネット演算手段、103…教師信号メモリ、104…
学習アルゴリズム群、105…学習アルゴリズム選択手
段、106…教師入力信号、107…教師出力信号、1
08…入力層、109…中間層、110…出力層、11
1…シナプス、201…計算装置、202…対象、20
3…I/O、301…装置、401…外部スイッチ、4
02…報知手段、801…入力空間、802…検出手
段、901…乱数発生手段、902…学習監視手段、9
03…デ−タ処理手段、904…教師信号解析手段。101 ... Neural net learning device, 102 ... Neural net computing means, 103 ... Teacher signal memory, 104 ...
Learning algorithm group, 105 ... Learning algorithm selecting means, 106 ... Teacher input signal, 107 ... Teacher output signal, 1
08 ... Input layer, 109 ... Intermediate layer, 110 ... Output layer, 11
1 ... Synapse, 201 ... Computing device, 202 ... Target, 20
3 ... I / O, 301 ... Device, 401 ... External switch, 4
02 ... Notification means, 801 ... Input space, 802 ... Detecting means, 901 ... Random number generating means, 902 ... Learning monitoring means, 9
03 ... Data processing means, 904 ... Teacher signal analysis means.
Claims (18)
た構成を有し、予め教師信号により入力信号と出力信号
の関係を学習アルゴリズムに基づいて学習し、学習結果
を記憶し、入力信号に対して学習結果に基づいた演算を
行い出力するニュ−ラルネット演算手段を備えたニュ−
ラルネット学習装置において、前記学習アルゴリズムを
複数種類備えこれらのうちから実際の学習に用いるアル
ゴリズムを前記ニューラルネット演算手段の解決する問
題に合わせて選択する学習アルゴリズム選択手段を備え
たことを特徴とするニュ−ラルネット学習装置。1. A structure in which several neurons are connected in multiple layers, the relationship between an input signal and an output signal is learned in advance by a teacher signal based on a learning algorithm, the learning result is stored, and the input signal is stored. A neural network having a neural net computing means for computing and outputting the learning result for
The laural net learning device is provided with a plurality of types of learning algorithms, and a learning algorithm selecting means for selecting an algorithm to be used for actual learning from among the plurality of learning algorithms in accordance with a problem to be solved by the neural network computing means. -Lalnet learning device.
ム選択手段に対しオペレータが選択指令を入力する手段
を備えることを特徴とするニュ−ラルネット学習装置。2. The neural net learning apparatus according to claim 1, further comprising means for an operator to input a selection command to the learning algorithm selection means.
ム選択手段は、前記教師信号および/または前記ニュ−
ラルネット演算手段の構造を解析し解析結果から選択す
べきアルゴリズムを自動決定する手段を備えることを特
徴とするニュ−ラルネット学習装置。3. The learning algorithm selecting means according to claim 1, wherein the learning signal and / or the new learning signal is selected.
A neural net learning device comprising means for analyzing a structure of a laural net calculation means and automatically determining an algorithm to be selected from an analysis result.
は、教師信号の個数および/またはバラツキ具合を解析
するものであることを特徴とするニュ−ラルネット学習
装置。4. The neural net learning apparatus according to claim 3, wherein the means for automatically determining is to analyze the number and / or variation of the teacher signals.
は、前記ニュ−ラルネット演算手段の中間層に存在して
いるニュ−ロン数を解析するものであることことを特徴
とするニュ−ラルネット学習装置。5. The neural net learning according to claim 3, wherein the means for automatically determining is to analyze the number of neurons existing in the intermediate layer of the neural net computing means. apparatus.
て、現在選択されているアルゴリズムがどれであるかを
外部に報知する報知手段を備えていることを特徴とする
ニュ−ラルネット学習装置。6. The neural net learning apparatus according to claim 1, further comprising a notifying unit for notifying which algorithm is currently selected to the outside.
て、前記ニュ−ラルネット演算手段がクラスタリングや
パタ−ン認識を行うとき、該ニュ−ラルネット演算手段
に記憶されているクラスタやパタ−ン同士の境界と前記
教師信号のそれぞれについて、その空間距離を検出する
検出手段を備えたことを特徴とするニュ−ラルネット学
習装置。7. The cluster or pattern stored in the neural net computing means according to any one of claims 1 to 6, when the neural net computing means performs clustering or pattern recognition. A neural net learning device comprising a detecting means for detecting a spatial distance between each boundary and the teacher signal.
て、前記複数種類の学習アルゴリズムの少なくとも1つ
は、前記検出手段の検出結果に従って、該クラスタやパ
タ−ン同士の境界が特定の教師信号に近接しない位置に
存在することを目標に学習を行うことを特徴とするニュ
−ラルネット学習装置。8. The teacher according to claim 1, wherein at least one of the plurality of types of learning algorithms is a teacher whose boundary between the clusters and patterns is specified according to the detection result of the detecting means. A neural net learning device, characterized in that learning is performed with the goal of being present at a position not close to a signal.
て、乱数発生機能を有する乱数発生手段と、前記ニュ−
ラルネット演算手段の学習の進行状態を監視する学習監
視手段と、この監視結果に従って前記乱数発生手段が発
生した乱数の値を修正し修正された乱数と教師信号とか
ら実際にニュ−ラルネット演算手段に入力する入力信号
を作成するデ−タ処理手段を備えたことを特徴とする特
許請求項第1項〜第6項記載ニュ−ラルネット学習装
置。9. The random number generating means having a random number generating function according to claim 1, and the new node.
Learning monitoring means for monitoring the progress of learning of the Larnet computing means, and the value of the random number generated by the random number generating means according to the result of the monitoring is corrected to be the actual neural network computing means from the corrected random number and the teacher signal. A neural network learning apparatus according to any one of claims 1 to 6, further comprising data processing means for creating an input signal to be input.
は、学習に供する教師信号の組み合わせが抽出されたタ
イミングで予め定められた個数の乱数を発生し前記デ−
タ処理手段に送信することを特徴とするニュ−ラルネッ
ト学習装置。10. The random number generating means according to claim 9, wherein the random number generating means generates a predetermined number of random numbers at a timing when a combination of teacher signals used for learning is extracted.
A neural net learning device, characterized in that it is transmitted to a data processing means.
前記デ−タ処理手段はも前記教師信号の内容および学習
の進行状態を解析しこの解析結果から乱数の初期値およ
び修正方法を決定する手段を備えることを特徴とするニ
ュ−ラルネット学習装置。11. The method according to claim 9 or 10,
The neural network learning apparatus, wherein the data processing means also comprises means for analyzing the content of the teacher signal and the progress of learning and determining an initial value of random numbers and a correction method from the analysis result.
れた構成を有し、予め教師信号により入力信号と出力信
号の関係を学習アルゴリズムに基づいて学習し、学習結
果を記憶し、入力信号に対して学習結果に基づいた演算
を行い出力するニュ−ラルネット演算手段を備えたニュ
−ラルネット学習装置において、複数種類用意された学
習プログラムのうち使用する学習プログラムをオペレー
タに選択させるメニュー画面を表示する表示装置を備え
ることを特徴とすることを特徴とするニュ−ラルネット
学習装置。12. A structure in which several neurons are connected in multiple layers, the relationship between an input signal and an output signal is learned in advance by a teacher signal based on a learning algorithm, the learning result is stored, and the input signal is stored. In a neural net learning device equipped with a neural net operation means for performing an operation based on the learning result and outputting it, a menu screen is displayed which allows an operator to select a learning program to be used from a plurality of kinds of prepared learning programs. A neural net learning device characterized in that it is provided with a display device.
れた構成を有し、予め教師信号により入力信号と出力信
号の関係を学習アルゴリズムに基づいて学習し、学習結
果を記憶し、入力信号に対して学習結果に基づいた演算
を行い出力するニュ−ラルネット演算手段を備えたニュ
−ラルネット学習装置において、複数種類用意された学
習プログラムのうち装置側が自動的に選択し学習に使用
した学習プログラムをオペレータに表示する表示装置を
備えることを特徴とすることを特徴とするニュ−ラルネ
ット学習装置。13. A structure in which several neurons are connected in multiple layers, the relationship between the input signal and the output signal is learned in advance by a teacher signal based on a learning algorithm, and the learning result is stored, and the input signal is stored. In a neural net learning device equipped with a neural net computing means for performing an operation based on a learning result and outputting the learning program, a learning program used by the device to automatically select from among a plurality of prepared learning programs A neural net learning device characterized in that it is provided with a display device for displaying to the operator.
れた構成を有し、予め教師信号により入力信号と出力信
号の関係を学習アルゴリズムに基づいて学習し、学習結
果を記憶し、入力信号に対して学習結果に基づいた演算
を行い出力するニュ−ラルネット演算手段を備えたニュ
−ラルネットにおいて、前記学習アルゴリズムを複数種
類メモリ内に用意し、これらのうちから実際の学習に用
いるアルゴリズムを前記ニューラルネット演算手段の解
決する問題に合わせて選択することを特徴とするニュ−
ラルネット学習方法。14. A structure in which several neurons are connected in multiple layers, the relationship between an input signal and an output signal is learned in advance by a teacher signal based on a learning algorithm, and the learning result is stored, and the input signal is stored. In a neural net provided with a neural net computing means for performing an operation based on a learning result and outputting the learning algorithm, a plurality of kinds of learning algorithms are prepared in a memory, and an algorithm used for actual learning is selected from the above. A new feature that the selection is made according to the problem to be solved by the neural network computing means.
Larnet learning method.
れた構成を有し、予め教師信号により入力信号と出力信
号の関係を学習アルゴリズムに基づいて学習し、学習結
果を記憶し、入力信号に対して学習結果に基づいた演算
を行い出力するニュ−ラルネット演算手段を備えたニュ
−ラルネットにおいて、複数種類用意された学習プログ
ラムのうち使用する学習プログラムをオペレータに選択
させるメニュー画面を表示することを特徴とすることを
特徴とするニュ−ラルネット学習方法。15. A structure in which several neurons are connected in multiple layers, the relationship between an input signal and an output signal is learned in advance by a teacher signal based on a learning algorithm, the learning result is stored, and the input signal is stored. For a neural net equipped with a neural net operation means for performing an operation based on the learning result and outputting the result, a menu screen for allowing an operator to select a learning program to be used from a plurality of types of learning programs prepared is displayed. A method for learning a neural net, characterized by:
れた構成を有し、予め教師信号により入力信号と出力信
号の関係を学習アルゴリズムに基づいて学習し、学習結
果を記憶し、入力信号に対して学習結果に基づいた演算
を行い出力するニュ−ラルネット演算手段を備えたニュ
−ラルネットにおいて、複数種類用意された学習プログ
ラムのうち装置側が自動的に選択し学習に使用した学習
プログラムをオペレータに表示することを特徴とするこ
とを特徴とするニュ−ラルネット学習方法。16. A structure in which several neurons are connected in multiple layers, the relationship between an input signal and an output signal is learned in advance by a teacher signal based on a learning algorithm, the learning result is stored, and the input signal is stored. In a neural net equipped with a neural net computing means for performing an operation based on the learning result and outputting the learning program, the operator selects the learning program automatically selected by the device side from a plurality of prepared learning programs. A method for learning a neural net, characterized by being displayed on.
いずれかを学習済みのニューラルネットで行なう計算機
システムにおいて、内蔵する請求項1乃至請求項13の
いずれかのニューラルネット学習装置で前記ニューラル
ネットを学習させる手段を備えることを特徴とする計算
機システム。17. The neural network learning apparatus according to claim 1, wherein the neural network learning device incorporates the neural network learning device, which is built in a learned neural network for any one of recognition, prediction, estimation, function approximation, and control. A computer system comprising means for learning a net.
いずれかを学習済みのニューラルネットで行なう計算機
システムにおいて、別置きの請求項1乃至請求項13の
いずれかのニューラルネット学習装置で前記ニューラル
ネットを学習させる手段を備えることを特徴とする計算
機システム。18. A computer system for performing any one of recognition, prediction, estimation, function approximation, and control by a learned neural network, wherein the neural network learning apparatus according to any one of claims 1 to 13 is provided. A computer system comprising means for learning a neural network.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP10677092A JP3303032B2 (en) | 1992-04-24 | 1992-04-24 | Neural network learning device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP10677092A JP3303032B2 (en) | 1992-04-24 | 1992-04-24 | Neural network learning device |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH05298277A true JPH05298277A (en) | 1993-11-12 |
JP3303032B2 JP3303032B2 (en) | 2002-07-15 |
Family
ID=14442147
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP10677092A Expired - Fee Related JP3303032B2 (en) | 1992-04-24 | 1992-04-24 | Neural network learning device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3303032B2 (en) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010514986A (en) * | 2007-01-02 | 2010-05-06 | シーメンス アクチエンゲゼルシヤフト | Method for computer-aided closed-loop control and / or open-loop control of technical systems, in particular gas turbines |
JP2010176583A (en) * | 2009-01-30 | 2010-08-12 | Dainippon Printing Co Ltd | Apparatus, method, program and system for processing information |
KR20130050707A (en) * | 2011-11-08 | 2013-05-16 | 삼성전자주식회사 | The apparutus and method for classify input pattern promptly using artificial neural network |
JP2017004489A (en) * | 2015-06-15 | 2017-01-05 | 安一恒通(北京)科技有限公司 | File identification method and device |
JP6774129B1 (en) * | 2020-02-03 | 2020-10-21 | 望 窪田 | Analytical equipment, analysis method and analysis program |
WO2020230776A1 (en) * | 2019-05-15 | 2020-11-19 | ブラザー工業株式会社 | Training method for machine learning model, data generation device, and prelearned machine learning model |
WO2021130915A1 (en) * | 2019-12-25 | 2021-07-01 | 日本電気株式会社 | Learning device, learning method, and learning program |
JP2021177266A (en) * | 2020-04-17 | 2021-11-11 | 株式会社鈴康 | Program, information processing device, information processing method and learning model generation method |
JP2021189532A (en) * | 2020-05-26 | 2021-12-13 | Necプラットフォームズ株式会社 | Pattern recognition device, learning method and learning program |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0395666A (en) * | 1989-09-07 | 1991-04-22 | Fujitsu Ltd | Pattern learning system |
JPH0451354A (en) * | 1990-06-20 | 1992-02-19 | Fujitsu Ltd | Neural network learning device |
JPH04215171A (en) * | 1990-12-14 | 1992-08-05 | Matsushita Electric Ind Co Ltd | Information processor |
JPH04262453A (en) * | 1991-02-15 | 1992-09-17 | Hitachi Ltd | Neurolearning control method and equipment |
JPH0561848A (en) * | 1991-09-02 | 1993-03-12 | Hitachi Ltd | Device and method for selecting and executing optimum algorithm |
-
1992
- 1992-04-24 JP JP10677092A patent/JP3303032B2/en not_active Expired - Fee Related
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0395666A (en) * | 1989-09-07 | 1991-04-22 | Fujitsu Ltd | Pattern learning system |
JPH0451354A (en) * | 1990-06-20 | 1992-02-19 | Fujitsu Ltd | Neural network learning device |
JPH04215171A (en) * | 1990-12-14 | 1992-08-05 | Matsushita Electric Ind Co Ltd | Information processor |
JPH04262453A (en) * | 1991-02-15 | 1992-09-17 | Hitachi Ltd | Neurolearning control method and equipment |
JPH0561848A (en) * | 1991-09-02 | 1993-03-12 | Hitachi Ltd | Device and method for selecting and executing optimum algorithm |
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8099181B2 (en) | 2007-01-02 | 2012-01-17 | Siemens Aktiengesellschaft | Method for the computer-aided regulation and/or control of a technical system, especially a gas turbine |
JP2010514986A (en) * | 2007-01-02 | 2010-05-06 | シーメンス アクチエンゲゼルシヤフト | Method for computer-aided closed-loop control and / or open-loop control of technical systems, in particular gas turbines |
JP2010176583A (en) * | 2009-01-30 | 2010-08-12 | Dainippon Printing Co Ltd | Apparatus, method, program and system for processing information |
KR20130050707A (en) * | 2011-11-08 | 2013-05-16 | 삼성전자주식회사 | The apparutus and method for classify input pattern promptly using artificial neural network |
JP2017004489A (en) * | 2015-06-15 | 2017-01-05 | 安一恒通(北京)科技有限公司 | File identification method and device |
US10284577B2 (en) | 2015-06-15 | 2019-05-07 | Iyuntian Co., Ltd. | Method and apparatus for file identification |
JP2020187582A (en) * | 2019-05-15 | 2020-11-19 | ブラザー工業株式会社 | Method for training machine learning model, data creation device, and learned machine learning model |
WO2020230776A1 (en) * | 2019-05-15 | 2020-11-19 | ブラザー工業株式会社 | Training method for machine learning model, data generation device, and prelearned machine learning model |
WO2021130915A1 (en) * | 2019-12-25 | 2021-07-01 | 日本電気株式会社 | Learning device, learning method, and learning program |
JPWO2021130915A1 (en) * | 2019-12-25 | 2021-07-01 | ||
JP6774129B1 (en) * | 2020-02-03 | 2020-10-21 | 望 窪田 | Analytical equipment, analysis method and analysis program |
WO2021157124A1 (en) * | 2020-02-03 | 2021-08-12 | 望 窪田 | Analysis device, analysis method, and analysis program |
JP2021124805A (en) * | 2020-02-03 | 2021-08-30 | 望 窪田 | Analysis device, analysis method, and analysis program |
JP2021177266A (en) * | 2020-04-17 | 2021-11-11 | 株式会社鈴康 | Program, information processing device, information processing method and learning model generation method |
JP2021189532A (en) * | 2020-05-26 | 2021-12-13 | Necプラットフォームズ株式会社 | Pattern recognition device, learning method and learning program |
Also Published As
Publication number | Publication date |
---|---|
JP3303032B2 (en) | 2002-07-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
MacKay | A practical Bayesian framework for backpropagation networks | |
US11755912B2 (en) | Controlling distribution of training data to members of an ensemble | |
Abdella et al. | The use of genetic algorithms and neural networks to approximate missing data in database | |
Bhat et al. | Use of neural nets for dynamic modeling and control of chemical process systems | |
Nauck | Neuro-fuzzy systems: review and prospects | |
EP0454037B1 (en) | Neural network for processing a plurality of informations and learning method | |
US5606646A (en) | Recurrent neural network-based fuzzy logic system | |
Coban | A context layered locally recurrent neural network for dynamic system identification | |
US20180005107A1 (en) | Hybrid memory cell unit and recurrent neural network including hybrid memory cell units | |
US5598510A (en) | Self organizing adaptive replicate (SOAR) | |
Kasabov | On-line learning, reasoning, rule extraction and aggregation in locally optimized evolving fuzzy neural networks | |
Freeman | Chaos in the brain: Possible roles in biological intelligence | |
WO2005024718A1 (en) | An artificial neural network | |
JPH05298277A (en) | Method and device for learning neural network | |
Ferreira et al. | Comparing recurrent networks for time-series forecasting | |
Ettaouil et al. | Architecture optimization model for the multilayer perceptron and clustering. | |
Scott et al. | Creating efficient nonlinear neural network process models that allow model interpretation | |
Di Massimo et al. | Bioprocess model building using artificial neural networks | |
Cohen et al. | Efficient training of recurrent neural network with time delays | |
Johansen et al. | Semi-empirical modeling of non-linear dynamic systems through identification of operating regimes and local models | |
Darmoul et al. | Scheduling using artificial immune system metaphors: a review | |
Carrano et al. | A genetic algorithm for multiobjective training of ANFIS fuzzy networks | |
JPH0490076A (en) | Method for extracting feature of medical image | |
JPH03218731A (en) | Predictive electrocardiogram waveform recognizing device | |
Fischer | Fundamentals in neurocomputing |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20080510 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090510 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100510 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110510 Year of fee payment: 9 |
|
LAPS | Cancellation because of no payment of annual fees |