JPH04215171A - Information processor - Google Patents
Information processorInfo
- Publication number
- JPH04215171A JPH04215171A JP2402252A JP40225290A JPH04215171A JP H04215171 A JPH04215171 A JP H04215171A JP 2402252 A JP2402252 A JP 2402252A JP 40225290 A JP40225290 A JP 40225290A JP H04215171 A JPH04215171 A JP H04215171A
- Authority
- JP
- Japan
- Prior art keywords
- learning
- circuit
- signal
- output
- information processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000013528 artificial neural network Methods 0.000 claims abstract description 11
- 230000010365 information processing Effects 0.000 claims description 24
- 230000008859 change Effects 0.000 claims description 2
- 238000012937 correction Methods 0.000 abstract description 37
- 238000004364 calculation method Methods 0.000 abstract description 26
- 238000006243 chemical reaction Methods 0.000 abstract description 25
- 230000008878 coupling Effects 0.000 abstract description 3
- 238000010168 coupling process Methods 0.000 abstract description 3
- 238000005859 coupling reaction Methods 0.000 abstract description 3
- 210000000225 synapse Anatomy 0.000 abstract 2
- 238000000034 method Methods 0.000 description 15
- 230000010354 integration Effects 0.000 description 9
- 230000000946 synaptic effect Effects 0.000 description 7
- 238000010586 diagram Methods 0.000 description 6
- 230000001537 neural effect Effects 0.000 description 5
- 238000012545 processing Methods 0.000 description 4
- 238000007796 conventional method Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000013139 quantization Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Landscapes
- Image Analysis (AREA)
- Feedback Control In General (AREA)
Abstract
Description
【0001】0001
【産業上の利用分野】本発明は、神経回路網を模した情
報処理装置に関するものである。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an information processing device imitating a neural network.
【0002】0002
【従来の技術】近年、神経回路網を模した情報処理装置
の開発が進み、文字認識装置などのパターン分類装置等
で盛んに利用されるようになってきた。このような情報
処理装置は、たとえば、文献(PDPモデル、D.E.
ラメルハート 他2名、甘利俊一監訳、1989年)
に記載された構成が知られている。2. Description of the Related Art In recent years, information processing devices imitating neural networks have been developed, and are now being widely used in pattern classification devices such as character recognition devices. Such an information processing device is described, for example, in the literature (PDP model, D.E.
Ramelhart et al., supervised translation by Shunichi Amari, 1989)
The configuration described in is known.
【0003】以下、図4を参照してその構成を簡単に説
明する。図4は第1層X,第2層Y,第3層Zの3層構
造を有する神経回路網を模した情報処理装置の概略構成
を示している。1X,1Y,1Zは、内部に線形変換部
と非線形変換部とからなる神経素子を一般には複数個持
つ信号変換回路である。2X,2Y,2Zは信号変換回
路1X,1Y,1Z内の線形変換部の特性を書き換える
修正回路である。3は理想出力Tと現実の出力S(z)
から修正回路2Zに送るべき誤差信号D(z) を算
出する誤差計算回路である。The configuration will be briefly explained below with reference to FIG. FIG. 4 shows a schematic configuration of an information processing device imitating a neural network having a three-layer structure of a first layer X, a second layer Y, and a third layer Z. 1X, 1Y, and 1Z are signal conversion circuits that generally have a plurality of neural elements each consisting of a linear conversion section and a nonlinear conversion section. 2X, 2Y, and 2Z are correction circuits that rewrite the characteristics of the linear conversion sections in the signal conversion circuits 1X, 1Y, and 1Z. 3 is the ideal output T and the actual output S(z)
This is an error calculation circuit that calculates an error signal D(z) to be sent to the correction circuit 2Z from the error signal D(z).
【0004】次に上記情報処理装置の動作について説明
する。なお、神経回路網を模した情報処理装置において
は、信号は複数が並列に流れてゆく場合が大半であるが
、これをすべて添え字で区別するのは表現を煩雑にする
だけなので、以下の説明においては、特に必要がない場
合には添え字を省略する。Next, the operation of the above information processing apparatus will be explained. Note that in most information processing devices that imitate neural networks, multiple signals flow in parallel, but distinguishing them all using subscripts will only complicate the expression, so the following In the explanation, subscripts are omitted unless particularly necessary.
【0005】神経回路網を模した情報処理装置の学習時
の動作では、信号変換回路1Xは、入力された信号S(
i) を信号S(x) に変換して出力するが、修正回
路2Xは、信号S(i) と信号S(x) を内部に蓄
えて誤差信号D(x) の入力まで待機する。同様の処
理が信号変換回路1Y,1Zおよび修正回路2Y,2Z
においてもなされる。そして、最終の出力S( z)と
、入力信号S(i) に対応する理想出力、教師信号と
も呼ばれるTとが誤差計算回路3に送られる。誤差計算
回路3では、出力信号S(z) と教師信号Tとから、
第3層Zのj番目の神経素子に関する誤差信号Dj(z
)を、例えば、[0005] In the learning operation of an information processing device imitating a neural network, the signal conversion circuit 1X converts the input signal S(
i) is converted into a signal S(x) and output, but the correction circuit 2X stores the signal S(i) and the signal S(x) internally and waits until the input of the error signal D(x). Similar processing is performed in the signal conversion circuits 1Y and 1Z and the correction circuits 2Y and 2Z.
It is also done in Then, the final output S(z) and the ideal output corresponding to the input signal S(i), T, which is also called a teacher signal, are sent to the error calculation circuit 3. In the error calculation circuit 3, from the output signal S(z) and the teacher signal T,
The error signal Dj(z
), for example,
【0006】Dj(z)=−μ(Sj(
z)−Tj )ここに、μは正の定数
と計算し、これをまとめた誤差信号D(z) が修正回
路2Zに送られる。修正回路2Zは、保持している信号
S(y) ,S(z) と誤差信号D(z) を受けて
修正信号M(z) を信号変換回路1Zに送り、信号変
換回路1Z内のj番目の神経素子と信号変換回路1Y内
の神経素子の間の線形変換部の結合の強さWji(z)
を、[0006]Dj(z)=-μ(Sj(
z)-Tj) Here, μ is calculated to be a positive constant, and an error signal D(z) summarizing the results is sent to the correction circuit 2Z. The correction circuit 2Z receives the held signals S(y), S(z) and the error signal D(z), sends the correction signal M(z) to the signal conversion circuit 1Z, and j in the signal conversion circuit 1Z. Strength of coupling Wji (z) of the linear conversion section between the th neural element and the neural element in the signal conversion circuit 1Y
of,
【0007】Wji(z) +Dj(z)・ S
j(z)・(1−Sj(z))・Si(y)に修正し、
誤差信号D(y) として、例えば、[0007]Wji(z) +Dj(z)・S
Corrected to j(z)・(1−Sj(z))・Si(y),
For example, as the error signal D(y),
【0008】ΣD
j(z)・ Sj(z)・(1−Sj(z))・Wji
(z) を修正回路2Yに送る。以下、同様の処理が信
号変換回路1Y,1Xおよび修正回路2Y,2Xにおい
てなされる。この学習と呼ばれる手続きを繰り返すこと
により、神経回路網を模した情報処理装置は、入力され
る信号S(i) と理想出力Tとの間の関係を身につけ
、新しい入力に対しても過去の経験から推量される適切
な出力を出すようになる。[0008]ΣD
j(z)・Sj(z)・(1−Sj(z))・Wji
(z) is sent to the correction circuit 2Y. Thereafter, similar processing is performed in the signal conversion circuits 1Y, 1X and the correction circuits 2Y, 2X. By repeating this procedure called learning, an information processing device imitating a neural network learns the relationship between the input signal S(i) and the ideal output T, and also learns the relationship between the input signal S(i) and the ideal output T. Appropriate output will be output based on experience.
【0009】このようにして、神経回路網を模した情報
処理装置が十分な学習を行ない、誤差計算回路3から出
力される誤差D(z) が一定値より小さくなると、修
正回路2Z,2Y,2Xに掛かる手続きは割愛され、入
力から出力への前方向のみの処理が行なわれるようにな
る。In this way, when the information processing device imitating a neural network performs sufficient learning and the error D(z) output from the error calculation circuit 3 becomes smaller than a certain value, the correction circuits 2Z, 2Y, The procedures related to 2X are omitted, and only forward processing from input to output is performed.
【0010】このような学習方法は、収束に時間がかか
るため、学習を高速化するための工夫が、例えば特開平
1−320565号公報に開示されている。そこに示さ
れた学習効率化方法は、いくつかの学習パラメータ(ス
テップサイズを決めるパラメータη、モーメンタム量を
調整するパラメータα)の組を用意し、それぞれについ
て学習を進め、設定された回数毎にそれぞれの場合の誤
差を計算して最も誤差の少ない学習パラメータを選択す
るというものである。[0010] Since such a learning method takes time to converge, a device for speeding up learning is disclosed in, for example, Japanese Patent Laid-Open No. 1-320565. The learning efficiency method shown there prepares a set of several learning parameters (parameter η that determines the step size, parameter α that adjusts the amount of momentum), proceeds with learning for each, and performs the learning every set number of times. The method calculates the error in each case and selects the learning parameter with the least error.
【0011】[0011]
【発明が解決しようとする課題】しかしながら、上記従
来の学習効率化方法では、学習の効率化といっても複数
の学習パラメータに対する誤差計算を設定された回数毎
に行なうので、膨大な計算量が必要になるという問題が
あった。[Problem to be Solved by the Invention] However, in the above-mentioned conventional method for improving learning efficiency, error calculations for multiple learning parameters are performed every set number of times, so a huge amount of calculation is required. The problem was that it was needed.
【0012】本発明は、このような従来の問題を解決す
るものであり、より効率的な学習を行なうことのできる
神経回路網を模した情報処理装置を提供することを目的
とする。The present invention is intended to solve these conventional problems, and an object of the present invention is to provide an information processing device imitating a neural network that can perform more efficient learning.
【0013】[0013]
【課題を解決するための手段】本発明は、上記目的を達
成するために、複数個の学習モードを予め用意しておき
、これらの学習モードを出力誤差に応じて切り替えるよ
うにしたものである。[Means for Solving the Problems] In order to achieve the above object, the present invention prepares a plurality of learning modes in advance and switches these learning modes according to the output error. .
【0014】[0014]
【作用】本発明は、上記構成により、学習初期に適した
学習モードと学習後期に適した学習モードとを切り替え
ることができ、効率のよい学習を行なうことができる。[Operation] With the above-described configuration, the present invention can switch between a learning mode suitable for the early stage of learning and a learning mode suitable for the latter stage of learning, and can perform efficient learning.
【0015】[0015]
【実施例】以下、本発明の実施例について添付図面を参
照しながら説明する。図1は本発明の一実施例における
情報処理装置の概略構成を示すブロック図である。この
情報処理装置は、入力側から第1層X、第2層Y、第3
層Zの3層構造を有している。11X,11Y,11Z
は信号変換回路であり、12X,12Y,12Zは修正
回路である。13は誤差計算回路であり、14は制御回
路である。DESCRIPTION OF THE PREFERRED EMBODIMENTS Examples of the present invention will be described below with reference to the accompanying drawings. FIG. 1 is a block diagram showing a schematic configuration of an information processing apparatus according to an embodiment of the present invention. This information processing device consists of a first layer X, a second layer Y, and a third layer from the input side.
It has a three-layer structure with layer Z. 11X, 11Y, 11Z
is a signal conversion circuit, and 12X, 12Y, and 12Z are correction circuits. 13 is an error calculation circuit, and 14 is a control circuit.
【0016】図2は図1に示す情報処理装置における修
正回路12X,12Y,12Zの具体的な構成例を示す
ブロック図である。121は第1修正回路であり、12
2は第2修正回路であり、123は切り替え回路である
。FIG. 2 is a block diagram showing a specific example of the configuration of the correction circuits 12X, 12Y, and 12Z in the information processing apparatus shown in FIG. 121 is a first correction circuit;
2 is a second correction circuit, and 123 is a switching circuit.
【0017】以下、図1および図2を参照して上記実施
例の動作について説明する。なお、本実施例においては
、情報処理装置は誤差計算モードと学習モードとを有す
る。The operation of the above embodiment will be explained below with reference to FIGS. 1 and 2. Note that in this embodiment, the information processing device has an error calculation mode and a learning mode.
【0018】誤差計算モードは、信号変換回路11X,
11Y,11Zの内部状態を変更することなく前向きの
計算を実行し、誤差を計算するモードである。このモー
ドは、学習開始時と、学習方法にもよるが、普通は設定
された回数毎に実行される。In the error calculation mode, the signal conversion circuit 11X,
This is a mode in which forward calculations are performed and errors are calculated without changing the internal states of 11Y and 11Z. This mode is normally executed every set number of times, depending on the start of learning and the learning method.
【0019】学習モードは、制御回路14からの制御信
号によって選択された学習方法に従って学習を進めるモ
ードである。例えば誤差逆伝播法を用いる場合、学習初
期の学習方法としては、入力を受ける毎にシナプス荷重
を修正する方法が有利であり、誤差が一定の割合に減少
した後は、複数、できれば入力分布を統計的に推測でき
るだけの回数入力を受けたのち、一度にシナプス荷重を
修正する方法の方が有利となる。以下の説明においては
、上記二つの学習アルゴリズムを有する多層パーセプト
ロンを例として説明するが、図2に示した修正回路12
X,12Y,12Z内の第1修正回路121は、前者の
学習アルゴリズムに従って動作し、第2修正回路122
は、後者の学習アルゴリズムに従って動作するものとす
る。The learning mode is a mode in which learning proceeds according to a learning method selected by a control signal from the control circuit 14. For example, when using the error backpropagation method, it is advantageous to modify the synaptic load each time an input is received as a learning method in the initial stage of learning. It is more advantageous to correct the synaptic load at once after receiving the input a sufficient number of times to be able to estimate it statistically. In the following explanation, a multilayer perceptron having the above two learning algorithms will be explained as an example, but the correction circuit 12 shown in FIG.
The first correction circuit 121 in X, 12Y, 12Z operates according to the former learning algorithm, and the second correction circuit 122
shall operate according to the latter learning algorithm.
【0020】まず、学習開始に際して、制御回路14が
リセットされ、制御回路14は修正回路12Z,12Y
,12Xに誤差計算モード用の制御信号を出力する。
これに基づいて誤差の計算が実行され、その結果が初期
誤差として制御回路14に保持される。First, at the start of learning, the control circuit 14 is reset, and the control circuit 14 uses the correction circuits 12Z and 12Y.
, 12X outputs a control signal for the error calculation mode. An error calculation is performed based on this, and the result is held in the control circuit 14 as an initial error.
【0021】次に制御回路14は、学習初期に適した学
習方法を選択する制御信号を修正回路12Z,12Y,
12X内の切り替え回路123に送り、まず初めに第1
修正回路121が選択されて学習が開始される。なお、
本実施例の構成では、動作しない修正回路は、出力を0
としている。Next, the control circuit 14 sends a control signal for selecting a learning method suitable for the initial stage of learning to correction circuits 12Z, 12Y,
12X to the switching circuit 123, and first the first
The correction circuit 121 is selected and learning is started. In addition,
In the configuration of this embodiment, the correction circuit that does not operate has an output of 0.
It is said that
【0022】切り替え回路123によって選択された第
1修正回路121の学習アルゴリズムは、入力を受ける
毎にシナプス荷重を修正する方法であり、従来例におい
て説明したのと同様の動作をする。The learning algorithm of the first modification circuit 121 selected by the switching circuit 123 is a method of modifying the synaptic load each time it receives an input, and operates in the same manner as described in the conventional example.
【0023】学習の進行にともない出力誤差が一定割合
に減少すると、制御回路14は制御信号を発し、切り替
え回路123を動作させる。切り替え回路123は、第
1修正回路121を停め、第2修正回路122を動作さ
せ、複数、できれば入力分布を統計的に推測できるだけ
の回数入力を受けたのち、一度にシナプス荷重を修正す
る学習アルゴリズムに基づいて学習が進められる。When the output error decreases to a certain rate as learning progresses, the control circuit 14 issues a control signal to operate the switching circuit 123. The switching circuit 123 is a learning algorithm that stops the first correction circuit 121, operates the second correction circuit 122, and corrects the synaptic load at once after receiving multiple inputs, preferably enough times to statistically estimate the input distribution. Learning proceeds based on the following.
【0024】この神経回路網を模した情報処理装置が十
分な学習を行ない、誤差計算回路13から出力される誤
差が一定値より小さくなると、修正回路12X,12Y
,12Zに掛かる手続きは割愛され、入力から出力への
前方向のみの処理が行なわれるようになる。When the information processing device imitating this neural network performs sufficient learning and the error output from the error calculation circuit 13 becomes smaller than a certain value, the correction circuits 12X, 12Y
, 12Z are omitted, and only forward processing from input to output is performed.
【0025】なお、学習アルゴリズムを切り替えるため
に制御回路14から出力される制御信号は、結合重みの
変化量が設定された値以下になったときに出力されるよ
うにしてもよい。Note that the control signal output from the control circuit 14 for switching the learning algorithm may be output when the amount of change in the connection weight becomes less than or equal to a set value.
【0026】上記第1の実施例においては、修正回路1
2 X,12Y,12Zは、第1修正回路121と第
2修正回路122と切り替え回路123とから構成され
ているが、上記実施例に用いた学習アルゴリズムを用い
るのであれば、修正回路12X,12Y,12Zは、図
3に示した構成とすることができる。In the first embodiment, the correction circuit 1
2X, 12Y, 12Z are composed of a first correction circuit 121, a second correction circuit 122, and a switching circuit 123, but if the learning algorithm used in the above embodiment is used, the correction circuits 12X, 12Y , 12Z may have the configuration shown in FIG.
【0027】次に図3を参照しながら、本発明の第2の
実施例について説明する。図3において、124は入力
毎の誤差のシナプス荷重に関する変分、Next, a second embodiment of the present invention will be described with reference to FIG. In FIG. 3, 124 is the variation of the error for each input with respect to the synaptic load;
【0028】d
E/d Wji|pattern を計算する変分計
算部であり、125はカウンター126からの信号を受
けるまで変分結果を積算する積算部である。127はモ
ード切り替え時にはリセットされる前回更新量、d
It is a variation calculation unit that calculates E/d Wji|pattern, and 125 is an integration unit that integrates the variation results until it receives a signal from the counter 126. 127 is the previous update amount that is reset when switching modes;
【0029】ΔWji old
する更新量バッファ部であり、128は積算部125か
ら出力される積算変分に積算回数に応じた学習レイトμ
を掛けて、128 is an update amount buffer section that calculates ΔWji old, and reference numeral 128 indicates a learning rate μ corresponding to the number of integration times for the integrated variation output from the integrating section 125.
Multiply by
【0030】μ・Σd E/d Wji|patter
n を出力する学習レイト換算部であり、129は前回
更新量にモーメンタムパラメータαを掛けて、[0030] μ・Σd E/d Wji | patter
129 is a learning rate conversion unit that outputs n, and 129 multiplies the previous update amount by the momentum parameter α,
【003
1】α・ΔWji old
を出力するモーメンタム換算部である。カウンター12
6は、制御回路14からの制御信号を受けて積算回数を
定め、変分計算部124の出力をカウントし、設定回数
に至ったとき出力を行なうように、積算部125と更新
量バッファ部127に信号を送る。003
1] A momentum conversion unit that outputs α·ΔWji old. counter 12
6 determines the number of integrations in response to a control signal from the control circuit 14, counts the output of the variation calculation unit 124, and outputs an output when the set number of times is reached. send a signal to.
【0032】以下、上記第2実施例の動作について説明
する。学習アルゴリズムとして入力毎にシナプス荷重を
修正するものを用いる場合、制御回路14からの制御信
号によりカウンター126の設定値は1となり、もう一
方の学習アルゴリズムを用いる場合には、入力空間を統
計的に推定できる程度の数Nになる。The operation of the second embodiment will be explained below. When using a learning algorithm that modifies the synaptic load for each input, the set value of the counter 126 is set to 1 by the control signal from the control circuit 14, and when using the other learning algorithm, the input space is statistically modified. The number N is such that it can be estimated.
【0033】情報処理装置の前向き計算の過程において
、変分計算部124には前段の信号変換回路12X,1
2Yの出力が入力される。後ろ向き計算の場合は、変分
計算部124には、誤差計算回路13からの誤差信号が
入力され、入力毎の誤差のシナプス荷重に関する変分、In the forward calculation process of the information processing device, the variation calculation section 124 includes the preceding stage signal conversion circuits 12X, 1.
The output of 2Y is input. In the case of backward calculation, the error signal from the error calculation circuit 13 is input to the variation calculation unit 124, and the variation regarding the synaptic load of the error for each input,
【0034】d E/d Wji|pattern と
次の修正回路12Yまたは12Xに送る誤差信号が求め
られ、それぞれ積算部125、カウンター126と次の
修正回路12Yまたは12Xに送られる。カウンター1
26は、変分計算部124から送られてくる信号の数を
カウントし、それが制御回路14からの信号によって定
められた設定値(1またはN)と等しくなるまでは、積
算部125と更新量バッファ部127を信号が出力しな
いように止めておく。カウント数が設定値に等しくなる
と、カウンター126は積算部125と更新量バッファ
部127に、積算結果、d E/d Wji|pattern and an error signal to be sent to the next correction circuit 12Y or 12X are determined and sent to the integrating section 125, the counter 126, and the next correction circuit 12Y or 12X, respectively. counter 1
26 counts the number of signals sent from the variation calculation unit 124, and updates it with the integration unit 125 until it becomes equal to the set value (1 or N) determined by the signal from the control circuit 14. The amount buffer section 127 is stopped so that no signal is output. When the count number becomes equal to the set value, the counter 126 sends the integration result to the integration unit 125 and the update amount buffer unit 127.
【0035】Σd E/d Wji|pattern
と前回更新量、[0035] Σd E/d Wji | pattern
and the previous update amount,
【0036】ΔWji old
をそれぞれ学習レイト換算部128とモーメンタム換算
部129に出力し、いずれも内部をセットする。学習レ
イト換算部128は、積算部125における積算結果に
制御回路14からの信号によって定められた学習レイト
μを掛けて出力する。モーメンタム換算部129は、前
回更新量にモーメンタムパラメータαを掛けて出力する
。この2つの出力は加算されて、更新量、ΔWji old is output to the learning rate converter 128 and the momentum converter 129, respectively, and the internal values of both are set. The learning rate conversion unit 128 multiplies the integration result in the integration unit 125 by the learning rate μ determined by the signal from the control circuit 14 and outputs the result. The momentum conversion unit 129 multiplies the previous update amount by the momentum parameter α and outputs the result. These two outputs are added to give the update amount,
【0037】
ΔWji=μ・Σd E/d Wji|patte
rn +α・ΔWji oldとなり、信号変換回路1
1X,11Y,11Zと更新量バッファ部127に送ら
れる。[0037] ΔWji=μ・Σd E/d Wji|patte
rn + α・ΔWji old, and the signal conversion circuit 1
1X, 11Y, and 11Z are sent to the update amount buffer section 127.
【0038】このように、上記第2実施例では、二つの
学習モードの切り替えは、カウンター126の設定値と
学習レイトの大きさを制御回路14によって制御するこ
とにより実現されている。As described above, in the second embodiment, switching between the two learning modes is realized by controlling the set value of the counter 126 and the magnitude of the learning rate by the control circuit 14.
【0039】なお、説明の煩雑さを避けるために、上記
第2実施例の説明では、学習レイトだけを学習モード変
更時に変えるようにしたが、モーメンタムパラメータも
同時にまたは独立に変えることができる。In order to avoid the complexity of the explanation, in the explanation of the second embodiment, only the learning rate is changed when changing the learning mode, but the momentum parameter can also be changed simultaneously or independently.
【0040】また第1および第2実施例の説明は、多層
パーセプトロンを誤差逆伝播法で学習させる場合を例に
して説明されているが、本発明は神経回路を模した情報
処理装置として多層パーセプトロンに限定するものでは
なく、学習アルゴリズムも誤差逆伝播法に限るものでは
ない。例えば、学習ベクトル量子化法などにも本発明は
適用でき、当然のことながら、学習モードも複数であれ
ば、いくつでもよい。Furthermore, although the first and second embodiments have been explained using an example in which a multilayer perceptron is trained by the error backpropagation method, the present invention uses a multilayer perceptron as an information processing device imitating a neural circuit. The learning algorithm is not limited to the error backpropagation method. For example, the present invention can be applied to a learning vector quantization method, and as a matter of course, any number of learning modes may be used as long as there are a plurality of learning modes.
【0041】さらにまた、制御信号は設定された値以下
になったとき出力されるものとしたが、誤差の範囲に応
じて制御信号を発生するようにしてもよい。Furthermore, although the control signal is output when the value falls below a set value, the control signal may be generated depending on the error range.
【0042】[0042]
【発明の効果】以上のように、本発明によれば、出力誤
差に応じて学習モードを切り替えるようにしたので、学
習初期に適した学習モードと学習後期に適した学習モー
ドとを切り替えることができ、より効率のよい学習を行
なうことができる。[Effects of the Invention] As described above, according to the present invention, since the learning mode is switched according to the output error, it is possible to switch between the learning mode suitable for the early stage of learning and the learning mode suitable for the late stage of learning. This allows for more efficient learning.
【図1】本発明の第1の実施例の概略構成を示すブロッ
ク図FIG. 1 is a block diagram showing a schematic configuration of a first embodiment of the present invention.
【図2】本発明の第1の実施例における修正回路の具体
的な構成例を示すブロック図FIG. 2 is a block diagram showing a specific configuration example of a correction circuit in the first embodiment of the present invention.
【図3】本発明の第2の実施例における修正回路の具体
的な構成例を示すブロック図FIG. 3 is a block diagram showing a specific configuration example of a correction circuit in a second embodiment of the present invention.
【図4】従来の神経回路を模した情報処理装置の概略構
成を示すブロック図[Fig. 4] Block diagram showing a schematic configuration of an information processing device imitating a conventional neural circuit
11X,11Y,11Z 信号変換回路12X,12
Y,12Z 修正回路
13 誤差計算回路
14 制御回路
121 第1修正回路
122 第2修正回路
123 切り替え回路
124 変分計算部
125 積算部
126 カウンター
127 更新量バッファ部
128 学習レイト換算部
129 モーメンタム換算部11X, 11Y, 11Z Signal conversion circuit 12X, 12
Y, 12Z Correction circuit 13 Error calculation circuit 14 Control circuit 121 First correction circuit 122 Second correction circuit 123 Switching circuit 124 Variation calculation section 125 Integration section 126 Counter 127 Update amount buffer section 128 Learning rate conversion section 129 Momentum conversion section
Claims (5)
に応じて制御回路からの制御信号により前記複数個の学
習モードを切り替えることを特徴とする神経回路網を模
した情報処理装置。1. An information processing device imitating a neural network, characterized in that it has a plurality of learning modes, and the plurality of learning modes are switched by a control signal from a control circuit according to an output error.
される毎に結合の強さを修正するモードと、設定された
複数回数だけ入力信号が入力されたときに結合の強さを
修正するモードである請求項1記載の情報処理装置。[Claim 2] The learning mode includes a mode in which the strength of the connection is modified each time one input signal is input, and a mode in which the strength of the connection is modified each time the input signal is input a set number of times. The information processing apparatus according to claim 1, wherein the information processing apparatus is in a mode.
以下になったときに出力される請求項1または2記載の
情報処理装置。3. The information processing apparatus according to claim 1, wherein the control signal is output when the output error becomes equal to or less than a set value.
出力誤差の設定された割合以下となったときに出力され
る請求項1または2記載の情報処理装置。4. The information processing apparatus according to claim 1, wherein the control signal is output when the output error becomes equal to or less than a set ratio of the output error at the start of learning.
された値以下になったときに出力される請求項1または
2記載の情報処理装置。5. The information processing apparatus according to claim 1, wherein the control signal is output when the amount of change in the connection weight becomes less than or equal to a set value.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP40225290A JP3262340B2 (en) | 1990-12-14 | 1990-12-14 | Information processing device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP40225290A JP3262340B2 (en) | 1990-12-14 | 1990-12-14 | Information processing device |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH04215171A true JPH04215171A (en) | 1992-08-05 |
JP3262340B2 JP3262340B2 (en) | 2002-03-04 |
Family
ID=18512078
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP40225290A Expired - Fee Related JP3262340B2 (en) | 1990-12-14 | 1990-12-14 | Information processing device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3262340B2 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05298277A (en) * | 1992-04-24 | 1993-11-12 | Hitachi Ltd | Method and device for learning neural network |
JP5880440B2 (en) * | 2010-10-28 | 2016-03-09 | 日本電気株式会社 | Portable terminal device, notification method and program |
JPWO2021130915A1 (en) * | 2019-12-25 | 2021-07-01 |
-
1990
- 1990-12-14 JP JP40225290A patent/JP3262340B2/en not_active Expired - Fee Related
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05298277A (en) * | 1992-04-24 | 1993-11-12 | Hitachi Ltd | Method and device for learning neural network |
JP5880440B2 (en) * | 2010-10-28 | 2016-03-09 | 日本電気株式会社 | Portable terminal device, notification method and program |
JPWO2021130915A1 (en) * | 2019-12-25 | 2021-07-01 | ||
WO2021130915A1 (en) * | 2019-12-25 | 2021-07-01 | 日本電気株式会社 | Learning device, learning method, and learning program |
Also Published As
Publication number | Publication date |
---|---|
JP3262340B2 (en) | 2002-03-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2001236337A (en) | Predicting device using neural network | |
JP3178884B2 (en) | Neural network device | |
JPH04215171A (en) | Information processor | |
Anderson et al. | Reinforcement learning with modular neural networks for control | |
JPH0451384A (en) | Neural network and its construction method | |
JPH05101028A (en) | Integral decision method for plural feature quantity | |
JPH04215170A (en) | Information processor | |
JPH05204885A (en) | Device and method for accelerating learning of neural network | |
JPH06231106A (en) | Method and device for learning recurrent type neural network | |
JPH05128082A (en) | Data processor constituting hierarchical network and its learning processing method | |
JPH05314090A (en) | Method and device for recognizing pattern by using neural network | |
JP3224831B2 (en) | Neural network device | |
JPH0430280A (en) | Learning method for neural network | |
JP2559879B2 (en) | Fuzzy controller | |
KR19980074455A (en) | Neural network and implementation method | |
JPH0329064A (en) | Pattern recognizing device | |
JPH0675935A (en) | Multivariable system construction method and its device | |
JPH03147173A (en) | Neural network | |
JP2607351B2 (en) | Error Signal Generation Method for Efficient Learning of Multilayer Perceptron Neural Network | |
JPH03118606A (en) | Adaptive controller | |
JP2559880B2 (en) | Fuzzy controller | |
Lippe | MODELLING AND SIMULATION OF FUZZY-RULE BASED SYSTEMS | |
JPH04275629A (en) | Construction system for membership function by neural network | |
JPH04348453A (en) | Neuron element for fuzzy logic arithmetic | |
JPH0451383A (en) | Neural network |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
LAPS | Cancellation because of no payment of annual fees |