JP3262340B2 - Information processing device - Google Patents

Information processing device

Info

Publication number
JP3262340B2
JP3262340B2 JP40225290A JP40225290A JP3262340B2 JP 3262340 B2 JP3262340 B2 JP 3262340B2 JP 40225290 A JP40225290 A JP 40225290A JP 40225290 A JP40225290 A JP 40225290A JP 3262340 B2 JP3262340 B2 JP 3262340B2
Authority
JP
Japan
Prior art keywords
learning
information processing
signal
mode
processing apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP40225290A
Other languages
Japanese (ja)
Other versions
JPH04215171A (en
Inventor
道 敏 樹 金
田 武 彦 志
基 孫 中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Priority to JP40225290A priority Critical patent/JP3262340B2/en
Publication of JPH04215171A publication Critical patent/JPH04215171A/en
Application granted granted Critical
Publication of JP3262340B2 publication Critical patent/JP3262340B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)
  • Feedback Control In General (AREA)

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【産業上の利用分野】本発明は、神経回路網を模した情
報処理装置に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an information processing apparatus imitating a neural network.

【0002】[0002]

【従来の技術】近年、神経回路網を模した情報処理装置
の開発が進み、文字認識装置などのパターン分類装置等
で盛んに利用されるようになってきた。このような情報
処理装置は、たとえば、文献(PDPモデル、D.E.
ラメルハート 他2名、甘利俊一監訳、1989年)に
記載された構成が知られている。
2. Description of the Related Art In recent years, information processing apparatuses imitating neural networks have been developed and have been actively used in pattern classification apparatuses such as character recognition apparatuses. Such an information processing apparatus is described in, for example, a document (PDP model, DE
The configuration described in Ramelhart and two others, translated by Shunichi Amari, 1989) is known.

【0003】以下、図4を参照してその構成を簡単に説
明する。図4は第1層X,第2層Y,第3層Zの3層構
造を有する神経回路網を模した情報処理装置の概略構成
を示している。1X,1Y,1Zは、内部に線形変換部
と非線形変換部とからなる神経素子を一般には複数個持
つ信号変換回路である。2X,2Y,2Zは信号変換回
路1X,1Y,1Z内の線形変換部の特性を書き換える
修正回路である。3は理想出力Tと現実の出力S(z) か
ら修正回路2Zに送るべき誤差信号D(z) を算出する誤
差計算回路である。
Hereinafter, the configuration will be briefly described with reference to FIG. FIG. 4 shows a schematic configuration of an information processing apparatus simulating a neural network having a three-layer structure of a first layer X, a second layer Y, and a third layer Z. 1X, 1Y, and 1Z are signal conversion circuits that generally have a plurality of neural elements internally including a linear conversion unit and a non-linear conversion unit. 2X, 2Y and 2Z are correction circuits for rewriting the characteristics of the linear conversion units in the signal conversion circuits 1X, 1Y and 1Z. An error calculation circuit 3 calculates an error signal D (z) to be sent to the correction circuit 2Z from the ideal output T and the actual output S (z).

【0004】次に上記情報処理装置の動作について説明
する。なお、神経回路網を模した情報処理装置において
は、信号は複数が並列に流れてゆく場合が大半である
が、これをすべて添え字で区別するのは表現を煩雑にす
るだけなので、以下の説明においては、特に必要がない
場合には添え字を省略する。
Next, the operation of the information processing apparatus will be described. In an information processing device imitating a neural network, a plurality of signals flow in parallel in most cases, but distinguishing all of them by subscripts merely complicates the expression. In the description, the suffix will be omitted unless it is particularly necessary.

【0005】神経回路網を模した情報処理装置の学習時
の動作では、信号変換回路1Xは、入力された信号S
(i) を信号S(x) に変換して出力するが、修正回路2X
は、信号S(i) と信号S(x) を内部に蓄えて誤差信号D
(x) の入力まで待機する。同様の処理が信号変換回路1
Y,1Zおよび修正回路2Y,2Zにおいてもなされ
る。そして、最終の出力S( z)と、入力信号S(i) に対
応する理想出力、教師信号とも呼ばれるTとが誤差計算
回路3に送られる。誤差計算回路3では、出力信号S
(z) と教師信号Tとから、第3層Zのj番目の神経素子
に関する誤差信号Dj(z)を、例えば、
In the operation of the information processing apparatus simulating a neural network at the time of learning, the signal conversion circuit 1X outputs the input signal S
(i) is converted into a signal S (x) and output.
Stores the signal S (i) and the signal S (x) inside and stores the error signal D
Wait for (x) input. Similar processing is performed by the signal conversion circuit 1
Y, 1Z and correction circuits 2Y, 2Z. Then, the final output S (z), the ideal output corresponding to the input signal S (i), and T, also called a teacher signal, are sent to the error calculation circuit 3. In the error calculation circuit 3, the output signal S
(z) and the teacher signal T, an error signal Dj (z) related to the j-th neural element of the third layer Z is calculated, for example, as follows:

【0006】Dj(z)=−μ(Sj(z)−Tj ) ここに、μは正の定数 と計算し、これをまとめた誤差信号D(z) が修正回路2
Zに送られる。修正回路2Zは、保持している信号S
(y) ,S(z) と誤差信号D(z) を受けて修正信号M(z)
を信号変換回路1Zに送り、信号変換回路1Z内のj番
目の神経素子と信号変換回路1Y内の神経素子の間の線
形変換部の結合の強さWji(z) を、
Dj (z) =-μ (Sj (z) -Tj) Here, μ is calculated as a positive constant, and an error signal D (z) obtained by summing the values is obtained as a correction circuit 2
Sent to Z. The correction circuit 2Z outputs the held signal S
(y), S (z) and the error signal D (z), and the modified signal M (z)
Is sent to the signal conversion circuit 1Z, and the coupling strength Wji (z) of the linear conversion unit between the j-th neural element in the signal conversion circuit 1Z and the neural element in the signal conversion circuit 1Y is calculated as

【0007】Wji(z) +Dj(z)・ Sj(z)・(1−Sj(z))・
Si(y)に修正し、誤差信号D(y) として、例えば、
Wji (z) + Dj (z) · Sj (z) · (1−Sj (z)) ·
Modified to Si (y), and as an error signal D (y), for example,

【0008】ΣDj(z)・ Sj(z)・(1−Sj(z))・Wji(z) を修正回路2Yに送る。以下、同様の処理が信号変換回
路1Y,1Xおよび修正回路2Y,2Xにおいてなされ
る。この学習と呼ばれる手続きを繰り返すことにより、
神経回路網を模した情報処理装置は、入力される信号S
(i) と理想出力Tとの間の関係を身につけ、新しい入力
に対しても過去の経験から推量される適切な出力を出す
ようになる。
ΣDj (z) ・ Sj (z) ・ (1-Sj (z)) ・ Wji (z) are sent to the correction circuit 2Y. Hereinafter, similar processing is performed in the signal conversion circuits 1Y and 1X and the correction circuits 2Y and 2X. By repeating this procedure called learning,
An information processing apparatus imitating a neural network receives an input signal S
By learning the relationship between (i) and the ideal output T, an appropriate output can be output even for a new input inferred from past experience.

【0009】このようにして、神経回路網を模した情報
処理装置が十分な学習を行ない、誤差計算回路3から出
力される誤差D(z) が一定値より小さくなると、修正回
路2Z,2Y,2Xに掛かる手続きは割愛され、入力か
ら出力への前方向のみの処理が行なわれるようになる。
In this way, when the information processing device simulating a neural network performs sufficient learning and the error D (z) output from the error calculation circuit 3 becomes smaller than a certain value, the correction circuits 2Z, 2Y, The procedure related to 2X is omitted, and only the processing in the forward direction from the input to the output is performed.

【0010】このような学習方法は、収束に時間がかか
るため、学習を高速化するための工夫が、例えば特開平
1−320565号公報に開示されている。そこに示さ
れた学習効率化方法は、いくつかの学習パラメータ(ス
テップサイズを決めるパラメータη、モーメンタム量を
調整するパラメータα)の組を用意し、それぞれについ
て学習を進め、設定された回数毎にそれぞれの場合の誤
差を計算して最も誤差の少ない学習パラメータを選択す
るというものである。
Since such a learning method requires a long time for convergence, a device for speeding up the learning is disclosed in, for example, JP-A-1-320565. The learning efficiency improvement method shown therein prepares a set of several learning parameters (a parameter η for determining the step size and a parameter α for adjusting the amount of momentum), and proceeds with learning for each. The error in each case is calculated, and the learning parameter with the least error is selected.

【0011】[0011]

【発明が解決しようとする課題】しかしながら、上記従
来の学習効率化方法では、学習の効率化といっても複数
の学習パラメータに対する誤差計算を設定された回数毎
に行なうので、膨大な計算量が必要になるという問題が
あった。
However, in the above-mentioned conventional learning efficiency improving method, since the error calculation for a plurality of learning parameters is performed at every set number of times even if the learning efficiency is improved, an enormous amount of calculation is required. There was a problem that it became necessary.

【0012】本発明は、このような従来の問題を解決す
るものであり、より効率的な学習を行なうことのできる
神経回路網を模した情報処理装置を提供することを目的
とする。
An object of the present invention is to solve such a conventional problem, and an object of the present invention is to provide an information processing apparatus simulating a neural network capable of performing more efficient learning.

【0013】[0013]

【課題を解決するための手段】本発明は、上記目的を達
成するために、複数のシナプス荷重を持った神経素子を
有する神経回路網を模した情報処理装置であって、前記
シナプス荷重を修正する複数個の学習モードを有し、
複数個の学習モードは、一つの入力信号が入力される毎
に結合の強さを修正するモードと、設定された複数回数
だけ入力信号が入力されたときに結合の強さを修正する
モードとであり、前記神経素子の出力誤差に応じて前記
複数個の学習モードを切り替えるようにしたものであ
る。
According to the present invention, there is provided an information processing apparatus simulating a neural network having a plurality of neural elements having a plurality of synapse loads. has a plurality learning mode in which, the
A plurality of learning modes are set every time one input signal is input.
Mode to modify the strength of the connection and the set multiple times
Correct coupling strength when only input signal is input
Mode, wherein the plurality of learning modes are switched according to the output error of the neural element.

【0014】[0014]

【作用】本発明は、上記構成により、シナプス荷重を修
正する複数個の学習モードを神経素子の出力誤差に応じ
て切り替えることにより、学習初期に適した学習モード
と学習後期に適した学習モードとを切り替えることがで
き、効率のよい学習を行なうことができる。
According to the present invention, the synapse load is corrected by the above configuration.
Correct multiple learning modes according to neural element output error
By switching the learning mode, a learning mode suitable for the initial stage of learning and a learning mode suitable for the latter period of the learning can be switched, and efficient learning can be performed.

【0015】[0015]

【実施例】以下、本発明の実施例について添付図面を参
照しながら説明する。図1は本発明の一実施例における
情報処理装置の概略構成を示すブロック図である。この
情報処理装置は、入力側から第1層X、第2層Y、第3
層Zの3層構造を有している。11X,11Y,11Z
は信号変換回路であり、12X,12Y,12Zは修正
回路である。13は誤差計算回路であり、14は制御回
路である。
Embodiments of the present invention will be described below with reference to the accompanying drawings. FIG. 1 is a block diagram showing a schematic configuration of an information processing apparatus according to one embodiment of the present invention. The information processing apparatus includes a first layer X, a second layer Y, a third layer
The layer Z has a three-layer structure. 11X, 11Y, 11Z
Is a signal conversion circuit, and 12X, 12Y, and 12Z are correction circuits. 13 is an error calculation circuit, and 14 is a control circuit.

【0016】図2は図1に示す情報処理装置における修
正回路12X,12Y,12Zの具体的な構成例を示す
ブロック図である。121は第1修正回路であり、12
2は第2修正回路であり、123は切り替え回路であ
る。
FIG. 2 is a block diagram showing a specific configuration example of the correction circuits 12X, 12Y and 12Z in the information processing apparatus shown in FIG. 121 is a first correction circuit, and 12
2 is a second correction circuit, and 123 is a switching circuit.

【0017】以下、図1および図2を参照して上記実施
例の動作について説明する。なお、本実施例において
は、情報処理装置は誤差計算モードと学習モードとを有
する。
The operation of the above embodiment will be described below with reference to FIGS. In the present embodiment, the information processing device has an error calculation mode and a learning mode.

【0018】誤差計算モードは、信号変換回路11X,
11Y,11Zの内部状態を変更することなく前向きの
計算を実行し、誤差を計算するモードである。このモー
ドは、学習開始時と、学習方法にもよるが、普通は設定
された回数毎に実行される。
In the error calculation mode, the signal conversion circuits 11X,
In this mode, forward calculation is performed without changing the internal states of 11Y and 11Z, and an error is calculated. This mode is normally executed at the start of learning and at every set number of times, depending on the learning method.

【0019】学習モードは、制御回路14からの制御信
号によって選択された学習方法に従って学習を進めるモ
ードである。例えば誤差逆伝播法を用いる場合、学習初
期の学習方法としては、入力を受ける毎にシナプス荷重
を修正する方法が有利であり、誤差が一定の割合に減少
した後は、複数、できれば入力分布を統計的に推測でき
るだけの回数入力を受けたのち、一度にシナプス荷重を
修正する方法の方が有利となる。以下の説明において
は、上記二つの学習アルゴリズムを有する多層パーセプ
トロンを例として説明するが、図2に示した修正回路1
2X,12Y,12Z内の第1修正回路121は、前者
の学習アルゴリズムに従って動作し、第2修正回路12
2は、後者の学習アルゴリズムに従って動作するものと
する。
The learning mode is a mode in which learning is performed in accordance with a learning method selected by a control signal from the control circuit 14. For example, when using the error backpropagation method, as a learning method at the initial stage of learning, a method of correcting the synapse load every time an input is received is advantageous. The method of correcting the synapse load at once after receiving the input as many times as can be statistically estimated is more advantageous. In the following description, a multi-layer perceptron having the above two learning algorithms will be described as an example, but the modification circuit 1 shown in FIG.
The first correction circuits 121 in 2X, 12Y, and 12Z operate according to the former learning algorithm, and
2 operates according to the latter learning algorithm.

【0020】まず、学習開始に際して、制御回路14が
リセットされ、制御回路14は修正回路12Z,12
Y,12Xに誤差計算モード用の制御信号を出力する。
これに基づいて誤差の計算が実行され、その結果が初期
誤差として制御回路14に保持される。
First, at the start of learning, the control circuit 14 is reset, and the control circuit 14 corrects the correction circuits 12Z and 12Z.
A control signal for the error calculation mode is output to Y and 12X.
The calculation of the error is performed based on this, and the result is held in the control circuit 14 as an initial error.

【0021】次に制御回路14は、学習初期に適した学
習方法を選択する制御信号を修正回路12Z,12Y,
12X内の切り替え回路123に送り、まず初めに第1
修正回路121が選択されて学習が開始される。なお、
本実施例の構成では、動作しない修正回路は、出力を0
としている。
Next, the control circuit 14 converts a control signal for selecting a learning method suitable for the initial stage of learning into correction circuits 12Z, 12Y,
The signal is sent to the switching circuit 123 in the 12X.
The correction circuit 121 is selected and learning is started. In addition,
In the configuration of the present embodiment, the correction circuit that does not operate outputs 0
And

【0022】切り替え回路123によって選択された第
1修正回路121の学習アルゴリズムは、入力を受ける
毎にシナプス荷重を修正する方法であり、従来例におい
て説明したのと同様の動作をする。
The learning algorithm of the first correction circuit 121 selected by the switching circuit 123 is a method of correcting a synapse load every time an input is received, and performs the same operation as that described in the conventional example.

【0023】学習の進行にともない出力誤差が一定割合
に減少すると、制御回路14は制御信号を発し、切り替
え回路123を動作させる。切り替え回路123は、第
1修正回路121を停め、第2修正回路122を動作さ
せ、複数、できれば入力分布を統計的に推測できるだけ
の回数入力を受けたのち、一度にシナプス荷重を修正す
る学習アルゴリズムに基づいて学習が進められる。
When the output error decreases at a fixed rate as the learning progresses, the control circuit 14 issues a control signal and operates the switching circuit 123. The switching circuit 123 stops the first correction circuit 121, operates the second correction circuit 122, and receives a plurality of inputs, preferably as many times as possible as many times as possible to statistically estimate the input distribution, and then corrects the synapse load at a time. The learning is advanced based on.

【0024】この神経回路網を模した情報処理装置が十
分な学習を行ない、誤差計算回路13から出力される誤
差が一定値より小さくなると、修正回路12X,12
Y,12Zに掛かる手続きは割愛され、入力から出力へ
の前方向のみの処理が行なわれるようになる。
When the information processing device simulating the neural network performs sufficient learning and the error output from the error calculation circuit 13 becomes smaller than a predetermined value, the correction circuits 12X and 12
Procedures for Y and 12Z are omitted, and processing only in the forward direction from input to output is performed.

【0025】なお、学習アルゴリズムを切り替えるため
に制御回路14から出力される制御信号は、結合重みの
変化量が設定された値以下になったときに出力されるよ
うにしてもよい。
The control signal output from the control circuit 14 for switching the learning algorithm may be output when the amount of change in the connection weight becomes equal to or less than a set value.

【0026】上記第1の実施例においては、修正回路1
2 X,12Y,12Zは、第1修正回路121と第2
修正回路122と切り替え回路123とから構成されて
いるが、上記実施例に用いた学習アルゴリズムを用いる
のであれば、修正回路12X,12Y,12Zは、図3
に示した構成とすることができる。
In the first embodiment, the correction circuit 1
2 X, 12Y, and 12Z are the first correction circuit 121 and the second
It is composed of a correction circuit 122 and a switching circuit 123. If the learning algorithm used in the above embodiment is used, the correction circuits 12X, 12Y, and 12Z will
The configuration shown in FIG.

【0027】次に図3を参照しながら、本発明の第2の
実施例について説明する。図3において、124は入力
毎の誤差のシナプス荷重に関する変分、
Next, a second embodiment of the present invention will be described with reference to FIG. In FIG. 3, reference numeral 124 denotes a variation relating to a synaptic load of an error for each input;

【0028】d E/d Wji|pattern を計算する変分計算部であり、125はカウンター12
6からの信号を受けるまで変分結果を積算する積算部で
ある。127はモード切り替え時にはリセットされる前
回更新量、
A variation calculation unit for calculating d E / d Wji | pattern, 125 is a counter 12
An integration unit that integrates the variation results until a signal from 6 is received. 127 is the last update amount that is reset when the mode is switched,

【0029】ΔWji old する更新量バッファ部であり、128は積算部125か
ら出力される積算変分に積算回数に応じた学習レイトμ
を掛けて、
An update amount buffer unit for ΔWji old is provided, and 128 is a learning rate μ corresponding to the number of integrations in the integration variation output from the integration unit 125.
Multiply by

【0030】μ・Σd E/d Wji|pattern を出力する学習レイト換算部であり、129は前回更新
量にモーメンタムパラメータαを掛けて、
A learning rate conversion unit for outputting μ · Σd E / d Wji | pattern, and 129 multiplies the previous update amount by the momentum parameter α,

【0031】α・ΔWji old を出力するモーメンタム換算部である。カウンター12
6は、制御回路14からの制御信号を受けて積算回数を
定め、変分計算部124の出力をカウントし、設定回数
に至ったとき出力を行なうように、積算部125と更新
量バッファ部127に信号を送る。
A momentum conversion section for outputting α · ΔWji old. Counter 12
6, an integration unit 125 and an update amount buffer unit 127 so that the number of integration is determined in response to a control signal from the control circuit 14, the output of the variation calculation unit 124 is counted, and the output is performed when the set number of times is reached. Send a signal to

【0032】以下、上記第2実施例の動作について説明
する。学習アルゴリズムとして入力毎にシナプス荷重を
修正するものを用いる場合、制御回路14からの制御信
号によりカウンター126の設定値は1となり、もう一
方の学習アルゴリズムを用いる場合には、入力空間を統
計的に推定できる程度の数Nになる。
The operation of the second embodiment will be described below. When a learning algorithm that modifies the synapse load for each input is used, the set value of the counter 126 becomes 1 by a control signal from the control circuit 14, and when the other learning algorithm is used, the input space is statistically calculated. The number N can be estimated.

【0033】情報処理装置の前向き計算の過程におい
て、変分計算部124には前段の信号変換回路12X,
12Yの出力が入力される。後ろ向き計算の場合は、変
分計算部124には、誤差計算回路13からの誤差信号
が入力され、入力毎の誤差のシナプス荷重に関する変
分、
In the course of the forward calculation of the information processing apparatus, the variation calculation section 124 has the signal conversion circuit 12X,
The output of 12Y is input. In the case of the backward calculation, the error signal from the error calculation circuit 13 is input to the variation calculation unit 124, and the variation regarding the synaptic load of the error for each input is calculated.

【0034】d E/d Wji|pattern と次の修正回路12Yまたは12Xに送る誤差信号が求
められ、それぞれ積算部125、カウンター126と次
の修正回路12Yまたは12Xに送られる。カウンター
126は、変分計算部124から送られてくる信号の数
をカウントし、それが制御回路14からの信号によって
定められた設定値(1またはN)と等しくなるまでは、
積算部125と更新量バッファ部127を信号が出力し
ないように止めておく。カウント数が設定値に等しくな
ると、カウンター126は積算部125と更新量バッフ
ァ部127に、積算結果、
The d E / d Wji | pattern and the error signal to be sent to the next correction circuit 12Y or 12X are obtained, and are sent to the integrating section 125, the counter 126 and the next correction circuit 12Y or 12X, respectively. The counter 126 counts the number of signals sent from the variation calculation unit 124, and keeps counting until it becomes equal to a set value (1 or N) determined by a signal from the control circuit 14.
The integration unit 125 and the update amount buffer unit 127 are stopped so that no signal is output. When the count number becomes equal to the set value, the counter 126 outputs the integration result to the integration unit 125 and the update amount buffer unit 127,

【0035】Σd E/d Wji|pattern と前回更新量、Σd E / d Wji | pattern and the previous update amount,

【0036】ΔWji old をそれぞれ学習レイト換算部128とモーメンタム換算
部129に出力し、いずれも内部をセットする。学習レ
イト換算部128は、積算部125における積算結果に
制御回路14からの信号によって定められた学習レイト
μを掛けて出力する。モーメンタム換算部129は、前
回更新量にモーメンタムパラメータαを掛けて出力す
る。この2つの出力は加算されて、更新量、
.DELTA.Wji old is output to the learning rate conversion unit 128 and the momentum conversion unit 129, respectively, and both are set internally. The learning rate conversion section 128 multiplies the result of integration in the integration section 125 by a learning rate μ determined by a signal from the control circuit 14 and outputs the result. The momentum conversion unit 129 multiplies the previous update amount by the momentum parameter α and outputs the result. These two outputs are added and the update amount,

【0037】 ΔWji=μ・Σd E/d Wji|pattern +α・ΔWji old となり、信号変換回路11X,11Y,11Zと更新量
バッファ部127に送られる。
ΔWji = μ · Σd E / d Wji | pattern + α · ΔWji old and is sent to the signal conversion circuits 11X, 11Y and 11Z and the update amount buffer unit 127.

【0038】このように、上記第2実施例では、二つの
学習モードの切り替えは、カウンター126の設定値と
学習レイトの大きさを制御回路14によって制御するこ
とにより実現されている。
As described above, in the second embodiment, the switching between the two learning modes is realized by controlling the set value of the counter 126 and the magnitude of the learning rate by the control circuit 14.

【0039】なお、説明の煩雑さを避けるために、上記
第2実施例の説明では、学習レイトだけを学習モード変
更時に変えるようにしたが、モーメンタムパラメータも
同時にまたは独立に変えることができる。
In the description of the second embodiment, only the learning rate is changed when the learning mode is changed in order to avoid the complexity of the description. However, the momentum parameters can be changed simultaneously or independently.

【0040】また第1および第2実施例の説明は、多層
パーセプトロンを誤差逆伝播法で学習させる場合を例に
して説明されているが、本発明は神経回路を模した情報
処理装置として多層パーセプトロンに限定するものでは
なく、学習アルゴリズムも誤差逆伝播法に限るものでは
ない。例えば、学習ベクトル量子化法などにも本発明は
適用でき、当然のことながら、学習モードも複数であれ
ば、いくつでもよい。
Although the first and second embodiments have been described with reference to an example in which a multi-layer perceptron is trained by an error back propagation method, the present invention relates to a multi-layer perceptron as an information processing apparatus simulating a neural circuit. The learning algorithm is not limited to the backpropagation method. For example, the present invention can be applied to a learning vector quantization method or the like, and it goes without saying that any number of learning modes may be used.

【0041】さらにまた、制御信号は設定された値以下
になったとき出力されるものとしたが、誤差の範囲に応
じて制御信号を発生するようにしてもよい。
Further, although the control signal is output when it becomes equal to or less than the set value, the control signal may be generated according to the range of the error.

【0042】[0042]

【発明の効果】以上のように、本発明によれば、複数の
シナプス荷重を持った神経素子を有する神経回路網を模
した情報処理装置において、前記シナプス荷重を修正す
る複数個の学習モードを有し、前記神経素子の出力誤差
に応じて前記複数個の学習モードを切り替えるようにし
たので、学習初期に適した学習モードと学習後期に適し
た学習モードとを切り替えることができ、より効率のよ
い学習を行なうことができる。
As described above, according to the present invention, a plurality of
Simulate neural network with neural elements with synaptic loads
In the information processing device, the synapse load is corrected.
Output modes of the neural element.
, The plurality of learning modes are switched according to the above , so that the learning mode suitable for the initial stage of learning and the learning mode suitable for the latter period of the learning can be switched, and more efficient learning can be performed.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の第1の実施例の概略構成を示すブロッ
ク図
FIG. 1 is a block diagram showing a schematic configuration of a first embodiment of the present invention.

【図2】本発明の第1の実施例における修正回路の具体
的な構成例を示すブロック図
FIG. 2 is a block diagram showing a specific configuration example of a correction circuit according to the first embodiment of the present invention.

【図3】本発明の第2の実施例における修正回路の具体
的な構成例を示すブロック図
FIG. 3 is a block diagram showing a specific configuration example of a correction circuit according to a second embodiment of the present invention.

【図4】従来の神経回路を模した情報処理装置の概略構
成を示すブロック図
FIG. 4 is a block diagram showing a schematic configuration of an information processing apparatus imitating a conventional neural circuit.

【符号の説明】[Explanation of symbols]

11X,11Y,11Z 信号変換回路 12X,12Y,12Z 修正回路 13 誤差計算回路 14 制御回路 121 第1修正回路 122 第2修正回路 123 切り替え回路 124 変分計算部 125 積算部 126 カウンター 127 更新量バッファ部 128 学習レイト換算部 129 モーメンタム換算部 11X, 11Y, 11Z signal conversion circuit 12X, 12Y, 12Z correction circuit 13 error calculation circuit 14 control circuit 121 first correction circuit 122 second correction circuit 123 switching circuit 124 variation calculation section 125 integration section 126 counter 127 update amount buffer section 128 Learning rate converter 129 Momentum converter

フロントページの続き (56)参考文献 特開 平2−77961(JP,A) 特開 平2−277180(JP,A) 特開 平1−271888(JP,A) 森江隆・他,「誤差逆伝搬学習機能組 込み型アナログニューロLSIの回路的 検討」,電子情報通信学会技術研究報 告,日本,社団法人電子情報通信学会・ 発行,1990年10月25日,Vol.90,N o.273(CPSY90−64〜74),pp. 43−48,(特許庁CSDB文献番号:C SNT199900846006) (58)調査した分野(Int.Cl.7,DB名) G06N 1/00 - 7/00 G06G 7/60 CSDB(日本国特許庁) JICSTファイル(JOIS)Continuation of the front page (56) References JP-A-2-77961 (JP, A) JP-A-2-277180 (JP, A) JP-A-1-271888 (JP, A) Takashi Morie et al. Circuit Study of Analog Neuro LSI with Built-in Propagation Learning Function ", IEICE Technical Report, Japan, The Institute of Electronics, Information and Communication Engineers, Japan, October 25, 1990, Vol. 90, No. 273 (CPSY90-64 to 74), pp. 43-48, (Patent Office CSDB literature number: C SNT199900846006) (58) Fields investigated (Int. Cl. 7 , DB name) G06N 1/00-7/00 G06G 7/60 CSDB (Japan Patent Office) JICST file (JOIS)

Claims (5)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 複数のシナプス荷重を持った神経素子を
有する神経回路網を模した情報処理装置であって、前記
シナプス荷重を修正する複数個の学習モードを有し、
複数個の学習モードは、一つの入力信号が入力される毎
に結合の強さを修正するモードと、設定された複数回数
だけ入力信号が入力されたときに結合の強さを修正する
モードとであり、前記神経素子の出力誤差に応じて前記
複数個の学習モードを切り替えることを特徴とする情報
処理装置。
1. A data processing apparatus simulating a neural network with neural element having a plurality of synaptic weights, having a plurality learning mode for modifying the synapse loads, the
A plurality of learning modes are set every time one input signal is input.
Mode to modify the strength of the connection and the set multiple times
Correct coupling strength when only input signal is input
Sequence by the mode, the information processing apparatus characterized by switching the plurality learning mode in response to the output error of the neural elements.
【請求項2】 学習モードの切り替えは、出力誤差が設
定された値以下になったときに行われる請求項1記載
情報処理装置。
2. The information processing apparatus according to claim 1 , wherein the switching of the learning mode is performed when the output error becomes equal to or less than a set value.
【請求項3】 学習モードの切り替えは、出力誤差が学
習開始時の出力誤差の設定された割合以下となったとき
に行われる請求項1記載の情報処理装置。
3. The information processing apparatus according to claim 1 , wherein the switching of the learning mode is performed when the output error becomes equal to or less than a set ratio of the output error at the start of learning.
【請求項4】 学習モードの切り替えは、結合重みの変
化量が設定された値以下になったときに行われる請求項
1記載の情報処理装置。
Switching of 4. A learning mode, claim to be performed when a change amount of the connection weight is below the value set
The information processing apparatus according to claim 1 .
【請求項5】 入力信号をシナプス荷重により変換出力
する複数の神経素子を有する神経回路網を模した情報処
理装置であって、前記シナプス荷重を修正する複数個の
学習モードを有する神経素子と、前記神経素子の出力信
号と教師信号との出力誤差を計算する誤差計算回路と、
その出力誤差に応じて前記複数個の学習モードを切り替
える制御信号を出力する制御回路とを有し、前記複数個
の学習モードは、一つの入力信号が入力される毎に結合
の強さを修正するモードと、設定された複数回数だけ入
力信号が入力されたときに結合の強さを修正するモード
とであることを特徴とする神経回路網を模した情報処理
装置。
5. An information processing apparatus simulating a neural network having a plurality of neural elements for converting and outputting an input signal by using a synapse load, wherein the neural element has a plurality of learning modes for correcting the synapse load; An error calculation circuit that calculates an output error between the output signal of the neural element and the teacher signal,
And a control circuit for outputting a control signal for switching the plurality learning mode in response to the output error, said plurality
Learning mode is connected every time one input signal is input
Mode to correct the strength of the
A mode that modifies the strength of the connection when a force signal is input
And an information processing device simulating a neural network.
JP40225290A 1990-12-14 1990-12-14 Information processing device Expired - Fee Related JP3262340B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP40225290A JP3262340B2 (en) 1990-12-14 1990-12-14 Information processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP40225290A JP3262340B2 (en) 1990-12-14 1990-12-14 Information processing device

Publications (2)

Publication Number Publication Date
JPH04215171A JPH04215171A (en) 1992-08-05
JP3262340B2 true JP3262340B2 (en) 2002-03-04

Family

ID=18512078

Family Applications (1)

Application Number Title Priority Date Filing Date
JP40225290A Expired - Fee Related JP3262340B2 (en) 1990-12-14 1990-12-14 Information processing device

Country Status (1)

Country Link
JP (1) JP3262340B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3303032B2 (en) * 1992-04-24 2002-07-15 株式会社日立製作所 Neural network learning device
US9078233B2 (en) * 2010-10-28 2015-07-07 Nec Casio Mobile Communications, Ltd. Mobile terminal device, notification method, and program
JP7327512B2 (en) * 2019-12-25 2023-08-16 日本電気株式会社 LEARNING DEVICE, LEARNING METHOD AND LEARNING PROGRAM

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
森江隆・他,「誤差逆伝搬学習機能組込み型アナログニューロLSIの回路的検討」,電子情報通信学会技術研究報告,日本,社団法人電子情報通信学会・発行,1990年10月25日,Vol.90,No.273(CPSY90−64〜74),pp.43−48,(特許庁CSDB文献番号:CSNT199900846006)

Also Published As

Publication number Publication date
JPH04215171A (en) 1992-08-05

Similar Documents

Publication Publication Date Title
JP3178884B2 (en) Neural network device
JPH09503602A (en) Learning neural network and method thereof
US4912653A (en) Trainable neural network
JP3262340B2 (en) Information processing device
JPH07282168A (en) Chaos-recurrent neuronetwork and its learning method
Anderson et al. Reinforcement learning with modular neural networks for control
JPH0451384A (en) Neural network and its construction method
JPH05101028A (en) Integral decision method for plural feature quantity
JPH07121498A (en) Method for constructing neural network
JP3318958B2 (en) Learning type waveform recognition processor
JPH05204885A (en) Device and method for accelerating learning of neural network
JPH06231106A (en) Method and device for learning recurrent type neural network
JPH05128082A (en) Data processor constituting hierarchical network and its learning processing method
JPH04215170A (en) Information processor
JP2639028B2 (en) Neural circuit learning device and learning method
JP2559879B2 (en) Fuzzy controller
JPH0784983A (en) Predicting device for time-series data
JP2621916B2 (en) Learning method of neural network
JPH0635881A (en) Neural network
JP3383713B2 (en) Neural network learning method and neural network learning device
JP2559880B2 (en) Fuzzy controller
JP2559878B2 (en) Fuzzy controller
JPH0451383A (en) Neural network
JP2659230B2 (en) Neural network learning device
JPH0784984A (en) Neural network circuit

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees