JPH06301661A - Leaning system for parallel connection type recurrent neural network - Google Patents

Leaning system for parallel connection type recurrent neural network

Info

Publication number
JPH06301661A
JPH06301661A JP5084976A JP8497693A JPH06301661A JP H06301661 A JPH06301661 A JP H06301661A JP 5084976 A JP5084976 A JP 5084976A JP 8497693 A JP8497693 A JP 8497693A JP H06301661 A JPH06301661 A JP H06301661A
Authority
JP
Japan
Prior art keywords
parallel
rnn
learning
stage
connection type
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP5084976A
Other languages
Japanese (ja)
Inventor
Shigeru Kashiwagi
繁 柏木
Norio Suda
典雄 須田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Meidensha Corp
Meidensha Electric Manufacturing Co Ltd
Original Assignee
Meidensha Corp
Meidensha Electric Manufacturing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Meidensha Corp, Meidensha Electric Manufacturing Co Ltd filed Critical Meidensha Corp
Priority to JP5084976A priority Critical patent/JPH06301661A/en
Publication of JPH06301661A publication Critical patent/JPH06301661A/en
Pending legal-status Critical Current

Links

Landscapes

  • Feedback Control In General (AREA)

Abstract

PURPOSE:To provide a parallel connection type recurrent neural network(RNN) learning system capable of executing learning by an error backward propagation(BP) method. CONSTITUTION:Learning algorithm by the BP method based upon a complete connection type RNN status equation is introduced to the parallel connection type RNN. In the parallel connection type RNN parallel-connecting three units respectively consisting of a neuron 1 and an output neuron 2, a neuron 3 and an output neuron 4, and a neuron 5 and an output neuron 6 and completely connected by pair connection, the window width of teacher data (obtained by the learning of the 1st stage unit) relating to the 3rd stage unit and after is changed and transfer from each stage to the succeeding stage is executed in accordance with a prescribed evaluation function to attain the execution of learning based upon the BP method.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、複数のニューロを完全
結合して成るユニットの複数個を並列に接続した並列結
合型リカレントニューラルネットワーク(以下、並列結
合型RNNと称する)の学習方法に関し、詳しくは誤差
逆伝搬法を用いた並列結合型RNNの学習方法に関す
る。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a learning method for a parallel connection type recurrent neural network (hereinafter referred to as a parallel connection type RNN) in which a plurality of units formed by completely connecting a plurality of neurons are connected in parallel. More specifically, the present invention relates to a learning method for a parallel-coupled RNN using the error back propagation method.

【0002】[0002]

【従来の技術】従来、リカレントニューラルネットワー
ク(RNN)のネットワークを構成している各ユニット
間は、図7に示す如くランダムに結合されている。これ
は各ユニットが動的な非線形ユニットで構成されている
からで、その動作は以下に示す微分方程式(状態方程式
/数1、数2)で表される所定の時系列パターンを成し
ている。
2. Description of the Related Art Conventionally, units constituting a network of a recurrent neural network (RNN) are randomly connected as shown in FIG. This is because each unit is composed of a dynamic non-linear unit, and its operation forms a predetermined time series pattern represented by the following differential equation (state equation / Equation 1, Equation 2). .

【0003】[0003]

【数1】 [Equation 1]

【0004】[0004]

【数2】 [Equation 2]

【0005】但し、ここでxi、yi、Xiは、それぞれ
i番目のユニットの時刻tにおける内部状態、出力、外
部入力を表わすもので、wijはj番目のユニットから
i番目のユニットへの結合荷重を表わす。又、τiはi
番目のユニットの時定数であり、Nは総ユニット数であ
る。更に、特性関数f(x)には、通常非線形のシグモ
イド関数f(x)=tanh(x)か線形関数f(x)
=xかの何れかが選択される。
Here, x i , y i , and X i respectively represent the internal state, output, and external input of the i-th unit at time t, and w i j is the i-th unit from the j-th unit. It represents the connection load to the unit. Also, τ i is i
Is the time constant of the th unit, N is the total number of units. Further, the characteristic function f (x) is usually a nonlinear sigmoid function f (x) = tanh (x) or a linear function f (x).
= X is selected.

【0006】このようなRNNには図8に示す如く、各
ニューロ間が互いに隣接するもの同士で結合された完全
結合型のものがある。この完全結合型RNNの動作は、
以下に示す一般状態方程式(数3、数4)で表わされ
る。
As shown in FIG. 8, there is a complete coupling type RNN in which the respective neuros are adjacent to each other and are coupled to each other. The operation of this fully-coupled RNN is
It is represented by the following general equation of state (Equations 3 and 4).

【0007】[0007]

【数3】 [Equation 3]

【0008】[0008]

【数4】 [Equation 4]

【0009】但し、ここでxi、yi、Xiは、それぞれ
i番目ニューロにおける内部活性度、出力値、外部入力
を表わし、wijはj番目のニューロからi番目のニュー
ロへの結合係数を表わす。又τは内部活性度の時定数
で、Nは総ニューロ数である。更に、特性関数f(x)
には、ここでもシグモイド関数か線形関数かが選択され
る。
Here, x i , y i , and X i respectively represent the internal activity, output value, and external input at the i-th neuro, and w ij is the coupling coefficient from the j-th neuro to the i-th neuro. Represents Further, τ is a time constant of internal activity, and N is a total neuron number. Furthermore, the characteristic function f (x)
Here, again, a sigmoid function or a linear function is selected.

【0010】完全結合型RNNは、その状態が微分方程
式で表わされるので、時系列パターンの処理能力に優れ
る上、外部入力がない場合でも自励発振するという性質
を持つ。殊に、特性関数を線形関数にすると、2N個の
ニューロがあればN個の周波数成分を持つ複合減衰正弦
波(数5)を近似できるという能力がある。
Since the state of the fully-coupled RNN is represented by a differential equation, it has excellent processing ability for time-series patterns and has the property of self-excited oscillation even when there is no external input. In particular, if the characteristic function is a linear function, it is possible to approximate a composite damped sine wave (Equation 5) having N frequency components if there are 2N neuros.

【0011】[0011]

【数5】 [Equation 5]

【0012】一方、RNNには、複数のニューロを完全
結合して成るユニットの複数個を更に並列に接続した並
列結合型のものがある。即ち、並列結合型RNNは、
M、Nを2以上の自然数とした場合、N個のニューロで
構成された完全結合型RNNをM段用いて構成される。
例えば図9に示すものでは、3個のニューロで構成され
た完全結合型RNNを3段用いた構成になっている。並
列結合型RNNでは各段の完全結合型RNNにおいて1
周波数を出力ユニットから抽出し、このとき入力されて
いる教師信号と出力信号との間の差値を次段目への教師
信号用のデータとしている。更に、最終段では合成操作
を行ってN個の周波数成分を持つ複合減衰正弦波を近似
する。
On the other hand, as the RNN, there is a parallel coupling type in which a plurality of units formed by completely coupling a plurality of neuros are further connected in parallel. That is, the parallel-coupled RNN is
When M and N are natural numbers of 2 or more, a fully coupled RNN composed of N neuros is used in M stages.
For example, the one shown in FIG. 9 has a configuration in which three stages of completely coupled RNNs each composed of three neuros are used. 1 in the fully-coupled RNN in each stage in the parallel-coupled RNN
The frequency is extracted from the output unit, and the difference value between the teacher signal input at this time and the output signal is used as the teacher signal data for the next stage. Further, in the final stage, a combining operation is performed to approximate a composite damped sine wave having N frequency components.

【0013】[0013]

【発明が解決しようとする課題】ところで、完全結合型
RNNの学習則には、最急降下法に基づく誤差逆伝搬法
(erorr Back Propagation/以
下、BP法と略す)が用いられる。このBP法の基本式
は次式(数6)で表わされる。
By the way, an error back-propagation method (hereinafter referred to as BP method) based on the steepest descent method is used for the learning rule of the fully coupled RNN. The basic equation of this BP method is represented by the following equation (Equation 6).

【0014】[0014]

【数6】 [Equation 6]

【0015】但し、E[w(t)]は時刻tにおける結
合係数w(t)の状態にある評価関数、y(t)は時刻
tにおける出力ユニットの出力値で、Y(t)は時刻t
における教師信号である。ここで、次式(数7)に従っ
て評価関数Eを最小とするように結合係数wijを更新し
て行くのがBP法である。
Here, E [w (t)] is the evaluation function in the state of the coupling coefficient w (t) at time t, y (t) is the output value of the output unit at time t, and Y (t) is the time. t
Is a teacher signal in. Here, the BP method is to update the coupling coefficient w ij so as to minimize the evaluation function E according to the following equation (Equation 7).

【0016】[0016]

【数7】 [Equation 7]

【0017】尚、この式において、結合係数の初期値は
小さな乱数で与えられる。
In this equation, the initial value of the coupling coefficient is given by a small random number.

【0018】完全結合型RNNは、出力ニューロにその
他の全てのニューロが結合している為、BP法において
は全てのニューロに誤差が伝搬されることになる。従っ
て、完全結合型RNNは、このBP法という学習則を用
いると、その能力を充分に発揮することができる。
In the fully-coupled RNN, since all the other neurones are coupled to the output neuron, the error is propagated to all the neurones in the BP method. Therefore, the fully-coupled RNN can fully exert its ability by using the learning rule called the BP method.

【0019】そこで、並列結合型RNNの場合、各段を
構成する完全結合型RNN自体の学習則にはBP法を採
用できるが、BP法によれば完全結合型RNNにおける
t=0での出力ユニットの出力と教師データとは初期状
態にあっては必ず一致し、2段目以降の完全結合型RN
Nにおけるt=0での出力ユニットの出力がy(0)=
0となってしまう。即ち、並列結合型RNNの場合、t
>0の動作状態では2段目以降の出力ユニットの出力が
全部y(t)=0となってしまう為、BP法による学習
を行い得ないという不便がある。
Therefore, in the case of the parallel-coupled RNN, the BP method can be adopted as the learning rule of the fully-coupled RNN itself constituting each stage. According to the BP method, the output at t = 0 in the fully-coupled RNN is obtained. The output of the unit and the teacher data always match in the initial state, and the complete connection type RN from the second stage onwards
The output of the output unit at t = 0 in N is y (0) =
It will be 0. That is, in the case of the parallel connection type RNN, t
In the operating state of> 0, all the outputs of the output units of the second and subsequent stages become y (t) = 0, so that there is an inconvenience that learning by the BP method cannot be performed.

【0020】本発明は、かかる問題点を解決すべくなさ
れたもので、その技術的課題は、BP法による学習を行
い得る並列結合型RNNの学習方式を提供することにあ
る。
The present invention has been made to solve such a problem, and a technical problem thereof is to provide a learning method of a parallel connection type RNN capable of performing learning by the BP method.

【0021】[0021]

【課題を解決するための手段および作用】本発明によれ
ば、出力ニューロを含む複数のニューロを完全結合して
成るユニットを複数単位で並列接続して構成されると共
に、学習則にBP法を用いた並列結合型RNNの学習方
法であって、BP法は完全結合型RNNの状態方程式に
基づいて、初期状態では複数のユニットのうち第1段目
のユニットに関する出力信号と入力された教師信号との
差で得られると共に、第2段目のユニットで参照される
教師データのウィンドゥ幅を変更して初期点と成し、進
行状態では該初期点より作動し、各段における次段への
移行を所定の評価関数に従って該評価関数が所定の評価
値未満である場合に行う並列結合型RNNの学習方法が
得られる。
According to the present invention, a plurality of units including output neurons are completely connected to each other in parallel, and a plurality of units are connected in parallel. A learning method of a parallel-coupled RNN used, wherein the BP method is based on a state equation of a fully-coupled RNN, and in the initial state, an output signal of a first-stage unit among a plurality of units and an input teacher signal. And the window width of the teacher data referred to in the unit of the second stage is changed to form the initial point. A learning method of a parallel combination type RNN is obtained in which the transition is performed according to a predetermined evaluation function when the evaluation function is less than the predetermined evaluation value.

【0022】又、本発明によれば、出力ニューロを含む
複数のニューロを完全結合して成るユニットを複数単位
で並列接続して構成されると共に、BP法を学習則とす
る並列結合型RNNが得られる。
Further, according to the present invention, there is provided a parallel-coupling type RNN having a learning rule of the BP method, which is constituted by connecting in parallel a plurality of units each of which is formed by completely coupling a plurality of neurons including an output neuron. can get.

【0023】[0023]

【実施例】以下に実施例を挙げ、本発明の並列結合型R
NNの学習方式について、図面を参照して詳細に説明す
る。図1は本発明の一実施例である並列結合型RNNの
基本構成を示したものである。
EXAMPLES Examples are given below to illustrate the parallel connection type R of the present invention.
The NN learning method will be described in detail with reference to the drawings. FIG. 1 shows a basic configuration of a parallel coupling type RNN which is an embodiment of the present invention.

【0024】この並列結合型RNNは、ニューロ1及び
出力ニューロ2と、ニューロ3及び出力ニューロ4と、
ニューロ5及び出力ニューロ6とで対構成された3個の
完全結合型RNN(ユニット)を並列に接続して構成さ
れている。この並列結合型RNNにおいては、1段目の
ユニットの出力ニューロ2がデータアクセス端子P1に
接続され、2段目のユニットの出力ニューロ4がデータ
アクセス端子P2に接続され、3段目のユニットの出力
ニューロ5がデータアクセス端子P3に接続されてい
る。又、データアクセス端子の相互間、即ち、P1及び
P2と、P2及びP3との間は後述する教師データ(E
rror1、Error2)を伝送するためにそれぞれ
接続されている。
This parallel-coupled RNN has a neuro 1 and an output neuro 2, a neuro 3 and an output neuro 4,
It is configured by connecting three perfectly coupled RNNs (units) paired with a neuro 5 and an output neuro 6 in parallel. In this parallel-coupled RNN, the output neuro 2 of the first stage unit is connected to the data access terminal P1, the output neuro 4 of the second stage unit is connected to the data access terminal P2, and the output neuro 2 of the third stage unit is connected. The output neuro 5 is connected to the data access terminal P3. Further, teacher data (E) to be described later is provided between the data access terminals, that is, between P1 and P2 and P2 and P3.
They are respectively connected to transmit error 1 and error 2).

【0025】この並列結合型RNNは、BP法を導入す
べく構成されたものである。この為、初期状態では完全
結合型RNNの状態方程式に基づいて、第1段目のユニ
ットに関する出力信号とそのときに入力された教師信号
との差で得られ、且つ第2段目のユニットで参照される
教師データのウィンドゥ幅を変更し、所定時間ずらすこ
とによって初期点を得る。このウィンドゥ幅の変更方法
は、1段目のユニットで得られた教師データのt>0の
場合において、最初にd[Error1(T)]/dt
=0を満たす時間を第2段目のユニットの初期点とす
る。これにより求められた時間(初期点)をt=0とす
れば、BP法に基づく学習アルゴリズムを実行できる。
又、第2段目以降のユニットに対し、進行状態にあって
は初期点より作動し、各段における次段への移行を評価
関数Eが所定の評価値E1未満である場合に行わせる。
尚、評価関数Eを微分したものに対して別な評価値E2
を与え、例えば更にdE/dn<ε2である場合を上述
したE<ε1である判定に併用させて移行の目安にすれ
ば、学習の実行を一層安定させることができる。
This parallel-coupling type RNN is configured to introduce the BP method. Therefore, in the initial state, based on the state equation of the fully-coupled RNN, it is obtained by the difference between the output signal related to the first-stage unit and the teacher signal input at that time, and the second-stage unit An initial point is obtained by changing the window width of the referenced teacher data and shifting the window width by a predetermined time. This method of changing the window width is such that when the teacher data obtained in the first stage unit is t> 0, first, d [Error1 (T)] / dt
The time when = 0 is set as the initial point of the second-stage unit. If the time (initial point) thus obtained is set to t = 0, the learning algorithm based on the BP method can be executed.
In addition, the second and subsequent units are operated from the initial point in the progressing state, and the transition to the next stage in each stage is performed when the evaluation function E is less than the predetermined evaluation value E1.
It should be noted that a different evaluation value E2 is obtained from the differentiation of the evaluation function E.
If, for example, the case of dE / dn <ε 2 is further used in combination with the determination of E <ε 1 described above as a guideline for the transition, the execution of learning can be further stabilized.

【0026】そこで次に図2に示すフローチャートを参
照して、本発明の一実施例に係る並列結合型RNNにお
ける学習アルゴリズムを説明する。この学習方式では、
先ず完全結合型RNNの状態方程式(数3)において、
必要とする結合係数の初期化(通常は小さな乱数で与え
られる)を行って第1段目のユニットから教師データの
抽出(ステップS1)を行う。次に、この教師データの
t>0の場合におけるd[Error1(T)]/dt
=0を満たす時間を初期点とすることで、初期点の設定
(ステップS2)を行う。
Then, a learning algorithm in the parallel-coupling type RNN according to the embodiment of the present invention will be described with reference to the flow chart shown in FIG. In this learning method,
First, in the state equation (formula 3) of the fully coupled RNN,
The required coupling coefficient is initialized (usually given by a small random number), and teacher data is extracted from the first-stage unit (step S1). Next, d [Error1 (T)] / dt in the case of t> 0 of this teacher data
The initial point is set (step S2) by setting the time that satisfies = 0 as the initial point.

【0027】引き続き、初期点より作動させてBP法に
よるRNN学習ルーチン(ステップS3)を第2段目の
ユニットから行う。次にRNN学習ルーチンで使用する
評価関数EがE<ε1またはE’(Eを微分したもの)
<ε2であるか否かを判定(ステップS4)し、この結
果、条件を満たしていなければRNN学習ルーチン(ス
テップS3)の前にリターンして学習を継続するが、条
件を満たしていればM=M+1(ステップS5)として
次段(第3段目)のユニットに移行する。これにより、
教師データ(Error2)が第3段目のユニットに伝
送される。この次段への移行に際し、更に最終段に到達
したか否かを判定(ステップS6)し、到達していなけ
れば最終段の直前段のユニットまで継続的に学習を行い
得るようにRNN学習ルーチン(ステップS3)の前に
リターンするが、到達していれば合成ルーチン(ステッ
プS7)を行ってから学習を完了する。
Subsequently, the RNN learning routine (step S3) by the BP method is performed from the second stage unit by operating from the initial point. Next, the evaluation function E used in the RNN learning routine is E <ε 1 or E ′ (differential of E)
It is determined whether or not <ε 2 (step S4). As a result, if the condition is not satisfied, the routine returns before the RNN learning routine (step S3) to continue the learning, but if the condition is satisfied, As M = M + 1 (step S5), the process proceeds to the unit of the next stage (third stage). This allows
Teacher data (Error2) is transmitted to the unit of the third stage. At the time of shifting to the next stage, it is judged whether or not the final stage is reached (step S6). If the final stage is not reached, the RNN learning routine is performed so that the unit immediately before the final stage can be continuously learned. Although it returns before (step S3), if it has reached, a synthesis routine (step S7) is performed and then learning is completed.

【0028】図3〜図5は、この学習方式によるユニッ
ト各段における教師信号と出力信号との関係を示したも
ので、図3は第1段目のユニットに関するものであり、
図4は第2段目のユニットに関するものであり、図5は
第3段目のユニットに関するものである。図3には教師
データに対するウィンドゥ幅の変更に伴う初期点の設定
による第1段目のユニットにおけるt=0の時間的ずれ
が示されている。図4には初期点作動による評価関数の
基づく複合減衰正弦波の近似化が行われている様子が示
され、図5には更に複合減衰正弦波の近似化が進められ
た様子が示されている。これらの図3〜図5からは、こ
の学習方式によれば、並列結合型RNNにおいてもBP
法を学習則に採用できることが判る。
FIGS. 3 to 5 show the relationship between the teacher signal and the output signal in each stage of the unit according to this learning method, and FIG. 3 relates to the first stage unit,
FIG. 4 relates to the second-stage unit, and FIG. 5 relates to the third-stage unit. FIG. 3 shows the time lag of t = 0 in the first-stage unit due to the setting of the initial point accompanying the change of the window width with respect to the teacher data. FIG. 4 shows that the composite damped sine wave is approximated based on the evaluation function by the operation of the initial point, and FIG. 5 shows that the composite damped sine wave is further approximated. There is. From these FIGS. 3 to 5, according to this learning method, even in the parallel-coupled RNN, the BP
It turns out that the law can be adopted as a learning rule.

【0029】図6は、この学習方式の最終処理である合
成波形と原波形との関係を示したものである。図6から
は、最終的な合成波形においても、充分に学習できてい
ることが判る。
FIG. 6 shows the relationship between the synthesized waveform and the original waveform, which is the final processing of this learning method. From FIG. 6, it can be seen that even the final synthesized waveform can be sufficiently learned.

【0030】尚、実施例ではニューロ及び出力ニューロ
が対構成で完全結合されたユニットを3段並列接続した
例を示したが、本発明は出力ニューロを含むN個のニュ
ーロで完全結合されたユニットをM段用いる場合にも適
用可能である。
In the embodiment, the example in which the neuron and the output neuron are fully coupled in a pair configuration and three stages are connected in parallel is shown. It is also applicable when M stages are used.

【0031】[0031]

【発明の効果】以上に述べた通り、本発明によれば、完
全結合型RNNのユニットを複数並列接続した並列結合
型RNNにおいて、第2段目以降のユニットに関する教
師データのウィンドゥ幅を変更すると共に、各段におけ
る次段への移行を評価関数に従わせることにより、BP
法による学習を能力高く行い得るものとしている。特
に、ニューロ及び出力ニューロが完全結合されたユニッ
トを複数並列接続した並列結合型RNNの場合は、各ニ
ューロ間の結合数が少ないので、使用すべきコンピュー
タに対するメモリ数の減少化に寄付できる上、学習能力
も保証される為、コンピュータ業界に対して多大な貢献
が期待される。
As described above, according to the present invention, the window width of the teacher data relating to the second and subsequent units is changed in the parallel coupling type RNN in which a plurality of units of the completely coupling type RNN are connected in parallel. In addition, by making the transition to the next stage in each stage follow the evaluation function,
It is assumed that learning by law can be performed with high ability. In particular, in the case of a parallel connection type RNN in which a plurality of units in which the neuro and the output neuro are completely connected are connected in parallel, the number of connections between the respective neuros is small, which can contribute to a reduction in the number of memories for the computer to be used. As learning ability is guaranteed, it is expected to make a great contribution to the computer industry.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の一実施例に係る並列結合型RNNの基
本構成を示したものである。
FIG. 1 shows a basic configuration of a parallel coupling type RNN according to an embodiment of the present invention.

【図2】図1に示す並列結合型RNNに係る学習アルゴ
リズムを示したフローチャートである。
FIG. 2 is a flowchart showing a learning algorithm related to the parallel combination type RNN shown in FIG.

【図3】図1に示す並列結合型RNNの第1段目ユニッ
トに係る教師信号と出力信号との関係を示した波形図で
ある。
FIG. 3 is a waveform diagram showing a relationship between a teacher signal and an output signal related to the first-stage unit of the parallel coupling type RNN shown in FIG.

【図4】図1に示す並列結合型RNNの第2段目ユニッ
トに係る教師信号と出力信号との関係を示した波形図で
ある。
FIG. 4 is a waveform diagram showing a relationship between a teacher signal and an output signal related to the second-stage unit of the parallel coupling type RNN shown in FIG.

【図5】図1に示す並列結合型RNNの第3段目ユニッ
トに係る教師信号と出力信号との関係を示した波形図で
ある。
5 is a waveform diagram showing a relationship between a teacher signal and an output signal related to the third-stage unit of the parallel-coupling type RNN shown in FIG.

【図6】図1に示す並列結合型RNNに係る合成波形と
原波形との関係を示した図である。
6 is a diagram showing a relationship between a synthesized waveform and an original waveform according to the parallel-coupled RNN shown in FIG.

【図7】従来のRNNにおけるユニット構成を示した図
である。
FIG. 7 is a diagram showing a unit configuration in a conventional RNN.

【図8】従来の完全結合型RNNの基本構成を示した図
である。
FIG. 8 is a diagram showing a basic configuration of a conventional fully-coupled RNN.

【図9】従来の完全結合型RNNの基本構成(本発明に
も適用可能)を示した図である。
FIG. 9 is a diagram showing a basic configuration of a conventional fully-coupled RNN (also applicable to the present invention).

【符号の説明】[Explanation of symbols]

P1、P2、P3 データアクセス端子 P1, P2, P3 data access terminals

Claims (2)

【特許請求の範囲】[Claims] 【請求項1】 出力ニューロを含む複数のニューロを完
全結合して成るユニットを複数単位で並列続続して、構
成されると共に学習則に誤差逆伝搬法を用いた並列結合
型リカレントニューラルネットワークの学習方式であっ
て、前記誤差逆伝搬法は完全結合型リカレントニューラ
ルネットワークの状態方程式に基づいて、初期状態では
前記複数のユニットのうちの第1段目のユニットに関す
る出力信号と入力された教師信号との差で得られると共
に、第2段目のユニットで参照される教師データのウィ
ンドゥ幅を変更して初期点と成し、進行状態では該初期
点より作動し、各段における次段への移行を所定の評価
関数に従って該評価関数が所定の評価値未満である場合
に行うことを特徴とする並列結合型リカレントニューラ
ルネットワークの学習方式。
1. A learning of a parallel connection type recurrent neural network which is constructed by connecting a plurality of units including a plurality of output neurones to be completely connected in parallel in parallel and which uses an error backpropagation method as a learning rule. The error backpropagation method is based on a state equation of a fully-coupled recurrent neural network, and in the initial state, outputs an output signal of a first-stage unit of the plurality of units and an input teacher signal. And the window width of the teacher data referred to in the unit of the second stage is changed to form the initial point, and in the progressing state, it operates from the initial point and shifts to the next stage in each stage. According to a predetermined evaluation function is performed when the evaluation function is less than a predetermined evaluation value. Practice method.
【請求項2】 出力ニューロを含む複数のニューロを完
全結合して成るユニットを複数単位で並列接続して、構
成されると共に誤差逆伝搬法を学習則とすることを特徴
とする並列型リカレントニューラルネットワーク。
2. A parallel-type recurrent neural network which is configured by connecting a plurality of units, each of which is a complete combination of a plurality of neurons including an output neuro, in parallel, and which uses an error back-propagation method as a learning rule. network.
JP5084976A 1993-04-13 1993-04-13 Leaning system for parallel connection type recurrent neural network Pending JPH06301661A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP5084976A JPH06301661A (en) 1993-04-13 1993-04-13 Leaning system for parallel connection type recurrent neural network

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP5084976A JPH06301661A (en) 1993-04-13 1993-04-13 Leaning system for parallel connection type recurrent neural network

Publications (1)

Publication Number Publication Date
JPH06301661A true JPH06301661A (en) 1994-10-28

Family

ID=13845655

Family Applications (1)

Application Number Title Priority Date Filing Date
JP5084976A Pending JPH06301661A (en) 1993-04-13 1993-04-13 Leaning system for parallel connection type recurrent neural network

Country Status (1)

Country Link
JP (1) JPH06301661A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20030028992A (en) * 2001-10-05 2003-04-11 주식회사 거성전자통신 A row a cable a connection at a form a language study an actual training a device
CN110849627A (en) * 2019-11-27 2020-02-28 哈尔滨理工大学 Width migration learning network and rolling bearing fault diagnosis method based on same

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20030028992A (en) * 2001-10-05 2003-04-11 주식회사 거성전자통신 A row a cable a connection at a form a language study an actual training a device
CN110849627A (en) * 2019-11-27 2020-02-28 哈尔滨理工大学 Width migration learning network and rolling bearing fault diagnosis method based on same

Similar Documents

Publication Publication Date Title
US8521673B2 (en) Parallel processing device and parallel processing method
JP3178884B2 (en) Neural network device
US5455891A (en) System and method for a learning neural network for generating random directions for weight changes
WO2019160138A1 (en) Causality estimation device, causality estimation method, and program
JPH07114524A (en) Signal processor
JPH06301661A (en) Leaning system for parallel connection type recurrent neural network
JPH076146A (en) Parallel data processing system
JPH04237388A (en) Neuro processor
JPH05128285A (en) Neuro-processor
JP3508783B2 (en) Coupling coefficient updating method and coupling coefficient updating apparatus in pulse density type signal processing network
JPH06301663A (en) Learning system for serial connection type recurrent neural network
JPH04264664A (en) Neural circuit-type pattern processor
JPH0749847A (en) Learning system for series connection type recurrent neural network
JPH0430280A (en) Learning method for neural network
Nakashima et al. How to design a regularization term for improving generalization
JPH0744195A (en) Recurrent neutral network for speech recognition
Tsoi et al. Building MLP networks by construction
JPH11175494A (en) Neural network
JP3608237B2 (en) Neural network learning device
JPH04215171A (en) Information processor
JP2607351B2 (en) Error Signal Generation Method for Efficient Learning of Multilayer Perceptron Neural Network
Stäger et al. Improved training of neural networks with complex search spaces
JPH03268074A (en) System and device for recognition of pattern
JPH05342190A (en) Time sequentially predicting method
JPH0476659A (en) Neural network