JPH08194673A - 時空間連想記憶学習装置及び時空間連想記憶学習方法 - Google Patents

時空間連想記憶学習装置及び時空間連想記憶学習方法

Info

Publication number
JPH08194673A
JPH08194673A JP7005239A JP523995A JPH08194673A JP H08194673 A JPH08194673 A JP H08194673A JP 7005239 A JP7005239 A JP 7005239A JP 523995 A JP523995 A JP 523995A JP H08194673 A JPH08194673 A JP H08194673A
Authority
JP
Japan
Prior art keywords
time
series data
update width
input
associative memory
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP7005239A
Other languages
English (en)
Inventor
Kenichi Arai
賢一 新井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Inc
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP7005239A priority Critical patent/JPH08194673A/ja
Publication of JPH08194673A publication Critical patent/JPH08194673A/ja
Pending legal-status Critical Current

Links

Abstract

(57)【要約】 【目的】 本発明の目的は、学習アルゴリズムを高速化
し、学習時間を短縮させることが可能な時空間連想記憶
学習装置及び時空間連想記憶学習方法を提供することで
ある。 【構成】 本発明は、逐次学習方法でリアルタイムリカ
ーレント学習方法(RealTime Recurrent Learning(R
TRL)の過程中の時系列データの終端において、結合
重みの更新幅をクイックプロップ(Quick Prop) を用い
て計算する更新幅計算手段100と、更新幅計算手段1
00で求められた更新幅を修正する修正手段200とを
有する。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は、時空間連想記憶学習装
置及び時空間連想記憶学習方法に係り、特に、音声認識
等の時系列データを扱う技術において、その時系列デー
タを学習させる際の学習時間を短縮させるための時空間
連想記憶学習装置及び時空間連想記憶学習方法に関す
る。
【0002】
【従来の技術】時系列データを取り扱わなければならな
いニューラルネットワークにおいて、再帰結合を有する
ニューラルネットワークは有益である。この再帰結合を
有するニューラルネットワークは一般的にリカーレント
ニューラルネットワーク(Recurrent Neural Network
(RNN)) と呼ばれている。
【0003】以下にRNNについて説明する。図5は、
RNNの構成を示す。RNNは、入力層100、中間層
200、出力層300から構成されており、これらの層
を構成している素子からそれ自身が属する層あるいは、
それより前段の層の素子への結合を有するものである。
【0004】次に、離散時間、連続値の素子からなるR
NNのダイナミックスの一例を示す。時刻tでの入力素
子への入力値をxk (t)、中間素子の出力値をy
k (t)とし、入力素子の集合をI、中間素子の集合を
Uとする。このとき、zk (t)を次のように定義す
る。
【0005】
【数1】
【0006】ここで、yk (t)のダイナミックスは、
中間素子の内部ポテンシャルをsk(t)とすれば、
【0007】
【数2】
【0008】 yk (t+1)=f(sk (t)) (3) である。ここで、f(・)は、一般的にはシグモイド関
数である。
【0009】
【数3】
【0010】次に、RNNに時系列データを学習させる
アルゴリズムであるリアルタイムリカレントラーニング
(Real Time Recurrent Learning (RTRL))を説明する。
RTRLの特徴としては、RNNが、系列の最大長に比
例した記憶装置を必要とせずに、任意の長さの系列のデ
ータを逐次学習できることである。
【0011】このアルゴリズムの詳細な説明は、「"A L
earning Algorithm for Continually Runnning Fully R
ecurrent Neural Network" R.J. Williams and D. Zipp
er (Neural Computation 1) 」、「 "INTRODUCTION TO
THE THEORY OF NEURAL COMPUTATION", J. Hertz, A. Kr
oghand R. G. Palmer 」等に記載されている。
【0012】上記のRNNにおけるRTRLを具体的に
説明する。通常、学習はRNNの各々結合重みwijに対
するパラメータ調整という形で行われる。まず、教師信
号と呼ばれる目標出力値dk (t)と実際の出力との差
である「エラー」ek (t)を次のように定義する。
【0013】
【数4】
【0014】この時ユニット全体のエラーの自乗和j
(t)は、
【0015】
【数5】
【0016】となり、ニューラルネットワークが時刻t
0 からt1 まで動いた時、その間の全エラーJ
total (t0 ,t1 )は、
【0017】
【数6】
【0018】となる。ここで、Jtotal (t0 ,t1
に対する結合重みwijの最急降下法を考える。
【0019】
【数7】
【0020】ここで、(5)、(6)より、
【0021】
【数8】
【0022】であるが、
【0023】
【数9】
【0024】は、(3)の両辺をwijで偏微分すること
により、
【0025】
【数10】
【0026】となり、逐次求めていくことができる。但
し、δijはクロネッカのデルタである。さらに、
【0027】
【数11】
【0028】とおけば、
【0029】
【数12】
【0030】となる。ここで、初期条件を
【0031】
【数13】
【0032】として、
【0033】
【数14】
【0034】を逐次求めて行けば、
【0035】
【数15】
【0036】として、学習を進めることができる。以上
により、RTRLのアルゴリズムは次のようになる。 [手順a] ステップ1) 入力素子にデータが入力される。
【0037】ステップ2) 上記(3)式に従って、中
間素子、出力素子の値が計算される。 ステップ3) 上記(5)式に従って、出力素子と目標
出力との差ek (t)を求める。
【0038】ステップ4) 上記(14)式に従って、
【0039】
【数16】
【0040】を計算する。 ステップ5) 上記(16)式に従って、結合係数が更
新される。 ステップ6) ステップ1に戻る。 上記のステップ1からステップ6までが学習終了まで繰
り返される。
【0041】
【発明が解決しようとする課題】しかしながら、上記R
TRLでは、結合重みの更新に基本的に最急降下法を採
用していることと、学習に必要な計算量がおよそ素子数
の4乗になることから学習に時間がかかるという問題が
ある。
【0042】本発明は、上記の点に鑑みなされたもの
で、上記従来の問題点を解決し、学習アルゴリズムを高
速化し、学習時間を短縮させることが可能な時空間連想
記憶学習装置及び時空間連想記憶学習方法を提供するこ
とを目的とする。
【0043】
【課題を解決するための手段】図1は、本発明の原理構
成図である。本発明は、複数個の任意長の入力時系列デ
ータとそれぞれに対応する目標出力時系列データが与え
られた時、入力された時系列データが上で与えられた入
力時系列データに十分に近い時、該入力時系列データに
対応する目標出力時系列データを連想想起するリカーレ
ントニューラルネットワークの時空間連想記憶学習装置
において、逐次学習方法でリアルタイムリカーレント学
習方法(Real Time Recurrent Learning(RTRL)の
過程中の時系列データの終端において、結合重みの更新
幅をクイックプロップ(Quick Prop) を用いて計算する
更新幅計算手段100と、更新幅計算手段100で求め
られた更新幅を修正する修正手段200とを有する。
【0044】また、上記の修正手段200は、更新幅計
算手段100で求められた更新幅に安定化係数を掛け
る。図2は、本発明の原理を説明するためのフローチャ
ートである。本発明は、複数個の任意長の入力時系列デ
ータとそれぞれに対応する目標出力時系列データが与え
られた時、入力された時系列データが上で与えられた入
力時系列データに十分に近い時、該入力時系列データに
対応する目標出力時系列データを連想想起するリカーレ
ントニューラルネットワークの時空間連想記憶学習方法
において、逐次学習方法でリアルタイムリカーレント学
習方法(Real Time Recurrent Learning(RTRL)の
過程中の時系列データの終端において、結合重みの更新
幅をクイックプロップ(Quick Prop) を用いて計算し
(ステップ10)、更新幅を修正する(ステップ2
0)。
【0045】また、上記のステップ20において、更新
幅を修正する際に、安定化係数を更新幅に掛ける。
【0046】
【作用】本発明は、従来のRTRLで使用されている最
急降下法の代わりに、クイックプロップ(Quick Prop
(QP))と呼ばれている手法により、各時系列データ
の終端において、結合重みの更新幅を計算し、QPで求
めた更新幅をさらに安定化係数を掛けた更新幅を用いて
学習することにより、学習時間を短縮するものである。
【0047】
【実施例】以下、図面と共に、本発明の実施例を説明す
る。図3は、本発明の一実施例の記憶学習装置の構成を
示す。同図に示す記憶学習装置は、結合重みをや各素子
を初期化する初期化部1、時系列データが入力される入
力部2、素子の時間発展を計算する素子時間発展計算部
3、結合重みを更新する結合重み更新部4、時系列デー
タを出力する出力部8、各パラメータ、結合重み、各種
素子、傾き等を格納するメモリ9、これらの各部を制御
する制御部10より構成される。
【0048】上記の結合重み更新部4は、
【0049】
【数17】
【0050】素子の時間発展を計算するp素子値計算部
41、エラー関数に関するwijの傾きを計算する傾き計
算部42、結合重みをクイックプロップで計算するクイ
ックプロップ部43、安定化係数を掛けることで、クイ
ックプロップ部43で計算された更新幅を修正する更新
幅修正部44より構成される。
【0051】次に、ここで、上記のクイックプロップ部
43で行われる。QPについて説明する。QPでは、エ
ラー関数を結合重みwijの二次形式とみなし、現在、時
刻tでのエラー関数の傾きと時刻t−1での傾きから極
小点を計算するものである。詳細については、「 "An E
mpirical Study of Learning Speed in Back-Propagati
onNetworks" Scott E. Fahlman 」及び「"Opptimizatio
n of Backpropagation Algorithm for Training Multil
ayer Perceptron" W. Schiffmann, M. Joost, R.Werne
r」等に詳述されている。
【0052】次に、基本アルゴリズムを具体的に示す。
QPでは、
【0053】
【数18】
【0054】(時刻t−1でのエラー関数の傾き)、
【0055】
【数19】
【0056】(現在のエラー関数の傾き)、さらに、Δ
ij(t−1)(前回のwijの更新幅)が与えられた
時、次のようにΔwij(t)を決める。以下に各ケース
毎の手順を示す。 [手順b] 場合1) Δwij(t−1)=0の時: Δwij(t)=−ε0 S(t−1) 場合2) S(t)S(t−1)<0のとき:
【0057】
【数20】
【0058】場合3) S(t)S(t−1)>0のと
き かつ 場合3.1) |S(t)|<F|(S(t−1)|の
時:
【0059】
【数21】
【0060】場合3.2) |S(t)|>F|S(t
−1)|の時 Δwij(t)=−ε0 S(t)+ηΔwij(t−1) なお、本発明において、QPのパラメータは一般に推奨
されている値を用いている。
【0061】 ε0 =0.35 (17) η=2.0 (18)
【0062】
【数22】
【0063】時系列データの学習アルゴリズムである従
来のRTRLでは、時系列データの中の一時刻の入力デ
ータと目標出力データが与えられる毎に、結合重みの更
新を行っているが、本発明のRTRLQPにおいては、
一時系列データの系列の始めから終わりまで、結合重み
の更新は行わず、各時点での、エラーやp素子の値をそ
れぞれ足し合わせていき、時系列データの終端で結合重
みの更新を行う。
【0064】また、QPでは、二次近似による極小値の
計算も行っている。従って、計算された結合重みの更新
幅は極小値までの距離の近似値となっているので、結合
重みの更新によって極小点を通り過ぎる場合や極小点に
届かない場合がある。従って、本発明のRTRLQPに
おいては、QPで計算された結合重みの更新幅に、さら
に安定化係数を掛けることで、wijの更新幅を従来のQ
Pよりやや縮小し、極小点を通り過ぎることを避け、安
定した学習ができるようにした。計算機での実験からこ
の安定化係数が0.7の時、最も効率よく学習されるこ
とが分かった。
【0065】以上から、RNNにおけるRTRLQPの
手続きは、以下のようになる。 [手順c] ステップ11:入力素子にデータが入力される。 ステップ12:上記(3)式に従って中間素子、出力素
子の値が計算される。
【0066】ステップ13:上記(5)式により出力素
子と目標出力との差ek (t)を求める。 ステップ14)上記(14)に従って、
【0067】
【数23】
【0068】を計算し、そこからエラー関数の傾きRij
(t)を計算する。
【0069】
【数24】
【0070】傾きをQij(t0 ,t)に蓄積していく。
【0071】
【数25】
【0072】ステップ15)もし、時系列データが系列
の終端なら、ステップ16に移行し、他の場合には、ス
テップ11に戻る。 ステップ16)QPの手法(手順b)に基づき、結合重
みの更新幅を求める。 ステップ17)QPで求めた結合重みの更新幅に安定化
係数を掛け、それを用いて更新を行う。
【0073】 Δwij(t)’=0.7×Δwij(t) (22) wij(t+1)=wij(t)+Δwij(t)’ (23) ステップ18)ステップ11に戻る。これらのステップ
11〜ステップ18は学習終了まで繰り返される。
【0074】図4は、本発明の一実施例の記憶学習装置
の一連の処理を示すフローチャートである。 ステップ101) 入力素子数、中間素子数、出力素子
数、QPの各パラメータ等が入力され、必要なメモリを
メモリ9内に確保する。
【0075】ステップ102) 初期化部1は、結合重
み、素子を乱数で、p素子を0.0に初期化する。 ステップ103) 時系列データが時系列データ入力部
2より入力される。 ステップ104) 素子時間発展計算部3は、素子をダ
イナミックスに従って、前述の(3)式により計算し、
出力素子からデータを出力する。
【0076】ステップ105) 結合重み更新部4の傾
き計算部42は、各出力素子についてエラーを計算す
る。 ステップ106) 結合重み更新部4のp素子計算部4
1は、前述の(14)、(20)、(21)式を用い
て、
【0077】
【数26】
【0078】エラー関数の傾きを計算し、これまでの和
を取る。 ステップ107) 制御部10は、時系列データ終了で
あれば、ステップ108に移行し、そうでない場合に
は、ステップ103に移行する。 ステップ108) 結合重み更新部4のクイックプロッ
プ部43は、QPにより、結合重みの更新幅を計算す
る。
【0079】ステップ109) 結合重み更新部4の更
新幅修正部44は、更新幅を安定化係数を掛けることで
修正する。 ステップ110) 制御部10は、ある基準がエラーを
下回るか、基準学習回数を越える場合には、学習を終了
する。
【0080】次に、上記の動作を具体的な例に適用した
場合について説明する。入力素子N個、中間素子M個で
あり、中間素子のうち、K個が出力素子になっているR
NNを考える。時間長L、データ数P個の入力系列デー
タを、
【0081】
【数27】
【0082】但し、
【0083】
【数28】
【0084】i=1,2,…,Pとし、これに対応する
目標出力値を、
【0085】
【数29】
【0086】とする。N=10,M=10,K=5の時
の入力時系列データ及び目標時系列データの具体例を表
1に示す。
【0087】
【表1】
【0088】次に、RTRLを用いた学習と、RTRL
にQPを組み合わせた学習(RTRLQP)について、
エラーの評価の推移を示す。ここでは、N=20,M=
10,K=5,P=5,H=4の場合である。ここでの
結果は、これらのアルゴリズムを実施した結果のエラー
の評価を100回試行した結果の平均値である。表2は
RTRLとRTRLQPの学習の比較を示し、横軸は学
習回数であり、縦軸はエラーの評価を表している。学習
回数はRTRLでは、結合重みの更新回数であるが、R
TRLQPでは、結合重みの更新回数に入力時系列長を
掛けたものとしている。エラーの評価の方法は、以下の
ようにして行う。
【0089】まず、a○bを次のように定義する。
【0090】
【数30】
【0091】但し、
【0092】
【数31】
【0093】実際の素子出力値を、
【0094】
【数32】
【0095】がエラー評価値である。このエラーの評価
を用いたRTRLとRTRLQPの比較を表2に示す。
【0096】
【表2】
【0097】この表から分かるように、RTRLと比較
して、RTRLQPは、学習速度も速く、さらに、エラ
ーを減らすことができることが分かる。なお、本発明
は、上記の実施例に限定されることなく、特許請求の範
囲内で種々、変更・応用が可能である。
【0098】
【発明の効果】上述のように、本発明によれば、時空間
連想記憶学習装置において、RTRLとQPを組み合わ
せることにより、時系列データを時系列データに依存し
た記憶装置を必要とせずに、任意長の時系列データの学
習を従来と比較して高速に行うことができる。
【図面の簡単な説明】
【図1】本発明の原理構成図である。
【図2】本発明の原理を説明するためのフローチャート
である。
【図3】本発明の一実施例の記憶学習装置の構成図であ
る。
【図4】本発明の一実施例の処理概要を示すフローチャ
ートである。
【図5】リカーレントニューラルネットワークの構造を
示す図である。
【符号の説明】
1 初期化部 2 時系列データ入力部 3 素子時間発展計算部 4 結合重み更新部 8 出力部 9 メモリ 10 制御部 41 p素子計算部 42 傾き計算部 43 クイックプロップ部 44 更新幅修正部 100 更新幅計算手段 200 修正手段

Claims (4)

    【特許請求の範囲】
  1. 【請求項1】 複数個の任意長の入力時系列データとそ
    れぞれに対応する目標出力時系列データが与えられた
    時、入力された時系列データが上で与えられた入力時系
    列データに十分に近い時、該入力時系列データに対応す
    る目標出力時系列データを連想想起するリカーレントニ
    ューラルネットワークの時空間連想記憶学習装置におい
    て、 逐次学習方法でリアルタイムリカーレント学習方法(Re
    al Time Recurrent Learning(RTRL)の過程中の時
    系列データの終端において、結合重みの更新幅をクイッ
    クプロップ(Quick Prop) を用いて計算する更新幅計算
    手段と、 前記更新幅計算手段で求められた前記更新幅を修正する
    修正手段とを有することを特徴とする時空間連想記憶学
    習装置。
  2. 【請求項2】 前記修正手段は、 前記更新幅計算手段で求められた前記更新幅に安定化係
    数を掛ける請求項1記載の時空間連想記憶学習装置。
  3. 【請求項3】 複数個の任意長の入力時系列データとそ
    れぞれに対応する目標出力時系列データが与えられた
    時、入力された時系列データが上で与えられた入力時系
    列データに十分に近い時、該入力時系列データに対応す
    る目標出力時系列データを連想想起するリカーレントニ
    ューラルネットワークの時空間連想記憶学習方法におい
    て、 逐次学習方法でリアルタイムリカーレント学習方法(Re
    al Time Recurrent Learning(RTRL)の過程中の時
    系列データの終端において、結合重みの更新幅をクイッ
    クプロップ(Quick Prop) を用いて計算し、 前記更新幅を修正することを特徴とする時空間連想記憶
    学習方法。
  4. 【請求項4】 前記更新幅を修正する際に、安定化係数
    を前記更新幅に掛ける請求項3記載の時空間連想記憶学
    習方法。
JP7005239A 1995-01-17 1995-01-17 時空間連想記憶学習装置及び時空間連想記憶学習方法 Pending JPH08194673A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP7005239A JPH08194673A (ja) 1995-01-17 1995-01-17 時空間連想記憶学習装置及び時空間連想記憶学習方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP7005239A JPH08194673A (ja) 1995-01-17 1995-01-17 時空間連想記憶学習装置及び時空間連想記憶学習方法

Publications (1)

Publication Number Publication Date
JPH08194673A true JPH08194673A (ja) 1996-07-30

Family

ID=11605655

Family Applications (1)

Application Number Title Priority Date Filing Date
JP7005239A Pending JPH08194673A (ja) 1995-01-17 1995-01-17 時空間連想記憶学習装置及び時空間連想記憶学習方法

Country Status (1)

Country Link
JP (1) JPH08194673A (ja)

Similar Documents

Publication Publication Date Title
US7647284B2 (en) Fixed-weight recurrent neural network controller with fixed long-term and adaptive short-term memory
US20090299929A1 (en) Methods of improved learning in simultaneous recurrent neural networks
JPH09503602A (ja) 学習ニューラルネットワークおよびその方法
US6768927B2 (en) Control system
CN118484643A (zh) 一种坡度自适应预测方法、系统、终端及介质
Hines A logarithmic neural network architecture for unbounded non-linear function approximation
JPH07121498A (ja) ニューラルネットワーク構築方法
KR20230071705A (ko) 하이브리드 신경망 기반 객체 추적 학습 방법 및 시스템
JPH09237260A (ja) 多層神経回路網学習装置
JPH08194673A (ja) 時空間連想記憶学習装置及び時空間連想記憶学習方法
JPH076146A (ja) 並列データ処理システム
US5490236A (en) Method of assigning initial values of connection parameters to a multilayered neural network
Li et al. Learning laws for deep convolutional neural networks with guaranteed convergence
CN111985603A (zh) 训练稀疏连接神经网络的方法
JP2897220B2 (ja) 信号処理装置
JP2606317B2 (ja) 学習処理装置
Mezghani et al. Multimodel control of discrete systems with uncertainties
CN111602146B (zh) 数据处理系统、数据处理方法和记录介质
Patan Training of the dynamic neural networks via constrained optimisation
JPH08221378A (ja) 学習機械
JP3412700B2 (ja) 神経回路網型パターン学習方法およびパターン処理装置
JPH0554014A (ja) ニユーラルネツトワークの学習装置
Jung et al. Neural network training for varying output node dimension
JP2979562B2 (ja) 学習処理装置
JPH0981535A (ja) ニューラルネットワークの学習方法