JPH03206548A - 時系列記憶方法 - Google Patents

時系列記憶方法

Info

Publication number
JPH03206548A
JPH03206548A JP2001911A JP191190A JPH03206548A JP H03206548 A JPH03206548 A JP H03206548A JP 2001911 A JP2001911 A JP 2001911A JP 191190 A JP191190 A JP 191190A JP H03206548 A JPH03206548 A JP H03206548A
Authority
JP
Japan
Prior art keywords
layer
time series
output
context
given
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2001911A
Other languages
English (en)
Inventor
Masahiro Tomono
正裕 友納
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2001911A priority Critical patent/JPH03206548A/ja
Publication of JPH03206548A publication Critical patent/JPH03206548A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。

Description

【発明の詳細な説明】 〔産業上の利用分野〕 本発明は時系列記憶方法に関し、特に時系列を検索キー
に対応させて記憶し、検索キーを与えて時系列を生成す
る時系列記憶方法に関する。
〔従来の技術〕
時系列の個々の要素をP+ として、時系列をS=P.
P2P3・・・PN と表わすことにする。また、時系列Sの検索キーをKs
と表わすことにする。P,およびKsは、数値,文字,
ベクトル,画像などの任意のデータである。
第3図(a)は従来の時系列記憶方法の一例を示す概念
図であり、第3図(b)は従来の時系列のデータ構造の
一例を示す概念図である。
従来の時系列記憶方法は、計算機で時系列を記憶する場
合に、第3図(a)に示すように、検索キーと時系列の
対応表とを用意して、与えられた検索キーに該当する項
目をその対応表から得ていた。また、従来の時系列のデ
ータ構造としては、第3図(b)に示すように、時系列
の構成要素をポインタで連結する方法などがある。
〔発明が解決しようとする課題〕
上述した従来の時系列記憶方法では、検索キーが正確に
マッチングしなければ、検索がうまく行われない。検索
キーが文字コードなどの単純なものならば問題はないが
、たとえば、検索キーとしてベクトル(たとえば画像や
音声などのパターン信号)を用いる場合には、雑音が混
入するなどしてベクトルの値がわずかでも異なればマッ
チングは失敗する。しかし、現実には多少の値の変動を
吸収して同じものとしてマッチしてほしい場合がある。
以上のことは、時系列の各要素がベクトルの場合にもあ
てはまる。時系列の各要素の値が雑音などによって多少
変動があっても、同じものと見なしたい場合は多い。
情報の変動を吸収して同じものと見なす(以後、一般化
と呼ぶ)能力をもつものとして、ニューラルネットワー
クがある。ニューラルネットワー5一 ークでは、パターンの識別に必要な情報だけを抽出する
情報圧縮能力があり(文献1・・・「ニューラルネット
ワーク情報処理」、産業図書、1988、p.93およ
びp.152 ) 、それによって一般化が行われる。
時系列を生成するネットワークとしては、再帰型ネット
ワークがある(文献2・・・シュライバ、′エンコーデ
ィング シーケンシャル ストラクチャ イン シンプ
ノレ リカレント ネットワーク”、Schre1be
r,D.S, et.al.  ”Encoding 
Sequentlal Structure in S
1mple Recurrent Netvorks”
, CMU−OS−88−183,198B,カーネギ
ーメロン大学)。この再帰型ネットワークでは、状態間
の遷移確率を学習して状態の時系列を生成するが、初期
状態が各時系列に対して常に同じであるために、種々の
検索キーによって時系列を求めることはできない。
本発明の目的は、ニューラルネットワークの一般化能力
を用いて、検索キーや時系列の各要素の値の変動を吸収
して、雑音に強い時系列記憶方法、あるいは、類似した
ものを同一視して記憶する時−6− 系列記憶方法を提供することにある。
〔課題を解決するための手段〕
本願の第1の発明は、学習モードと検索モードとを備え
、入力層,中間層,出力層,文脈層の4種類の層を有す
る再帰型ネットワークに対して、前記検索モードで、初
期状態として前記文脈層に時系列に対する検索キーおよ
び前記入力層に開始マークを与えて時系列の第1要素を
出力させ、次の時点からは、前記中間層の一時点前の値
を前記文脈層に移して前記出力層の一時点前の値を前記
入力層に与えて前記再帰型ネットワークの出力を得る操
作を終了マークが出力されるまで繰り返すことにより、
前記時系列の各要素を次々と出力させることにより構成
されている。
また、本願の第2の発明は、学習モードと検索モードと
を備え、入力層,中間層,出力層,文脈層の4種類の層
を有する再帰型ネットワークに対して、前記学習モード
で、初期状態として前記文脈層に検索キーおよび前記入
力層に開始マークを与えて時系列の第1要素を出力する
ように学習させ、次の時点からは、前記中間層の一時点
前の値を前記文脈層に移して前記入力層に前記時系列の
その時点に相当する要素を与えて前記時系列のその時点
の次の時点の要素を出力するように学習させることを繰
り返し、最後の時点では前記中間層の一時点前の値を前
記文脈層に移して前記入力層に前記時系列の最後の要素
を与えて終了マークを出力するように学習させることに
より構或されている。
一方、本願の第3の発明は、学習モードと検索モードと
を備え、入力層,中間層,出力層,文脈層,制約層の5
種類の層を有する再帰型ネットワークに対して、前記検
索モードで、前記制約層に時系列に対する検索キーを与
え、初期状態として前記入力層に開始マークを与えて時
系列の第1要素を出力させ、次の時点からは、前記中間
層の一時点前の値を前記文脈層に移して前記出力層の一
時点前の値を前記入力層に与えて前記再帰型ネットワー
クの出力を得る操作を終了マークが出力されるまで繰り
返すことにより、前記時系列の各要素を次々と出力させ
ることにより構成されている。
さらに、本願の第4の発明は、学習モードと検索モード
とを備え、入力層,中間層,出力層,文脈層,制約層の
5種類の層を有する再帰型ネットワークに対して、前記
学習モードで、前記文脈層に検索キーを与え、初期状態
として前記入力層に開始マークを与えて時系列の第1要
素を出力するように学習させ、次の時点からは、前記中
間層の一時点前の値を前記文脈層に移して前記入力層に
前記時系列のその時点に相当する要素を与えて前記時系
列のその時点の次の時点の要素を出力するように学習さ
せることを繰り返し、最後の時点では前記中間層の一時
点前の値を前記文脈層に移して前記入力層に前記時系列
の最後の要素を与えて終了マークを出力するように学習
させることにより構成されている。
〔作用〕
本発明は、検索キーと時系列との対応づけ、および、時
系列の各要素間の対応づけをニューラル−9− ネットワークによる連想記憶によって実現している。ニ
ューラルネットワークでは、パターン間の類似性をたと
えばベクトルの距離で表現できる。
このような類似性の表現能力や情報圧縮能力(文献1・
・・p.93)などの一般化能力によって、類似した入
力に対して、類似した出力を得ることができる(文献1
・・・p.152 )。そのために、雑音に強く、また
、類似したものを同一視するような連想記憶が実現でき
る。
第2図(a)は第1および第2の発明に用いられる再帰
型ネットワークの構成の一例を示す構成図である。第2
図(a)の例は、簡単のために中間層は1つとしている
が、複数個あってもよい。
第2図(a)で、細い実線の矢印はユニットの重み付き
和の計算を意味し、太い空白の矢印はベクトルの値のコ
ピーを意味している。
各層には、ユニットと呼ばれる処理単位が配置されてい
る。数学的には、各層の値はその層のユニットを要素と
するベクトルとなる。一般に、各ユニットは入力層に近
い側の隣接層の各ユニット−10− ?重み付き和を入力して、その入力値に対応した値を出
力層に近い側の隣接層へ出力する(文献1・・・p.1
0−14.)。ただし、文脈層への入力は中間層の値を
直接コピーして与える。又、中間層への入力は、入力層
と文脈層との両方から与えられる。
なお、各層内のユニット間の結合はない。
ネットワークの学習は、逆伝播学習を用いる(文献1・
・・p.50−54.)。これは、入力層にある値を与
えた時に、その出力層の値とその入力に対する望ましい
出力値との2乗誤差を最小にするように、各層間の結合
の重みを変化させるものである。
次に、第1の発明の検索方法で、Ksを検索キーとして
、時系列S=P1P2・・・PNを検索する場合を説明
する。
まず、文脈層に検索キーK6を与え、人力層に開始マー
クを与えて、再帰型ネットワークを入力層から出力層へ
向けて実行する。この時、出力層の値がP■となるよう
に再帰型ネットワークの重みが設定されているとする。
重みの設定は、?理的には手作業で行ってもよいが、第
2の発明の学習方法を用いると容易に行うことができる
次に、この時の中間層の値を文脈層にコピーし、出力層
の値を入力層に与えて、再びネットワークを実行する。
この際も、入力がP+の時に出力がPl+1 となるよ
うに再帰型ネットワークの重みが設定されているとする
一時的には、各層の値を、 i=O     : Io ”&、Co ”Ksi=L
 2+ ・・・:Il=o。■、Ci=HI−1と設定
して、ネットワークを実行し、終了マークが出力された
時点で実行を終了する。
次に、第2の発明の学習方法を説明する。検索キーをK
8として、時系列S=P.P2・・・PNを記憶させる
ことを考える。ここでN Ks 、P +(i=L  
21 ・・・,N)はベクトルである。また、時系列の
開始を意味する開始マーク(&と呼ぶ)と終了を意味す
る終了マーク($と呼ぶ)を用意する。開始マーク、終
了マークもベクトルで?り、これらはすべての時系列に
対して共通に用いられる。
まず、再帰型ネットワークの文脈層に検索キーK8を与
えて、入力層に開始マークを与える。その時、出力層が
P■になるように、逆伝播学習を行う。次に、その時の
中間層の値を文脈層にコピーして、入力層にP1を与え
、その時の出力が今度はP2になるように逆伝播学習を
行う。この操作をPNまで繰り返し、最後に、入力PN
に対して出力が終了マークとなるように逆伝播学習を行
う。
一般には、時点iでの入力層、中間層、出力層、文脈層
の値(それぞれベクトルである)を、それぞれ、I l
 、H+ 、OIN G+ とすると、i=O    
     :■o=&、Oo =Pt 、C.=Ks i:L  21 ・・・, N−1 : II =Pl
 10 +  = P l+1  ) C I = H
 +−si ” N         : I s =
 P N NON=&、CN=HN−1 −13− と設定して、逆伝播学習を行うこととなる。
以上の処理により、文脈層の初期値を検索キーとして利
用することによって、検索キーに対応した時系列の記憶
が可能となる。文献2の再帰型ネットワークでは、文脈
層を検索キーとして用いることは行っていないので、検
索キーに対応した時系列の記憶はできない。
第2図(b)は第3および第4の発明に用いられる再帰
型ネットワーク部の構成の一例を示す構成図である。第
2図(a)の例では、簡単のため中間層は1つとしてい
るが、複数個あってもよい。
第1および第2の発明のネットワークとの違いは、検索
キーの値を文脈層の初期値として与えるのではなく、制
約層の値として与える点にある。
制約層の値は1つの時系列の処理の最中には変化しない
。また、文脈層の初期値は各時系列に対して変化しなけ
れば任意であるが、ふつうは零ベクトルとする。制約層
の値は変化しないので、上記の違い以外は、第1および
第2の発明と同様に検−14− 索および学習の処理が行われる。
〔実施例〕
次に、本発明の実施例について図面を参照して説明する
第1図(a)は第1の発明の時系列記憶方法のー実施例
を示す流れ図である。本実施例の処理は、第2図(a)
に示した再帰型ネットワークに対して行われる。なお、
再帰型ネットワークの中間層は複数個あってもよい。
第1図(a)に示すように、まず、ステップ1で、文脈
層54の初期値として検索キーを与える。検索キーは、
文脈層54のユニットの個数を次元としたベクトルで与
えられる。検索キーは他のネットワークから与えられて
も、外部信号として与えられてもよい。外部信号として
与えられる際に、検索キーの元々のデータ型がベクトル
でない場合には、そのデータからベクトルへの変換を行
う必要がある。単純には、目的に応じたデータ型の変換
表を作成して変換すればよい。
次に、ステップ2で、入力層51に開始マークを与えて
、ネットワークを実行し、出力を得る。
開始マークは入力層51のユニットの個数を次元とした
ベクトルである。開始マークは、時系列の要素(ベクト
ル)と重ならないように設定する必要がある。その方法
として、たとえば、入力層51のユニット数を時系列の
要素Piの次元より1つ以上多くして、その超過分のユ
ニットにより開始マークを表わせばよい。これは終了マ
ークについても同様である。
そして、ステップ3で、出力層53の値(以後、出力値
と呼ぶ)が終了マークとなれば、全体の処理を終了する
。ユニットが連続値をとる場合に、出力値が終了マーク
と微妙にずれることがある。その場合に、たとえば、出
力値と終了マークの2乗誤差を計算して、あるしきい値
以下であれば終了マークであると判断すれはよい。
出力値が終了マークでない場合に、ステップ4で、中間
層52の値を文脈層54に移して(ベクトルの各要素を
値をコピーする)、さらに、ステップ5で、出力層53
の値を入力層51に移して、ネットワークを実行する。
この操作を終了マークが出力されるまで繰り返す。
この処理によって、ネットワークから時系列の各要素が
順々に出力されることになる。出力された各要素は、こ
のネットワークに接続される他のネットワークに送って
もよいし、外部へ出力してもよい。
第1図(b)は第2の発明の時系列記憶方法の一実施例
を示す流れ図である。本実施例の処理も、第2図(a)
の再帰型ネットワークに対して行われる。
第1図(b)に示すように、まず、ステップ1lで、文
脈層54に検索キーを与える。その与え方は、前述のス
テップ1と同様である。
次に、ステップ12で、入力層51に開始マークを与え
、その時の出力値がP1となるように逆伝播学習を行う
。開始マークの与え方は、前述のステップ2と同様であ
る。
次に、ステップ13で、時系列のカウンタiに初期値1
をセットする。
−17− そして、ステップ14で、中間層52の値を文脈層54
に移して、さらに、ステップ15で、入力層51にP.
を与えた時に、出力値がPl+1となるように逆伝播学
習を行う。
次に、ステップ16で、カウンタiを1つ増やし、ステ
ップ17で、iが時系列の長さNに達したかどうかを調
べる。iがNに達していなければ、ステップ14に戻っ
て、上記の処理を繰り返す。
iがNに達していれば、ステップ18で、入力層51に
時系列の最後の要素PNを与えて、出力値が終了マーク
になるように逆伝播学習を行う。
第1図(b)の処理は、1つの時系列についての学習で
あるが、複数個の時系列を学習する場合には、この処理
を各時系列のすべてについて行う必要がある。この際に
、各時系列を1回ずつ学習する操作を何セットか繰り返
して、すべての時系列について平均的に学習できるよう
にする必要がある。
− 18− なお、」二記の処理を何セットか繰り返す際に、同じ時
系列に対して正確に同じ検索キーを与える必要はない。
前述したように、ニューラルネットワークには類似性に
基づく連想能力や情報圧縮能力などの一般化能力がある
。従って、検索キーを外部から与えられるなんらかの信
号とした場合に、その信号に多少の雑音が含まれていて
もよい。
第1図(c)は、第3の発明の時系列記憶方法の一実施
例を示す流れ図である。本実施例の処理は、第2図(b
)の再帰型ネットワークに対して行われる。
第1図(C)の処理と第1図(a)の処理との違いは、
ステップ21で、文脈層64ではなく、制約層65に検
索キーを与える点にある。文脈層64の初期値は、各時
系列について同じものであれば任意でよいが、ふつうは
零ベクトルにしておく。ステップ21以外は第1図(a
)の処理と同様である。
第1図(d)は第4の発明の時系列記憶方法の一実施例
を示す流れ図である。本実施例の処即は、第2図(b)
の再帰型ネットワークに対して行われる。
第1図(d)の処理と第1図(b)の処理との違いは、
ステップ31で、文脈層64ではなく、制約層65に検
索キーを与える点にある。文脈層64の初期値は、各時
系列について同じものであれば任意でよいが、ふつうは
零ベクトルにしておく。ステップ31以外は第1図(b
)の処理と同様である。
〔発明の効果〕
以上述べたように、本発明の時系列記憶方法は、任意の
データ型の検索キーに対して、対応する時系列を検索で
きる。従来の時系列記憶方法では、検索キーが正確に同
じものでなければ、検索がうまく行われないが、本発明
の時系列記憶方法は、ニューラルネットワークの一般化
能力により、検索キーや時系列の要素が画像や音声のよ
うなベクトルの場合でも、その多少の値の変動を吸収し
て同じものと見なして検索を行うことができるので、こ
れによって、雑音に強い時系列の記憶あるいは類似した
ものを同一視して記憶する時系列の記憶を実現すること
ができるという効果を有している。
【図面の簡単な説明】
第1図(a)は第1の発明の時系列記憶方法の一実施例
を示す流れ図、第1図(b)は第2の発明の時系列記憶
方法の一実施例を示す流れ図、第1図(C)は第3の発
明の時系列記憶方法の一実施例を示す流れ図、第1図(
d)は第4の発明の時系列記憶方法の一実施例を示す流
れ図、第2図(a)は第1および第2の発明に用いられ
る再帰型ネットワークの構成の一例を示す構成図、第2
図(b)は第3および第4の発明に用いられる再帰型ネ
ットワークの構成の一例を示す構成図、第3図(a)は
従来の時系列記憶方法の一例を示す概念図、第3図(b
)は従来の時系列のデータ構造の一例を示す概念図であ
る。 51.81・・・入力層、52,E32・・・中間層、
521− 3, 63・・・出力層、 54, 64・・・文脈層、 6 5・・・ 制約層。

Claims (1)

  1. 【特許請求の範囲】 1、学習モードと検索モードとを備え、入力層、中間層
    、出力層、文脈層の4種類の層を有する再帰型ネットワ
    ークに対して、前記検索モードで、初期状態として前記
    文脈層に時系列に対する検索キーおよび前記入力層に開
    始マークを与えて時系列の第1要素を出力させ、次の時
    点からは、前記中間層の一時点前の値を前記文脈層に移
    して前記出力層の一時点前の値を前記入力層に与えて前
    記再帰型ネットワークの出力を得る操作を終了マークが
    出力されるまで繰り返すことにより、前記時系列の各要
    素を次々と出力させることを特徴とする時系列記憶方法
    。 2、学習モードと検索モードとを備え、入力層、中間層
    、出力層、文脈層の4種類の層を有する再帰型ネットワ
    ークに対して、前記学習モードで、初期状態として前記
    文脈層に検索キーおよび前記入力層に開始マークを与え
    て時系列の第1要素を出力するように学習させ、次の時
    点からは、前記中間層の一時点前の値を前記文脈層に移
    して前記入力層に前記時系列のその時点に相当する要素
    を与えて前記時系列のその時点の次の時点の要素を出力
    するように学習させることを繰り返し、最後の時点では
    前記中間層の一時点前の値を前記文脈層に移して前記入
    力層に前記時系列の最後の要素を与えて終了マークを出
    力するように学習させることを特徴とする時系列記憶方
    法。 3、学習モードと検索モードとを備え、入力層、中間層
    、出力層、文脈層、制約層の5種類の層を有する再帰型
    ネットワークに対して、前記検索モードで、前記制約層
    に時系列に対する検索キーを与え、初期状態として前記
    入力層に開始マークを与えて時系列の第1要素を出力さ
    せ、次の時点からは、前記中間層の一時点前の値を前記
    文脈層に移して前記出力層の一時点前の値を前記入力層
    に与えて前記再帰型ネットワークの出力を得る操作を終
    了マークが出力されるまで繰り返すことにより、前記時
    系列の各要素を次々と出力させることを特徴とする時系
    列記憶方法。 4、学習モードと検索モードとを備え、入力層、中間層
    、出力層、文脈層、制約層の5種類の層を有する再帰型
    ネットワークに対して、前記学習モードで、前記文脈層
    に検索キーを与え、初期状態として前記入力層に開始マ
    ークを与えて時系列の第1要素を出力するように学習さ
    せ、次の時点からは、前記中間層の一時点前の値を前記
    文脈層に移して前記入力層に前記時系列のその時点に相
    当する要素を与えて前記時系列のその時点の次の時点の
    要素を出力するように学習させることを繰り返し、最後
    の時点では前記中間層の一時点前の値を前記文脈層に移
    して前記入力層に前記時系列の最後の要素を与えて終了
    マークを出力するように学習させることを特徴とする時
    系列記憶方法。
JP2001911A 1990-01-08 1990-01-08 時系列記憶方法 Pending JPH03206548A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001911A JPH03206548A (ja) 1990-01-08 1990-01-08 時系列記憶方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001911A JPH03206548A (ja) 1990-01-08 1990-01-08 時系列記憶方法

Publications (1)

Publication Number Publication Date
JPH03206548A true JPH03206548A (ja) 1991-09-09

Family

ID=11514766

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001911A Pending JPH03206548A (ja) 1990-01-08 1990-01-08 時系列記憶方法

Country Status (1)

Country Link
JP (1) JPH03206548A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5556734A (en) * 1993-12-24 1996-09-17 Japan Synthetic Rubber Co., Ltd. Radiation sensitive resin composition comprising copolymer of isopropenylphenol and T-butyl(meth)acrylate

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5556734A (en) * 1993-12-24 1996-09-17 Japan Synthetic Rubber Co., Ltd. Radiation sensitive resin composition comprising copolymer of isopropenylphenol and T-butyl(meth)acrylate

Similar Documents

Publication Publication Date Title
Yun et al. Are transformers universal approximators of sequence-to-sequence functions?
Child Very deep vaes generalize autoregressive models and can outperform them on images
US4979126A (en) Neural network with non-linear transformations
US6009418A (en) Method and apparatus for neural networking using semantic attractor architecture
JP5235666B2 (ja) 選択されたセグメントのビット平面表現を用いた連想マトリックス法、システムおよびコンピュータプログラム製品
Singleton Generalized snake-in-the-box codes
US6922712B2 (en) Apparatus, methods, and computer program products for accurately determining the coefficients of a function
JP2015095042A (ja) 画像認識装置、画像認識方法、および、プログラム
JPH03206548A (ja) 時系列記憶方法
Liang et al. A normalizing flow-based co-embedding model for attributed networks
Andersen et al. A constructive algorithm for the training of a multilayer perceptron based on the genetic algorithm
Azencot et al. A differential geometry perspective on orthogonal recurrent models
Kohut et al. Boolean neural networks
Kanerva Hyperdimensional Computing: An Algebra for Computing with Vectors
KR20230022005A (ko) 화합물 정보 추출을 위한 장치 및 방법
Javaheripi et al. Swann: Small-world architecture for fast convergence of neural networks
JPH05165987A (ja) 信号処理装置
Giraldo et al. Higher-order Sparse Convolutions in Graph Neural Networks
JPH05101209A (ja) 階層型ニユーラルネツトワークの学習方法
Mastorakis A method for computing the 2-D stability margin based on a new stability test for 2-D systems
JP4696529B2 (ja) 多層ニューラルネットワーク装置とそのソフトウェア
Hathaway et al. Fusing heterogeneous fuzzy data for clustering
Koutroumbas et al. Neural network architectures for selecting the maximum input
JPH11120158A (ja) 階層型ニューラルネットワークの学習方法
Lương Neural Ordinary Differential Equations Network and its Extensions