JPH10111862A - Device for analyzing time sequence based on recurrent neural network and its method - Google Patents

Device for analyzing time sequence based on recurrent neural network and its method

Info

Publication number
JPH10111862A
JPH10111862A JP17259397A JP17259397A JPH10111862A JP H10111862 A JPH10111862 A JP H10111862A JP 17259397 A JP17259397 A JP 17259397A JP 17259397 A JP17259397 A JP 17259397A JP H10111862 A JPH10111862 A JP H10111862A
Authority
JP
Japan
Prior art keywords
time
particles
vector
particle
transition probability
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP17259397A
Other languages
Japanese (ja)
Inventor
Masahiro Matsuoka
雅裕 松岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP17259397A priority Critical patent/JPH10111862A/en
Publication of JPH10111862A publication Critical patent/JPH10111862A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Complex Calculations (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

PROBLEM TO BE SOLVED: To estimate the probability distribution of time sequence data in a large scale problem at high speed by using the internal state of a neural network. SOLUTION: The realization value of a hidden state vector in a recurrent neural network which expresses a hidden Markovian model is generated as a 'particle' through the use of a Monte Carlo method. At first, (βn <(j)> ) of a time (n) is calculated in terms of recurrent from the forward prediction particle (pn <(j)> ) of the time (n), the backwards filtering particle (cn+1 <(j)> ) of the time n+1, observation data xn of the time (n) and the weighting coefficient (βn+1 <(j)> )(S6). Then, the smoothing particle (uu <(j)> ) of the time (n) is generated by re-extracting the particle from (pn <(j)> )(S5). Processings S5 and S6 are repeated so as to calculate the aggregation string of the smoothing particles and a probability distribution function is synthesized.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、ニューラルネット
ワークの内部状態を利用して、与えられた時系列データ
からその確率分布を推定する時系列解析装置およびその
方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a time series analysis apparatus and method for estimating a probability distribution from given time series data by using an internal state of a neural network.

【0002】[0002]

【従来の技術】隠れマルコフモデル(hidden Markov mo
del :HMM)法は、音声認識や遺伝子の2次構造解析
などで広く利用されている解析方法の1つである。マル
コフモデルとは、ある状態への遷移確率がその前の状態
に依存する状態遷移モデルを指す。隠れマルコフモデル
においては、このような状態遷移によって生じる観測量
の変化は観測されるが、状態そのものは観測されない。
2. Description of the Related Art Hidden Markov models
The del: HMM) method is one of the analysis methods widely used in speech recognition and secondary structure analysis of genes. The Markov model refers to a state transition model in which the transition probability to a certain state depends on the previous state. In the hidden Markov model, a change in the amount of observation caused by such a state transition is observed, but the state itself is not observed.

【0003】現在まで、隠れマルコフモデルの表現力の
不足を補うために、様々な拡張が施されてきた。主な拡
張をまとめると次のようになる。 (1)通常の隠れマルコフモデルと同じ表現形式 a.観測モデルとして、ガウス密度関数などの連続確率
密度関数を想定するHMM−COD(continuous densi
ty function )モデルを用いた方法(B. H. Juang, Ste
phen E. Levinson and M. M. Sondhi. Maximum Likel
ihood Estimation for Multivariate Mixture Observat
ions of Markov Chains. IEEE Transactions on Infor
mation Theory, IT-32(2):307-309, 1986.)。
To date, various enhancements have been made to compensate for the lack of expressiveness of the Hidden Markov Model. The main extensions are summarized below. (1) Same expression form as ordinary hidden Markov model a. As an observation model, an HMM-COD (continuous density function) assuming a continuous probability density function such as a Gaussian density function is used.
ty function model (BH Juang, Ste
phen E. Levinson and MM Sondhi. Maximum Likel
ihood Estimation for Multivariate Mixture Observat
ions of Markov Chains.IEEE Transactions on Infor
mation Theory, IT-32 (2): 307-309, 1986.).

【0004】b.観測モデルとして、ガウス型ノイズを
伴う自己回帰(autoregressive)モデルを採用したHM
M−ARモデルを用いた方法(B. H. Juang and L. R.
Rabiner. Mixture autoregressive hidden Markov mod
el for speech signal. IEEE Transactions on Acoust
ic Speech Signal Processing, ASSP-33(6):1401-1413,
1985.)。
B. HM using an autoregressive model with Gaussian noise as an observation model
Method using M-AR model (BH Juang and LR
Rabiner. Mixture autoregressive hidden Markov mod
el for speech signal.IEEE Transactions on Acoust
ic Speech Signal Processing, ASSP-33 (6): 1401-1413,
1985.).

【0005】c.一つの状態に留まる時間が様々な分布
に従うモデル(nonexponential−HMM)を用いた方法
(Stephen E. Levinson. Continuously variable dura
tionhidden Markov models for automatic speech reco
gnition. Computer, Speech and langauge 1(1):29-4
5 1986. )。 (2)ニューラルネットワークによる表現形式 確率分布を計算するシンプルな再帰型ニューラルネット
ワーク(Simple Recurrent Neural Network :SRN
N)による、一般的な隠れマルコフモデルの計算方法
(Sakakibara Yasubumi and Mostefa Golea. Simple R
ecurrent Networksas Generalized Hidden markov Mode
ls with Distributed Representations. InProceeding
s of International Conference on Neural Networks(I
CNN'95), volume 2, pages 979-984. IEEE, 1995.)。
C. A method using a model (nonexponential-HMM) in which the time remaining in one state follows various distributions (Stephen E. Levinson. Continuously variable dura)
tionhidden Markov models for automatic speech reco
gnition. Computer, Speech and langauge 1 (1): 29-4
5 1986.). (2) Expression form by neural network Simple Recurrent Neural Network (SRN) for calculating probability distribution
N), calculation method of general hidden Markov model (Sakakibara Yasubumi and Mostefa Golea. Simple R
ecurrent Networksas Generalized Hidden markov Mode
ls with Distributed Representations. InProceeding
s of International Conference on Neural Networks (I
CNN'95), volume 2, pages 979-984. IEEE, 1995.).

【0006】SRNNモデルは、観測モデルとしてガウ
ス密度関数を採用している点で、HMM−CODモデル
に類似している。HMM−CODモデルでは、状態遷移
確率が数値で与えられるので、モデルのパラメータ推定
においては、直接、この数値を推定する。また、隠れ状
態ベクトル(隠れ変数ベクトル)や、観測データの平均
値等の統計量に対しては、分散表現が明示的に与えられ
ていない。ここで、分散表現とは、複数の分布の重ね合
わせによる表現を意味する。
[0006] The SRNN model is similar to the HMM-COD model in that a Gaussian density function is adopted as an observation model. In the HMM-COD model, the state transition probability is given by a numerical value. Therefore, in the parameter estimation of the model, this numerical value is directly estimated. In addition, a variance expression is not explicitly given to a statistic such as a hidden state vector (hidden variable vector) or an average value of observation data. Here, the distributed expression means an expression obtained by superimposing a plurality of distributions.

【0007】一方、SRNNでは、状態遷移確率を各ニ
ューロンのパラメータの非線形関数として獲得し、観測
データの統計量を、各ニューロンのパラメータとして分
散表現する。例えば、観測データの平均値は、隠れ状態
ベクトルが表す複数の内部状態に対応して、いくつかの
パラメータの重ね合わせにより与えられる。
On the other hand, in the SRNN, the state transition probability is obtained as a non-linear function of the parameters of each neuron, and the statistic of the observation data is expressed in a distributed manner as the parameters of each neuron. For example, the average value of observation data is given by superimposing several parameters corresponding to a plurality of internal states represented by a hidden state vector.

【0008】したがって、SRNNモデルでは、観測デ
ータの平均値等を微妙に変化させることが可能で、その
表現力はHMM−CODモデルに比べて高い。また、こ
れをHMM−ARモデルやnonexponential−HMMモデ
ルのように拡張することも容易である。
[0008] Therefore, in the SRNN model, it is possible to delicately change the average value and the like of the observation data, and the expression power is higher than that of the HMM-COD model. It is also easy to extend this like an HMM-AR model or a nonexponential-HMM model.

【0009】図35は、SRNNの概略構成を示してい
る。図35において、ネットワークパラメータ部2に
は、時刻nにおけるc個の時系列データ
n 1 ,...,xn c が入力層1から入力され、時刻n
−1における隠れ素子層3の出力であるk個のデータh
n-1 1 ,...,hn-1 k が文脈層4から入力される。
FIG. 35 shows a schematic configuration of the SRNN.
You. In FIG. 35, the network parameter unit 2
Is c time-series data at time n
xn 1,. . . , Xn c Is input from the input layer 1 and the time n
K data h which is the output of the hidden element layer 3 at -1
n-1 1,. . . , Hn-1 kIs input from the context layer 4.

【0010】これらの入力データは、ネットワークパラ
メータ部2により適当に重み付けされて、隠れ素子層3
に入力される。隠れ素子層3はk個の隠れ素子から成
り、k個の要素を持つ隠れ状態ベクトル
(hn 1 ,...,hn k )を出力する。この隠れ状態
ベクトルは文脈層4に一旦保持されて、次の時刻n+1
におけるネットワークパラメータ部2への入力となる。
[0010] These input data are appropriately weighted by the network parameter section 2 and the hidden element layer 3
Is input to The hidden element layer 3 is composed of k hidden elements, and outputs a hidden state vector (h n 1 ,..., H n k ) having k elements. This hidden state vector is temporarily stored in the context layer 4 and is stored at the next time n + 1.
To the network parameter unit 2 at

【0011】このSRNNは、外部への出力を持たず、
各時刻における内部状態を隠れ状態ベクトルの値で表現
している。この内部状態は、時系列データ
n 1 ,...,xn c の確率分布を定義するエネルギ
ー関数を規定するために用いられる。このモデルは、S
RNNの隠れ状態ベクトルのすべての遷移経路について
考慮して、時系列データの確率分布を計算する構成に対
応している。
This SRNN has no output to the outside,
The internal state at each time is represented by the value of the hidden state vector. This internal state includes the time series data x n 1 ,. . . , X n c are used to define the energy function that defines the probability distribution. This model is
It corresponds to a configuration for calculating the probability distribution of time-series data in consideration of all transition paths of the hidden state vector of the RNN.

【0012】図35においては、文脈層4が1層のレジ
スタで構成されているため、シンプルな再帰型ニューラ
ルネットワークと呼ばれるが、一般の再帰型ニューラル
ネットワークでは、文脈層4が複数のレジスタ層により
構成される。
In FIG. 35, since the context layer 4 is composed of one register, it is called a simple recursive neural network. In a general recursive neural network, the context layer 4 is composed of a plurality of register layers. Be composed.

【0013】ところで、再帰的な計算を行うフィルタ粒
子については、ニューラルネットワークの動作から確率
密度関数を近似的に計算できる。しかし、一般には、ニ
ューラルネットワークの動作と確率密度関数とを対応付
けることは難しく、今後の課題となっている。
By the way, for a filter particle that performs recursive calculation, a probability density function can be approximately calculated from the operation of the neural network. However, in general, it is difficult to associate the operation of the neural network with the probability density function, and this is an issue to be solved in the future.

【0014】[0014]

【発明が解決しようとする課題】しかしながら、従来の
SRNNを利用した確率分布の計算方法には、次のよう
な問題がある。
However, the conventional method of calculating a probability distribution using SRNN has the following problems.

【0015】SRNNは、表現力において通常の隠れマ
ルコフモデルよりも優れているが、計算の効率において
劣っている。特に、観測データのダイナミックレンジが
広い問題などの大規模な問題に対して、計算時間が素子
数の指数関数となることが大きな障害となる。この理由
は次の通りである。
The SRNN is superior in expression power to the ordinary hidden Markov model, but is inferior in computational efficiency. In particular, for a large-scale problem such as a problem in which the dynamic range of observation data is wide, the calculation time becomes an exponential function of the number of elements. The reason is as follows.

【0016】従来の計算方法では、観測データ列に対し
て、k個の隠れ素子を持つSRNNによる予測密度関
数、濾過密度関数、および平滑密度関数の再帰計算を行
う必要がある。これらの再帰計算は、隠れマルコフモデ
ルの研究分野では、それぞれフォワード計算、バックワ
ード計算、および最適な隠れ状態の推定と呼ばれてい
る。
In the conventional calculation method, it is necessary to perform a recursive calculation of a predicted density function, a filtered density function, and a smoothed density function by an SRNN having k hidden elements on the observation data sequence. These recursive computations are called forward computation, backward computation, and optimal hidden state estimation, respectively, in the field of Hidden Markov Model research.

【0017】再帰計算においては、すべての隠れ状態間
の遷移確率分布を用いて、予測密度関数等の評価計算を
行わなければならない。しかし、k個の隠れ素子を持つ
SRNNの隠れ状態ベクトルは2k 個の異なる値を取り
得るため、対応する2k 個の隠れ状態を内部状態として
持っている。したがって、kが大きくなると、SRNN
の直接的な計算では、効率的な再帰計算ができなくな
る。実際、大規模な問題では、現実的な計算時間で評価
を行うことは、ほとんど不可能である。
In the recursive calculation, an evaluation calculation such as a predicted density function must be performed using a transition probability distribution between all hidden states. However, since the hidden state vector of the SRNN having k hidden elements can take 2 k different values, it has the corresponding 2 k hidden states as internal states. Therefore, as k increases, SRNN
In the direct calculation of, efficient recursive calculation cannot be performed. In fact, it is almost impossible to evaluate a large-scale problem in a realistic calculation time.

【0018】そこで、kの値を小さくして計算量を削減
すると、隠れ素子の数が少なくなるので、表現可能な統
計量のバリエーションが限られてしまう。このため、S
RNNの利点である分散表現の能力を効果的に利用でき
なくなる。
Therefore, if the amount of calculation is reduced by reducing the value of k, the number of hidden elements is reduced, so that the variation of the statistic that can be expressed is limited. Therefore, S
The ability of RNN, which is an advantage of RNN, cannot be used effectively.

【0019】本発明の課題は、再帰型ニューラルネット
ワークの内部状態を利用して、大規模問題における時系
列データの確率分布を、高速に推定することができる時
系列解析装置およびその方法を提供することである。
An object of the present invention is to provide a time series analysis apparatus and method capable of quickly estimating a probability distribution of time series data in a large-scale problem using an internal state of a recursive neural network. That is.

【0020】[0020]

【課題を解決するための手段】図1は、本発明の時系列
解析装置の原理図である。図1の時系列解析装置は、ニ
ューラルネットワークを用いて表現される隠れマルコフ
モデルの計算を行う情報処理装置において用いられ、記
憶手段11、生成手段12、および推定手段13を備え
る。
FIG. 1 is a diagram showing the principle of a time-series analyzer according to the present invention. 1 is used in an information processing apparatus that calculates a hidden Markov model represented by using a neural network, and includes a storage unit 11, a generation unit 12, and an estimation unit 13.

【0021】記憶手段11は、観測データの確率分布を
表現する再帰型ニューラルネットワークの内部状態の状
態遷移確率を記憶する。生成手段12は、上記状態遷移
確率を用いて、モンテカルロ法により、上記内部状態を
規定する隠れ変数の実現値を生成する。
The storage means 11 stores the state transition probability of the internal state of the recurrent neural network expressing the probability distribution of the observation data. The generation unit 12 generates a hidden variable realization value that defines the internal state by the Monte Carlo method using the state transition probability.

【0022】推定手段13は、上記実現値を用いて、上
記観測データの確率分布を推定する。記憶手段11が記
憶する状態遷移確率とは、複数の内部状態が隠れ状態ベ
クトルの複数の実現値により表現されるとき、ある実現
値が表す状態から他の実現値が表す状態へ遷移する確率
を意味する。この状態遷移確率は、例えば図1に示すよ
うな状態遷移確率行列の要素として記憶される。
The estimating means 13 estimates the probability distribution of the observation data using the actual value. The state transition probability stored in the storage unit 11 is a probability that when a plurality of internal states are represented by a plurality of realization values of a hidden state vector, a transition from a state represented by a certain realization value to a state represented by another realization value is obtained. means. This state transition probability is stored, for example, as an element of a state transition probability matrix as shown in FIG.

【0023】図1の状態遷移確率行列はk次元の隠れ状
態ベクトルに対応しており、その次元2k は、可能な隠
れ状態ベクトルの実現値の数に一致している。隠れ状態
ベクトルの実現値の各要素は、隠れ変数の実現値とな
る。この状態遷移確率行列において、i行j列の要素p
ij(i=1,...,2k 、j=1,...,2k
は、j番目の実現値が表す状態からi番目の実現値が表
す状態へ遷移する確率を表す。
The state transition probability matrix of FIG. 1 corresponds to a k-dimensional hidden state vector, whose dimension 2 k corresponds to the number of possible hidden state vector realizations. Each element of the realization value of the hidden state vector becomes the realization value of the hidden variable. In this state transition probability matrix, an element p at i row and j column
ij (i = 1,..., 2 k , j = 1 ,.
Represents the probability of transition from the state represented by the j-th realization value to the state represented by the i-th realization value.

【0024】また、ここで用いるモンテカルロ法とは、
観測データの確率分布を記述する確率分布関数を、隠れ
状態ベクトルの複数の実現値を用いて近似的に計算する
方法を意味する。モンテカルロ法を利用すれば、計算負
荷の高い確率分布関数の計算を簡単な近似計算に置き換
えることができ、ニューラルネットワークの再帰計算を
高速化することができる。したがって、SRNNを大規
模問題に適用することが可能になる。
The Monte Carlo method used here is
This means a method of approximately calculating a probability distribution function describing a probability distribution of observation data using a plurality of realization values of a hidden state vector. If the Monte Carlo method is used, the calculation of the probability distribution function with a high calculation load can be replaced with a simple approximation calculation, and the recursive calculation of the neural network can be speeded up. Therefore, it becomes possible to apply SRNN to a large-scale problem.

【0025】生成手段12は、モンテカルロ法に従っ
て、ある状態に対応するある実現値が与えられたとき、
その実現値に対応する状態遷移確率行列の列を読み出
し、その列の要素pij(i=1,...,2k )に従っ
て、別の状態に対応する実現値を生成する。
According to the Monte Carlo method, the generation means 12 receives a given realization value corresponding to a certain state,
A column of the state transition probability matrix corresponding to the realization value is read out, and a realization value corresponding to another state is generated according to the elements p ij (i = 1,..., 2 k ) of the column.

【0026】そして、推定手段13は、例えば、各時刻
毎の実現値の集合を用いて各時刻毎の確率分布関数を合
成し、それらを確率分布関数の列として出力する。出力
された確率分布関数の列をグラフ化して表示すれば、確
率分布の推定結果を容易に認識できる。
Then, the estimating means 13 synthesizes a probability distribution function for each time using a set of actualized values for each time, and outputs them as a sequence of probability distribution functions. If the output probability distribution function sequence is graphed and displayed, the probability distribution estimation result can be easily recognized.

【0027】例えば、図1の記憶手段11は、実施形態
の図14におけるメモリ32に対応し、生成手段12
は、図8における前向き予測粒子生成装置23、平滑粒
子生成装置24、および後向き予測粒子生成装置25に
対応し、推定手段13は表示装置29に対応する。
For example, the storage unit 11 in FIG. 1 corresponds to the memory 32 in FIG.
Corresponds to the forward predicted particle generator 23, the smooth particle generator 24, and the backward predicted particle generator 25 in FIG. 8, and the estimating unit 13 corresponds to the display device 29.

【0028】[0028]

【発明の実施の形態】以下、図面を参照しながら、本発
明の実施の形態を詳細に説明する。本発明では、SRN
Nの高速な計算のために、利用可能な隠れ状態ベクトル
に制約を持たせ、計算量を削減する。また、予測密度関
数、濾過密度関数、平滑密度関数などの再帰計算や観測
データに対する尤度計算に、北川が提案した計算法を適
用して、SRNNに基づく計算の高速化を図る。
Embodiments of the present invention will be described below in detail with reference to the drawings. In the present invention, the SRN
For fast calculation of N, the available hidden state vectors are restricted to reduce the amount of calculation. Further, the calculation method proposed by Kitagawa is applied to the recursive calculation of the predicted density function, the filtration density function, the smoothed density function, and the like, and the likelihood calculation for the observed data, thereby speeding up the calculation based on SRNN.

【0029】ここで、予測とは、現在までの情報から将
来の状態を推定することであり、濾過とは、現在までの
情報から現在の状態を推定することであり、平滑化と
は、現在までの情報から過去の状態を推定することであ
る。
Here, prediction refers to estimating the future state from information up to the present, filtering refers to estimating the current state from information up to the present, and smoothing refers to estimating the current state from the information up to the present. It is to estimate the past state from the information up to.

【0030】北川は、非線形・非ガウス・多次元の状態
空間モデルに対する計算法(モンテカルロ法)を提案し
ている(Genshiro Kitagawa. Non-Gaussian State-Spa
ce Modeling of Nonstationary Time Series. Journal
of the American Statistical Association 82(400):
1032-1041, 1987. / Genshiro Kitagawa. A Monte
Carlo Filtering and Smoothing Method for Non-Gauss
ian Nonlinear StateSpace Models. Research Memoran
dom 462 The Institute of Statistical Mathematics
12 1993.)。このモンテカルロ法によるフィルタ計算
はスキーマのレベルで知られており、多くの現実問題に
応用することが可能である。
Kitagawa has proposed a calculation method (Monte Carlo method) for a nonlinear, non-Gaussian, multidimensional state space model (Genshiro Kitagawa. Non-Gaussian State-Spa).
ce Modeling of Nonstationary Time Series. Journal
of the American Statistical Association 82 (400):
1032-1041, 1987. / Genshiro Kitagawa. A Monte
Carlo Filtering and Smoothing Method for Non-Gauss
ian Nonlinear StateSpace Models. Research Memoran
dom 462 The Institute of Statistical Mathematics
12 1993.). The filter calculation by the Monte Carlo method is known at the schema level, and can be applied to many real problems.

【0031】本発明では、SRNNを具体的に高速に計
算する方法として、この方法を採用する。モンテカルロ
法を利用すれば、上述の各確率密度関数を多数の実現値
で近似的に計算することによって、再帰計算を大幅に短
縮することができる。したがって、SRNNを大規模問
題に適用することが可能になる。
In the present invention, this method is adopted as a method for calculating the SRNN specifically at high speed. If the Monte Carlo method is used, the recursive calculation can be significantly reduced by approximately calculating each probability density function described above with a large number of realization values. Therefore, it becomes possible to apply SRNN to a large-scale problem.

【0032】また、大規模問題のシミュレーション実験
を通じて、SRNNが実際に利用する隠れ状態が非常に
少ないことが分かった。このため、モンテカルロ法を利
用して、少数の隠れ状態を代表点とする近似を行って
も、予測等の結果が劣化しないことが分かった。したが
って、少数の隠れ状態に限定した近似を採用すること
で、SRNNの表現力を損なうことなく、大規模問題へ
の応用が可能になる。
In addition, through simulation experiments on a large-scale problem, it was found that the number of hidden states actually used by the SRNN was very small. For this reason, it has been found that even if approximation using a small number of hidden states as a representative point is performed using the Monte Carlo method, the result of prediction or the like does not deteriorate. Therefore, by employing an approximation limited to a small number of hidden states, application to a large-scale problem becomes possible without impairing the expressive power of SRNN.

【0033】ところで、本発明の計算方法は、SRNN
によるモデル解析を高速に実行するためのものである。
モデル解析とは、観測データ列を生成した情報源の確率
構造を近似的に記述することであり、観測データ列に対
する適切なパラメータモデルの選択とパラメータの同定
が課題になる。
Incidentally, the calculation method of the present invention uses the SRNN
The purpose of this is to execute model analysis at high speed.
Model analysis is to approximately describe the probability structure of an information source that has generated an observation data sequence, and the problem is to select an appropriate parameter model and identify parameters for the observation data sequence.

【0034】ここで、時刻nのSRNNの入力データを
外1 (以後、ベクトルxn と記
Here, the input data of the SRNN at the time n is expressed as 外 1 (hereinafter, referred to as a vector x n).

【0035】[0035]

【外1】 [Outside 1]

【0036】す)とすると、時刻1からNまでの観測デ
ータの列は、{ベクトルx1 ,...,ベクトルxN
となる。また、モデル解析とは、適切なモデルを用い
て、観測データから確率構造のダイナミクスを推定する
ことでもある。SRNNによるモデル解析では、ガウス
密度関数を持つ隠れマルコフモデルであって、非線形な
関数のパラメータで記述されるモデルを、観測モデルと
して用いて、観測データに対してSRNNの適切なパラ
メータを同定する。適切なパラメータが決まれば、観測
データに対して最尤の隠れ状態ベクトル間の遷移確率お
よびガウス密度関数の平均値が計算できる。
Then, the sequence of the observation data from time 1 to N is represented by the {vector x 1 ,. . . , Vector x N
Becomes Model analysis also refers to estimating the dynamics of a stochastic structure from observation data using an appropriate model. In the model analysis by SRNN, a hidden Markov model having a Gaussian density function, which is described by a parameter of a nonlinear function, is used as an observation model, and an appropriate parameter of the SRNN is identified for observation data. Once the appropriate parameters are determined, the transition probability between the most likely hidden state vectors and the average value of the Gaussian density function for the observed data can be calculated.

【0037】さらに、観測データに対して最尤の隠れ状
態ベクトル列を同定する。パラメータ同定では、SRN
Nの内部状態から計算できる観測データに対する予測密
度関数列の計算が必要であり、最尤の隠れ状態ベクトル
列の同定には、観測データに対する平滑密度関数列の計
算が必要になる(北川源四郎.時系列解析プログラミン
グ.岩波コンピュータサイエンス.岩波書店,193
3.)。これらの密度関数を直接的な方法で計算すると
効率が悪い。
Further, a maximum likelihood hidden state vector sequence is identified for the observation data. In parameter identification, SRN
It is necessary to calculate a predicted density function sequence for observation data that can be calculated from the internal state of N, and to identify a maximum likelihood hidden state vector sequence, it is necessary to calculate a smooth density function sequence for observation data (Kitakawa Genshiro. Time series analysis programming, Iwanami Computer Science, Iwanami Shoten, 193
3. ). Calculating these density functions in a direct way is inefficient.

【0038】本計算方法では、隠れ状態ベクトルの数を
限定し、かつ、モンテカルロ法によって、各密度関数を
「粒子」の集合で置き換えて近似することで、効率的に
モデル解析を遂行する。
In the present calculation method, the number of hidden state vectors is limited, and each density function is replaced by a set of “particles” by the Monte Carlo method, thereby approximating the model efficiently.

【0039】ここで、「粒子」とは、各密度関数に従っ
て生成される隠れ状態ベクトルの実現値を指し、隠れ状
態ベクトルと同じ次元のベクトルである。そして、その
各要素(隠れ変数)の値は、0または1となる。したが
って、k次元の隠れ状態ベクトルは、2k 通りの「粒
子」を実現値として持つことになる。
Here, "particle" refers to a realization value of a hidden state vector generated according to each density function, and is a vector having the same dimension as the hidden state vector. Then, the value of each element (hidden variable) is 0 or 1. Therefore, the k-dimensional hidden state vector has 2 k "particles" as realized values.

【0040】次に、図2から図4までを参照しながら、
SRNNの観測データ列に対する予測密度関数や平滑密
度関数を、モンテカルロ法の「粒子」を用いて計算する
処理の概要を説明する。
Next, referring to FIGS. 2 to 4,
An outline of a process of calculating a predicted density function or a smoothed density function for an SRNN observation data sequence using “particles” of the Monte Carlo method will be described.

【0041】図2、3、4において、 外2 (以後、
g(ベクトルxn ;ベクトルω)と
In FIGS. 2, 3 and 4,
g (vector x n ; vector ω)

【0042】[0042]

【外2】 [Outside 2]

【0043】記す)は、ベクトルωを平均値とし、分散
行列が単位行列であるような、ベクトルxn のガウス密
度関数である。図2は、前向き予測粒子および前向き濾
過粒子の再帰的生成処理を示している。前向きとは、時
間の流れに従って粒子を生成することを意味する。した
がって、前向き予測粒子とは、特定時刻までの観測デー
タから、その特定時刻より後の内部状態を推定した結果
を表す隠れ状態ベクトルの実現値であり、前向き濾過粒
子とは、特定時刻までの観測データから、その特定時刻
の内部状態を推定した結果を表す隠れ状態ベクトルの実
現値である。図2の処理の流れは次の通りである。
Is a Gaussian density function of the vector x n such that the vector ω is an average value and the variance matrix is a unit matrix. FIG. 2 shows a recursive generation process of the forward prediction particles and the forward filtration particles. Forward means generating particles according to the flow of time. Therefore, the forward predictive particle is a realized value of a hidden state vector representing the result of estimating the internal state after the specific time from the observation data up to the specific time, and the forward filtering particle is the observation value up to the specific time. It is a realization value of a hidden state vector representing a result of estimating the internal state at the specific time from the data. The processing flow of FIG. 2 is as follows.

【0044】処理S1:時刻nにおけるm個の前向き予
測粒子{pn (j) }(j=1,...,m)を、時刻n
−1におけるm個の前向き濾過粒子{fn-1 (j) }と状
態遷移確率行列 外3 (以後、p(ベクトルh|ベク
トルh′)と記す)とから生
Process S1: The m forward prediction particles {p n (j) } (j = 1,..., M) at time n are converted to time n
From the m forward filtered particles {f n-1 (j) } at −1 and the state transition probability matrix 3 (hereinafter referred to as p (vector h | vector h ′)).

【0045】[0045]

【外3】 [Outside 3]

【0046】成する。ここで、前向き予測粒子pn (j)
および前向き濾過粒子fn-1 (j) は、例えば{0,1,
1,0,...,1}のような、隠れ状態ベクトルhと
同じ次元のベクトルである。また、p(ベクトルh|ベ
クトルh′)は、隠れ状態ベクトルh′に対応する状態
から、隠れ状態ベクトルhに対応する状態への遷移確率
を表す。
The following is achieved. Here, the forward prediction particle p n (j)
And the forward filtering particles f n-1 (j) are, for example, {0, 1,
1,0,. . . , 1} of the same dimension as the hidden state vector h. P (vector h | vector h ') represents the transition probability from the state corresponding to the hidden state vector h' to the state corresponding to the hidden state vector h.

【0047】処理S2:重み係数αn (j) =g(ベクト
ルxn ;ベクトルω(pn (j) ))に比例する 外4
を重みとして、時刻nの前向き予測粒子{pn (j) }の
中から粒子を
Process S2: weight coefficient α n (j) = g (vector x n ; vector ω (p n (j) ))
From the forward prediction particles {p n (j) } at time n

【0048】[0048]

【外4】 [Outside 4]

【0049】再抽出することで、時刻nの前向き濾過粒
子{fn (j) }を生成する。ただし、ガウス密度関数の
平均値を表すベクトルω(pn (j) )は、次式により定
義される。
By re-extracting, the forward filtered particles {f n (j) } at time n are generated. Here, the vector ω (p n (j) ) representing the average value of the Gaussian density function is defined by the following equation.

【0050】[0050]

【数1】 (Equation 1)

【0051】(1)式において、(pn (j) i は、k
次元のベクトルpn (j) のi番目の要素を表し、 外5
(以後、ベクトルwi と記す)は、ベクトルxn をi
番目
In the equation (1), (p n (j) ) i is k
Represents the i-th element of the dimensional vector p n (j) ,
(Hereinafter, referred to as the vector w i) is a vector x n i
Th

【0052】[0052]

【外5】 [Outside 5]

【0053】の隠れ素子に入力するときに乗算する重み
ベクトルを表す。したがって、ベクトルwi の次元は、
ベクトルxn の次元と同じである。図2では、時刻0の
前向き濾過粒子{f0 (j) }を初期値として与え、処理
S1およびS2を帰納的に繰り返すことで、前向き予測
粒子の集合列を計算する。粒子の集合とは、1時刻にお
けるm個の粒子を意味し、集合列とは、粒子の集合の時
系列を意味する。
Represents a weight vector to be multiplied when inputting to the hidden element. Therefore, the dimensions of the vector w i are
It has the same dimension as the vector xn . In FIG. 2, the forward filtering particles {f 0 (j) } at time 0 are given as initial values, and the processes S1 and S2 are recursively repeated to calculate a set sequence of forward predicting particles. The set of particles means m particles at one time, and the set sequence means a time series of the set of particles.

【0054】次に、時刻Nからnまで時間を遡り、過去
の隠れ状態の予測と濾過を計算する。図3は、このよう
な後向き予測粒子および後向き濾過粒子の再帰的生成処
理を示している。後向きとは、時間の流れに逆行して粒
子を生成することを意味する。したがって、後向き予測
粒子とは、特定時刻以降の観測データから、その特定時
刻より前の内部状態を推定した結果を表す隠れ状態ベク
トルの実現値であり、後向き濾過粒子とは、特定時刻以
降の観測データから、その特定時刻の内部状態を推定し
た結果を表す隠れ状態ベクトルの実現値である。図3の
処理の流れは次の通りである。
Next, the time is traced back from time N to time n, and prediction and filtering of the past hidden state are calculated. FIG. 3 shows a recursive generation process of such backward predicted particles and backward filtered particles. Backward means that particles are generated against the flow of time. Therefore, the backward predicted particle is a realization value of a hidden state vector representing the result of estimating the internal state before the specific time from the observation data after the specific time, and the backward filtered particle is the observed value after the specific time. It is a realization value of a hidden state vector representing a result of estimating the internal state at the specific time from the data. The processing flow of FIG. 3 is as follows.

【0055】処理S3:時刻nの後向き予測粒子{en
(j) }を、時刻n+1の後向き濾過粒子{cn+1 (j)
と状態遷移確率行列p(ベクトルh/ベクトルh′)と
から生成する。
Process S3: backward predicted particle {en at time n
(j) } is replaced by the backward filtered particles {c n + 1 (j)時刻 at time n + 1.
And a state transition probability matrix p (vector h / vector h ').

【0056】処理S4:重み係数εn (j) =g(ベクト
ルxn ;ベクトルω(en (j) ))に比例する 外6
を重みとして、時刻nの後向き予測粒子{en (j) }の
中から粒子を
Outer 6, which is proportional to; (a vector ω (e n (j)) vector x n) weighting factor ε n (j) = g: [0056] step S4
As a weight and the particles from the backward predicted particle at time n {e n (j)}

【0057】[0057]

【外6】 [Outside 6]

【0058】再抽出することで、時刻nの後向き濾過粒
子{cn (j) }を生成する。ベクトルω(en (j) )の
定義は(1)式と同様である。図3では、時刻N+1の
後向き濾過粒子{cN+1 (j) }を初期値として与え、処
理S3およびS4を帰納的に繰り返すことで、後向き濾
過粒子の集合列を計算する。
By re-extracting, backward filtered particles {c n (j) } at time n are generated. The definition of the vector ω (e n (j) ) is the same as in the equation (1). In FIG. 3, the backward filtered particles {c N + 1 (j) } at time N + 1 are given as initial values, and the processes S3 and S4 are recursively repeated to calculate a set of backward filtered particles.

【0059】次に、観測データ列{ベクトル
1 ,...,ベクトルxN }に対して、隠れ状態ベク
トル上の最適な確率密度列を近似する平滑粒子{un
(j) }{n=1,...,N)を生成する。
Next, the observed data sequence {vector x 1 ,. . . , U n, which approximate the optimal probability density sequence on the hidden state vector, for the vector x N }
(j) {n = 1,. . . , N).

【0060】図4は、2重フィルタ法(Genshiro Kitag
awa. The two-filter formula forsmoothing and an i
mplementation of the Gaussian-sum smoother. Annal
s of the Institute of Statistical Mathematics 46
(4):605-623, 1994.)を用いた平滑粒子の再帰的生成処
理を示している。平滑粒子とは、特定時間内の観測デー
タから、その特定時間内の1つの時刻の内部状態を推定
した結果を表す隠れ状態ベクトルの実現値である。図4
の処理の流れは次の通りである。
FIG. 4 shows the double filter method (Genshiro Kitag
awa.The two-filter formula forsmoothing and an i
mplementation of the Gaussian-sum smoother.Annal
s of the Institute of Statistical Mathematics 46
(4): 605-623, 1994.). The smooth particle is a realized value of a hidden state vector representing a result of estimating an internal state at one time within a specific time from observation data within a specific time. FIG.
Is as follows.

【0061】処理S5:次式で定義される重み係数{β
n (j) }(j=1,...,m)に比例する重みに従っ
て、時刻nの予測粒子{pn (j) }の中から粒子を再抽
出することで、時刻nの平滑粒子{un (j) }を生成す
る。
Process S5: weighting factor {β defined by the following equation
By re-extracting the particles from the predicted particles {p n (j) } at time n according to the weight proportional to n (j) } (j = 1,..., m), the smooth particles at time n generating a {u n (j)}.

【0062】[0062]

【数2】 (Equation 2)

【0063】(2)式において、d′はあらかじめ決め
られた整数で、1≦d′≦mである。また、d′個のj
i の値は、1,...,mの中から任意の方法で選ばれ
る。ji の選択方法は、対象とする問題に応じて変更し
てもよい。
In the equation (2), d 'is a predetermined integer and 1≤d'≤m. Also, d ′ j
The value of i is 1,. . . , M in any manner. The selection method of j i may be changed according to the target problem.

【0064】処理S6:時刻n+1の{βn+1 (j)
と、時刻nの前向き予測粒子{pn (j ) }と、時刻n+
1の後向き濾過粒子{cn+1 (j) }と、時刻nの観測デ
ータであるベクトルxn とから、(2)式によって時刻
nの{βn (j) }を再帰的に計算する。このとき、{β
n+1 (j) }としては、先に計算した{βn (j) }を用い
る。
Process S6: {β n + 1 (j) } at time n + 1
, The forward prediction particle {p n (j ) } at time n, and time n +
From the 1 backward filtered particles {c n + 1 (j) } and the vector x n that is the observation data at time n, {β n (j) } at time n is recursively calculated by equation (2). . At this time, {β
The previously calculated {β n (j) } is used as n + 1 (j) }.

【0065】そして、処理S5およびS6を帰納的に繰
り返すことで、平滑粒子の集合列を計算する。2重フィ
ルタ法の意味については、後述することにする。次に、
図2から図4までに示した処理のアルゴリズムを、より
詳細に説明する。まず、SRNNの動作を規定するエネ
ルギー関数と状態遷移確率について説明する。
Then, by repeating the processes S5 and S6 recursively, a set sequence of smooth particles is calculated. The meaning of the double filter method will be described later. next,
The processing algorithm shown in FIGS. 2 to 4 will be described in more detail. First, an energy function defining the operation of the SRNN and a state transition probability will be described.

【0066】時刻nにおけるSRNNの状態は、(ベク
トルhn ,ベクトルxn )により表され、状態(ベクト
ルhn ,ベクトルxn )上に定義されるエネルギー関数
は、
[0066] at time n SRNN state, (vector h n, the vector x n) is represented by the state (vector h n, the vector x n) is the energy function defined above,

【0067】[0067]

【数3】 (Equation 3)

【0068】のようになることが知られている。(3)
式において、hn j は、k次元の隠れ状態ベクトルhn
のj番目の要素を表し、ベクトルxn はc次元のベクト
ルであるものとする。また、(4)式のモデルパラメー
タベクトルλは、図35におけるネットワークパラメー
タ部2が保持するSRNNのパラメータに対応する。
It is known that the following is obtained. (3)
Where h n j is a k-dimensional hidden state vector h n
, And the vector x n is a c-dimensional vector. In addition, the model parameter vector λ in Expression (4) corresponds to the SRNN parameter held by the network parameter unit 2 in FIG.

【0069】ベクトルwj は、入力層1からj番目の隠
れ素子への入力の重みを表し、ベクトルuj は、文脈層
4からj番目の隠れ素子への入力の重みを表し、θ
j は、j番目の隠れ素子への入力バイアスを表す。ベク
トルwj は、ベクトルxn と同じくc次元のベクトルで
あり、ベクトルuj は、ベクトルhn と同じくk次元の
ベクトルである。
The vector w j represents the weight of the input from the input layer 1 to the j-th hidden element, the vector u j represents the weight of the input from the context layer 4 to the j-th hidden element, and θ
j represents the input bias to the j-th hidden element. The vector w j is a c-dimensional vector like the vector x n , and the vector u j is a k-dimensional vector like the vector h n .

【0070】(3)式のエネルギー関数で決まる(ベク
トルhn ,ベクトルxn )上の条件付き同時確率分布
は、次式で与えられる。
The conditional joint probability distribution on (vector h n , vector x n ) determined by the energy function of equation (3) is given by the following equation.

【0071】[0071]

【数4】 (Equation 4)

【0072】ここで、ベクトルhn ∈{0,1}k とい
う表記は、ベクトルhn の各要素が0または1であるこ
とを意味し、これに関する総和記号Σは、ベクトルhn
の取り得る2k 通りの値すべてについての総和を意味す
る。また、ベクトルω(ベクトルhn )は、(1)式と
同様に、次式で定義される。
[0072] Here, the notation vector h n ∈ {0, 1} k, which means that each element of the vector h n is 0 or 1, the sum symbol Σ in this regard, a vector h n
Means the sum of all 2 k possible values of Further, the vector ω (vector h n ) is defined by the following equation, similarly to equation (1).

【0073】[0073]

【数5】 (Equation 5)

【0074】また、状態遷移密度関数p(ベクトルhn
|ベクトルhn-1 ,ベクトルλ)は、次式で定義され
る。
The state transition density function p (vector h n
| Vector h n−1 , vector λ) is defined by the following equation.

【0075】[0075]

【数6】 (Equation 6)

【0076】(5)式の同時確率分布は、ガウス密度関
数g(ベクトルxn ;ベクトルω(ベクトルhn ))と
状態遷移密度関数p(ベクトルhn |ベクトルhn-1
ベクトルλ)の積で表されている。この同時確率分布を
図示すると、図5のようになる。図5において、ベクト
ルhn の値により決められるベクトルω(ベクトル
n )の値は、確率分布の極大値に対応していることが
分かる。
The joint probability distribution of equation (5) is
Number g (vector xn; Vector ω (vector hn))When
State transition density function p (vector hn| Vector hn-1,
Vector λ). This joint probability distribution
This is shown in FIG. In FIG.
Le hnVector ω (vector
h n) Values correspond to local maxima in the probability distribution.
I understand.

【0077】また、時刻nのシステムベクトル(隠れ状
態ベクトル)hn は、マルコフ仮定により、一つ前の状
態で決まる状態遷移確率分布p(ベクトルhn |ベクト
ルh n-1 ,ベクトルλ)により決められる。
The system vector at time n (hidden state
State vector) hnIs the previous state by Markov assumption
State transition probability distribution p (vector hn| Vect
Le h n-1, Vector λ).

【0078】今、ベクトルhn の取り得る2k 通りの値
を 外7 と書くことにすると、p
Now, let us write 2 k possible values of the vector h n as

【0079】[0079]

【外7】 [Outside 7]

【0080】(ベクトルhn |ベクトルhn-1 ,ベクト
ルλ)は、図6のような行列により表現できる。図6の
状態遷移確率行列において、i行j列の要素pij(ベク
トルλ)は、ベクトルh(j) に対応する状態からベクト
ルh(i) に対応する状態への遷移確率を表す。パラメー
タベクトルλが与えられたとき、(7)式より、状態遷
移確率行列の任意の要素pij(ベクトルλ)を計算する
ことができる。
(Vector h n | vector h n−1 , vector λ) can be represented by a matrix as shown in FIG. In the state transition probability matrix of FIG. 6, the element p ij (vector λ) at the i-th row and the j-th column represents the transition probability from the state corresponding to the vector h (j) to the state corresponding to the vector h (i) . Given a parameter vector λ, an arbitrary element p ij (vector λ) of the state transition probability matrix can be calculated from equation (7).

【0081】また、隠れ状態ベクトルhn が与えられた
時のベクトルxn の確率密度関数は、
The probability density function of the vector x n given the hidden state vector h n is given by:

【0082】[0082]

【数7】 (Equation 7)

【0083】となり、(8)式を用いて(5)式の同時
確率分布を書き直すと、
When the joint probability distribution of equation (5) is rewritten using equation (8),

【0084】[0084]

【数8】 (Equation 8)

【0085】のようになる。以下では、形式的な変換に
おいて、パラメータベクトルλの記載を省略することに
する。次に、SRNNにおける予測、濾過、平滑化の各
密度関数の導出方法を説明する。ここでは、北川のフィ
ルタ・スキーマを援用して、パラメータベクトルλと観
測データ列XN ={ベクトルx1 ,...,ベクトルx
N }が与えられた時のSRNNの対数尤度の算定方法
と、最適な隠れ状態ベクトルの推定方法、すなわち、平
滑密度関数列の推定方法とを導く。
Is as follows. Hereinafter, the description of the parameter vector λ will be omitted in the formal conversion. Next, a method of deriving each density function of prediction, filtering, and smoothing in SRNN will be described. Here, with the aid of Kitagawa's filter schema, the parameter vector λ and the observed data sequence X N = {vector x 1 ,. . . , Vector x
A method for calculating the log likelihood of SRNN when N } is given and a method for estimating an optimal hidden state vector, that is, a method for estimating a smooth density function sequence, are derived.

【0086】まず、隠れ状態ベクトルに関する前向き予
測と前向き濾過を計算すると、前向き予測密度関数は、
First, when the forward prediction and the forward filtering with respect to the hidden state vector are calculated, the forward prediction density function becomes

【0087】[0087]

【数9】 (Equation 9)

【0088】のようになり、前向き濾過密度関数は、The forward filtration density function is:

【0089】[0089]

【数10】 (Equation 10)

【0090】のようになる。ここで、Xn-1 ={ベクト
ルx1 ,...,ベクトルxn-1 }である。また、観測
されたベクトルxn に対する予測密度関数は、
Is as follows. Here, X n-1 = {vector x 1 ,. . . , Vector x n-1 }. Also, the predicted density function for the observed vector xn is

【0091】[0091]

【数11】 [Equation 11]

【0092】で与えられる。したがって、パラメータベ
クトルλが与えられたときの観測データ列に対するSR
NNの尤度としては、例えば、再帰的に計算した予測密
度関数の対数値の総和を用いることができる。この対数
尤度は、次式により与えられる。
Is given by Therefore, the SR for the observation data sequence when the parameter vector λ is given
As the likelihood of the NN, for example, the sum of logarithmic values of the predicted density function calculated recursively can be used. This log likelihood is given by the following equation.

【0093】[0093]

【数12】 (Equation 12)

【0094】また、観測値の濾過密度関数は、Further, the filtration density function of the observed value is:

【0095】[0095]

【数13】 (Equation 13)

【0096】である。また、XN n ={ベクトル
n ,...,ベクトルxN }とおいて、後向き予測と
後向き濾過を計算すると、後向き予測密度関数は、
Is as follows. Also, X N n = {vector x n ,. . . , Vector x N }, the backward prediction density function becomes

【0097】[0097]

【数14】 [Equation 14]

【0098】のようになり、後向き濾過密度関数は、[0098] The backward filtration density function is

【0099】[0099]

【数15】 (Equation 15)

【0100】のようになる。さらに、観測データ列XN
から推定可能な最適な隠れ状態ベクトルは、次式の平滑
密度関数により決められる。
Is as follows. Furthermore, the observation data sequence X N
The optimal hidden state vector that can be estimated from is determined by the following smooth density function.

【0101】[0101]

【数16】 (Equation 16)

【0102】(17)式の右辺より、平滑密度関数p
(ベクトルhn |XN )は、重みp(XN n |ベクトル
n )と前向き予測密度関数p(ベクトルhn
N-1 )の積に比例することが分かる。この重みp(X
N n |ベクトルhn )は、さらに次式のように書き換え
られる。
From the right side of equation (17), the smooth density function p
(Vector h n | X N ) is obtained by calculating the weight p (X N n | vector h n ) and the forward prediction density function p (vector h n |
X N-1 ). This weight p (X
N n | vector h n ) can be further rewritten as:

【0103】[0103]

【数17】 [Equation 17]

【0104】(18)式の右辺において、p(ベクトル
n |ベクトルhn ,XN n+1 )はp(ベクトルxn
ベクトルhn )と書き換えられている。これは、ベクト
ルh n が一旦与えられると、ベクトルxn の確率分布が
決まるので、XN n+1 ={ベクトルxn+1 ,...,ベ
クトルxN }の観測データは条件として不要なためであ
る。
On the right side of the equation (18), p (vector
xn| Vector hn, XN n + 1) Is p (vector xn|
Vector hn) Has been rewritten. This is a vector
Le h nIs given, the vector xnIs the probability distribution of
XN n + 1= {Vector xn + 1,. . . ,
Kutor xNThe observation data in} is unnecessary as a condition.
You.

【0105】(18)式の右辺の最下段にはp(XN
n+1 |ベクトルhn+1 )が現れているため、p(XN n
|ベクトルhn )は再帰的に計算されることが分かる。
したがって、この再帰計算で得られる各時刻の平滑密度
関数の最尤値として、隠れ状態ベクトルを選ぶことがで
きる。
At the bottom of the right side of equation (18), p (X N
n + 1 | vector h n + 1 ), p (X N n
It can be seen that the | vector h n ) is calculated recursively.
Therefore, the hidden state vector can be selected as the maximum likelihood value of the smoothed density function at each time obtained by the recursive calculation.

【0106】しかし、平滑密度関数のピークが複数個あ
る場合や、平滑密度関数の分散が時間により変化する場
合などもある。このような場合に、平滑密度関数列から
得られる情報の損失を防ぐためには、最尤値に対応する
隠れ状態ベクトルを求めるのではなく、平滑密度関数列
をそのまま推定結果として利用することが望ましい。
However, there are a case where there are a plurality of peaks of the smooth density function, and a case where the variance of the smooth density function changes with time. In such a case, in order to prevent loss of information obtained from the smoothed density function sequence, it is preferable to use the smoothed density function sequence as an estimation result as it is, instead of obtaining the hidden state vector corresponding to the maximum likelihood value. .

【0107】また、(18)式を用いてp(XN n |ベ
クトルhn )の再帰計算を行うときに、ベクトルhn+1
∈{0,1}k の全体について、p(XN n+1 |ベクト
ルh n+1 )p(ベクトルhn+1 |ベクトルhn )の総和
を計算しなければならない。このため、モンテカルロ法
を用いて(17)、(18)式を忠実に近似する計算方
法では、各時刻の前向き予測粒子をすべて保存しなけれ
ばならない。したがって、高次元ベクトルの実現値を長
時間保存するために、膨大なメモリ空間を必要とする。
Further, using the equation (18), p (XN n|
Hector hn), The vector hn + 1
{0,1}kP (XN n + 1| Vect
Le h n + 1) P (vector hn + 1| Vector hnSum of)
Must be calculated. For this reason, the Monte Carlo method
Calculation method that approximates expressions (17) and (18) using
Method, all forward-looking particles at each time must be stored.
Must. Therefore, the realized value of a high-dimensional vector
To save time, a huge memory space is required.

【0108】そこで、(18)式の総和をそのまま計算
する代わりに、後向き濾過粒子を用いて近似的に計算す
る方法がある。これは、2重フィルタ法と呼ばれる。2
重フィルタ法では、各時刻の前向き予測粒子を、必要に
応じて、その都度再帰的に生成すればよく、メモリを大
幅に節約することができる。
Therefore, instead of calculating the sum of Equation (18) as it is, there is a method of approximately calculating the sum using backward filtered particles. This is called a double filter method. 2
In the double filter method, the forward prediction particles at each time need only be generated recursively as needed, and the memory can be largely saved.

【0109】図7は、2重フィルタ法に基づく平滑粒子
の近似計算処理を示している。2重フィルタ法におい
て、時刻nの平滑粒子{un (j) }は、図4にも示した
ように、時刻nの前向き予測粒子{pn (j) }と時刻n
+1の後向き濾過粒子{cn+1 ( j) }を用いて計算でき
る。
FIG. 7 shows an approximate calculation process of smooth particles based on the double filter method. In the double filter method, the smoothing particles {u n (j)} at time n, as shown in FIG. 4, the forward prediction particles {p n (j)} at time n and time n
+1 can be calculated using the backward filtered particles {c n + 1 ( j) }.

【0110】この方法では、時刻Nから順に時間を遡っ
て、平滑粒子{un (j) }を生成していく。このとき、
後向き濾過粒子{cn+1 (j) }は、図3に示したよう
に、時刻n+2の後向き濾過粒子{cn+2 (j) }から、
時刻n+1の後向き予測粒子{en+1 (j) }のみを介し
て生成される。時刻N+1の後向き濾過粒子{cN+1 (j
) }は初期値として与えられるので、後向き濾過粒子は
容易に求められる。
[0110] In this way, back to order time from the time N, continue to produce blunt particles {u n (j)}. At this time,
As shown in FIG. 3, the backward filtered particles {c n + 1 (j) } are obtained from the backward filtered particles {c n + 2 (j) } at time n + 2.
It is generated only through the backward prediction particle {en + 1 (j) } at time n + 1. The backward filtered particles {c N + 1 (j
) Since } is given as an initial value, backward filtered particles can be easily obtained.

【0111】これに対して、前向き予測粒子
{pn (j) }は、図2に示したように、時刻n−1の前
向き予測粒子{pn-1 (j) }から、時刻n−1の前向き
濾過粒子{fn- 1 (j) }を介して生成される。ところ
が、初期値として与えられるのは時刻0の前向き濾過粒
子{f0 (j) }であるため、前向き予測粒子
{pn (j) }を計算するには、時刻1から時刻n−1ま
での前向き予測粒子と前向き濾過粒子を順に求める必要
がある。
On the other hand, as shown in FIG. 2, the forward prediction particle {p n (j) } is calculated from the forward prediction particle {p n-1 (j) } at time n−1 at time n− 1 through the forward filtering particles {f n- 1 (j) }. However, since the forward filtration particles {f 0 (j) } at time 0 are given as the initial values, the calculation of the forward prediction particles {p n (j) } requires from time 1 to time n−1. It is necessary to sequentially obtain the forward prediction particles and the forward filtration particles.

【0112】例えば、図7のSTAGE1においては、
時刻Nの平滑粒子{uN (j) }を計算するために、時刻
N+1の後向き濾過粒子{cN+1 (j) }と、時刻Nの前
向き予測粒子{pN (j) }を用いている。前向き予測粒
子{pN (j) }を求めるには、時刻1から時刻Nまでの
前向きフィルタの計算を行わなければならない。しか
し、以後、STAGE2、STAGE3と計算が進むに
つれて、必要な前向きフィルタの計算量は減少してい
く。
For example, in STAGE 1 of FIG.
In order to calculate the smooth particle {u N (j) } at time N, the backward filtered particle {c N + 1 (j) } at time N + 1 and the forward predicted particle {p N (j) } at time N are used. ing. In order to obtain the forward prediction particle {p N (j) }, the calculation of the forward filter from time 1 to time N must be performed. However, thereafter, as the calculation proceeds to STAGE2 and STAGE3, the required amount of calculation of the forward filter decreases.

【0113】ここで、前向きフィルタとは、前向き予測
粒子と前向き濾過粒子を交互に生成する計算を表し、後
向きフィルタとは、後向き予測粒子と後向き濾過粒子を
交互に生成する計算を表す。また、図7の計算では、前
向きフィルタと後向きフィルタの両方の計算を実行する
ため、この方法は2重フィルタ法と呼ばれる。
Here, the forward filter represents a calculation for alternately generating forward predicted particles and forward filtered particles, and the backward filter represents a calculation for alternately generating backward predicted particles and backward filtered particles. In the calculation in FIG. 7, both the forward filter and the backward filter are calculated, and this method is called a double filter method.

【0114】次に、SRNNの隠れ状態を限定する方法
について説明する。k個の隠れ素子をすべて利用した場
合、2k 個の隠れ状態ベクトルが利用可能である。しか
し、システムモデルのダイナミクスの表現に利用される
隠れ状態の数は、経験的に高々k程度であることが分か
っている。残りの2k −k個の隠れ状態が利用される確
率は、ほぼ0に等しい。
Next, a method for limiting the hidden state of the SRNN will be described. If all k hidden elements are used, 2 k hidden state vectors are available. However, it is empirically known that the number of hidden states used for expressing the dynamics of the system model is at most k. The probability that the remaining 2 k -k hidden states will be used is approximately equal to zero.

【0115】そこで、利用する隠れ状態をあらかじめ限
定することで、SRNNの各密度関数の計算を効率的に
遂行することを考えたい。しかしながら、適当な隠れ状
態ベクトルをどのように選ぶのかは、難しい問題であ
る。
Therefore, it is desired to efficiently calculate each density function of SRNN by limiting the hidden state to be used in advance. However, how to choose an appropriate hidden state vector is a difficult problem.

【0116】例えば、隠れ状態ベクトルのk個の要素の
中で、高々logk個の要素が1であるような隠れ状態
ベクトルの集合を考えることもできる。この場合、集合
の大きさは2logk/logkとなる。この大きさは、k
=70で90万程度、k=100で400万程度とな
り、大規模な回路においては実際的でない。
For example, a set of hidden state vectors in which at most logk elements are 1 out of k elements of the hidden state vector can be considered. In this case, the size of the set is 2 logk / logk. This size is k
= 70,000, and k = 100, about 4,000,000, which is not practical for a large-scale circuit.

【0117】また、スパースコーディング(Shun-ichi
Amari. Characteristics of Sparsely Encoded Associ
ative Memory. Neural Networks 2:451-457, 1989.
/Robert Hecht-Nielsen. Neurocomputing. Addison-
Wesley 1990. )を利用する方法も考えられる。この場
合、隠れ状態ベクトルの集合の要素数はk2 /logk
個程度である。したがって、適当な方法で選択したkの
多項式個程度の大きさの隠れ状態ベクトルの集合を、観
測データに合わせて選択できれば、計算の効率化が期待
できる。
Also, sparse coding (Shun-ichi
Amari. Characteristics of Sparsely Encoded Associ
ative Memory.Neural Networks 2: 451-457, 1989.
/ Robert Hecht-Nielsen. Neurocomputing. Addison-
Wesley 1990.) may be used. In this case, the number of elements of the set of hidden state vectors is k 2 / log k
About one. Therefore, if a set of hidden state vectors having a size of about k polynomials selected by an appropriate method can be selected according to observation data, it is expected that the efficiency of calculation will be increased.

【0118】また、Freundらは、隠れ状態ベクトルを導
入した2層のニューラルネットワークによるフィーチャ
ー・マップの学習アルゴリズムを示している(Yaov Fre
undand David Haussler. Unsupervised Learning of D
istribution over Binary Vectors using Two-layer ne
tworks. Technical report University of Californi
a Santa Cruz, 1994.)。
Also, Freund et al. Show an algorithm for learning a feature map using a two-layer neural network introducing a hidden state vector (Yaov Frederick).
undand David Haussler. Unsupervised Learning of D
istribution over Binary Vectors using Two-layer ne
tworks. Technical report University of Californi
a Santa Cruz, 1994.).

【0119】その核となる射影アルゴリズムは、2k
の隠れ状態ベクトルhの中から、k個のベクトルh(j)
の集合{ベクトルh(j) =(δj (1),...,δj
(k))|1≦j≦k}に限定して、高速化を図ったも
のとみなせる。ただし、δj(i)は、iがjに一致す
るときのみ1となり、その他の場合は0となる。したが
って、ベクトルh(j) は、j番目の要素のみが1で、他
の要素はすべて0であるような隠れ状態ベクトルを表
す。
The core projection algorithm uses k vectors h (j) out of 2 k hidden state vectors h.
{Vector h (j) = (δ j (1) ,.
(K)) Limited to | 1 ≦ j ≦ k}, it can be considered that the speed is increased. However, δ j (i) becomes 1 only when i matches j, and becomes 0 in other cases. Therefore, the vector h (j) represents a hidden state vector in which only the j-th element is 1 and all other elements are 0.

【0120】本実施形態においては、上述のような限定
例を含む任意の方法により、利用する隠れ状態ベクトル
の集合を限定することができる。そして、図6におい
て、利用しない隠れ状態ベクトルに対応する状態遷移確
率を0とおくことで、計算量を削減することができる。
In the present embodiment, the set of hidden state vectors to be used can be limited by any method including the above-mentioned limitation example. Then, in FIG. 6, the calculation amount can be reduced by setting the state transition probability corresponding to the unused hidden state vector to 0.

【0121】隠れ状態ベクトルの数を限定する計算方法
によれば、高次元の隠れ状態ベクトルによるSRNNの
高い表現力を保持したままで、計算量を削減することが
できる。したがって、最初から低次元の隠れ状態ベクト
ルで計算した場合と比較して、一般に、良い推定結果が
得られる。
According to the calculation method for limiting the number of hidden state vectors, the amount of calculation can be reduced while maintaining the high expressiveness of SRNN by the high-dimensional hidden state vector. Therefore, in general, a better estimation result can be obtained as compared with the case where the calculation is performed using a low-dimensional hidden state vector from the beginning.

【0122】次に、SRNNの各密度関数のモンテカル
ロ法による近似方法について説明する。ここでは、北川
のモンテカルロ・フィルタ・スキーマに基づき、SRN
Nによる予測・濾過・平滑密度のモンテカルロ計算法を
導く。モンテカルロ法では、各密度関数を上述のような
「粒子」で置き換えて計算する。
Next, a method of approximating each density function of SRNN by the Monte Carlo method will be described. Here, based on Kitagawa's Monte Carlo filter schema, SRN
A Monte Carlo calculation method of prediction, filtration, and smoothing density by N is derived. In the Monte Carlo method, the calculation is performed by replacing each density function with the above-mentioned “particle”.

【0123】前向き予測粒子{pn (1) ,...,pn
(m) }は前向き予測密度関数p(ベクトルhn
n-1 )に従って生成される実現値であり、前向き濾過
粒子{fn ( 1) ,...,fn (m) }は前向き濾過密度
関数p(ベクトルhn |Xn )に従って生成される実現
値である。
The forward prediction particles {p n (1) ,. . . , P n
(m) } is the forward prediction density function p (vector h n |
X n-1 ), which are generated according to the forward filtering particles {f n ( 1) ,. . . , F n (m) } are the realized values generated according to the forward filtration density function p (vector h n | X n ).

【0124】また、後向き予測粒子
{en (1) ,...,en (m) }は後向き予測密度関数
p(ベクトルhn |XN n+1 )に従って生成される実現
値であり、後向き濾過粒子{cn (1) ,...,cn
(m) }は後向き濾過密度関数p(ベクトルhn
N n )に従って生成される実現値である。
Further, the backward prediction particles
{En (1),. . . , En (m)} Is the backward predicted density function
p (vector hn| XN n + 1Realization generated according to
Value, the backward filtered particles Δcn (1),. . . , Cn
(m)} Is the backward filtration density function p (vector hn|
X N n).

【0125】また、平滑粒子{un (1) ,...,un
(m) }は平滑密度関数p(ベクトルhn |XN )に従っ
て生成される実現値である。粒子の個数mは、モデルの
複雑さや推定量に対して要求される精度に依存して決ま
るが、最初に、m=1000もしくは10000等の一
定値に決めて試行し、調整した後に、適当な値を選ぶこ
とができる。モンテカルロ法によるSRNNの計算に必
要な各種「粒子」の生成法は、次の通りである。
[0125] Further, the smoothing particles {u n (1),. . . , U n
(m) } is a realization value generated according to the smooth density function p (vector h n | X N ). The number m of particles is determined depending on the complexity of the model and the accuracy required for the estimator. First, a fixed value such as m = 1000 or 10000 is determined and adjusted. You can choose a value. The method of generating various “particles” necessary for calculating the SRNN by the Monte Carlo method is as follows.

【0126】ここでは、上述のFreundらの限定方法に従
い、状態遷移確率p(ベクトルh(i ) |ベクトル
(j) )を状態遷移テーブル(状態遷移確率行列)とし
て持つことを前提とし、利用可能な隠れ状態ベクトルの
集合Hの大きさ|H|は、|H|=poly(k)、す
なわちkの多項式個とする。kが大きいほど、モンテカ
ルロ法の効果が期待できる。
Here, it is assumed that the state transition probability p (vector h (i ) | vector h (j) ) is provided as a state transition table (state transition probability matrix) according to the above-described limiting method of Freund et al. The magnitude | H | of the set H of possible hidden state vectors is | H | = poly (k), that is, k polynomials. As k is larger, the effect of the Monte Carlo method can be expected.

【0127】前向き予測粒子pn (j) の生成方法は次の
ようになる。
The method for generating the forward prediction particle p n (j) is as follows.

【0128】[0128]

【数18】 (Equation 18)

【0129】ここで、記号“〜”は、左辺の粒子が、右
辺の確率分布に従って生成されることを表す。前向き濾
過粒子fn (j) の生成方法は次のようになる。
Here, the symbol "-" indicates that the particles on the left side are generated according to the probability distribution on the right side. The method of generating the forward filtration particles f n (j) is as follows.

【0130】[0130]

【数19】 [Equation 19]

【0131】(22)式の右辺は、m個の前向き予測粒
子{pn (1) ,...,pn (m) }のいずれかが、それ
ぞれ対応する確率αn (j) /Σi=1 m αn (i) (j=
1,...,m)で選択されることを表す。
The right side of the equation (22) is the m forward prediction particles {p n (1) ,. . . , P n (m) }, the corresponding probability α n (j) / Σ i = 1 m α n (i) (j =
1,. . . , M).

【0132】後向き予測粒子en (j) の生成方法は次の
ようになる。
The method of generating the backward prediction particles e n (j) is as follows.

【0133】[0133]

【数20】 (Equation 20)

【0134】後向き濾過粒子cn (j) の生成方法は次の
ようになる。
The method of producing the backward filtered particles c n (j) is as follows.

【0135】[0135]

【数21】 (Equation 21)

【0136】平滑粒子un (j) の生成方法は次のように
なる。
The method of generating the smooth particles u n (j) is as follows.

【0137】[0137]

【数22】 (Equation 22)

【0138】(27)式の右辺のp(XN n
n (i) )は、(17)式の重みp(XN n|ベクトル
n )に対応し、(2)式により計算できる。次に、図
8から図24までを参照しながら、本実施形態の時系列
解析装置の構成および動作を説明する。
P (X N n │ on the right side of equation (27)
p n (i) ) corresponds to the weight p (X N n | vector h n ) in equation (17) and can be calculated by equation (2). Next, the configuration and operation of the time-series analysis device according to the present embodiment will be described with reference to FIGS.

【0139】図8は、上述のようなSRNNの高速計算
法を組み込んだ時系列解析装置の構成図である。図8の
時系列解析装置は、再抽出装置(RS)21、時系列デ
ータ収集装置(OBS)22、前向き予測粒子生成装置
(FPF)23、平滑粒子生成装置(TFS)24、後
向き予測粒子生成装置(BPF)25、尤度計算装置
(LLH)26、学習装置(LM)27、モデルパラメ
ータ設定装置(PM)28、および表示装置(PNT)
29を備える。
FIG. 8 is a block diagram of a time-series analysis device incorporating the above-described SRNN high-speed calculation method. 8 includes a re-extraction device (RS) 21, a time-series data collection device (OBS) 22, a forward predictive particle generator (FPF) 23, a smooth particle generator (TFS) 24, and a backward predictive particle generator. Device (BPF) 25, likelihood calculating device (LLH) 26, learning device (LM) 27, model parameter setting device (PM) 28, and display device (PNT)
29.

【0140】時系列データ収集装置22は、前向き予測
粒子生成装置23、平滑粒子生成装置24、後向き予測
粒子生成装置25、および表示装置29に、時系列デー
タを供給する。
The time-series data collection device 22 supplies time-series data to the forward prediction particle generation device 23, the smooth particle generation device 24, the backward prediction particle generation device 25, and the display device 29.

【0141】前向き予測粒子生成装置23は、平滑粒子
生成装置24、尤度計算装置26、および表示装置29
に、前向き予測粒子の集合列を供給する。また、後向き
予測粒子生成装置25は、平滑粒子生成装置24および
表示装置29に、後向き濾過粒子の集合列を供給する。
また、平滑粒子生成装置24は、表示装置29に平滑粒
子の集合列を供給する。
The forward predictive particle generator 23 includes a smooth particle generator 24, a likelihood calculator 26, and a display 29.
Is supplied to the set of forward prediction particles. In addition, the backward predicted particle generator 25 supplies a set of backward filtered particles to the smooth particle generator 24 and the display device 29.
In addition, the smooth particle generation device 24 supplies the display device 29 with a collection of smooth particles.

【0142】再抽出装置21は、重み集合に従って粒子
を再抽出し、再抽出粒子の集合を、前向き予測粒子生成
装置23、平滑粒子生成装置24、および後向き予測粒
子生成装置25に供給する。
The re-extraction device 21 re-extracts the particles according to the weight set, and supplies the set of re-extracted particles to the forward predicted particle generator 23, the smooth particle generator 24, and the backward predicted particle generator 25.

【0143】尤度計算装置26は、予測粒子の集合列か
らモデルパラメータの尤度を計算し、学習装置27に供
給する。また、学習装置27は、モデルパラメータの尤
度をもとに最適なパラメータを探索し、モデルパラメー
タ設定装置28に供給する。
The likelihood calculating device 26 calculates the likelihood of the model parameter from the set of predicted particles and supplies it to the learning device 27. Further, the learning device 27 searches for an optimal parameter based on the likelihood of the model parameter and supplies it to the model parameter setting device 28.

【0144】モデルパラメータ設定装置28は、前向き
予測粒子生成装置23、平滑粒子生成装置24、および
後向き予測粒子生成装置25に、状態遷移確率および入
力重みベクトルを、パラメータとして供給する。
The model parameter setting device 28 supplies the state transition probability and the input weight vector as parameters to the forward predicted particle generator 23, the smooth particle generator 24, and the backward predicted particle generator 25.

【0145】表示装置29は、粒子の集合列から密度関
数列を計算して表示し、また、時系列データも表示す
る。図8の時系列解析装置が、観測された時系列データ
列を入力として、平滑密度関数列を出力する動作は、次
の通りである。
The display device 29 calculates and displays a density function sequence from a set of particles, and also displays time-series data. The operation in which the time-series analysis device of FIG. 8 receives the observed time-series data sequence and outputs a smoothed density function sequence is as follows.

【0146】まず、時系列データ収集装置22は、図9
に示すように、時系列データ列{ベクトル
1 ,...,ベクトルxN }を、前向き予測粒子生成
装置23、平滑粒子生成装置24、後向き予測粒子生成
装置25、および表示装置29に供給する。
First, the time-series data collection device 22 operates as shown in FIG.
, A time-series data sequence {vector x 1 ,. . . , Vector x N } to the forward predicted particle generator 23, the smooth particle generator 24, the backward predicted particle generator 25, and the display 29.

【0147】次に、前向き予測粒子生成装置23は、モ
デルパラメータ設定装置28から供給された適切なパラ
メータを用いて、再抽出装置21を利用しながら、前向
き予測粒子の集合列を計算する。また、後向き予測粒子
生成装置25は、再抽出装置21を利用しながら、後向
き濾過粒子の集合列を計算する。前向き予測粒子の生成
に関連するデータの流れは図10のようになり、後向き
濾過粒子の生成に関連するデータの流れは図11のよう
になる。
Next, the forward predictive particle generator 23 calculates a set of forward predictive particles using the appropriate parameters supplied from the model parameter setting device 28 while using the re-extraction device 21. In addition, the backward predicted particle generation device 25 calculates a set of backward filtered particles while using the re-extraction device 21. The data flow related to the generation of the forward predicted particles is as shown in FIG. 10, and the data flow related to the generation of the backward filtered particles is as shown in FIG.

【0148】次に、平滑粒子生成装置24は、与えられ
た平滑粒子の再抽出の重みの集合、時刻nの観測データ
であるベクトルxn 、時刻nの前向き予測粒子の集合、
および時刻n+1の後向き濾過粒子の集合から、平滑粒
子の再抽出の重みの集合列を計算する。そして、再抽出
装置21を起動し、時刻nの平滑粒子の再抽出の重みの
集合に従って、時刻nの前向き予測粒子の集合を再抽出
させることで、時刻nの平滑粒子の集合を生成する。平
滑粒子の生成に関連するデータの流れは、図12のよう
になる。
Next, the smooth particle generation device 24 generates a set of weights for re-extraction of the given smooth particles, a vector x n which is observation data at time n, a set of forward prediction particles at time n,
From the set of backward filtered particles at time n + 1, a set sequence of weights for re-extraction of smooth particles is calculated. Then, the re-extraction device 21 is activated, and the set of forward prediction particles at time n is re-extracted according to the set of weights for re-extraction of smooth particles at time n, thereby generating a set of smooth particles at time n. The flow of data related to the generation of smooth particles is as shown in FIG.

【0149】そして、表示装置29は、得られた平滑粒
子の集合列を、平滑密度関数列として表示する。また、
時系列解析装置のパラメータ設定動作は、次の通りであ
る。
Then, the display device 29 displays the obtained sequence of smooth particles as a smooth density function sequence. Also,
The parameter setting operation of the time series analyzer is as follows.

【0150】まず、尤度計算装置26は、前向き予測粒
子の集合列をもとに、例えば次式のような対数尤度を計
算し、(13)式により与えられるモデルパラメータベ
クトルλの対数尤度l(ベクトルλ)を近似する。
First, the likelihood calculating device 26 calculates the log likelihood as shown in the following equation based on the set of forward predictive particles, and calculates the log likelihood of the model parameter vector λ given by the equation (13). Approximate the degree l (vector λ).

【0151】[0151]

【数23】 (Equation 23)

【0152】次に、学習装置27は、尤度計算装置26
で計算したモデルパラメータの尤度をもとに、勾配法や
シミュレーティド・アニーリング法等を用いて、尤度を
最大にするような最尤パラメータベクトルλ を推定す
る。
Next, the learning device 27 includes the likelihood calculating device 26
The maximum likelihood parameter vector λ that maximizes the likelihood is estimated using the gradient method, the simulated annealing method, or the like, based on the likelihood of the model parameter calculated in (1).

【0153】この場合の勾配法(グラディエント法)と
は、尤度をパラメータで微分して得られる導関数から、
最尤パラメータを求める方法を指す(Sakakibara Yasub
umiand Mostefa Golea. Simple Recurrent Networks a
s Generalized Hidden markov Models with Distribute
d Representations. In Proceedings of Internationa
l Conference on Neural Networks(ICNN'95), volume
2, pages 979-984. IEEE, 1995.)。
In this case, the gradient method (gradient method) is based on a derivative obtained by differentiating a likelihood with a parameter.
Refers to the method of obtaining the maximum likelihood parameter (Sakakibara Yasub
umiand Mostefa Golea.Simple Recurrent Networks a
s Generalized Hidden markov Models with Distribute
d Representations. In Proceedings of Internationala
l Conference on Neural Networks (ICNN'95), volume
2, pages 979-984. IEEE, 1995.).

【0154】また、シミュレーティド・アニーリング法
とは、適当なパラメータから出発して、その近傍で尤度
を改善できるものがあれば、それに置き換えるという操
作を繰り返す反復探索法の1つである。しかし、この方
法では、近傍のパラメータが尤度を改善できなくても、
ある確率でそれに置き換えるという操作を加える(Will
iam H. Press Saul A. Teukolsky, William T. Vetter
ling and Brian P. Flannery. NUMERICAL RECIPES in
C. The Art of Scientific Computing. Cambridge Un
iversity Press second edition 1992. )。
The simulated annealing method is one of the iterative search methods in which starting from an appropriate parameter, if there is one that can improve the likelihood in the vicinity of the parameter, the operation of replacing it is repeated. However, in this method, even if nearby parameters cannot improve the likelihood,
Add an operation to replace it with a certain probability (Will
iam H. Press Saul A. Teukolsky, William T. Vetter
ling and Brian P. Flannery. NUMERICAL RECIPES in
C. The Art of Scientific Computing. Cambridge Un
iversity Press second edition 1992.).

【0155】学習装置27は、これらの方法に限らず、
任意の方法で最尤パラメータを決定することができる。
そして、モデルパラメータ設定装置28は、あらかじめ
決められた隠れ状態ベクトルの集合Hを限定する条件を
もとに、学習装置27が出力するモデルパラメータベク
トルλを用いて、状態遷移確率行列M(H)を計算す
る。そして、M(H)を、学習装置27が求めた重みベ
クトルwj (j=1,...,k)とともに、前向き予
測粒子生成装置23、平滑粒子生成装置24、および後
向き予測粒子生成装置25に提供する。パラメータの生
成と供給に関連するデータの流れは、図13のようにな
る。
The learning device 27 is not limited to these methods.
The maximum likelihood parameter can be determined by an arbitrary method.
Then, the model parameter setting device 28 uses the model parameter vector λ output from the learning device 27 on the basis of a predetermined condition for limiting the set H of hidden state vectors, and uses the state transition probability matrix M (H) Is calculated. Then, M (H), together with the weight vector w j (j = 1,..., K) obtained by the learning device 27, the forward predicted particle generator 23, the smooth particle generator 24, and the backward predicted particle generator 25. The flow of data related to the generation and supply of parameters is as shown in FIG.

【0156】図14は、図8の時系列解析装置を実現す
る情報処理装置(コンピュータ)の構成図である。図1
4の情報処理装置は、CPU(中央処理装置)31、メ
モリ32、入力装置33、出力装置34、外部記憶装置
35、媒体駆動装置36、ネットワーク接続装置37を
備え、それらの各装置はバス38により互いに結合され
ている。
FIG. 14 is a configuration diagram of an information processing device (computer) that realizes the time-series analysis device of FIG. FIG.
4 includes a CPU (central processing unit) 31, a memory 32, an input device 33, an output device 34, an external storage device 35, a medium drive device 36, and a network connection device 37. Are connected to each other.

【0157】CPU31は、メモリ32に格納されたプ
ログラムを実行して、時系列解析装置の各処理を実現す
る。メモリ32には、上述のプログラムの他に、処理に
用いられるデータが格納されている。メモリ32として
は、例えばROM(read only memory)、RAM(rand
om access memory)等が用いられる。
The CPU 31 executes a program stored in the memory 32 to realize each processing of the time series analyzer. The memory 32 stores data used for processing in addition to the above-described programs. Examples of the memory 32 include a ROM (read only memory) and a RAM (rand
om access memory) is used.

【0158】入力装置33は、例えばキーボード、ポイ
ンティングデバイス等に相当し、ユーザからの要求や指
示の入力に用いられる。また、出力装置34は、表示装
置29やプリンタ等に相当し、計算結果等の出力に用い
られる。
The input device 33 corresponds to, for example, a keyboard, a pointing device, etc., and is used for inputting a request or instruction from a user. The output device 34 corresponds to the display device 29, a printer, or the like, and is used for outputting calculation results and the like.

【0159】外部記憶装置35は、例えば、磁気ディス
ク装置、光ディスク装置、光磁気ディスク装置等であ
る。この外部記憶装置35に、上述のプログラムとデー
タを保存しておき、必要に応じて、それらをメモリ32
にロードして使用することができる。また、外部記憶装
置35は、パラメータや解析結果を保存するデータベー
スとしても使用される。
The external storage device 35 is, for example, a magnetic disk device, an optical disk device, a magneto-optical disk device, or the like. The above-mentioned program and data are stored in the external storage device 35 and, if necessary, stored in the memory 32.
Can be loaded and used. The external storage device 35 is also used as a database for storing parameters and analysis results.

【0160】媒体駆動装置36は、可搬記録媒体39を
駆動し、その記憶内容にアクセスする。可搬記録媒体3
9としては、メモリカード、フロッピーディスク、CD
−ROM(compact disk read only memory )、光ディ
スク、光磁気ディスク等、任意のコンピュータ読み取り
可能な記録媒体を使用することができる。この可搬記録
媒体39に、上述のプログラムとデータを格納してお
き、必要に応じて、それらをメモリ32にロードして使
用することができる。
The medium driving device 36 drives the portable recording medium 39 and accesses the stored contents. Portable recording medium 3
9 is a memory card, floppy disk, CD
Any computer readable recording medium such as a ROM (compact disk read only memory), an optical disk, a magneto-optical disk, etc. can be used. The above-mentioned program and data are stored in the portable recording medium 39, and can be used by loading them into the memory 32 as needed.

【0161】ネットワーク接続装置37は、LAN(lo
cal area network)等の任意の通信ネットワークに接続
され、通信に伴うデータ変換等を行って、外部の情報提
供者の装置40(データベース等)と通信する。これに
より、時系列解析装置は、必要に応じて、上述のプログ
ラムとデータを装置40からネットワークを介して受け
取り、それらをメモリ32にロードして使用することが
できる。
The network connection device 37 is a LAN (lo
It is connected to an arbitrary communication network such as a cal area network, performs data conversion and the like accompanying the communication, and communicates with an external information provider device 40 (database or the like). Thereby, the time-series analysis device can receive the above-described program and data from the device 40 via the network as needed, and load them into the memory 32 for use.

【0162】次に、図15から図31までを参照しなが
ら、図8の時系列解析装置の動作を詳細に説明する。図
15は、時系列解析装置の動作フローチャートである。
時系列解析装置は、起動されると(ステップS11)、
まず時系列データの収集を行う(ステップS12)。次
に、SRNNのパラメータを学習し(ステップS1
3)、SRNNのチューニングを行う(ステップS1
4)。そして、時系列データを平滑化して結果を出力し
(ステップS15)、待機する(ステップS16)。
Next, the operation of the time series analyzer of FIG. 8 will be described in detail with reference to FIGS. FIG. 15 is an operation flowchart of the time-series analysis device.
When the time-series analyzer is activated (step S11),
First, time-series data is collected (step S12). Next, the parameters of the SRNN are learned (step S1).
3) Perform tuning of the SRNN (step S1)
4). Then, the time series data is smoothed and the result is output (step S15), and the process waits (step S16).

【0163】図16は図15のステップS12の動作を
示し、図17はステップS13の動作を示し、図18は
ステップS14の動作を示し、図19はステップS15
の動作を示している。
FIG. 16 shows the operation of step S12 in FIG. 15, FIG. 17 shows the operation of step S13, FIG. 18 shows the operation of step S14, and FIG.
The operation of FIG.

【0164】図16においてデータ収集が開始される
と、時系列解析装置は、時系列データ収集装置22を呼
び出す(ステップS21)。時系列データ収集装置22
は、時系列データを観測し(ステップS22)、時刻1
から時刻Nまでの時系列データ{ベクトル
1 ,...,ベクトルxN }を保存して(ステップS
23)、待機する(ステップS24)。
In FIG. 16, when data collection is started, the time-series analyzer calls the time-series data collector 22 (step S21). Time series data collection device 22
Observes the time series data (step S22), and
, The time series data {vector x 1 ,. . . , Vector x N } (step S
23), and waits (step S24).

【0165】この時系列データ{ベクトル
1 ,...,ベクトルxN }は、図9に示すように、
前向き予測粒子生成装置23、平滑粒子生成装置24、
後向き予測粒子生成装置25、および表示装置29によ
り利用される。
The time series data {vector x 1 ,. . . , Vector x N }, as shown in FIG.
Forward predictive particle generator 23, smooth particle generator 24,
It is used by the backward predicted particle generation device 25 and the display device 29.

【0166】次に、図17において学習が開始される
と、時系列解析装置は、学習装置27を呼び出す(ステ
ップS31)。学習装置27は、非線形最適化法により
最尤パラメータベクトルλ の推定を開始する(ステッ
プS32)。
Next, when learning is started in FIG. 17, the time series analyzer calls the learning device 27 (step S31). The learning device 27 starts estimation of the maximum likelihood parameter vector λ 2 by the non-linear optimization method (step S32).

【0167】学習装置27は、まず非線形最適化法の1
つのシミュレーティド・アニーリング法を用いて、この
目標関数を最大にするようなベクトルλ を求める(ス
テップS33)。ここでは、目標関数として(29)式
の対数尤度を用いる。目標関数の計算動作は次の通りで
ある。
First, the learning device 27 uses the nonlinear optimization method 1
Using two simulated annealing methods, a vector λ that maximizes this objective function is determined (step S33). Here, the log likelihood of equation (29) is used as the target function. The calculation operation of the objective function is as follows.

【0168】まず、モデルパラメータ設定装置28を呼
び出す(ステップS41)、モデルパラメータ設定装置
28は、図13に示すように、学習装置27から与えら
れるベクトルλをもとに状態遷移確率行列M(H)を計
算して、M(H)と重みベクトルwj とをパラメータと
して前向き予測粒子生成装置23に設定し(ステップS
42)、待機する(ステップS43)。
First, the model parameter setting device 28 is called (step S41). The model parameter setting device 28, as shown in FIG. 13, uses the state transition probability matrix M (H ) Is calculated and set in the forward predictive particle generator 23 using M (H) and the weight vector w j as parameters (step S).
42), and waits (step S43).

【0169】次に、前向き予測粒子生成装置23を呼び
出す(ステップS44)。前向き予測粒子生成装置23
は、時系列データ収集装置22からベクトルxn を受け
取り、(21)式に従って{αn (j) }を計算し(ステ
ップS45)、待機する(ステップS46)。
Next, the forward predictive particle generation device 23 is called (step S44). Forward-looking predicted particle generator 23
Receives the vector x n from the time-series data collection device 22, calculates {α n (j) } according to the equation (21) (step S45), and waits (step S46).

【0170】次に、尤度計算装置26を呼び出す(ステ
ップS47)。尤度計算装置26は、前向き予測粒子生
成装置23が求めた{αn (j) }を用いて、(29)式
の尤度を計算し、その値を学習装置27に返して(ステ
ップS48)、待機する(ステップS49)。
Next, the likelihood calculating device 26 is called (step S47). The likelihood calculating device 26 calculates the likelihood of Expression (29) using {α n (j) } obtained by the forward prediction particle generating device 23, and returns the value to the learning device 27 (step S48). ), And waits (step S49).

【0171】学習装置27は、アニーリングの各試行で
決められるベクトルλの値毎に、対応する目標関数の値
を受け取り、すべての試行の中で目標関数が最大となる
ようなベクトルλを、最尤パラメータベクトルλ に決
定する(ステップS34)。そして、このベクトルλ
を保存して(ステップS35)、待機する(ステップS
36)。
The learning device 27 receives, for each value of the vector λ determined in each trial of annealing, the value of the corresponding objective function, and calculates the vector λ that maximizes the objective function in all trials. The likelihood parameter vector λ is determined (step S34). And this vector λ
Is saved (step S35), and the process waits (step S35).
36).

【0172】次に、図18においてチューニングが開始
されると、時系列解析装置は、モデルパラメータ設定装
置28を呼び出す(ステップS51)。モデルパラメー
タ設定装置28は、学習装置27からベクトルλ を受
け取り(ステップS52)、隠れ状態ベクトルに対する
限定条件に従って、(7)式から最尤の状態遷移確率行
列M を計算する。
Next, when tuning is started in FIG. 18, the time-series analyzer calls the model parameter setting device 28 (step S51). The model parameter setting device 28 receives the vector λ 2 from the learning device 27 (Step S52), and calculates the maximum likelihood state transition probability matrix M from Expression (7) according to the limiting condition for the hidden state vector.

【0173】そして、ベクトルλ に含まれる重み(入
力荷重)ベクトルwj とM とを、前向き予測粒子生
成装置23、平滑粒子生成装置24、および後向き予測
粒子生成装置25に与えて(ステップS53)、待機す
る(ステップS54)。
Then, the weight (input load) vectors w j and M included in the vector λ are given to the forward predicted particle generator 23, the smooth particle generator 24, and the backward predicted particle generator 25 (step S53). , And waits (step S54).

【0174】次に、図19において平滑化が開始される
と、時系列解析装置は、まず制御変数iを1とおき(ス
テップS60)、前向き予測粒子生成装置23を起動す
る(ステップS61)。
Next, when smoothing is started in FIG. 19, the time-series analyzer first sets the control variable i to 1 (step S60), and starts the forward predictive particle generator 23 (step S61).

【0175】前向き予測粒子生成装置23は、図10に
示すように、再抽出装置21を利用して、時刻n=N−
i+1の前向き予測粒子{pn (j) }を生成する(ステ
ップS62)。このとき、図2および図7に示した前向
きフィルタの動作に従って、時刻1から時刻nまでの前
向き予測粒子が再帰的に生成される。ただし、時刻0の
前向き濾過粒子は初期値としてランダムに生成される。
As shown in FIG. 10, the forward predictive particle generation device 23 utilizes the re-extraction device 21 to make the time n = N−
An i + 1 forward prediction particle {p n (j) } is generated (step S62). At this time, according to the operation of the forward filter shown in FIGS. 2 and 7, forward prediction particles from time 1 to time n are recursively generated. However, the forward filtration particles at time 0 are randomly generated as initial values.

【0176】そして、前向き予測粒子{pn (j) }を平
滑粒子生成装置24に出力して(ステップS63)、待
機する(ステップS64)。このとき、前向き予測粒子
や前向き濾過粒子の記憶領域はクリアされる。
Then, the forward prediction particles {p n (j) } are output to the smooth particle generation device 24 (step S63), and the process stands by (step S64). At this time, the storage areas of the forward prediction particles and the forward filtration particles are cleared.

【0177】次に、後向き予測粒子生成装置25が起動
され(ステップS65)、図11に示すように、再抽出
装置21を利用して、時刻n+1の後向き濾過粒子{c
n+1 ( j) }を生成する(ステップS66)。このとき、
図3および図7に示した後向きフィルタの動作に従っ
て、時刻n+2の後向き濾過粒子{cn+2 (j) }から後
向き濾過粒子{cn+1 (j) }が生成される。ただし、時
刻N+1の後向き濾過粒子は初期値としてランダムに生
成される。
Next, the backward predicted particle generator 25 is started (step S65), and as shown in FIG. 11, the backward filtered particles {c
n + 1 ( j) } is generated (step S66). At this time,
According to the operation of the backward filter shown in FIGS. 3 and 7, backward filtered particles {c n + 1 (j) } are generated from the backward filtered particles {c n + 2 (j) } at time n + 2. However, the backward filtered particles at time N + 1 are randomly generated as initial values.

【0178】そして、後向き濾過粒子{cn+1 (j) }を
平滑粒子生成装置24に出力して(ステップS67)、
待機する(ステップS68)。このとき、後向き予測粒
子や後向き濾過粒子の計算結果は、そのまま記憶領域に
保存される。
Then, the backward filtered particles {c n + 1 (j) } are output to the smooth particle generator 24 (step S67).
It waits (step S68). At this time, the calculation results of the backward predicted particles and the backward filtered particles are stored in the storage area as they are.

【0179】次に、平滑粒子生成装置24が起動され
(ステップS69)、図12に示すように、再抽出装置
21を利用して、前向き予測粒子{pn (j) }と後向き
濾過粒子{cn+1 (j) }から時刻nの平滑粒子{un
(j) }を生成する(ステップS70)。そして、平滑粒
子{un (j) }を表示装置29に出力して(ステップS
71)、待機する(ステップS72)。このとき、平滑
粒子の計算結果は、そのまま記憶領域に保存される。
Next, the smooth particle generation device 24 is started (step S69), and as shown in FIG. 12, using the re-extraction device 21, the forward prediction particles {p n (j) } and the backward filtration particles { c n + 1 (j) } to the smooth particle {un} at time n
(j) Generate} (step S70). Then, the output smoothing particles {u n (j)} to the display device 29 (step S
71), and waits (step S72). At this time, the calculation result of the smooth particles is stored in the storage area as it is.

【0180】次に、時系列解析装置は、nが1に到達し
たかどうかを判定し(ステップS73)、到達していな
ければi=i+1とおいて(ステップS74)、ステッ
プS61以降の動作を繰り返す。そして、nが1に到達
すれば、表示装置29が時刻1から時刻Nまでの平滑粒
子に基づいて、時系列データの推定結果を表示し(ステ
ップS75)、動作を終了する。
Next, the time-series analyzer determines whether n has reached 1 (step S73), and if not, sets i = i + 1 (step S74), and repeats the operation from step S61. . Then, when n reaches 1, the display device 29 displays the estimation result of the time-series data based on the smooth particles from time 1 to time N (step S75), and ends the operation.

【0181】次に、前向き予測粒子生成装置23、後向
き予測粒子生成装置25、平滑粒子生成装置24、およ
び再抽出装置21の動作を個別に説明する。図20、2
1は、図19のステップS62、S63、S64におけ
る前向き予測粒子生成装置23の動作のフローチャート
であり、図22、23は、ステップS66、S67、S
68における後向き予測粒子生成装置25の動作のフロ
ーチャートであり、図24は、ステップS70、S7
1、S72における平滑粒子生成装置24の動作のフロ
ーチャートである。また、図25は、これらの各装置か
ら呼び出される再抽出装置21の動作のフローチャート
である。
Next, the operations of the forward predicted particle generator 23, the backward predicted particle generator 25, the smooth particle generator 24, and the re-extractor 21 will be described individually. FIG. 20, 2
1 is a flowchart of the operation of the forward predictive particle generation device 23 in steps S62, S63, and S64 in FIG. 19, and FIGS. 22 and 23 are steps S66, S67, and S64.
FIG. 24 is a flowchart of the operation of the backward predictive particle generation device 25 at 68, and FIG.
1 is a flowchart of the operation of the smooth particle generation device 24 in S72. FIG. 25 is a flowchart of the operation of the re-extraction device 21 called from each of these devices.

【0182】ただし、これらの図20〜25において
は、図19の制御変数iに関する反復処理が、各装置内
に閉じた反復処理として、別の制御変数を用いて記述さ
れている。
However, in FIGS. 20 to 25, the iterative process related to the control variable i in FIG. 19 is described as another iterative process closed in each device using another control variable.

【0183】前向き予測粒子生成装置23は、粒子の個
数m、観測データ列{ベクトルx1,...,ベクトル
N }、状態遷移確率行列M(H)、および前向き濾過
粒子の初期確率p0 (H)を入力として、前向き予測粒
子の集合列{pn (j) }(j=1,...,m、n=
1,...,N)を出力する。ただし、粒子の個数mと
初期確率p0 (H)は、あらかじめ与えられている。
The forward predictive particle generator 23 calculates the number m of particles, the observed data sequence {vector x 1 ,. . . , A vector x N }, a state transition probability matrix M (H), and an initial probability p 0 (H) of the forward filtration particles, and a set sequence {p n (j) } of the forward prediction particles (j = 1,. , M, n =
1,. . . , N). However, the number m of particles and the initial probability p 0 (H) are given in advance.

【0184】図20において、前向き予測粒子生成装置
23は、まず初期確率p0 (H)に従ってm個の粒子を
ランダムに生成し、これらを時刻0の前向き濾過粒子の
集合{f0 (1) ,...,f0 (m) }とする(ステップ
S81)。次に、n=1とおき(ステップS82)、前
向き予測粒子の生成を開始する(ステップS83)。
In FIG. 20, the forward predictive particle generator 23 first randomly generates m particles in accordance with the initial probability p 0 (H), and generates a set of forward filtered particles at time 0 {f 0 (1). ,. . . , F 0 (m) } (step S81). Next, n = 1 is set (step S82), and generation of forward prediction particles is started (step S83).

【0185】ここでは、まずj=1とおき(ステップS
84)、時刻n−1のj番目の前向き濾過粒子fn-1
(j) を選択する(ステップS85)。次に、状態遷移確
率行列M(H)の要素のうち、粒子fn-1 (j) に対応す
る列column(fn-1 (j))を選ぶ。そして、この
状態遷移確率に従って、前向き予測粒子pn (j) を生成
する(ステップS86)。
Here, first, j = 1 is set (step S
84), j-th forward filtered particle f n-1 at time n-1
(j) is selected (step S85). Next, among the elements of the state transition probability matrix M (H), a column column (f n-1 (j) ) corresponding to the particle f n-1 (j ) is selected. Then, a forward prediction particle pn (j) is generated according to the state transition probability (step S86).

【0186】例えばk=2の場合、可能な隠れ変数の数
は22 =4となり、隠れ状態ベクトルhn の実現値とし
ては、(0,0)、(1,0)、(0,1)、(1,
1)の4つが考えられる。ここで、計算を高速化するた
めに、利用するベクトルhn の範囲を集合H={(1,
0),(0,1)}に限定したとする。このとき、時刻
nと時刻n+1の間の遷移確率を表す状態遷移確率行列
M(H)は、例えば図26に示すようになる。
For example, when k = 2, the number of possible hidden variables is 2 2 = 4, and the realized values of the hidden state vector h n are (0,0), (1,0), (0,1). ), (1,
There are four cases 1). Here, in order to speed up the calculation, the range of the vector h n to be used is defined as a set H = {(1,
0), (0, 1)}. At this time, the state transition probability matrix M (H) representing the transition probability between time n and time n + 1 is as shown in FIG. 26, for example.

【0187】図26のM(H)において、ベクトル
(1,0)に対応する列の遷移確率は、上から順に0、
0.25、0.75、0となっている。したがって、 p((0,0)|(1,0))=0 p((1,0)|(1,0))=0.25 p((0,1)|(1,0))=0.75 p((1,1)|(1,0))=0 である。これらの遷移確率を、ベクトル(1,0)から
の遷移を規定する確率分布として図示すると、図27の
ようになる。この分布に従えば、25%の確率で粒子
(1,0)が生成され、75%の確率で粒子(0,1)
が生成される。しかし、粒子(0,0)および(1,
1)が生成されることはない。
In M (H) of FIG. 26, the transition probabilities of the column corresponding to the vector (1, 0) are 0,
They are 0.25, 0.75 and 0. Therefore, p ((0,0) | (1,0)) = 0 p ((1,0) | (1,0)) = 0.25 p ((0,1) | (1,0)) = 0.75 p ((1,1) | (1,0)) = 0. FIG. 27 illustrates these transition probabilities as probability distributions defining transitions from the vector (1, 0). According to this distribution, a particle (1, 0) is generated with a 25% probability, and a particle (0, 1) is generated with a 75% probability.
Is generated. However, the particles (0,0) and (1,
1) is not generated.

【0188】また、ベクトル(0,1)に対応する列の
遷移確率は、上から順に0、0.5、0.5、0となっ
ている。したがって、 p((0,0)|(0,1))=0 p((1,0)|(0,1))=0.5 p((0,1)|(0,1))=0.5 p((1,1)|(0,1))=0 である。これらの遷移確率を、ベクトル(0,1)から
の遷移を規定する確率分布として図示すると、図28の
ようになる。この分布に従えば、50%の確率で粒子
(1,0)または(0,1)が生成され、粒子(0,
0)および(1,1)は生成されない。
The transition probabilities of the column corresponding to the vector (0, 1) are 0, 0.5, 0.5, and 0 in order from the top. Therefore, p ((0,0) | (0,1)) = 0 p ((1,0) | (0,1)) = 0.5 p ((0,1) | (0,1)) = 0.5 p ((1,1) | (0,1)) = 0. FIG. 28 illustrates these transition probabilities as probability distributions that define transitions from the vector (0, 1). According to this distribution, a particle (1,0) or (0,1) is generated with a probability of 50%, and a particle (0,
0) and (1,1) are not generated.

【0189】このように、状態遷移確率行列M(H)の
要素を部分的に0とおくことで、生成される粒子が限定
され、あらかじめ決められた隠れ状態のみを利用するこ
とが可能になる。
As described above, by partially setting the elements of the state transition probability matrix M (H) to 0, the generated particles are limited, and it becomes possible to use only a predetermined hidden state. .

【0190】次に、上述の方法により生成した粒子pn
(j) を、j−1番目までの前向き予測粒子の集合{pn
(1) ,...,pn (j-1) }に加え(ステップS8
7)、jとmを比較する(ステップS88)。jがmよ
り小さければj=j+1とおいて(ステップS89)、
ステップS85以降の動作を繰り返す。
[0190] Next, the particle p n produced by the above method
(j) is defined as a set of forward predictive particles up to j−1 {p n
(1) ,. . . , P n (j-1) } (step S8 ) .
7) Compare j and m (step S88). If j is smaller than m, j = j + 1 is set (step S89),
The operation after step S85 is repeated.

【0191】そして、jがmに達すると、前向き予測粒
子の集合{pn (1) ,...,pn ( m) }を、平滑粒子
生成装置24、尤度計算装置26、および表示装置29
に出力して(ステップS90)、再抽出荷重の重み係数
の生成を開始する(図21、ステップS91)。
When j reaches m, a set of forward predictive particles {p n (1) ,. . . , Pn ( m) }, the smoothed particle generator 24, the likelihood calculator 26, and the display 29.
(Step S90), and the generation of the weight coefficient of the re-extraction load is started (FIG. 21, step S91).

【0192】ここでは、まずj=1とおき(ステップS
92)、前向き予測粒子pn (j) に対応する重み係数α
n (j) を、(21)式に従って計算する(ステップS9
3)。
Here, first, j = 1 is set (step S
92), weighting coefficient α corresponding to the forward prediction particle p n (j)
n (j) is calculated in accordance with equation (21) (step S9)
3).

【0193】上述のように、生成される粒子を{(1,
0),(0,1)}に限定した場合は、(21)式の平
均値のベクトルω(pn (i) )は、ベクトルω((1,
0))またはベクトルω((0,1))のいずれかであ
る。(6)式より、ベクトルω((1,0))=ベクト
ルw1 、ベクトルω((0,1))=ベクトルw2 とな
り、係数αn (i) は、g(ベクトルxn ;ベクトル
1 )またはg(ベクトルxn ;ベクトルw2 )の値と
して計算できる。
As described above, the generated particles are represented by {(1,
0), (0, 1)}, the vector ω (p n (i) ) of the average value of the equation (21) becomes the vector ω ((1,
0)) or the vector ω ((0, 1)). From equation (6), vector ω ((1,0)) = vector w 1 , vector ω ((0,1)) = vector w 2 , and coefficient α n (i) is g (vector x n ; vector w 1 ) or g (vector x n ; vector w 2 ).

【0194】次に、係数αn (j) を、j−1番目までの
係数の集合{αn (1) ,...,α n (j-1) }に加え
(ステップS94)、jとmを比較する(ステップS9
5)。jがmより小さければj=j+1とおいて(ステ
ップS96)、ステップS93以降の動作を繰り返す。
Next, the coefficient αn (j)To j-1
Set of coefficients {αn (1),. . . , Α n (j-1)In addition to}
(Step S94), j and m are compared (Step S9)
5). If j is smaller than m, j = j + 1 (step
Step S96), the operation after step S93 is repeated.

【0195】そして、jがmに達すると、係数の集合
{αn (1) ,...,αn (m) }を尤度計算装置26に
出力して(ステップS97)、前向き濾過粒子の生成を
開始する(ステップS98)。
When j reaches m, the set of coefficients {α n (1) ,. . . , Α n (m) } to the likelihood calculating device 26 (step S97), and the generation of forward filtered particles is started (step S98).

【0196】ここでは、まず前向き予測粒子
{pn (1) ,...,pn (m) }と、これらに対応した
重み{αn (1) /Σi=1 m αn (i) ,...,αn (m)
/Σi=1 m αn ( i) }とを入力として、再抽出装置21
を起動する(ステップS99)。そして、(22)式に
従って再抽出された前向き濾過粒子
{fn (1) ,...,fn (m ) }を再抽出装置21から
受け取り、表示装置29に出力する(ステップS10
0)。
Here, first, the forward prediction particles {p n (1) ,. . . , P n (m) } and their corresponding weights {α n (1) / Σ i = 1 m α n (i) ,. . . , Α n (m)
/ Σ i = 1 m α n ( i) } and the re-extraction device 21
Is started (step S99). Then, the forward filtered particles {f n (1) ,. . . , F n (m ) } from the re-extraction device 21 and output to the display device 29 (step S10).
0).

【0197】次に、nとNを比較し(ステップS10
1)、nがNより小さければn=n+1とおいて(ステ
ップS102)、図20のステップS83以降の動作を
繰り返す。そして、nがNに達すると、動作を終了して
待機状態になる(ステップS103)。こうして、前向
き予測粒子の集合列{pn (j) }(j=1,...,
m、n=1,...,N)が、平滑粒子生成装置24お
よび表示装置29に出力される。
Next, n and N are compared (step S10).
1) If n is smaller than N, n = n + 1 is set (step S102), and the operation after step S83 in FIG. 20 is repeated. Then, when n reaches N, the operation is terminated and a standby state is set (step S103). Thus, the set of forward predictive particles {p n (j) } (j = 1,.
m, n = 1,. . . , N) are output to the smooth particle generation device 24 and the display device 29.

【0198】また、後向き予測粒子生成装置23は、粒
子の個数m、観測データ列{ベクトルx1 ,...,ベ
クトルxN }、状態遷移確率行列M(H)、および後向
き濾過粒子の初期確率pN (H)を入力として、後向き
濾過粒子の集合列{cn+1 (j ) }(j=1,...,
m、n=N,...,1)を出力する。ただし、粒子の
個数mと初期確率pN (H)は、あらかじめ与えられて
いる。
The backward predictive particle generator 23 generates the number m of particles, the observation data sequence {vector x 1 ,. . . , A vector x N }, a state transition probability matrix M (H), and an initial probability p N (H) of the backward filtered particles, and a set sequence {c n + 1 (j ) } (j = 1 , ...,
m, n = N,. . . , 1) are output. Here, the number m of particles and the initial probability p N (H) are given in advance.

【0199】図22において、後向き予測粒子生成装置
23は、まず初期確率pN (H)に従ってm個の粒子を
ランダムに生成し、これらを時刻N+1の後向き濾過粒
子の集合{cN+1 (1) ,...,cN+1 (m) }とする
(ステップS111)。そして、粒子の集合{cN+1
(1) ,...,cN+1 (m) }を、平滑粒子生成装置24
および表示装置29に出力する。次に、n=Nとおき
(ステップS112)、後向き予測粒子の生成を開始す
る(ステップS113)。
In FIG. 22, the backward predictive particle generator 23 first randomly generates m particles according to the initial probability p N (H), and generates these at time N + 1 as a set of backward filtered particles {c N + 1 ( 1) ,. . . , C N + 1 (m) } (step S111). Then, a set of particles {c N + 1
(1) ,. . . , C N + 1 (m) } to the smooth particle generator 24
And output to the display device 29. Next, n = N is set (step S112), and generation of backward prediction particles is started (step S113).

【0200】ここでは、まずj=1とおき(ステップS
114)、時刻n+1のj番目の後向き濾過粒子cn+1
(j) を選択する(ステップS115)。次に、状態遷移
確率行列M(H)の要素のうち、粒子cn+1 (j) に対応
する列column(cn+1 ( j) )を選ぶ。そして、図
20のステップS86と同様にして、この状態遷移確率
に従って、後向き予測粒子en (j) を生成する(ステッ
プS116)。
Here, first, j = 1 is set (step S
114), j-th backward filtered particle c n + 1 at time n + 1
(j) is selected (step S115). Then, among the elements of the state transition probability matrix M (H), selecting the column column corresponding to particles c n + 1 (j) ( c n + 1 (j)). Then, similarly to step S86 of FIG. 20, in accordance with the state transition probability, to generate a backward prediction particles e n (j) (step S116).

【0201】次に、粒子en (j) を、j−1番目までの
後向き予測粒子の集合{en (1) ,...,
n (j-1) }に加え(ステップS117)、jとmを比
較する(ステップS118)。jがmより小さければj
=j+1とおいて(ステップS119)、ステップS1
15以降の動作を繰り返す。
Next, a particle e n (j) is defined as a set {e n (1) ,. . . ,
In addition to e n (j-1)} ( step S117), it compares the j and m (step S118). j if j is less than m
= J + 1 (step S119), and step S1
The operation after 15 is repeated.

【0202】そして、jがmに達すると、後向き予測粒
子の集合{en (1) ,...,en ( m) }を表示装置2
9に出力して(ステップS120)、再抽出荷重の重み
係数の生成を開始する(図23、ステップS121)。
[0202] When j reaches m, the set of backward prediction particles {e n (1),. . . , E n ( m) } on the display device 2
9 (step S120), and the generation of the weight coefficient of the re-extraction load is started (FIG. 23, step S121).

【0203】ここでは、まずj=1とおき(ステップS
122)、後向き予測粒子en (j)に対応する重み係数
εn (j) を、(25)式に従って計算する(ステップS
123)。
Here, first, j = 1 is set (step S
122), a weighting coefficient ε n (j) corresponding to the backward prediction particle e n (j) is calculated according to the equation (25) (step S).
123).

【0204】上述のように、生成される粒子を{(1,
0),(0,1)}に限定した場合は、(25)式の係
数εn (i) もまた、g(ベクトルxn ;ベクトルw1
またはg(ベクトルxn ;ベクトルw2 )の値として計
算できる。
As described above, the generated particles are represented by {(1,
0), (0, 1)}, the coefficient ε n (i) of the equation (25 ) is also g (vector x n ; vector w 1 )
Alternatively, it can be calculated as the value of g (vector x n ; vector w 2 ).

【0205】次に、係数εn (j) を、j−1番目までの
係数の集合{εn (1) ,...,ε n (j-1) }に加え
(ステップS124)、jとmを比較する(ステップS
125)。jがmより小さければj=j+1とおいて
(ステップS126)、ステップS123以降の動作を
繰り返す。
Next, the coefficient εn (j)To j-1
Set of coefficients {εn (1),. . . , Ε n (j-1)In addition to}
(Step S124), j and m are compared (Step S124)
125). If j is smaller than m, set j = j + 1
(Step S126), the operation after step S123
repeat.

【0206】そして、jがmに達すると、係数の集合
{εn (1) ,...,εn (m) }を保存して(ステップ
S127)、後向き濾過粒子の生成を開始する(ステッ
プS128)。
When j reaches m, the set of coefficients {ε n (1) ,. . . , Ε n (m) } (step S127), and the generation of backward filtered particles is started (step S128).

【0207】ここでは、まず後向き予測粒子
{en (1) ,...,en (m) }と、これらに対応した
重み{εn (1) /Σi=1 m εn (i) ,...,εn (m)
/Σi=1 m εn ( i) }とを入力として、再抽出装置21
を起動する(ステップS129)。そして、(26)式
に従って再抽出された後向き濾過粒子
{cn (1) ,...,cn ( m) }を再抽出装置21から
受け取り、平滑粒子生成装置24および表示装置29に
出力する(ステップS130)。
[0207] Here, first backward prediction particles {e n (1),. . . , And e n (m)}, the weight corresponding to these {ε n (1) / Σ i = 1 m ε n (i),. . . , Ε n (m)
/ Σ i = 1 m ε n ( i) } and the re-extraction device 21
Is started (step S129). Then, (26) backward filtered particles re-extracted in accordance with equation {c n (1),. . . , C n ( m) } from the re-extraction device 21 and outputs them to the smooth particle generation device 24 and the display device 29 (step S130).

【0208】次に、nと2を比較し(ステップS13
1)、nが2より大きければn=n−1とおいて(ステ
ップS132)、図22のステップS113以降の動作
を繰り返す。そして、nが2に達すると、動作を終了し
て待機状態になる(ステップS133)。こうして、後
向き濾過粒子の集合列{cn+1 (j) }(j=
1,...,m、n=N,...,1)が、平滑粒子生
成装置24および表示装置29に出力される。
Next, n and 2 are compared (step S13).
1), if n is greater than 2, n = n-1 (step S132), and the operations after step S113 in FIG. 22 are repeated. Then, when n reaches 2, the operation is terminated and a standby state is set (step S133). Thus, the set of backward-filtered particles {c n + 1 (j) } (j =
1,. . . , M, n = N,. . . , 1) are output to the smooth particle generation device 24 and the display device 29.

【0209】また、平滑粒子生成装置24は、粒子の個
数m、観測データ列{ベクトルx1,...,ベクトル
N }、状態遷移確率行列M(H)、および(2)式の
整数d′を入力として、平滑粒子の集合列{un (j)
(j=1,...,m、n=N,...,1)を出力す
る。ただし、粒子の個数mおよび整数d′は、あらかじ
め与えられている。
Further, the smooth particle generation device 24 generates the number m of particles, the observation data sequence {vector x 1 ,. . . , The vector x N}, the state transition probability matrix M (H), and (2) as an input an integer d 'in formula, the set column of smooth particles {u n (j)}
(J = 1,..., M, n = N,. Here, the number m of particles and the integer d 'are given in advance.

【0210】図24において、平滑粒子生成装置24
は、まず時刻N+1の平滑粒子の再抽出荷重を{βN+1
(1) ,...,βN+1 (m) }={1/m,...,1/
m}とおき(ステップS141)、t=1とおく(ステ
ップS142)。
In FIG. 24, the smooth particle generator 24
First calculates the re-extraction load of the smooth particles at time N + 1 as {β N + 1
(1) ,. . . , Β N + 1 (m) } = {1 / m,. . . , 1 /
m} (step S141) and t = 1 (step S142).

【0211】次に、時刻n=N−t+1の前向き予測粒
子{pn (1) ,...,pn (m) }を、前向き予測粒子
生成装置23を用いて生成し(ステップS143)、時
刻n+1の後向き濾過粒子{cn+1 (1) ,...,c
n+1 (m) }を、後向き予測粒子生成装置25を用いて生
成する(ステップS144)。そして、時刻nの平滑粒
子を再抽出するための重み係数の生成を開始する(ステ
ップS145)。
Next, at time n = N−t + 1, the forward prediction particles {p n (1) ,. . . , P n (m) } are generated using the forward prediction particle generator 23 (step S143), and the backward filtration particles {c n + 1 (1) ,. . . , C
n + 1 (m) } is generated using the backward prediction particle generation device 25 (step S144). Then, the generation of the weight coefficient for re-extracting the smooth particles at the time n is started (step S145).

【0212】ここでは、まずj=1とおき(ステップS
146)、前向き予測粒子pn (j)に対応する重み係数
βn (j) を、(2)式に従って計算する(ステップS1
47)。このとき、(2)式の右辺の遷移確率 外8
は、状態遷移確率行列M(H
Here, first, j = 1 is set (step S
146) A weight coefficient β n (j) corresponding to the forward prediction particle p n (j) is calculated according to the equation (2) (step S1).
47). At this time, the transition probability on the right side of equation (2)
Is a state transition probability matrix M (H

【0213】[0213]

【外8】 [Outside 8]

【0214】)の対応する要素に置き換えて計算され
る。次に、係数βn (j) を、j−1番目までの係数の集
合{βn (1) ,...,β n (j-1) }に加え(ステップ
S148)、jとmを比較する(ステップS149)。
jがmより小さければj=j+1とおいて(ステップS
150)、ステップS147以降の動作を繰り返す。
Is calculated by replacing the corresponding element of
You. Next, the coefficient βn (j)Is the collection of coefficients up to j-1
Total βn (1),. . . , Β n (j-1)In addition to} (step
S148), j is compared with m (step S149).
If j is smaller than m, j = j + 1 is set (step S
150), and repeat the operation from step S147.

【0215】そして、jがmに達すると、時刻nの前向
き予測粒子{pn (1) ,...,p n (m) }と、これら
に対応した重み{βn (1) /Σ
i=1 m βn (i) ,...,β n (m) /Σ
i=1 m βn (i) }とを入力として、再抽出装置21を起
動する(ステップS151)。そして、(28)式に従
って再抽出された平滑粒子{un (1),...,un
(m) }を再抽出装置21から受け取り、表示装置29に
出力する(ステップS152)。
Then, when j reaches m, the forward movement of time n
Predicted particle {pn (1),. . . , P n (m)こ れ ら and these
Weight {β corresponding ton (1)/ Σ
i = 1 mβn (i),. . . , Β n (m)/ Σ
i = 1 mβn (i)再 and the re-extraction device 21
(Step S151). Then, according to equation (28),
Particles u re-extractedn (1),. . . , Un
(m)受 け 取 り is received from the re-extraction device 21 and displayed on the display device 29.
It outputs (step S152).

【0216】次に、tとNを比較し(ステップS15
3)、tがNより小さければt=t+1とおいて(ステ
ップS154)、ステップS143以降の動作を繰り返
す。そして、tがNに達すると、動作を終了して待機状
態になる(ステップS155)。こうして、平滑粒子の
集合列{un (j) }(j=1,...,m、n=
N,...,1)が表示装置29に出力される。
Next, t and N are compared (step S15).
3) If t is smaller than N, t = t + 1 is set (step S154), and the operation after step S143 is repeated. Then, when t reaches N, the operation is terminated and a standby state is set (step S155). Thus, a set sequence of smooth particles {u n (j)} ( j = 1, ..., m, n =
N,. . . , 1) are output to the display device 29.

【0217】また、再抽出装置21は、前向き予測粒子
生成装置23、後向き予測粒子生成装置25、または平
滑粒子生成装置24から与えられたm個の粒子の集合
{a(1 ) ,...,a(m) }と、それらに対応する重み
の集合{γ(1) ,...,γ(m ) }とを入力として、m
個の再抽出粒子の集合{b(1) ,...,b(m) }を出
力する。
Further, the re-extraction unit 21 generates a set {a (1 ) ,... Of m particles given from the forward predicted particle generator 23, the backward predicted particle generator 25, or the smooth particle generator 24. . . , A (m) } and the corresponding set of weights {γ (1) ,. . . , Γ (m ) } and m
The set {b (1) ,. . . , B (m) }.

【0218】ここで、粒子a(j) (j=1,...,
m)は、前向き予測粒子pn (j) または後ろ向き予測粒
子en (j) であり、重みγ(j) は、αn (j) /Σi=1 m
αn (i ) 、εn (j) /Σi=1 m εn (i) 、およびβn
(j) /Σi=1 m βn (i) のうちのいずれかの重みであ
る。また、再抽出粒子b(j) は、前向き濾過粒子fn
(j) 、後向き濾過粒子cn (j) 、および平滑粒子un
(j) のうちのいずれかの粒子として出力される。
Here, the particles a (j) (j = 1,.
m) is a forward prediction particle p n (j) or backward prediction particles e n (j), the weight gamma (j) is, α n (j) / Σ i = 1 m
α n (i ) , ε n (j) / Σ i = 1 m ε n (i) , and β n
(j) is any weight of / Σ i = 1 m β n (i). In addition, the re-extracted particles b (j) are forward filtered particles f n
(j), backward filtered particles c n (j), and smooth particles u n
It is output as one of the particles in (j) .

【0219】図25において、再抽出装置21は、まず
重みの集合{γ(1) ,...,γ(m ) }から、累積荷重
ψ(l) =Σj=1 l γ(j) (l=1,...,m)を計算
し、ψ(0) =0、ψ(m )=1とおく(ステップS16
1)。次に、l=1とおいて(ステップS162)、実
数の区間[0,1)上に一様分布に従う乱数r∈[0,
1)を生成する(ステップS163)。
In FIG. 25, the re-extraction unit 21 first sets a set of weights {γ (1) ,. . . , Γ (m ) }, the cumulative load ψ (l) = Σ j = 1 l γ (j) (l = 1,..., M) is calculated, and ψ (0) = 0, ψ (m ) = 1 (step S16)
1). Next, assuming that l = 1 (step S162), a random number r∈ [0,
1) is generated (step S163).

【0220】次に、区間を分割しながら値を求める二分
法を用いて、ψ(j) ≦r<ψ(j )となるようなjを見
つけ、与えられた粒子の集合{a(1) ,...,
(m) }の中から粒子a(j) を選び出す(ステップS1
64)。そして、b(l) =a(j) とおき(ステップS1
65)、lとmを比較する(ステップS166)。
Next, by using a dichotomy for finding a value while dividing the section, j is found such that ψ (j) ≤ r <ψ (j ), and a given set of particles {a (1) ,. . . ,
a (m) } and select a particle a (j) (step S1 ).
64). Then, set b (l) = a (j) (step S1
65), 1 is compared with m (step S166).

【0221】lがmより小さければl=l+1とおいて
(ステップS167)、ステップS163以降の動作を
繰り返す。そして、lがmに達すると、粒子の集合{b
(1),...,b(m) }を対応する装置に出力し(ステ
ップS168)、動作を終了して待機状態になる(ステ
ップS169)。こうして、粒子の集合
{a(1) ,...,a(m) }から、別の集合
{b(1) ,...,b(m) }が再抽出される。
If l is smaller than m, l = l + 1 is set (step S167), and the operations after step S163 are repeated. When l reaches m, the set of particles {b
(1) ,. . . , B (m) } to the corresponding device (step S168), and terminates the operation and enters a standby state (step S169). Thus, the set of particles {a (1) ,. . . , A (m) } from another set {b (1) ,. . . , B (m) } are re-extracted.

【0222】尚、図25に示した粒子の再抽出方法は一
例に過ぎず、他の任意の方法により、集合
{a(1) ,...,a(m) }から集合
{b(1) ,...,b(m) }を再抽出してもよい。
The method for re-extracting particles shown in FIG. 25 is merely an example, and the set {a (1) ,. . . , A (m) } from the set {b (1) ,. . . , B (m) } may be re-extracted.

【0223】次に、図19のステップS75におけるデ
ータの表示動作について説明する。図29は、前向き予
測粒子の集合列に基づく推定結果の表示動作のフローチ
ャートであり、図30は、平滑粒子の集合列に基づく推
定結果の表示動作のフローチャートである。
Next, the data display operation in step S75 of FIG. 19 will be described. FIG. 29 is a flowchart of a display operation of an estimation result based on a set sequence of forward prediction particles, and FIG. 30 is a flowchart of a display operation of an estimation result based on a set sequence of smooth particles.

【0224】図29において、表示装置29は、粒子の
個数m、粒子の次元(隠れ状態ベクトルの次元)k、観
測データ列の長さN、SRNNの入力荷重の集合
{w1 ,...,wk }、前向き予測粒子の集合列{p
n (j) }(j=1,...,m、n=1,...,N)
を入力として、時系列データの予測密度関数列を表示す
る。ただし、粒子の個数m、粒子の次元k、観測データ
列の長さN、入力荷重の集合{w1 ,...,wk
は、あらかじめ与えられている。
In FIG. 29, the display device 29 displays the number m of particles, the dimension k of the particles (dimension of the hidden state vector) k, the length N of the observation data sequence, and the set {w 1 ,. . . , W k }, a set of forward predictive particles {p
n (j) } (j = 1,..., m, n = 1,.
, The predicted density function sequence of the time series data is displayed. Here, the number m of particles, the dimension k of the particles, the length N of the observation data sequence, and the set of input loads {w 1 ,. . . , W k
Is given in advance.

【0225】表示装置29は、まずn=1とおき(ステ
ップS171)、前向き予測粒子生成装置23から時刻
nの前向き予測粒子{pn (1) ,...,pn (m) }を
受け取る(ステップS172)。
The display device 29 first sets n = 1 (step S 171), and outputs the forward predicted particles {p n (1) ,. . . , P n (m) } (step S172).

【0226】次に、この前向き予測粒子の集合に含まれ
る相異なる粒子を選択し、それらのリストを 外9 と
する。ここで、i0は異なる粒子の個数を表し、i0≦
ma
Next, different particles included in the set of forward prediction particles are selected, and their list is set to 外. Here, i0 represents the number of different particles, and i0 ≦
ma

【0227】[0227]

【外9】 [Outside 9]

【0228】x(m,2k )である。また、 外10
(以後、hi チルダと記す)は、リス
X (m, 2 k ). Also, outside 10
(Hereinafter, referred to as h i tilde), the squirrel

【0229】[0229]

【外10】 [Outside 10]

【0230】トに含まれるi番目の要素(粒子)を表
す。そして、前向き予測粒子の集合に含まれる各要素h
i チルダの個数qi を数え上げて、{q1 ,...,q
i0}とする(ステップS173〜S180)。
Represents the i-th element (particle) contained in G. Then, each element h included in the set of forward prediction particles
enumerate the number q i of i tilde, {q 1,. . . , Q
i0 } (steps S173 to S180).

【0231】ここでは、まずi=1、j=1、h1 チル
ダ=pn (1) 、q1 =0とおき(ステップS173)、
n (j) と同じ粒子がリスト{h1 チルダ,...,h
i チルダ}に含まれているかどうかを調べる(ステップ
S174)。pn (j) がリスト{h1 チルダ,...,
i チルダ}に含まれていれば、pn (j) =hs チルダ
となるs(1≦s≦i)を求め、qs =qs +1とする
(ステップS175)。
Here, first, i = 1, j = 1, h 1 tilde = p n (1) , q 1 = 0 (step S173),
The same particles as p n (j) are listed {h 1 tilde,. . . , H
It is checked whether it is included in i tilde # (step S174). p n (j) is the list {h 1 tilde,. . . ,
be contained in h i tilde} obtains the p n (j) = h s tilde become s (1 ≦ s ≦ i) , the q s = q s +1 (step S175).

【0232】また、pn (j) がリスト{h1 チル
ダ,...,hi チルダ}に含まれていなければ、h
i+1 チルダ=pn (j) 、qi+1 =1とおく。そして、粒
子のリスト{h1 チルダ,...,hi チルダ}にh
i+1 チルダを加え、対応する累計個数のリスト
{q1 ,...,qi }にqi+1 を加えて(ステップS
176)、i=i+1とおく(ステップS177)。
If p n (j) is a list {h 1 tilde,. . . , H i tilde チ ル, h
It is assumed that i + 1 tilde = p n (j) and q i + 1 = 1. Then, a list of particles {h 1 tilde,. . . , H i tilde} h
i + 1 tilde, and a list of the corresponding total number {q 1 ,. . . , Q i } and q i + 1 (step S
176), i = i + 1 is set (step S177).

【0233】次に、j=j+1とおき(ステップS17
8)、jとmを比較する(ステップS179)。jがm
以下であればステップS174以降の動作を繰り返し、
jがmを越えれば、そのときのiの値をi0とする(ス
テップS180)。
Next, j = j + 1 is set (step S17).
8) Compare j and m (step S179). j is m
If it is below, the operation after step S174 is repeated,
If j exceeds m, the value of i at that time is set to i0 (step S180).

【0234】次に、リスト{h1 チルダ,...,hi0
チルダ}および{q1 ,...,q i0}から、次式に従
って予測密度関数を合成する(ステップS181)。
Next, the list $ h1tilde,. . . , Hi0
Tilde} and {q1,. . . , Q i0From},
To synthesize a predicted density function (step S181).

【0235】[0235]

【数24】 (Equation 24)

【0236】ここで、hi チルダ=(hi1,...,h
ik)と書くことにすると、ベクトルω(hi チルダ)=
Σs=1 k isベクトルws である。対象とする時系列デ
ータが1次元データであり、(30)式の予測密度関数
が1次元の混合ガウス密度関数である場合は、図31に
示すように、これを階段関数で近似する(ステップS1
82)。
Here, h i tilde = (h i1 , ..., h
ik ), the vector ω (h i tilde) =
It is a Σ s = 1 k h is a vector w s. When the target time-series data is one-dimensional data and the predicted density function of the equation (30) is a one-dimensional mixed Gaussian density function, as shown in FIG. S1
82).

【0237】そして、得られた予測密度関数を時刻nの
予測密度関数として画面に表示し(ステップS18
3)、n=n+1とおいて(ステップS184)、nと
Nを比較する(ステップS185)。nがN以下であれ
ばステップS172以降の動作を繰り返し、nがNを越
えれば動作を終了する。こうして、時刻1からNまでの
予測密度関数が表示される。
The obtained predicted density function is displayed on the screen as the predicted density function at time n (step S18).
3) With n = n + 1 (step S184), n and N are compared (step S185). If n is less than or equal to N, the operation from step S172 is repeated, and if n exceeds N, the operation ends. Thus, the predicted density function from time 1 to N is displayed.

【0238】また、図30において、表示装置29は、
粒子の個数m、粒子の次元k、観測データ列の長さN、
SRNNの入力荷重の集合{w1 ,...,wk }、平
滑粒子の集合列{un (j) }(j=1,...,m、n
=N,...,1)を入力として、時系列データの平滑
密度関数列を表示する。
Further, in FIG. 30, the display device 29
The number m of particles, the dimension k of the particles, the length N of the observation data sequence,
The set of input weights {w 1 ,. . . , W k}, the set sequence {u n (j)} ( j = 1 of the smoothing particles, ..., m, n
= N,. . . , 1) as an input, a smooth density function sequence of the time series data is displayed.

【0239】表示装置29は、まずn=Nとおき(ステ
ップS191)、平滑粒子生成装置24から時刻nの平
滑粒子{un (1) ,...,un (m) }を受け取る(ス
テップS192)。
[0239] The display device 29, first n = N is set (at step S191), smoothing the particles at time n from the smoothing particle generator 24 {u n (1), . . . , U n (m) } (step S192).

【0240】次に、この平滑粒子の集合に含まれる相異
なる粒子を選択し、それらのリストを{h1 チル
ダ,...,hi0チルダ}とする。そして、平滑粒子の
集合に含まれる各要素hi チルダの個数qi を数え上げ
て、{q1 ,...,qi0}とする(ステップS193
〜S200)。
Next, different particles included in the set of smooth particles are selected, and the list of the selected particles is set as {h 1 tilde,. . . , H i0 tilde}. Then, the number q i of each element h i tilde included in the set of smooth particles is counted, and {q 1 ,. . . , Q i0 } (step S193)
To S200).

【0241】ここでは、まずi=1、j=1、h1 チル
ダ=un (1) 、q1 =0とおき(ステップS193)、
n (j) と同じ粒子がリスト{h1 チルダ,...,h
i チルダ}に含まれているかどうかを調べる(ステップ
S194)。un (j) がリスト{h1 チルダ,...,
i チルダ}に含まれていれば、un (j) =hs チルダ
となるs(1≦s≦i)を求め、qs =qs +1とする
(ステップS195)。
[0241] Here, first i = 1, j = 1, h 1 tilde = u n (1), q 1 = 0 is set (at step S193),
The same particles as u n (j) are listed {h 1 tilde,. . . , H
It is checked whether it is included in i tilde # (step S194). u n (j) is the list {h 1 tilde,. . . ,
be contained in h i tilde}, I seek s (1 ≦ s ≦ i) as a u n (j) = h s tilde, and q s = q s +1 (step S195).

【0242】また、un (j) がリスト{h1 チル
ダ,...,hi チルダ}に含まれていなければ、h
i+1 チルダ=un (j) 、qi+1 =1とおく。そして、粒
子のリスト{h1 チルダ,...,hi チルダ}にh
i+1 チルダを加え、対応する累計個数のリスト
{q1 ,...,qi }にqi+1 を加えて(ステップS
196)、i=i+1とおく(ステップS197)。
Also, if u n (j) is a list {h 1 tilde,. . . , H i tilde チ ル, h
i + 1 tilde = u n (j), placing a q i + 1 = 1. Then, a list of particles {h 1 tilde,. . . , H i tilde} h
i + 1 tilde, and a list of the corresponding total number {q 1 ,. . . , Q i } and q i + 1 (step S
196), and i = i + 1 is set (step S197).

【0243】次に、j=j+1とおき(ステップS19
8)、jとmを比較する(ステップS199)。jがm
以下であればステップS194以降の動作を繰り返し、
jがmを越えれば、そのときのiの値をi0とする(ス
テップS200)。
Next, j = j + 1 is set (step S19).
8) Compare j and m (step S199). j is m
If it is below, the operation after step S194 is repeated,
If j exceeds m, the value of i at that time is set to i0 (step S200).

【0244】次に、リスト{h1 チルダ,...,hi0
チルダ}および{q1 ,...,q i0}から、次式に従
って平滑密度関数を合成する(ステップS201)。
Next, the list $ h1tilde,. . . , Hi0
Tilde} and {q1,. . . , Q i0From},
Thus, a smooth density function is synthesized (step S201).

【0245】[0245]

【数25】 (Equation 25)

【0246】対象とする時系列データが1次元データで
あり、(31)式の平滑密度関数が1次元の混合ガウス
密度関数である場合は、図31に示すように、これを階
段関数で近似する(ステップS202)。
When the time series data to be processed is one-dimensional data and the smoothed density function of the equation (31) is a one-dimensional mixed Gaussian density function, this is approximated by a step function as shown in FIG. (Step S202).

【0247】そして、得られた平滑密度関数を時刻nの
平滑密度関数として画面に表示し(ステップS20
3)、n=n−1とおいて(ステップS204)、nと
1を比較する(ステップS205)。nが1以上であれ
ばステップS192以降の動作を繰り返し、nが1未満
となれば動作を終了する。こうして、時刻1からNまで
の平滑密度関数が表示される。
Then, the obtained smoothed density function is displayed on the screen as the smoothed density function at time n (step S20).
3) With n = n-1 (step S204), n and 1 are compared (step S205). If n is 1 or more, the operation from step S192 is repeated, and if n is less than 1, the operation is ended. Thus, the smoothed density function from time 1 to N is displayed.

【0248】図29および図30では、前向き予測粒子
および平滑粒子に基づく密度関数の生成/表示方法を説
明したが、そのほかに、前向き濾過粒子、後向き予測粒
子、後向き濾過粒子に基づく各密度関数も、同様にして
生成/表示することができる。
In FIGS. 29 and 30, the method of generating / displaying the density function based on the forward predicted particles and the smooth particles has been described. In addition, the respective density functions based on the forward filtered particles, the backward predicted particles, and the backward filtered particles are also described. Can be generated / displayed in the same manner.

【0249】次に、図8の時系列解析装置を用いて、時
刻tに伴って変化する1次元の時系列データxの推定を
行った結果を示す。対象となる時系列データxは、次式
のように区分的に定常な確率密度関数に従うものとす
る。
Next, the results of estimating one-dimensional time-series data x that changes with time t using the time-series analyzer of FIG. 8 will be described. It is assumed that the target time-series data x follows a piecewise stationary probability density function as in the following equation.

【0250】[0250]

【数26】 (Equation 26)

【0251】ここで、N(μ,σ2 )は、平均μ、分散
σ2 のガウス密度関数を表す。(32)式によって生成
されるテスト用の時系列データは、例えば、図32に示
すようになる。この時系列データの生成では、t=10
0における平均値の不連続な切り替わりが、データのト
レンドの跳躍として現れていることが伺える。問題は、
時系列解析装置がこのトレンドをうまく予測し、観測デ
ータ列全体からトレンドをうまく平滑化できるかという
ことである。
Here, N (μ, σ 2 ) represents a Gaussian density function having an average μ and a variance σ 2 . The test time-series data generated by the equation (32) is, for example, as shown in FIG. In the generation of this time series data, t = 10
It can be seen that the discontinuous switching of the average value at 0 appears as a leap in the data trend. The problem is,
It is whether the time series analyzer can predict this trend well and smooth the trend from the entire observation data sequence.

【0252】図32のデータを時系列解析装置で解析
し、図29の表示方法に従って、このデータに対する前
向き予測粒子の集合列から計算した予測密度関数列を表
示すると、図33に示すようになる。図33において、
各時刻の予測密度関数は階段関数で近似されている。ま
た、ドットの大きさが小さくなっている部分、つまり、
中央部の白っぽく見える部分が分布のピークに対応す
る。
When the data of FIG. 32 is analyzed by the time-series analyzer and the predicted density function sequence calculated from the set of forward predicted particles for this data is displayed according to the display method of FIG. 29, the result is as shown in FIG. . In FIG.
The predicted density function at each time is approximated by a step function. Also, the part where the size of the dot is small, that is,
The whitish part at the center corresponds to the peak of the distribution.

【0253】また、図30の表示方法に従って、図32
のデータに対する平滑粒子の集合列から計算した平滑密
度関数列は、図34に示すようになる。図34を見る
と、t=100における不連続な切り替わりが明確に現
れている。このことから、モンテカルロ法によるSRN
Nの平滑粒子の集合列から、確かに跳躍型のトレンドが
うまく抽出されていることが分かる。
According to the display method shown in FIG. 30, FIG.
FIG. 34 shows a smooth density function sequence calculated from the set sequence of smooth particles for the data of. Referring to FIG. 34, discontinuous switching at t = 100 clearly appears. From this, SRN by Monte Carlo method
From the set of N smooth particles, it can be seen that the jumping trend has been successfully extracted.

【0254】以上説明したSRNNに基づく時系列解析
方法は、情報ネットワークのトラフィックや道路網の交
通量など、時間的に統計量が不連続に変化するネットワ
ークの状態を推定し、ネットワークの資源を適切に制御
する際に利用できる。
The time-series analysis method based on SRNN described above estimates the state of a network in which the statistic changes discontinuously over time, such as the traffic of an information network and the traffic of a road network, and optimizes network resources. It can be used for control.

【0255】SRNNは、非線形関数を複数の分布関数
で分散表現することができる。このため、例えば、測定
量が区分的に定常であって各区間毎に不連続に変化する
トレンドを含む場合のように、統計量がある隠れたパラ
メータの非線形関数で表現されている場合に、ネットワ
ークの状態の推定を的確に行うことができる。
The SRNN can represent a nonlinear function in a distributed manner with a plurality of distribution functions. Therefore, for example, when the statistic is represented by a non-linear function of a certain hidden parameter, such as when the measured amount is piecewise stationary and includes a trend that changes discontinuously in each section, The state of the network can be accurately estimated.

【0256】[0256]

【発明の効果】本発明によれば、時系列データの確率分
布を分散表現する再帰型ニューラルネットワークの多様
な表現力を保持したまま、その内部状態に基づく確率密
度の計算を高速化することができる。したがって、既知
の観測データから、大規模問題における時系列データの
確率分布を、高速に推定することができる。
According to the present invention, it is possible to speed up the calculation of the probability density based on the internal state of a recursive neural network that retains various expression powers in a distributed representation of the probability distribution of time series data. it can. Therefore, the probability distribution of time-series data in a large-scale problem can be quickly estimated from known observation data.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の原理図である。FIG. 1 is a principle diagram of the present invention.

【図2】前向き予測粒子および前向き濾過粒子の再帰的
生成処理を示す図である。
FIG. 2 is a diagram illustrating a recursive generation process of forward prediction particles and forward filtration particles.

【図3】後向き予測粒子および後向き濾過粒子の再帰的
生成処理を示す図である。
FIG. 3 is a diagram illustrating a recursive generation process of backward predicted particles and backward filtered particles.

【図4】平滑粒子の再帰的生成処理を示す図である。FIG. 4 is a diagram illustrating a recursive generation process of smooth particles.

【図5】確率分布関数を示す図である。FIG. 5 is a diagram showing a probability distribution function.

【図6】状態遷移確率行列を示す図である。FIG. 6 is a diagram showing a state transition probability matrix.

【図7】2重フィルタ法を示す図である。FIG. 7 is a diagram showing a double filter method.

【図8】時系列解析装置の構成図である。FIG. 8 is a configuration diagram of a time-series analysis device.

【図9】時系列データの流れを示す図である。FIG. 9 is a diagram showing a flow of time-series data.

【図10】前向き予測粒子生成装置に関連するデータの
流れを示す図である。
FIG. 10 is a diagram showing a flow of data related to the forward predictive particle generation device.

【図11】後向き予測粒子生成装置に関連するデータの
流れを示す図である。
FIG. 11 is a diagram showing a flow of data related to the backward predictive particle generation device.

【図12】平滑粒子生成装置に関連するデータの流れを
示す図である。
FIG. 12 is a diagram showing a flow of data related to the smooth particle generation device.

【図13】パラメータの生成と供給の流れを示す図であ
る。
FIG. 13 is a diagram showing a flow of generation and supply of parameters.

【図14】情報処理装置の構成図である。FIG. 14 is a configuration diagram of an information processing apparatus.

【図15】時系列解析装置の動作フローチャートであ
る。
FIG. 15 is an operation flowchart of the time series analyzer.

【図16】データ収集動作のフローチャートである。FIG. 16 is a flowchart of a data collection operation.

【図17】学習動作のフローチャートである。FIG. 17 is a flowchart of a learning operation.

【図18】チューニング動作のフローチャートである。FIG. 18 is a flowchart of a tuning operation.

【図19】平滑化動作のフローチャートである。FIG. 19 is a flowchart of a smoothing operation.

【図20】前向き予測粒子生成装置の動作フローチャー
ト(その1)である。
FIG. 20 is an operation flowchart (part 1) of the forward predictive particle generation device.

【図21】前向き予測粒子生成装置の動作フローチャー
ト(その2)である。
FIG. 21 is an operation flowchart (part 2) of the forward predictive particle generation device.

【図22】後向き予測粒子生成装置の動作フローチャー
ト(その1)である。
FIG. 22 is an operation flowchart (part 1) of the backward prediction particle generation device.

【図23】後向き予測粒子生成装置の動作フローチャー
ト(その2)である。
FIG. 23 is an operation flowchart (part 2) of the backward prediction particle generation device.

【図24】平滑粒子生成装置の動作フローチャートであ
る。
FIG. 24 is an operation flowchart of the smooth particle generation device.

【図25】再抽出装置の動作フローチャートである。FIG. 25 is an operation flowchart of the re-extraction device.

【図26】隠れ状態ベクトルを限定した状態遷移確率行
列を示す図である。
FIG. 26 is a diagram showing a state transition probability matrix in which hidden state vectors are limited.

【図27】(1,0)の列に対応する確率分布を示す図
である。
FIG. 27 is a diagram showing a probability distribution corresponding to a column of (1, 0).

【図28】(0,1)の列に対応する確率分布を示す図
である。
FIG. 28 is a diagram showing a probability distribution corresponding to the column (0, 1).

【図29】予測密度関数列の表示動作のフローチャート
である。
FIG. 29 is a flowchart of a display operation of a predicted density function sequence.

【図30】平滑密度関数列の表示動作のフローチャート
である。
FIG. 30 is a flowchart of a display operation of a smooth density function sequence.

【図31】階段関数を示す図である。FIG. 31 is a diagram showing a step function.

【図32】テスト用の時系列データを示す図である。FIG. 32 is a diagram showing time-series data for a test.

【図33】予測粒子の集合列から計算した予測密度関数
列を示す図である。
FIG. 33 is a diagram showing a predicted density function sequence calculated from a set sequence of predicted particles.

【図34】平滑粒子の集合列から計算した平滑密度関数
列を示す図である。
FIG. 34 is a diagram showing a smooth density function sequence calculated from a set sequence of smooth particles.

【図35】シンプルな再帰型ニューラルネットワークの
概略を示す図である。
FIG. 35 is a diagram schematically showing a simple recursive neural network.

【符号の説明】[Explanation of symbols]

1 入力層 2 ネットワークパラメータ部 3 隠れ素子層 4 文脈層 11 記憶手段 12 生成手段 13 推定手段 21 再抽出装置 22 時系列データ収集装置 23 前向き予測粒子生成装置 24 平滑粒子生成装置 25 後向き予測粒子生成装置 26 尤度計算装置 27 学習装置 28 モデルパラメータ設定装置 29 表示装置 31 CPU 32 メモリ 33 入力装置 34 出力装置 35 外部記憶装置 36 媒体駆動装置 37 ネットワーク接続装置 38 バス 39 可搬記録媒体 40 情報提供者の装置 DESCRIPTION OF SYMBOLS 1 Input layer 2 Network parameter part 3 Hidden element layer 4 Context layer 11 Storage means 12 Generation means 13 Estimation means 21 Re-extraction device 22 Time series data collection device 23 Forward prediction particle generation device 24 Smooth particle generation device 25 Backward prediction particle generation device 26 Likelihood calculation device 27 Learning device 28 Model parameter setting device 29 Display device 31 CPU 32 Memory 33 Input device 34 Output device 35 External storage device 36 Medium drive device 37 Network connection device 38 Bus 39 Portable recording medium 40 Information provider apparatus

Claims (18)

【特許請求の範囲】[Claims] 【請求項1】 ニューラルネットワークを用いて表現さ
れる隠れマルコフモデルの計算を行う情報処理装置のた
めの時系列解析装置であって、 観測データの確率分布を表現する再帰型ニューラルネッ
トワークの内部状態の状態遷移確率を記憶する記憶手段
と、 前記状態遷移確率を用いて、モンテカルロ法により、前
記内部状態を規定する隠れ変数の実現値を生成する生成
手段と、 前記実現値を用いて、前記観測データの確率分布を推定
する推定手段とを備えることを特徴とする時系列解析装
置。
1. A time series analysis apparatus for an information processing apparatus for calculating a hidden Markov model represented by using a neural network, comprising: an internal state of a recursive neural network expressing a probability distribution of observation data. A storage unit for storing a state transition probability, a generation unit for generating a realization value of a hidden variable that defines the internal state by a Monte Carlo method using the state transition probability, and the observation data using the realization value. Estimating means for estimating the probability distribution of the time series.
【請求項2】 前記再帰型ニューラルネットワークは、
隠れ素子層と1層の文脈層とを有するシンプルな再帰型
ニューラルネットワークであって、該文脈層に保持され
た前の内部状態を表す隠れ変数は、パラメータにより重
み付けされて該隠れ素子層に再帰的に入力されることを
特徴とする請求項1記載の時系列解析装置。
2. The recursive neural network according to claim 1,
A simple recursive neural network having a hidden element layer and one context layer, wherein a hidden variable representing a previous internal state held in the context layer is weighted by a parameter and recursed into the hidden element layer. 2. The time-series analysis device according to claim 1, wherein the time-series analysis device is configured to input the time series.
【請求項3】 前記記憶手段は、前記隠れ変数を要素と
する隠れ状態ベクトルの第1の実現値から第2の実現値
への遷移確率を、前記状態遷移確率として記憶し、前記
生成手段は、該第1の実現値が与えられたとき、該状態
遷移確率に従って該第2の実現値を生成することを特徴
とする請求項1記載の時系列解析装置。
3. The storage means stores, as the state transition probability, a transition probability of a hidden state vector having the hidden variable as an element from a first realization value to a second realization value. 2. The time-series analysis apparatus according to claim 1, wherein when the first realization value is given, the second realization value is generated according to the state transition probability.
【請求項4】 前記記憶手段は、前記隠れ状態ベクトル
の複数の実現値相互の複数の遷移確率を、状態遷移確率
行列の要素として記憶し、前記生成手段は、前記第1の
実現値が与えられたとき、該状態遷移確率行列の対応す
る要素を遷移確率として、前記複数の実現値のうちの1
つを生成することを特徴とする請求項3記載の時系列解
析装置。
4. The storage means stores a plurality of transition probabilities of a plurality of realization values of the hidden state vector as elements of a state transition probability matrix, and the generation means provides the first realization value given by the first realization value. When one of the plurality of realization values is set as the transition probability, the corresponding element of the state transition probability matrix
4. The time-series analysis device according to claim 3, wherein the time-series analysis device generates one.
【請求項5】 前記記憶手段は、前記隠れ状態ベクトル
の複数の実現値のうちの限定された集合に属する実現値
相互の遷移確率を記憶し、前記生成手段は、前記第1の
実現値が与えられたとき、前記状態遷移確率行列の対応
する要素を遷移確率として、前記限定された集合に属す
る実現値のうちの1つを生成することを特徴とする請求
項4記載の時系列解析装置。
5. The storage means stores transition probabilities between realization values belonging to a limited set of a plurality of realization values of the hidden state vector, and the generation means sets the first realization value as 5. The time-series analysis device according to claim 4, wherein when given, one of the realized values belonging to the limited set is generated by using a corresponding element of the state transition probability matrix as a transition probability. .
【請求項6】 前記生成手段は、特定時刻までの観測デ
ータから該特定時刻より後の内部状態を推定した結果を
表す実現値である前向き予測粒子と、該特定時刻までの
観測データから該特定時刻の内部状態を推定した結果を
表す実現値である前向き濾過粒子とを交互に生成し、前
記推定手段は、該前向き予測粒子または前向き濾過粒子
の集合を用いて、前記確率分布を生成することを特徴と
する請求項1記載の時系列解析装置。
6. The forward predicting particle, which is a realization value representing a result of estimating an internal state after the specific time from the observation data up to a specific time, and generating the identification information from the observation data up to the specific time. Alternately generating forward filtered particles, which are realization values representing the result of estimating the internal state of time, and the estimating means generating the probability distribution using the set of forward predicted particles or forward filtered particles. The time-series analysis device according to claim 1, wherein:
【請求項7】 前記生成手段は、特定時刻以降の観測デ
ータから該特定時刻より前の内部状態を推定した結果を
表す実現値である後向き予測粒子と、該特定時刻以降の
観測データから該特定時刻の内部状態を推定した結果を
表す実現値である後向き濾過粒子とを交互に生成し、前
記推定手段は、該後向き予測粒子または後向き濾過粒子
の集合を用いて、前記確率分布を生成することを特徴と
する請求項1記載の時系列解析装置。
7. The backward predicting particle, which is a realization value representing a result of estimating an internal state before the specific time from observation data after a specific time, and the identification information from the observation data after the specific time. Alternately generating backward filtered particles, which are realization values representing the result of estimating the internal state of time, and the estimating means generating the probability distribution using the set of backward predicted particles or backward filtered particles. The time-series analysis device according to claim 1, wherein:
【請求項8】 前記生成手段は、特定時間内の観測デー
タから該特定時間内の1つの時刻の内部状態を推定した
結果を表す実現値である平滑粒子を生成し、前記推定手
段は、該平滑粒子の集合を用いて、前記確率分布を生成
することを特徴とする請求項1記載の時系列解析装置。
8. The method according to claim 1, wherein the generation unit generates a smooth particle that is a realization value representing a result of estimating an internal state at one time within the specific time from observation data within a specific time. The time-series analysis device according to claim 1, wherein the probability distribution is generated using a set of smooth particles.
【請求項9】 前記生成手段は、前向き予測粒子と前向
き濾過粒子を交互に生成する前向きフィルタ手段と、後
向き予測粒子と後向き濾過粒子を交互に生成する後向き
フィルタ手段と、該前向き予測粒子と後向き濾過粒子を
用いて前記平滑粒子を生成する平滑粒子生成手段とを備
えることを特徴とする請求項8記載の時系列解析装置。
9. The method according to claim 1, wherein the generating unit includes: a forward filter unit that alternately generates a forward predicted particle and a forward filtered particle; a backward filter unit that alternately generates a backward predicted particle and a backward filtered particle; 9. The time-series analyzer according to claim 8, further comprising: a smooth particle generation unit configured to generate the smooth particles using filtered particles.
【請求項10】 前記前向きフィルタ手段は、前記状態
遷移確率に従って、前記前向き濾過粒子から前記前向き
予測粒子を生成し、前記後向きフィルタ手段は、前記状
態遷移確率に従って、前記後向き濾過粒子から前記後向
き予測粒子を生成することを特徴とする請求項9記載の
時系列解析装置。
10. The forward filtering means generates the forward prediction particles from the forward filtering particles according to the state transition probability, and the backward filtering means generates the forward prediction particles from the backward filtering particles according to the state transition probability. The time-series analysis device according to claim 9, wherein particles are generated.
【請求項11】 前記平滑粒子生成手段は、前記状態遷
移確率を用いて粒子の再抽出の重みを計算し、該重みに
従って前記前向き予測粒子の集合から該前向き予測粒子
を再抽出し、抽出した該前向き予測粒子を前記平滑粒子
として出力することを特徴とする請求項9記載の時系列
解析装置。
11. The smooth particle generation means calculates a weight of re-extraction of particles using the state transition probability, and re-extracts and extracts the forward predicted particles from the set of forward predicted particles according to the weights. The time-series analysis device according to claim 9, wherein the forward prediction particles are output as the smooth particles.
【請求項12】 前記観測データ列に対する前記再帰型
ニューラルネットワークのパラメータの尤度を、モンテ
カルロ法によって計算する尤度計算手段をさらに備え、
前記生成手段は、該尤度が良くなるようなパラメータを
用いて前記実現値を生成することを特徴とする請求項1
記載の時系列解析装置。
12. A likelihood calculating means for calculating a likelihood of a parameter of the recursive neural network with respect to the observation data sequence by a Monte Carlo method,
2. The apparatus according to claim 1, wherein the generation unit generates the realization value using a parameter that improves the likelihood.
The time-series analysis device as described.
【請求項13】 前記尤度計算手段の計算結果を用い
て、前記尤度が最尤となるような最尤パラメータを求め
る学習手段と、該最尤パラメータの少なくとも一部分を
前記記憶手段に設定するパラメータ設定手段とをさらに
備え、前記生成手段は、該最尤パラメータの少なくとも
一部分を用いて前記実現値を生成することを特徴とする
請求項12記載の時系列解析装置。
13. A learning unit for obtaining a maximum likelihood parameter that maximizes the likelihood using a calculation result of the likelihood calculation unit, and at least a part of the maximum likelihood parameter is set in the storage unit. 13. The time-series analysis apparatus according to claim 12, further comprising parameter setting means, wherein the generation means generates the realization value using at least a part of the maximum likelihood parameter.
【請求項14】 前記パラメータ設定手段は、前記最尤
パラメータから前記状態遷移確率を計算し、得られた状
態遷移確率を前記記憶手段に設定することを特徴とする
請求項13記載の時系列解析装置。
14. The time-series analysis according to claim 13, wherein said parameter setting means calculates said state transition probability from said maximum likelihood parameter and sets the obtained state transition probability in said storage means. apparatus.
【請求項15】 前記推定手段が推定した前記確率分布
に基づいて、前記観測データの推定結果を出力する出力
手段をさらに備えることを特徴とする請求項1記載の時
系列解析装置。
15. The time-series analysis device according to claim 1, further comprising an output unit that outputs an estimation result of the observation data based on the probability distribution estimated by the estimation unit.
【請求項16】 ニューラルネットワークを用いて表現
される観測モデルの計算を行う情報処理装置のための時
系列解析装置であって、 観測データの確率分布を表現するニューラルネットワー
クの内部状態の状態遷移確率を記憶する記憶手段と、 前記状態遷移確率を用いて、前記内部状態を規定する変
数の実現値を生成する生成手段と、 前記実現値を用いて、前記観測データの確率分布を推定
する推定手段とを備えることを特徴とする時系列解析装
置。
16. A time-series analysis device for an information processing device for calculating an observation model represented by using a neural network, wherein a state transition probability of an internal state of the neural network representing a probability distribution of observation data is provided. A generating unit that generates a realization value of a variable that defines the internal state using the state transition probability; and an estimating unit that estimates a probability distribution of the observation data using the realization value. And a time-series analysis device.
【請求項17】 ニューラルネットワークを用いて表現
される観測モデルの計算を行うコンピュータのためのプ
ログラムを記録した記録媒体であって、 観測データの確率分布を表現するニューラルネットワー
クの内部状態の状態遷移確率を用いて、該内部状態を規
定する変数の実現値を生成する機能と、 前記実現値を用いて、前記観測データの確率分布を推定
する機能とを前記コンピュータに実現させるためのプロ
グラムを記録したコンピュータ読み取り可能な記録媒
体。
17. A recording medium on which a program for a computer for calculating an observation model expressed by using a neural network is recorded, wherein a state transition probability of an internal state of the neural network expressing a probability distribution of observation data is provided. A program for causing the computer to realize a function of generating a realization value of a variable that defines the internal state and a function of estimating a probability distribution of the observation data using the realization value is recorded. Computer readable recording medium.
【請求項18】 ニューラルネットワークを用いて表現
される観測モデルの計算方法において、 観測データの確率分布を表現するニューラルネットワー
クの内部状態の状態遷移確率を生成し、 前記状態遷移確率を用いて、前記内部状態を規定する変
数の実現値を生成し、 前記実現値を用いて、前記観測データの確率分布を推定
することを特徴とする時系列解析方法。
18. A method for calculating an observation model represented by using a neural network, wherein a state transition probability of an internal state of the neural network representing a probability distribution of observation data is generated, and the state transition probability is calculated by using the state transition probability. A time-series analysis method, wherein a realization value of a variable defining an internal state is generated, and a probability distribution of the observation data is estimated using the realization value.
JP17259397A 1996-08-13 1997-06-27 Device for analyzing time sequence based on recurrent neural network and its method Withdrawn JPH10111862A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP17259397A JPH10111862A (en) 1996-08-13 1997-06-27 Device for analyzing time sequence based on recurrent neural network and its method

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP21356396 1996-08-13
JP8-213563 1996-08-13
JP17259397A JPH10111862A (en) 1996-08-13 1997-06-27 Device for analyzing time sequence based on recurrent neural network and its method

Publications (1)

Publication Number Publication Date
JPH10111862A true JPH10111862A (en) 1998-04-28

Family

ID=26494902

Family Applications (1)

Application Number Title Priority Date Filing Date
JP17259397A Withdrawn JPH10111862A (en) 1996-08-13 1997-06-27 Device for analyzing time sequence based on recurrent neural network and its method

Country Status (1)

Country Link
JP (1) JPH10111862A (en)

Cited By (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002163434A (en) * 2000-05-26 2002-06-07 Ncr Internatl Inc Method and device for determining of one or more statistical estimated quantities of trend of customer
JP2004309998A (en) * 2003-02-18 2004-11-04 Nec Corp Probabilistic distribution estimation apparatus, abnormal behavior detection device, probabilistic distribution estimation method, and abnormal behavior detection method
JP2004310098A (en) * 2003-04-01 2004-11-04 Microsoft Corp Method for speech recognition using variational inference with switching state spatial model
JP2005157350A (en) * 2003-11-26 2005-06-16 Microsoft Corp Method and apparatus for continuous valued vocal tract resonance tracking using piecewise linear approximation
JP2009188885A (en) * 2008-02-08 2009-08-20 Nec Corp Communication apparatus, communication system, communication method and communication program
JP2010075616A (en) * 2008-09-29 2010-04-08 Yamaguchi Univ Discrimination of nature of tissue using sparse coding method
JP2010249593A (en) * 2009-04-14 2010-11-04 Hitachi Ltd Target motion analysis method, target motion analysis system, and program
WO2014014710A1 (en) * 2012-07-18 2014-01-23 Micron Technology, Inc Methods and systems for using state vector data in a state machine engine
JP2014176032A (en) * 2013-03-12 2014-09-22 Nippon Telegr & Teleph Corp <Ntt> Device, system and method for traffic distribution estimation
US9448965B2 (en) 2013-03-15 2016-09-20 Micron Technology, Inc. Receiving data streams in parallel and providing a first portion of data to a first state machine engine and a second portion to a second state machine
US9524248B2 (en) 2012-07-18 2016-12-20 Micron Technology, Inc. Memory management for a hierarchical memory system
US9703574B2 (en) 2013-03-15 2017-07-11 Micron Technology, Inc. Overflow detection and correction in state machine engines
WO2018047966A1 (en) * 2016-09-12 2018-03-15 日本電気株式会社 Waveform separating device, method, and program
US10019311B2 (en) 2016-09-29 2018-07-10 Micron Technology, Inc. Validation of a symbol response memory
US10146555B2 (en) 2016-07-21 2018-12-04 Micron Technology, Inc. Adaptive routing to avoid non-repairable memory and logic defects on automata processor
JP2019020779A (en) * 2017-07-11 2019-02-07 株式会社東芝 Operation rule extraction apparatus, operation rule extraction system and operation rule extraction method
US10268602B2 (en) 2016-09-29 2019-04-23 Micron Technology, Inc. System and method for individual addressing
US10417236B2 (en) 2008-12-01 2019-09-17 Micron Technology, Inc. Devices, systems, and methods to synchronize simultaneous DMA parallel processing of a single data stream by multiple devices
US10430210B2 (en) 2014-12-30 2019-10-01 Micron Technology, Inc. Systems and devices for accessing a state machine
US10592450B2 (en) 2016-10-20 2020-03-17 Micron Technology, Inc. Custom compute cores in integrated circuit devices
JP2020075385A (en) * 2018-11-06 2020-05-21 株式会社東芝 Product state estimation device
US10684983B2 (en) 2009-12-15 2020-06-16 Micron Technology, Inc. Multi-level hierarchical routing matrices for pattern-recognition processors
US10691964B2 (en) 2015-10-06 2020-06-23 Micron Technology, Inc. Methods and systems for event reporting
US10769099B2 (en) 2014-12-30 2020-09-08 Micron Technology, Inc. Devices for time division multiplexing of state machine engine signals
US10846103B2 (en) 2015-10-06 2020-11-24 Micron Technology, Inc. Methods and systems for representing processing resources
US10929764B2 (en) 2016-10-20 2021-02-23 Micron Technology, Inc. Boolean satisfiability
US10977309B2 (en) 2015-10-06 2021-04-13 Micron Technology, Inc. Methods and systems for creating networks
US11023758B2 (en) 2009-01-07 2021-06-01 Micron Technology, Inc. Buses for pattern-recognition processors
US11366675B2 (en) 2014-12-30 2022-06-21 Micron Technology, Inc. Systems and devices for accessing a state machine
US11488645B2 (en) 2012-04-12 2022-11-01 Micron Technology, Inc. Methods for reading data from a storage buffer including delaying activation of a column select

Cited By (60)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002163434A (en) * 2000-05-26 2002-06-07 Ncr Internatl Inc Method and device for determining of one or more statistical estimated quantities of trend of customer
US7561991B2 (en) 2003-02-18 2009-07-14 Nec Corporation Detection of abnormal behavior using probabilistic distribution estimation
JP2004309998A (en) * 2003-02-18 2004-11-04 Nec Corp Probabilistic distribution estimation apparatus, abnormal behavior detection device, probabilistic distribution estimation method, and abnormal behavior detection method
JP2004310098A (en) * 2003-04-01 2004-11-04 Microsoft Corp Method for speech recognition using variational inference with switching state spatial model
JP2005157350A (en) * 2003-11-26 2005-06-16 Microsoft Corp Method and apparatus for continuous valued vocal tract resonance tracking using piecewise linear approximation
JP2009188885A (en) * 2008-02-08 2009-08-20 Nec Corp Communication apparatus, communication system, communication method and communication program
JP2010075616A (en) * 2008-09-29 2010-04-08 Yamaguchi Univ Discrimination of nature of tissue using sparse coding method
US10417236B2 (en) 2008-12-01 2019-09-17 Micron Technology, Inc. Devices, systems, and methods to synchronize simultaneous DMA parallel processing of a single data stream by multiple devices
US10838966B2 (en) 2008-12-01 2020-11-17 Micron Technology, Inc. Devices, systems, and methods to synchronize simultaneous DMA parallel processing of a single data stream by multiple devices
US11023758B2 (en) 2009-01-07 2021-06-01 Micron Technology, Inc. Buses for pattern-recognition processors
JP2010249593A (en) * 2009-04-14 2010-11-04 Hitachi Ltd Target motion analysis method, target motion analysis system, and program
US10684983B2 (en) 2009-12-15 2020-06-16 Micron Technology, Inc. Multi-level hierarchical routing matrices for pattern-recognition processors
US11768798B2 (en) 2009-12-15 2023-09-26 Micron Technology, Inc. Multi-level hierarchical routing matrices for pattern-recognition processors
US11226926B2 (en) 2009-12-15 2022-01-18 Micron Technology, Inc. Multi-level hierarchical routing matrices for pattern-recognition processors
US11488645B2 (en) 2012-04-12 2022-11-01 Micron Technology, Inc. Methods for reading data from a storage buffer including delaying activation of a column select
US9524248B2 (en) 2012-07-18 2016-12-20 Micron Technology, Inc. Memory management for a hierarchical memory system
US10831672B2 (en) 2012-07-18 2020-11-10 Micron Technology, Inc Memory management for a hierarchical memory system
US10671295B2 (en) 2012-07-18 2020-06-02 Micron Technology, Inc. Methods and systems for using state vector data in a state machine engine
US10089242B2 (en) 2012-07-18 2018-10-02 Micron Technology, Inc. Memory management for a hierarchical memory system
US9389841B2 (en) 2012-07-18 2016-07-12 Micron Technology, Inc. Methods and systems for using state vector data in a state machine engine
US10254976B2 (en) 2012-07-18 2019-04-09 Micron Technology, Inc. Methods and systems for using state vector data in a state machine engine
US10489062B2 (en) 2012-07-18 2019-11-26 Micron Technology, Inc. Methods and systems for using state vector data in a state machine engine
WO2014014710A1 (en) * 2012-07-18 2014-01-23 Micron Technology, Inc Methods and systems for using state vector data in a state machine engine
JP2014176032A (en) * 2013-03-12 2014-09-22 Nippon Telegr & Teleph Corp <Ntt> Device, system and method for traffic distribution estimation
US9448965B2 (en) 2013-03-15 2016-09-20 Micron Technology, Inc. Receiving data streams in parallel and providing a first portion of data to a first state machine engine and a second portion to a second state machine
US10929154B2 (en) 2013-03-15 2021-02-23 Micron Technology, Inc. Overflow detection and correction in state machine engines
US11775320B2 (en) 2013-03-15 2023-10-03 Micron Technology, Inc. Overflow detection and correction in state machine engines
US11016790B2 (en) 2013-03-15 2021-05-25 Micron Technology, Inc. Overflow detection and correction in state machine engines
US9747242B2 (en) 2013-03-15 2017-08-29 Micron Technology, Inc. Methods and apparatuses for providing data received by a plurality of state machine engines
US9703574B2 (en) 2013-03-15 2017-07-11 Micron Technology, Inc. Overflow detection and correction in state machine engines
US10372653B2 (en) 2013-03-15 2019-08-06 Micron Technology, Inc. Apparatuses for providing data received by a state machine engine
US10067901B2 (en) 2013-03-15 2018-09-04 Micron Technology, Inc. Methods and apparatuses for providing data received by a state machine engine
US10606787B2 (en) 2013-03-15 2020-03-31 Mircron Technology, Inc. Methods and apparatuses for providing data received by a state machine engine
US10430210B2 (en) 2014-12-30 2019-10-01 Micron Technology, Inc. Systems and devices for accessing a state machine
US11580055B2 (en) 2014-12-30 2023-02-14 Micron Technology, Inc. Devices for time division multiplexing of state machine engine signals
US11947979B2 (en) 2014-12-30 2024-04-02 Micron Technology, Inc. Systems and devices for accessing a state machine
US10769099B2 (en) 2014-12-30 2020-09-08 Micron Technology, Inc. Devices for time division multiplexing of state machine engine signals
US11366675B2 (en) 2014-12-30 2022-06-21 Micron Technology, Inc. Systems and devices for accessing a state machine
US11977902B2 (en) 2015-10-06 2024-05-07 Micron Technology, Inc. Methods and systems for event reporting
US10691964B2 (en) 2015-10-06 2020-06-23 Micron Technology, Inc. Methods and systems for event reporting
US10846103B2 (en) 2015-10-06 2020-11-24 Micron Technology, Inc. Methods and systems for representing processing resources
US11816493B2 (en) 2015-10-06 2023-11-14 Micron Technology, Inc. Methods and systems for representing processing resources
US10977309B2 (en) 2015-10-06 2021-04-13 Micron Technology, Inc. Methods and systems for creating networks
US10698697B2 (en) 2016-07-21 2020-06-30 Micron Technology, Inc. Adaptive routing to avoid non-repairable memory and logic defects on automata processor
US10146555B2 (en) 2016-07-21 2018-12-04 Micron Technology, Inc. Adaptive routing to avoid non-repairable memory and logic defects on automata processor
WO2018047966A1 (en) * 2016-09-12 2018-03-15 日本電気株式会社 Waveform separating device, method, and program
JPWO2018047966A1 (en) * 2016-09-12 2019-06-27 日本電気株式会社 Waveform separation apparatus, method, program
US10521366B2 (en) 2016-09-29 2019-12-31 Micron Technology, Inc. System and method for individual addressing
US10949290B2 (en) 2016-09-29 2021-03-16 Micron Technology, Inc. Validation of a symbol response memory
US10789182B2 (en) 2016-09-29 2020-09-29 Micron Technology, Inc. System and method for individual addressing
US10402265B2 (en) 2016-09-29 2019-09-03 Micron Technology, Inc. Validation of a symbol response memory
US10339071B2 (en) 2016-09-29 2019-07-02 Micron Technology, Inc. System and method for individual addressing
US10268602B2 (en) 2016-09-29 2019-04-23 Micron Technology, Inc. System and method for individual addressing
US10019311B2 (en) 2016-09-29 2018-07-10 Micron Technology, Inc. Validation of a symbol response memory
US11194747B2 (en) 2016-10-20 2021-12-07 Micron Technology, Inc. Custom compute cores in integrated circuit devices
US10929764B2 (en) 2016-10-20 2021-02-23 Micron Technology, Inc. Boolean satisfiability
US10592450B2 (en) 2016-10-20 2020-03-17 Micron Technology, Inc. Custom compute cores in integrated circuit devices
US11829311B2 (en) 2016-10-20 2023-11-28 Micron Technology, Inc. Custom compute cores in integrated circuit devices
JP2019020779A (en) * 2017-07-11 2019-02-07 株式会社東芝 Operation rule extraction apparatus, operation rule extraction system and operation rule extraction method
JP2020075385A (en) * 2018-11-06 2020-05-21 株式会社東芝 Product state estimation device

Similar Documents

Publication Publication Date Title
JPH10111862A (en) Device for analyzing time sequence based on recurrent neural network and its method
CN110782015A (en) Training method and device for network structure optimizer of neural network and storage medium
Utans et al. Selecting neural network architectures via the prediction risk: Application to corporate bond rating prediction
Dash et al. Efficient stock price prediction using a self evolving recurrent neuro-fuzzy inference system optimized through a modified differential harmony search technique
CN111488985A (en) Deep neural network model compression training method, device, equipment and medium
CN111027292B (en) Method and system for generating limited sampling text sequence
Chien et al. Learning discriminant functions with fuzzy attributes for classification using genetic programming
Brester et al. Multi-objective heuristic feature selection for speech-based multilingual emotion recognition
CN114818682B (en) Document level entity relation extraction method based on self-adaptive entity path perception
CN111985620A (en) Neural network model knowledge distillation method, system, equipment and medium
Basterrech Empirical analysis of the necessary and sufficient conditions of the echo state property
Ganepola et al. Automating generative adversarial networks using neural architecture search: A review
CN110866609B (en) Method, device, server and storage medium for acquiring interpretation information
CN112633516B (en) Performance prediction and machine learning compiling optimization method and device
Lv et al. Determination of the number of principal directions in a biologically plausible PCA model
CN114330121A (en) Industrial time sequence data long-term rapid prediction method and device
JPH11143875A (en) Device and method for automatic word classification
Ouyang et al. Grarep++: flexible learning graph representations with weighted global structural information
Aliyu et al. Deep Learning for Multivariate Prediction of Building Energy Performance of Residential Buildings.
Li et al. CoAxNN: Optimizing on-device deep learning with conditional approximate neural networks
JP4662702B2 (en) Outlier degree calculator
Yang et al. A novel approach of rough set-based attribute reduction using fuzzy discernibility matrix
Mahendran Squeeze aggregated excitation network
CN112084944B (en) Dynamic evolution expression recognition method and system
CN114706983B (en) Deep learning question-answering reasoning method and device based on graph attention mechanism

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20040907