JPH0973440A - コラム構造の再帰型ニューラルネットワークによる時系列トレンド推定システムおよび方法 - Google Patents

コラム構造の再帰型ニューラルネットワークによる時系列トレンド推定システムおよび方法

Info

Publication number
JPH0973440A
JPH0973440A JP7229509A JP22950995A JPH0973440A JP H0973440 A JPH0973440 A JP H0973440A JP 7229509 A JP7229509 A JP 7229509A JP 22950995 A JP22950995 A JP 22950995A JP H0973440 A JPH0973440 A JP H0973440A
Authority
JP
Japan
Prior art keywords
time
value
prediction
data
neural network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP7229509A
Other languages
English (en)
Inventor
Masahiro Matsuoka
雅裕 松岡
Gorea Mosutafua
ゴレア モスタファ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP7229509A priority Critical patent/JPH0973440A/ja
Priority to US08/701,700 priority patent/US5956702A/en
Publication of JPH0973440A publication Critical patent/JPH0973440A/ja
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/049Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

(57)【要約】 【課題】 ニューラルネットワークの内部状態と時系列
データの関係を明確にし、不連続に変化する時系列デー
タのトレンドを効率的に推定することが課題である。 【解決手段】 コラム構造再帰型ニューラルネットワー
ク(CSSRNN)19は、ニューラル素子51−j
(j=1,...,m)とs個のレジスタ52−j−k
(k=1,...,s)からなるm個のコラムを備え
る。各ニューラル素子は入力x(t) から時刻tにおける
出力を生成し、各コラムは時刻t以前のニューラル素子
の出力履歴を非線形方程式求解装置18に渡す。非線形
方程式求解装置18は、渡された履歴をもとに目標関数
の零点を求め、各零点に対応するxの値の確率密度を算
定する。そして、最も大きな確率密度を持つ値を次の時
刻の入力データの予測値として出力する。各コラムの独
立性が高く、不連続な離散値の予測に適する構成であ
る。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は再帰型ニューラルネ
ットワークに係り、時間的に不連続に変化する測定量の
変化のトレンドを推定する推定システムおよびその方法
に関する。
【0002】
【従来の技術とその問題点】従来より予測フィルタとし
て用いられているカルマンフィルタは、システム同定方
法の古典であり、現在も様々な応用が考案されている。
一方、非線形性を持つ時系列データの予測には、静的な
非線形システムの同定法として技術的に確立されつつあ
るニューラルネットワークを適用する様々な方法が考案
されている。しかし、カルマンフィルタの応用には現状
の計算機の能力などからくる制限があり、また、ニュー
ラルネットワークの時系列解析に対する応用は始まった
ばかりである。このため、それぞれ次のような問題点が
指摘される。 (1)カルマンフィルタを用いる方法 時系列データに不連続なトレンド変化が生じる場合やモ
デルの不確定さを表現するノイズにガウス型を仮定でき
ない場合は、通常の線形ガウス型のカルマンフィルタで
は予測や濾波がうまくいかない(北川源四郎.時系列解
析プログラミング.岩波コンンピュータサイエンス.岩
波書店,1993)。もし、不連続な状態変化に線形ガウス
型モデルで対処するなら、極端に次元の大きなモデルが
必要になる。この際、モデル次元を客観的に選択するた
めの基準を設定することが難しくなる。
【0003】そこで、近年、非線形非ガウス型の拡張カ
ルマンフィルタが提案されている(Genshiro Kitagawa.
Non-Gaussian State-Space Modeling of Nonstationar
y Time Series. Journal of the American Statistical
Association, 82(400):1032-1041, 1987.)。拡張カル
マンフィルタは、不連続なトレンドや非ガウス型のノイ
ズに対する予測や平滑に成功している。しかし、拡張カ
ルマンフィルタを実行するには、予測、濾波、平滑の各
分布を直接計算しなければならない。したがって、状態
空間モデルが大きくなる場合は、拡張カルマンフィルタ
の適切なフィルタ係数を同定するには時間がかかる。こ
れに対して、線形ガウス型モデルでは、平均値と分散を
推定するだけで各段階で計算に必要な確率分布を決定で
きるので、同定に関する計算量は低く抑えることができ
るものの、同定可能対象は制限される。また、拡張カル
マンフィルタを効果的に応用するには、異常値なども含
めたノイズを適当に表現できる分布族に関する先見的な
知識を必要とする。
【0004】しかし、サンプルからブートスラップ法を
用いてノイズの分布を推定するモンテカルロフィルタを
用いれば、ノイズに関する先見的な知識を欠く場合でも
適切な推定や濾波および平滑ガ遂行される(Genshiro K
itagawa. A Monte Carlo Filtering and Smoothing Met
hod for Non-Gaussian Nonlinear State Space Models.
Research Memorandum 462, The Institute of Statist
ical Mathematics, 121993.)。このモンテカルロフィ
ルタの手法により、より一般的な非線形非ガウス型の時
系列に対する方法論が確立しつつある。ただし、リサン
プリングによる確率分布の算定に必要な時間は無視でき
ないほど大きくなる。 (2)ニューラルネットワークを用いる方法 時系列データから時間窓によリデータを切り出し、時間
的に少しづつずれている一連のパターンを生成し、フィ
ードフォワード型のニューラルネットワークとパックプ
ロパゲーションによって時系列データを学習する方法が
ある(A. Waibel. Modular Construction of Time-Dela
y Networks for Speech Recongnition.Neural Computat
ion, 1:382-399, 1989. / Jeng-Neng Hwang, Shyh-R
ong Lay, Martin Maechler, R. Douglas Martin, and J
ames Schimert. Regression Modeling in Back-Propaga
tion and Projection Pursuit Learning. IEEE Transac
tions on Neural Networks, 5(3):342-353, May 199
4.)。この方法で時系列データを的確に学習するために
は、ニューラルネットワークの規模が大きくなり、記憶
領域が不足するという問題が残る。これは時間軸のデー
タの変化を空間軸に展開し、入出力の相関をニューラル
ネットワークの重みで表現するためである。これにより
別の問題も生じる。時系列データの確率構造を捉えると
いう視点による明確な記述がなされないことである。
【0005】こうしたニューラルネットワークの規模の
問題を解決する方法として、フィードバック構造を持っ
た再帰型ニューラルネットワークが考案されている(Je
romeT. Connor, R. Douglas Martin, and L. E. Atlas.
Recurrent Neural Networksand Robust Time Series P
rediction. IEEE Transactions on Neural Networks, 5
(2):240-254, Mar 1994. )。再帰型ニューラルネット
ワークには、主に2つの型がある。出力層を回帰させる
方法(Jordan型)と中間層を回帰させる方法(Elman
型)である。再帰型ニューラルネットワークには回帰す
る情報を蓄える層が特別に設けられていて、これを文脈
層と呼ぶ。
【0006】フィードバック構造により規模の問題は解
決するが、文脈層がどれくらいの規模と密度で過去の情
報履歴を回帰させれば適切な予測フィルタを構成できる
のかが不明確である。また、未知の時系列データ(パラ
メータ同定に用いるデータと同じ確率構造から生成され
る別のデータ)に対する動作や評価方法などが不明確で
ある。一般的なネットワークの結合を考える場合は空間
的な計算コストが莫大になることは明らかであり、各種
係数を探索する場合に、微分係数などの算定のために必
要な情報が長大になる。
【0007】そこで、ARMA(autoregressive movin
g average )モデルに類似した制約構造の再帰型ニュー
ラルネットワークを用いて、予測フィルタを構成する方
法が考えられている(James Ting-Ho Lo. Synthetic Ap
proach to Optimal Filtering. IEEE Transactions on
Neural Networks, 5(5):803-811, Sep 1994. / G.V.
Puskorius and L. A. Feldkamp. Recurrent Neural Ne
tworks with the Decoupled Extended Kalman Filter A
lgorithm. Science of Artifitial Neural Networks, 1
710:461-473, 1992. )。この場合、通常のカルマンフ
ィルタによってニューラルネットワークの内部状態の解
釈が与えられる。二乗誤差を最小にする評価基準とカル
マンフィルタに準拠する計算法を用いて、与えられたパ
ラメータにおける誤差を算定しながら、与えられたデー
タに適するパラメータを選択する方法も考案されてい
る。しかしながら、この手法は、先に挙げたカルマンフ
ィルタの計算量に関する問題を内在している。また、ネ
ットワークの内部状態と時系列データとの関係付けにお
いて不明確な点が多く、内部状態の解釈が難しい。
【0008】本発明は、再帰型ニューラルネットワーク
の内部状態と時系列データの関係を明確にし、不連続に
変化する時系列のトレンドを効率的に推定する時系列ト
レンド推定システムとその方法を提供することを目的と
する。
【0009】
【問題点を解決するための手段】図1は、本発明の時系
列トレンド推定システムの原理図である。図1の時系列
トレンド推定システムは、入力手段1、ニューラルネッ
トワーク手段2、予測値生成手段3、および出力手段4
を備える。
【0010】入力手段1は、時系列データを入力する。
ニューラルネットワーク手段2は、文脈層を有するコラ
ム構造の再帰型ニューラルネットワークを含み、過去の
時系列データに関する情報を含む内部状態を出力する。
【0011】予測値生成手段3は、上記内部状態を用い
て予測値の候補の出現確率を求め、最も確率の高い候補
を予測値として求める。出力手段4は、上記予測値を未
知データの推定結果として出力する。
【0012】図2は、図1の時系列トレンド推定システ
ムによる推定処理のフローチャートである。 図2のス
テップS1において、まず、入力手段1は現在の時刻の
データを入力する。
【0013】ステップS2において、ニューラルネット
ワーク手段2は過去のデータ情報を持つ再帰型ニューラ
ルネットワークの内部状態をコラム毎に設定する。再帰
型ニューラルネットワークは複数のコラムを備え、各コ
ラムは入力データから出力を生成するニューラル素子
と、ニューラル素子の過去の出力を保持する文脈層とを
含む。現在の時刻のデータが入力されると、ニューラル
素子は入力データと同じコラムの文脈層からの回帰デー
タとから新しい出力を生成し、文脈層のデータ情報は1
時刻分シフトされる。
【0014】ステップS3において、予測値生成手段3
は内部状態により決められる予測方程式を解いて、予測
値の候補を求める。このとき、予測値生成手段3はニュ
ーラルネットワーク手段2から受け取った内部状態を用
いて、予測方程式の解を求める。
【0015】ステップS4において、予測値生成手段3
は内部状態を用いて予測値の候補の出現確率を求める。
ステップS5において、出力手段4は出現確率の最も大
きなものを未知データの予測値として出力する。
【0016】各コラムのニューラル素子に、時系列デー
タの不連続なトレンドの離散性を表現する離散変数を割
り付けることにより、離散変数と内部状態により一種の
エネルギー関数を構成することができる。このエネルギ
ー関数から定義される確率分布関数を用いて、上記予測
値の候補の出現確率を表す。後述するように、こうして
定義された確率分布関数に関する考察から、各コラムの
内部状態は対応するニューラル素子の離散変数が1とな
る確率を与えていることが分かる。また、ある離散変数
が1となる確率が高ければ、そのコラムのパラメータに
より決められる平均値を持つ確率分布の寄与が大きくな
る。したがって、内部状態は、データの特定の確率分布
が選択される確率に関する情報を表しているといえる。
このようにして構成された時系列トレンド推定システ
ムにおいては、ニューラルネットワークの内部状態を時
系列データの離散値の出現確率と関連づけて解釈するこ
とが可能となる。また、各ニューラル素子には同じコラ
ム内のデータ情報のみが再帰的に入力されるので、各コ
ラムの独立性が高い。したがって、各コラムのパラメー
タを、不連続な変化トレンドの離散値に適合するように
調整することにより、そのトレンドの推定が容易にな
る。
【0017】図1のニューラルネットワーク手段2は、
実施形態の図3におけるコラム構造再帰型ニューラルネ
ットワーク19に対応し、予測値生成手段3は非線形方
程式求解装置18に対応する。また、入力手段1および
出力手段4は、表示・対話装置12に対応する。
【0018】
【発明の実施の形態】以下、図面を参照しながら本発明
の実施の形態を詳細に説明する。本実施形態において
は、次のような方針でシステムを構築する。 (a)線形モデルでは追従できないトレンドの急激な変
化に追従する能力を、ニューラルネットワークの隠れ素
子に離散変数を割り付けることによって保証する。この
際、適切な追従能力を持ったフィルタを構成するために
必要な同定法も与える。 (b)線形モデルや単純な分布を想定することでは対処
できない異常値に対して、ネットワークの非線形特性の
一つである飽和特性を利用して対処する。 (c)ガウス型の加重和によって、予測機構およびフィ
ルタとしての測定量の確率密度関数を合成する。確率密
度関数は、ニューラルネットワークの内部状態に基づい
て計算する。これにより、ネットワークの内部状態と時
系列との関係付けを明確にできる。また、小規模のネッ
トワークであれば効率的に実行できる計算法を用いる。 (d)ネットワークの構造は Elman型の構成とし、文脈
層にコラム構造を導入してその構造を制約する。これに
より、回帰情報の独立性を保証し、最適な係数の探索に
必要となる内部状態の再計算を容易にする。
【0019】図3は、本発明の時系列トレンド推定シス
テムの構成図である。図3の時系列トレンド推定システ
ムは、制御装置11、学習装置14、および予測装置1
7を備える。制御装置11は表示・対話装置12とシス
テム管理装置13からなり、学習装置14は観測装置1
5とネットワーク学習装置16からなる。また、予測装
置17は、非線形方程式求解装置18とコラム構造再帰
型ニューラルネットワーク19からなる。以後、コラム
構造再帰型ニューラルネットワークをCSSRNN(Co
lumn-Structured Simple Reccurent Neural Network )
と記す。
【0020】この時系列トレンド推定システムは、例え
ば図4に示すような計算機システムとして実施される。
図4の計算機システムは、CPU(中央処理装置)2
1、メモリ22、入出力端末23、およびそれらを接続
するバス24を備える。入出力端末23は、例えばディ
スプレイ装置やキーボードを有する端末装置であり、表
示・対話装置12に対応する。また、バス24には、必
要に応じてハードディスク等の外部記憶装置やプリンタ
等が接続される。システム管理装置13、学習装置1
4、および予測装置17の各機能は、CPU21がメモ
リ22に格納されたプログラムを実行することにより実
現される。
【0021】制御装置11は、時系列トレンド推定シス
テムと他のシステムまたはユーザ(以下、クライアント
と呼ぶ)との間のデータの授受に必要なインタフェース
である。また、必要な計算機資源の確保およびデータの
流れの制御を行う。図3において、実線の矢印はデータ
の流れを表し、破線の矢印は制御情報の経路を表してい
る。時系列トレンド推定システムの動作には、学習モー
ドと予測モードがある。これらの2つのモードは制御装
置11のシステム管理装置13により制御される。シス
テム管理装置13は、表示・対話装置12からの情報に
基づいて、モードの切替を行なう。学習モードでは、学
習装置14が起動される。このときデータの入力ライン
は制御装置11から学習装置14に接続される。必要な
長さの時系列データが集まると、それをもとに学習が遂
行される。このとき、予測装置17は、CSSRNN1
9の内部状態の更新に必要な入力を学習装置14から得
る。予測モードでは、学習装置14は起動待ち状態にな
り、入力ラインは直接予測装置17に接続される。予測
装置17は、最適なパラメータセットをもとに予測を遂
行する。その予測結果は、システム管理装置13を経由
して、表示・対話装置12によりクライアントに提示さ
れる。
【0022】学習装置14の観測装置15は、観測デー
タx(t) を時間の経過に従って読み込む。次に、学習装
置14はネットワーク学習装置16を起動し、読み込ん
だデータを時系列データ{x1 ,...,xN }として
ネットワーク学習装置16に渡す。ネットワーク学習装
置16は最適なパラメータセットΦopt を学習によって
獲得し、予測装置17のCSSRNN19に出力する。
その後、学習装置14は起動待ち状態となる。
【0023】ネットワーク学習装置16は、時系列デー
タ{x1 ,...,xN-1 }とパラメータセットΦを予
測装置17に渡す。ここで、予測装置17に最初に渡す
Φは、ランダムなパラメータセットである。そして、予
測装置17から予測値 外1(以後、{x1 ハッ
ト,...,xN ハット}と記す。)を受け取り、時系
【0024】
【外1】
【0025】データとCSSRNN19によって表現さ
れたモデルとの食い違いを評価する評価関数を計算しな
がら、その値に基づいてパラメータセットΦを修正す
る。この操作は、評価関数が最小になるような最適なパ
ラメータセットが見つかるまで繰り返される。
【0026】予測装置17は、与えられたパラメータセ
ットΦをもとにCSSRNN19を駆動して、CSSR
NN19の内部状態を更新し、内部状態の情報をもとに
非線形方程式求解装置18を使って時系列データの予測
を行なう。
【0027】CSSRNN19は、入力層、隠れ素子
層、および文脈層からなる再帰型ニューラルネットワー
クである。文脈層は、CSSRNN19の各隠れ素子の
過去の出力を保存するシフトレジスタからなる。各隠れ
素子の過去の出力履歴は、それ自身にだけ回帰するので
あって、その他の素子に直接伝達されることはない。こ
のCSSRNN19の文脈層のシフトレジスタ内部の値
全体を内部状態と呼ぶ。CSSRNN19は、早い時刻
のデータから順に時間軸に沿って入力{x1 ,...,
N-1 }を受け取りながら、逐次内部状態を更新する。
【0028】非線形方程式求解装置18は、予測のため
の非線形方程式を解いて、データの予測値 外2 (以
後、x(t) ハットと記す)を計算する。非線形方程式の
係数
【0029】
【外2】
【0030】は、CSSRNN19の内部状態から決め
られる。次に、各装置の構成要素と動作、およびそれら
の間のデータの流れを説明する。
【0031】表示・対話装置12は、クライアントに対
して時系列データおよび推定したトレンドを提示する。
時系列データおよび堆定トレンドは、予測装置17から
システム管理装置13を通じて表示・対話装置12に提
供される。クライアントは、提示された結果に不満があ
れば、予測装置17のパラメータの再学習を要求でき
る。その際、クライアントは、CSSRNN19の規模
を指定することができる。また、学習装置14の学習ア
ルゴリズムも変更することができる。学習アルゴリズム
の変更の際には、学習基準の変更や学習アルゴリズムの
各パラメータの指定・変更が、表示・対話装置12を通
じて行われる。クライアントによる再計算の要求や各パ
ラメータの変更指示は、システム管理装置13に伝達さ
れる。
【0032】システム管理装置13は、学習装置14お
よび予測装置17に必要な計算機資源を確保して、各装
置を起動する。システム管理装置13は、図3の破線で
示された制御経路を通じて、学習装置14と予測装置1
7の動作を制御する。学習モードでは、学習装置14を
呼び出して、予測装置17のパラメータの同定を遂行さ
せる。この際、システム管理装置13が直接予測装置1
7と通信することはない。予測モードでは、システム管
理装置13は予測装置17と直接通信して、時系列デー
タを伝達し、トレンド予測値を受け取る。トレンド予測
値は、表示・対話装置12を通じてクライアントに提供
され、システム管理装置13はクライアントからのフィ
ードバックを受けとる。クライアントが予測結果に満足
しない場合は、その要求に応じて学習装置14を起動
し、予測装置17のパラメータの再学習を開始させる。
この際、クライアントの要求事項として、学習基準の変
更やCSSRNN19の規模の変更があれば、そのため
に必要な計算機資源を確保し、パラメータの初期値を設
定して、学習装置14を呼びだす。学習装置14によっ
て更新されたパラメータにより、予測装置17は、再び
CSSRNN19を駆動して予測を行なう。新しく得ら
れた予測データは、表示・対話装置12へ渡され、クラ
イアントに提示される。
【0033】学習装置14の主要な機能は、ネットワー
ク学習装置16によって提供される。観測装置15は、
必要な個数の標本を連続して収集し、パラメータの学習
に必要な時系列データS={x1 ,...,xN }を生
成するとき以外は、起動待ち状態にある。
【0034】図5は、ネットワーク学習装置16の構成
図である。図5のネットワーク学習装置16は、シミュ
レーティド・アニーリング制御装置31、ランダムシン
プレックスによるパラメータの精錬装置32、および評
価関数算定装置33からなる。ネットワーク学習装置1
6は、予測装置17の適切な動作を保証するパラメータ
として、例えば、評価関数
【0035】
【数1】
【0036】が最小となるΦ=Φopt を学習によって求
める。(1)式において、xi ハットは予測装置17か
ら受け取る予測値であり、そのときにCSSRNN19
に与えられたΦに依存している。ネットワーク学習装置
16は、評価関数算定装置33により予測装置17と通
信しながら学習を遂行する。
【0037】評価関数算定装置33は、時系列データ
{x1 ,...,xN }と予測値列{x1 ハッ
ト,...,xN ハット}とを入力として、(1)式の
評価関数 merit(S|Φ)の値を計算し、出力する。
{x1 ハット,...,xN ハット}は、Φおよび{x
1 ,...,xN }を予測装置17へ入力した時にその
出力として得られる。
【0038】アニーリング制御装置31は、パラメータ
の選択基準、アニーリングの温度制御ルール、ランダム
探索の回数の上限値Nr 、およびアニーリングの試行回
数N a を、制御データとしてシステム管理装置13から
受け取る。そして、それらに基づいてシミュレーティド
・アニーリングによる最適パラメータの探索処理を制御
する。アニーリング制御装置31は、Na 個の初期値の
パラメータセットΦ(i ) init(i=1,...,Na
を生成し、ランダムシンプレックスによるパラメータの
精錬装置32に与える。
【0039】パラメータ精錬装置32は、必要に応じ
て、パラメータセットΦを入力として評価関数算定装置
33を起動し、 merit(S|Φ)の値を受け取る。パラ
メータ精錬装置32は、公知の滑降シンプレックス法に
よる局所最適化法を用いてパラメータセットΦを精練す
る。各アニーリング試行において初期値のパラメータセ
ットΦ(i) initから、 dim(Φ)+1個の点からなる初
期値シンプレックスを生成して、探索を開始する。ここ
で、 dim(Φ)はパラメータセットの独立変数の個数を
表す。
【0040】図6は、 dim(Φ)=2の場合の初期値シ
ンプレックスの例を示している。図6において、パラメ
ータセットΦは2つの独立変数φ1、φ2を用いてΦ=
(φ1,φ2)と表され、φ1φ2平面上の任意の1点
Φ(i) initが初期値として与えられる。パラメータ精錬
装置32は、点Φ(i) initをもとに頂点Φ1 、Φ2 、Φ
3 を持つ三角形の初期値シンプレックス34を生成す
る。 dim(Φ)=3の場合には、初期値シンプレックス
は4つの頂点を持つ3次元図形となる。
【0041】各アニーリング試行において、パラメータ
精錬装置32は、シンプレックスの頂点の中で評価関数
の値が最悪(最大)となる点、2番目に悪い点、および
最良(最小)となる点を調べる。次に、最悪値の点を除
いた頂点の重心に対して、最悪値の点を対称移動して対
称点(反点)を求め、その反点を最悪点の代わりに採用
して新しいシンプレックスを生成する。もし、反点にお
いて、評価関数の値が最良点の値よりも良ければ、重心
から更にその方向に2倍の距離だけ進んだ点を新しい頂
点とする。また、反点の値が最悪値の次に悪い値よりも
悪ければ、最悪点を重心方向へ1次元的に移動させ、新
しい頂点を生成する。それでも最良点よりも良い点が見
つからなければ、最良点の方向へシンプレックス全体を
収縮させる。以上の操作を繰り返すことで、シンプレッ
クスの形を変動させながら評価関数の値を小さくする方
向を発見し、最終的にシンプレックスの大きさを縮小さ
せることにより極小となる点を求める。
【0042】このように、滑降シンプレックス法におい
ては、シンプレックスが更新される毎に評価関数を計算
する必要がある。この計算は、既に説明したように、評
価関数算定装置33が予測装置17と通信することによ
って実行される。
【0043】図6においては、 merit(S|Φ2 )> m
erit(S|Φ1 )> merit(S|Φ 3 )であるから、点
Φ2 が最悪点となる。そこで、パラメータ精錬装置32
は、初期値シンプレックス34から点Φ2 を除いた残り
の頂点Φ1 、Φ3 の重心(この場合はΦ1 とΦ3 を結ぶ
線分の中点)を求める。そして、求めた重心に関して点
Φ2 と対称な点をφ1φ2平面内で求め、その点での m
erit(S|Φ)を計算して、 merit(S|Φ1 )、 mer
it(S|Φ3 )と比較する。もし、対称点での値が mer
it(S|Φ3 )より小さければ、重心からその方向にさ
らに離れた点を新しい頂点として、次のシンプレックス
を生成する。
【0044】また、パラメータ精錬装置32は、与えら
れた制御温度T(j) (j=1,2,...,M)によっ
て決まる偏差を使って、シンプレックスを探索空間にお
いてランダムウォーク(酔歩)させ、評価関数の大域的
最小値の近傍を探索する。各制御湿度における酔歩の回
数はNr である。この算法によって、各アニーリング試
行から評価関数の大域的最小値を与えるパラメータセッ
トの候補Φ(i) res (i=1,...,Na )が求ま
る。
【0045】アニーリング制御装置31は、これらの候
補の中で評価関数の値が最小となるパラメータセット
を、最適なパラメータセットΦopt として選ぶ。ネット
ワーク学習装置16は、予測装置17に最適なパラメー
タセットΦopt を渡して、起動待ち状態になる。
【0046】図7は、予測装置17の構成図である。図
17において、CSSRNN19の隠れ素子層は、m個
の隠れ素子51−1、51−2、・・・、51−mから
なる。各隠れ素子は、図8に示すニューロン(ニューラ
ル素子)を有する。任意の隠れ素子と隠れ素子の間に相
互結合は存在しない。各隠れ素子には、文脈層を構成す
るs個のレジスタがそれぞれ割り付けられている。例え
ば、隠れ素子51−1の出力側にはレジスタ52−1−
1、52−1−2、・・・、52−1−sが設けられ、
隠れ素子51−2の出力側にはレジスタ52−2−1、
52−2−2、・・・、52−2−sが設けられ、隠れ
素子51−mの出力側にはレジスタ52−m−1、52
−m−2、・・・、52−m−sが設けられる。1つの
隠れ素子とそれに付随するレジスタによって、1つのコ
ラムが形成される。時刻tにおける隠れ素子に対する入
力をx(t) とすると、同時刻におけるj番目の隠れ素子
(j=1,...,m)の出力は、
【0047】
【数2】
【0048】となる。表記を簡潔に行なうため、幾つか
の簡略表現を次のように導入する。
【0049】
【数3】
【0050】ここで、関数LG(x)は、一般にロジス
ティック関数と呼ばれており、図8のニューロンの出力
関数に相当する。また、wj は入力x(t) に対するj番
目の隠れ素子の重みである。Oj (t-i) は時刻t−iに
おけるj番目の隠れ素子の出力であり、 外3 (以
後、ベクトルOj (t,s) と記す)は、j番目のコラムの
【0051】
【外3】
【0052】s個のレジスタの値を成分とするベクトル
である。また、ujiはi番目のレジスタからの再帰値に
対するj番目の隠れ素子の入力重みであり、 外4
(以後、
【0053】
【外4】
【0054】ベクトルuj と記す)は、それらの入力重
みを成分とするベクトルである。θjはj番目の隠れ素
子のロジスティック関数のバイアスであり、一般的には
しきい値と呼ばれている。以上の表記法を用いて、CS
SRNN19のパラメータセットを表記するとΦ=
{(wj ,θj ,ベクトルuj ):(j=1,...,
m)}となる。この場合、パラメータセットの次元 dim
(Φ)は(s+2)mとなる。また、
【0055】
【数4】
【0056】で定義される 外5 (以後、O(t,s)
ーと記す)を、時刻tにおけるCSS
【0057】
【外5】
【0058】RNN19の内部状態と呼ぶことにする。
内部状態O(t,s) バーの更新は、各コラム毎に行われ
る。まず、(2)式により各隠れ素子の時刻tの出力O
j (t) (j=1,...,m)を計算する。次に、レジ
スタ内の値Oj (t-1) ,...,Oj (t-s) をシフトし
て、Oj (t) を先頭のレジスタ52−j−1に保存す
る。この際、レジスタ52−j−s内にある最も古い時
刻の出力値Oj (t-s) が廃棄される。そして、各コラム
のレジスタ内の値はOj (t-1) ,...,Oj (t-s)
らOj (t) ,...,Oj (t-s+1) に更新される。内部
状態の更新は、各コラムにおいて時刻t+1までに終了
する。
【0059】このようなコラム構造を用いることによ
り、CSSRNN19の各々の隠れ素子に、その隠れ素
子自身の過去における出力履歴を時間の序列を保持した
ままで再帰させることができる。したがって、各コラム
の再帰情報の独立性が保証される。
【0060】こうして、時刻t=1,2,...毎に観
測値x(t) が新しく入力されると、CSSRNN19は
状態をO(t,s) バーからO(t+1,s) バーに更新する。こ
のネットワークの内部状態O(t,s) バーから、時刻tに
おけるxの予測密度関数および時刻tにおけるxの予測
値(時刻t+1の入力に対する予測値)が計算できる。
予測密度関数は、ネットワークの内部状態によって定義
されたエネルギー関数から導くことができる。このエネ
ルギー関数は、各隠れ素子に対して隠れ変数h j
{0,1}(j=1,...,m)を導入し、隠れ素子
の出力を隠れ変数の値が1となる確率と解釈することに
より定式化できる。hj は0または1の離散値をとるた
め、離散変数と呼ぶこともできる。x(t) に対する確率
密度を表す予測確率密度関数を、隠れ変数hj を用いて
表すと、
【0061】
【数5】
【0062】となる。ここで、Z(t) は、
【0063】
【数6】
【0064】で与えられる正規化係数であり時間と共に
変化する。(3)式の予測確率密度関数は、複数のガウ
ス確率密度関数を混合したものである。例えば、隠れ素
子1個からなるCSSRNN19(m=1)を考える
と、予測確率密度関数は、(3)式より、
【0065】
【数7】
【0066】となる。(5)式の予測確率密度関数は、
2個のガウス密度関数の合成関数である。この場合、x
(t) =0にピークを持つ1番目のガウス密度関数に対す
る重みは1/Z(t) であり、x(t) =w1 にピークを持
つ2番目のガウス密度関数に対する重みは、
【0067】
【数8】
【0068】となる。同様にして、m個の隠れ素子から
なるCSSRNN19が表現する確率密度関数は2m
のガウス密度関数を合成したものになる。各ガウス密度
関数に対する合成の重みは、
【0069】
【数9】
【0070】の関数となる。一方、Oj (t-k) は、
(2)式およびベクトルOj (t,s) の定義式より、入力
(t-1) ,...,x(1) の値に依存しているので、合
成の重みは入力x(t-1) ,...,x(1) の変化によっ
て変化する。これは、事前の入力により予測確率密度関
数の形状が変化することを意味しており、このことを用
いて不連続トレンドの推定が可能になる。
【0071】予測確率密度関数の微分から、トレンドの
予測に必要な非線形方程式が得られ、
【0072】
【数10】
【0073】となる。(3)式および(6)式の導出方
法については、後に詳しく説明する。図7の非線形方程
式求解装置18は、予測確率密度分布および予測値の計
算を遂行する装置である。非線形方程式求解装置18
は、目標関数の零点を求める零点算定装置41、予測値
選択装置42、目標関数評価装置43、正規化係数算定
装置44、確率密度算定装置45からなる。
【0074】(6)式から、目標関数TG(x)を、
【0075】
【数11】
【0076】とおくことができる。TG(x)=0とな
るxの値が(6)式の解となり、(3)式の予測確率密
度の極大値を与える値に対応する。零点算定装置41
は、区間分割と単純な囲い込み法を繰り返して、目標関
数の零点を与える変数xの値x1 peak,...,xk
peakを近似的に同定する。このとき、必要に応じて変数
値xを目標関数評価装置43に与えて、(7)式のTG
(x)の値を計算させる。
【0077】予測値選択装置42は、予測確率密度関数
の極大値を与える変数値x1 peak,...,xk peak
中で最大の極大値を与える変数値を選択する。このと
き、予測値選択装置42は、確率密度算定装置45と通
信することで予測値の候補x1 peak,...,xk peak
に対する確率密度関数値v1 peak,...,vk peak
得る。これらの値から高速なソーティング法を用いて、
確率密度関数の最大値を与えるxmax を求める。予測値
の候補が少ない場合は、確率密度関数値の単純な比較に
よって選択することが可能である。また、確率密度が2
つ以上の異なる変数値において最大値を取る場合は、そ
れらの変数値の上で一様な確率分布を用いて、確率的に
どれか1つを選択し、xmax とする。こうして選択され
た変数値x max が、次の入力の予測値x(t) ハットとし
て出力される。
【0078】目標関数評価装置43、正規化係数算定装
置44、確率密度算定装置45の3つの装置は、その構
成および動作がCSSRNN19の内部状態に深く根ざ
している。これらの各装置について、図9から図11ま
でを参照しながら詳しく説明する。
【0079】図9は、目標関数評価装置43の構成を示
している。目標関数評価装置43は、CSSRNN19
からの{ベクトルuj ,ベクトルOj (t,s) }(j=
1,...,m)と零点算定装置からの変数値xを入力
として処理し、TG(x)を計算する。そのために、目
標関数評価装置43は、CSSRNN19に対応するコ
ラム構造を持つ内部状態情報変換器61、および加算器
(Σ)64、65を備える。内部状態情報変換器61
は、加算器62−1、62−2、・・・、62−mとロ
ジスティック関数演算器(Logistic)63−1、63−
2、・・・、63−mを備え、各加算器62−jとロジ
スティック関数演算器63−jがj番目のコラムを形成
している。図9において、矢印で表した各データ経路に
付加された変数および定数は、その値を経路上のデータ
に乗算することを意味している。記号の付加されていな
い経路を伝播するデータの値は、伝播の途中で変化する
ことはない。
【0080】各加算器62−jは、あらかじめセットさ
れた重み係数wj を入力xに乗じ、その結果にしきい値
θj とベクトルの内積(ベクトルuj ・ベクトルOj
(t,s))を加えて、ロジスティック関数演算器63−j
に入力する。ロジスティック関数演算器63−jは入力
された値yj からLG(yj )を計算し、内部状態情報
変換器61は、さらにそれらの出力LG(yj )(j=
1,...,m)にwjを乗じた値を出力とする。次
に、加算器64は、内部状態情報変換器61のm個の出
力の総和を求める。加算器65は、零点算定装置41か
ら入力された変数値xから加算器64の出力を差し引い
て、その結果を目標関数評価装置43の出力とする。
【0081】図10は、正規化係数算定装置44の構成
を示している。正規化係数算定装置44は、(4)式の
(t) を計算する装置であり、CSSRNN19に対応
するコラム構造を持つ内部状態情報変換器71、2値ベ
クトル生成器73、ベクトル乗算器74、ベクトル加算
器75、ノルム算定器76、加算器77、指数関数計算
器(exp)78、累積型加算器79、逆数演算器(r
ecip)80を有する。2値ベクトル生成器73、ベ
クトル乗算器74、およびベクトル加算器75は、CS
SRNN19の隠れ素子に割り付けた隠れ変数
1 ,...,hm に関係する計算を遂行する。2値ベ
クトル生成器73は、0または1の値をとるm個の隠れ
変数h1 ,...,hm を1つの隠れ変数ベクトル 外
6 (以後、ベクトルhと記す)の成分として、2m
の可能なベクトルhi (i=1,...,
【0082】
【外6】
【0083】2m )を全て生成する。2値ベクトル生成
器73は、隠れ変数ベクトルを生成することにより、
(4)式を計算する一連の操作の流れを統括する。内部
状態情報変換器71は、加算器72−1、72−2、・
・・、72−mを備え、各加算器72−jがj番目のコ
ラムを形成している。そして、各加算器72−jがしき
い値θj と内積(ベクトルuj ・ベクトルOj (t,s)
を加えて出力する。内部状態情報変換器71の出力は、
ベクトル(ベクトルu1 ・ベクトルO1 (t,s)
θ1 ,...,ベクトルum ・ベクトルOm (t,s) +θ
m )となる。正規化係数算定装置44の1回の呼び出し
について、内部状態情報変換器71は1度だけ起動さ
れ、CSSRNN19の内部状態に関する情報を出力す
る。その出力結果は、ベクトル乗算器74の一方の入力
として保存される。ベクトル乗算器74は、隠れ変数ベ
クトルhi (i=1,...,2m )とCSSRNN1
9の内部状態情報のベクトルを入力として、それらの内
【0084】
【数12】
【0085】を計算し、出力する。ここで、各隠れ変数
ベクトルをベクトルhi =(hi1,...,
ij,...,him)と表記する。ベクトル加算器75
は、CSSRNN19の入力重み係数w1 ,...,w
m と各隠れ変数ベクトルhi (i=1,...,2m
から
【0086】
【数13】
【0087】を計算する。ノルム算定器76は、(8)
式のノルム(絶対値)の2乗を算定し、その値に1/2
を乗じて、
【0088】
【数14】
【0089】の値が計算される。その結果は、加算器7
7によりベクトル乗算器74の出力値に加算され、指数
関数計算器78に入力される。指数関数計算器78は、
【0090】
【数15】
【0091】の値を計算し、その結果を累積型加算器7
9に渡す。以上の操作を2m 個の各隠れ変数ベクトルh
i について繰り返すことで、(4)式の右辺のベクトル
(t)に関する総和が計算される。累積型加算器79
は、全ての隠れ変数ベクトルについての総和を求め、逆
数演算器80は、累積型加算器79の出力に(2π)
1/2を乗じて、その逆数を求める。こうして、正規化係
数算定装置44からは(4)式のZ(t) の逆数が最終的
に出力される。
【0092】図11は、確率密度算定装置45の構成を
示している。時刻tにおいて、確率密度算定装置45
は、予測値選択装置42から予測値の候補x=
1 peak,...,xk peakを受け取り、これらの値に
対する時刻tの予測確率密度関数の値
1 peak,...,vk peakを出力する。時刻tにおけ
る予測確率密度関数は(3)式で与えられ、確率密度算
定装置45は、CSSRNN19に対応するコラム構造
を持つ内部状態情報変換器81、乗算器(П)84、指
数関数計算器85、およびノルム算定器86を有する。
内部状態情報変換器81は、加算器82−1、82−
2、・・・、82−mと指数関数計算器(1+exp)
83−1、83−2、・・・、83−mを備え、各加算
器82−jと指数関数計算器83−jがj番目のコラム
を形成している。
【0093】各加算器82−jは、予測値選択装置42
からの入力値x、CSSRNN19の入力重み係数
j 、しきい値θj 、およびCSSRNN19のj番目
のコラムの内部情報である内積値(ベクトルuj ・ベク
トルOj (t,s) )から、wj x+ベクトルuj ・ベクト
ルOj (t,s) +θj を求める。また、各指数関数計算器
83−jは、加算器82−jの出力から1+exp(w
j x+ベクトルuj ・ベクトルOj (t,s) +θj )の値
を計算する。ノルム算定器86は入力値xのノルムの2
乗を計算し、指数関数計算器85は、その値を用いて入
力xの分布N(0,1)の密度関数における値exp
(−|x|2 /2)を求める。乗算器84は、内部状態
情報変換器81のm個の指数関数計算器の出力を積算
し、さらに正規化係数算定装置から受け取る1/Z(t)
と指数関数計算器85から受け取る正規分布密度関数値
exp(−|x|2 /2)を積算する。ただし、N
(0,1)は平均値0、分散1の正規分布を表す。この
ようにして、(3)式のx(t) にx1 pe ak,...,x
k peakをそれぞれ代入した時の各p(x(t) |Ф,O
(t,s) バー)の値v1 peak,...,vk peakが計算さ
れ、予測値選択装置42に出力される。
【0094】以上の実施形態において、評価関数算定装
置33が計算する評価関数 merit(S|Φ)は、必ずし
も(1)式の形式の平均2乗誤差である必要はない。例
えば、時系列データとCSSRNNの内部状態により決
まる予測確率密度関数の対数尤度であってもかまわな
い。その場合、評価関数は、
【0095】
【数16】
【0096】と書ける。ランダムシンプレックス法とシ
ミュレーティド・アニーリング法を用いる図5のネット
ワーク学習装置16において、評価関数を(9)式のよ
うに置き換えたとしても、学習アルゴリズムの基本動作
は変わらない。
【0097】また、時系列データxをy=(x−m)/
σと変換して、平均値の平行移動と分散の変更が可能な
モデルを用いることもできる。この場合、基底の個数と
分散のトレードオフおよび分散の推定が必要となるが、
その方法は容易である。
【0098】さらに、本実施形態においては、1次元入
カデータに対する変化トレンドの推定を行っているが、
この推定処理は多次元にもそのまま拡張可能であり、モ
デルの解釈法などの変更はない。
【0099】次に、(3)式および(6)式の導出方法
について説明する。一般に、隠れ素子数m個、各隠れ素
子に対するレジスタ数s個を有するCSSRNNを考え
る。また、入力データの次元はd次元とする。このと
き、入力重み変数もまたd次元となる。(3)、(6)
式ではd=1と置いた場合を考えている。
【0100】CSSRNNの各隠れ素子に確率変数hj
∈{0,1}(j=1,...,m)を割り付ける。こ
れらを隠れ変数と呼び、ベクトルh=(h1 ,...,
m)で表現する。時刻tのCSSRNNのd次元の入
力 外7 (以後、ベクトル
【0101】
【外7】
【0102】x(t) と記す)と隠れ変数ベクトルh(t)
とを合わせて、時系列解析系の状態(ベクトルx(t)
ベクトルh(t) )と呼ぶことにする。CSSRNNの内
部状態O(t,s) バーおよびパラメータセットФから状態
(ベクトルx(t) ,ベクトルh (t) )のエネルギー関数
を次式で定義する。
【0103】
【数17】
【0104】このエネルギー関数から、状態(ベクトル
(t) ,ベクトルh(t) )の条件付き確率を次式で定義
する。
【0105】
【数18】
【0106】ここで、
【0107】
【数19】
【0108】である。(11)式の条件付き確率から、
ベクトルx(t) 、ベクトルh(t) それぞれの条件付き確
率を導くことができる。まず、全ての隠れ変数ベクトル
(t) 上の総和を計算することで、(11)式からベク
トルh(t) を消去すると、
【0109】
【数20】
【0110】を得る。(12)式にd=1を代入すると
(3)式が得られる。また、ベクトルx(t) に関して
(11)式を積分することで、ベクトルx(t) を消去す
ると、
【0111】
【数21】
【0112】を得る。ここで、hj (t) はベクトルh
(t) のj番目の成分である。次に、ベイスの法則により
(11)式と(12)式から条件付き確率
【0113】
【数22】
【0114】が求められる。ここで、
【0115】
【数23】
【0116】である。(14)式の右辺の帰結の式にお
いて、各隠れ変数に関する確率が積の形で含まれること
より、明らかに各隠れ変数の独立性を仮定することがで
きる。そこで、(15)式を用いて、
【0117】
【数24】
【0118】を導くことができる。(16)式の右辺は
入力ベクトルx(t) に対するj番目の隠れ素子の出力を
表しており、同時にまた、隠れ変数hj (t) が1である
条件付き確率を与えている。実際、入力ベクトルx(t)
の次元が1次元である場合には、(16)式の右辺は
(2)式の右辺に一致する。このとき、(2)式のOj
(t ) は、hj (t) =1に対応する時系列データx(t)
確率密度を与える。したがって、(16)式から、CS
SRNNの内部状態の解釈と時系列データとの関係が明
らかになる。また、(14)式において各隠れ変数の独
立性を仮定することは、CSSRNNのコラム間で情報
の交換をしないことと対応している。
【0119】次に、学習により最適なパラメータセット
が見つかったと仮定する。このとき、予測装置17は、
予測確率密度関数p(ベクトルx(t) |Φ,O(t,s)
ー)を用いて時刻tの予測を行う。具体的には、最も確
からしいベクトルx(t) の予測値として、確率密度関数
のピークに対応する値を選ぶ。そこで、微分方程式
【0120】
【数25】
【0121】を満たすベクトルx(t) を予測値とする。
(17)式は、
【0122】
【数26】
【0123】と等価である。ここで、(12)式のp
(ベクトルx(t) |Φ,O(t,s) バー)を(18)式に
代入して、予測方程式となる非線形方程式
【0124】
【数27】
【0125】を得る。入力ベクトルx(t) の次元が1次
元である場合には、(19)式は(6)式に一致する。
次に、図12から14までを参照しながら、図3の時系
列トレンド推定システムの動作フローを説明する。
【0126】図12は、時系列トレンド推定システムの
全体処理のフローチャートである。図12においてシス
テムが立ち上げられると、まず、あらかじめ決められた
初期設定に基づいて制御装置11が起動される(ステッ
プS21)。表示・対話装置12およびシステム管理装
置13は入力待ち状態となり(ステップS22)、クラ
イアントからの要求が入力されると(ステップS2
3)、システム管理装置13は、まず観測対象の変更要
求があるかどうかを判定する(ステップS24)。
【0127】変更要求があれば、観測対象を変更して時
系列データのを収集を開始し(ステップS25)、次に
学習アルゴリズムの変更要求があるかどうかを判定する
(ステップS26)。変更要求があれば、指定された項
目を修正して必要な計算機資源を確保し(ステップS2
7)、次にCSSRNN19の規模の変更要求があるか
どうかを判定する(ステップS28)。変更要求があれ
ば、CSSRNN19の規模を修正して必要な計算機資
源を確保し(ステップS29)、次に予測装置17の設
定変更要求があるかどうかを判定する(ステップS3
0)。ステップS24で変更要求がなければステップS
26の処理に移り、ステップS26で変更要求がなけれ
ばステップS28の処理に移り、ステップS28で変更
要求がなければステップS30の処理に移る。
【0128】ステップS30で変更要求があれば、予測
装置17の設定を変更して再起動し(ステップS3
3)、次に学習装置14の設定変更要求があるかどうか
を判定する(ステップS34)。ステップS30で変更
要求がなければ、予測装置17が起動されているかどう
かを調べ(ステップS31)、起動されていればステッ
プS34の処理に移る。予測装置17が起動されていな
ければ、それを起動して(ステップS32)、ステップ
S34の処理に移る。
【0129】ステップS34で変更要求があれば、学習
装置14の設定を変更して再起動し(ステップS3
7)、次に観測データの提示要求があるかどうかを判定
する(ステップS38)。ステップS34で変更要求が
なければ、学習装置14が起動されているかどうかを調
べ(ステップS35)、起動されていればステップS3
8の処理に移る。学習装置14が起動されていなけれ
ば、それを起動して(ステップS36)、ステップS3
8の処理に移る。 ステップS38で提示要求があれ
ば、システム管理装置13は、観測データを観測装置1
5から表示・対話装置12に転送し(ステップS3
9)、次に予測データの提示要求があるかどうかを判定
する(ステップS40)。提示要求があれば、予測装置
17を呼び出して予測データを受け取り、表示・対話装
置12に転送して(ステップS41)、次に学習の開始
要求があるかどうかを判定する(ステップS42)。要
求があれば、学習装置14を呼び出して学習を行わせ、
予測装置17のパラメータセットを更新して(ステップ
S43)、入力待ち状態となる(ステップS22)。ス
テップS38で提示要求がなければステップS40の処
理に移り、ステップS40で提示要求がなければステッ
プS42の処理に移り、ステップS42で要求がなけれ
ばステップS22で入力待ち状態となる。
【0130】学習装置14は、制御装置11からの呼び
出しに応じて処理を開始する。図13は、学習装置14
の処理のフロ一チャートである。図13において学習装
置14が立ち上げられると、まず制御装置11からの呼
び出しがあるまで待機状態となる(ステップS51)。
呼び出しがあると、学習装置14は、学習アルゴリズム
のパラメータの変更要求があるかどうかを判定する(ス
テップS52)。変更要求があれば、新しい設定パラメ
ータを受け取って学習アルゴリズムを更新し(ステップ
S53)、次に学習基準の変更要求があるかどうかを判
定する(ステップS54)。変更要求があれば、新しい
学習基準を受け取ってこれまでの学習基準を更新し(ス
テップS55)、次に時系列データの学習要求があるか
どうかを判定する(ステップS56)。ステップS52
で変更要求がなければステップS54の処理に移り、ス
テップS54で変更要求がなければステップS56の処
理に移り、ステップS56で学習要求がなければステッ
プS51で待機状態となる。
【0131】ステップS56で学習要求があれば、i=
1とおいて(ステップS57)、パラメータセットΦの
次元である dim(Φ)次元の空間のランダムな1点Φ
(i) in itを生成する(ステップS58)。次に、Φ(i)
initから初期値シンプレックスSL(i) (0) を生成する
(ステップS59)。次に、予測装置17を呼び出して
SL(i) (0) の各頂点のΦの値と時系列データ
{x1 ,...,xN }を与え、対応する予測値列{x
1 ハット,...,xN ハット}を受け取る(ステップ
S60)。そして、SL(i) (0) の各頂点に対する評価
関数 merit(S|Φ)の値を計算する(ステップS6
1)。
【0132】次に、j=1とおいて(ステップS6
2)、制御温度T(j) において評価関数の極小値を与え
るパラメータセットを、シンプレックスSL(i) (j-1)
から出発して、滑降シンプレックス法とNr 回の酔歩の
試行により探索する(ステップS63)。このとき、シ
ンプレックスの収縮過程で新しく生成する頂点の評価関
数の値を、予測装置17と通信しながら計算する(ステ
ップS64)。そして、新しく得られたシンプレックス
をSL(i) (j) とする。
【0133】次に、T(j) とアニーリングの最終到達温
度Tmin とを比較する(ステップS65)。T(j) がT
min より高ければ、j=j+1とおき(ステップS6
6)、T(j) =κT(j-1) とおいて温度を下げる(ステ
ップS67)。ここで、0<κ<1である。そして、ス
テップS63以降の処理を繰り返す。ステップS65で
(j) がTmin 以下になれば、そのときのシンプレック
スSL(i) (j) の各頂点の内で評価関数が最小となる点
を求め、それを局所最適パラメータセットΦ(i) res
して保存する(ステップS68)。
【0134】次に、iをアニーリングの試行回数Na
比較し(ステップS69)、iがN a に達していなけれ
ば、i=i+1とおいて(ステップS70)、ステップ
S58以降の処理を繰り返す。ステップS69でiがN
a に達すると、得られたNa個のΦ(i) res (i=
1,...,Na )の中から、評価関数が最小となるも
のを最適パラメータセットとして選択する(ステップS
71)。そして、その最適パラメータセットをCSSR
NN19にセットして(ステップS72)、待機状態に
戻る(ステップS51)。
【0135】予測装置17は、学習モードにおいては学
習装置14から呼び出され、予測モードにおいては制御
装置11から呼び出される。両モードに置ける予測装置
17の基本的な動作は同じであり、観測データの供給元
と予測結果の出力先が異なるだけである。図14は、予
測装置17の処理のフロ一チャートである。
【0136】図14において予測装置17が立ち上げら
れると、まず制御装置11または学習装置14からの呼
び出しがあるまで待機状態となる(ステップS81)。
呼び出しがあると、予測装置17は、CSSRNN19
のパラメータセットの変更要求があるかどうかを判定す
る(ステップS82)。変更要求があれば、新しいパラ
メータセットを受け取り、これまでのパラメータセット
を更新して(ステップS83)、次に予測の要求がある
かどうかを判定する(ステップS84)。ステップS8
2で変更要求がなければステップS84の処理に移り、
ステップS84で予測要求がなければステップS81で
待機状態となる。
【0137】ステップS84で予測要求があれば、CS
SRNN19の内部状態O(t,s) バーをセットし(ステ
ップS85)、t=1とおいて予測を開始する(ステッ
プS86)。まず、非線形方程式(6)を解いて時系列
データの予測値x(t) ハットを求め(ステップS8
7)、予測結果として出力する(ステップS88)。次
に、時刻tにおける真値x(t) を読み込み(ステップS
89)、CSSRNN19を駆動して内部状態O(t,s)
バーをO(t+1,s) バーに更新する(ステップS90)。
次に、tが時刻の上限値Nを越えたかどうかを判定し
(ステップS91)、Nを越えていなければ、t=t+
1とおいて(ステップS92)、ステップS87以降の
処理を繰り返す。そして、ステップS91でtがNを越
えれば、予測を終了し(ステップS93)、待機状態に
戻る(ステップS81)。
【0138】次に、図3の時系列トレンド推定システム
によるデータ変化のトレンドの推定例について説明す
る。以下では、記述の簡便さを図って、m個の隠れ素子
を有し、各隠れ素子にそれぞれs個のレジスタが割り付
けられているCSSRNNをhmrs−NNと表記す
る。隠れ素子に割り付けられたレジスタの数sは、文脈
層の深さを表す。例えば、隠れ素子2個、各隠れ素子毎
のレジスタ数が1個のCSSRNNは、h2r1−NN
と表される。
【0139】まず、区分的に定常となるデータにおける
トレンド推定結果について説明する。区分的に定常な時
系列生成装置(不図示)から生成された次のような時系
列を、予測の対象として選ぶ。
【0140】
【数28】
【0141】ただし、N(μ,σ2 )は、平均μ、分散
σ2 のガウス密度関数を表す。(20)式により生成さ
れる時系列の例は図15に示されている。図15の時系
列において、時刻tの4つの区間1≦t≦50、51≦
t≦100、101≦t≦150、151≦t≦200
の境界における平均値の不連続な切り替わりがデータの
跳躍トレンドとして現れていることが伺える。このよう
な不連続な跳躍トレンドを時系列トレンド推定システム
により予測する。このとき、最適パラメータセットの決
定に用いられる学習データと、予測結果と比較するテス
トデータは、(20)式に従ってそれぞれ個別に生成さ
れるものとする。
【0142】h2r1−NNまたはh2r10−NNを
備えるシステムに、図15の時系列を学習データとして
与えて学習させ、未知のテストデータに対するそれぞれ
のシステムによる予測結果を求める。h2r1−NN、
h2r10−NNによる予測結果は、それぞれ図16、
17のようになる。図16、17において、実線はCS
SRNNが予測した結果を表し、破線は時系列生成装置
が実際に生成したテストデータを表す。
【0143】これらの結果を見ると、確かに跳躍型のト
レンドがうまく予測されていることが分かる。しかし、
支脈層の規模が小さいh2r1−NNの場合は、交替現
象とノイズの振幅の揺らぎとがうまく分割できていな
い。図16において、351≦t≦400の区間にある
予測値D1は、周期的なトレンドから逸脱している。こ
れに対して、図17のh2r10−NNの場合はこうし
た予測値の逸脱がなく、より正確にトレンドを予測して
いるといえる。このように、交替現象の追従にある程度
のロバスト性(ノイズ等に引き摺られない強靱さ)を持
たせるためには、文脈層の規模をある程度の大きさに設
定する必要がある。
【0144】次に、異常値を含む時系列データに対する
トレンドの推定結果について説明する。ノイズの摺らぎ
では説明できない極端な偏差として、異常値の問題があ
る。図18は、異常値が混入している跳躍型トレンドの
時系列を示している。図18の時系列は、基本的なデー
タを(20)式を用いて生成し、その上に異常値E1、
E2、E3、E4を加算することにより得られる。これ
らの異常値は、発生間隔がポアソン分布に従うように生
成される。またそれらの値は平均10、分散0.5の正
規分布に従って生成され、確率1/2で正値として、ま
た確率1/2で負値として跳躍型トレンドの時系列に加
重されるものとする。こうした異常値を生成する確率に
関する情報は、時系列推定システムには全く与えられな
い。ここで、異常値とは、例えば正規分布を仮定するな
ら、その平均値からの逸脱が大きく出現確率がほぼ0で
あるといえるような値のことである。
【0145】CSSRNNとしてh2r1−NN、h2
r10−NN、およびh10r10−NNを選び、それ
らを備えるシステムにそれぞれ図18に示した時系列を
学習させる。そして、それらのシステムによる予測結果
を、図18と同様の機構で生成された別のデータでテス
トした結果をそれぞれ図19、20、21に示す。図1
9、20、21において、データE5、E6、E7、E
8、E9、E10、E11、E12、E13、E14、
E15、E16、E17、E18は、テストデータの異
常値を表す。
【0146】図19のh2r1−NNの場合は、予測値
における異常値はD2、D3、D4、D5、D6、D
7、D8、D9、D10、D11の10個である。これ
らの異常な予測値は、それぞれ直前のテストデータの異
常値E6、E7、E10、E12、E13、E14、E
15、E16、E17、E18の影響を受けて生成され
たものと考えられる。これに対して、図20のh2r1
0−NNの場合は、予測値における異常値はD12、D
13、D14、D15、D16の5個だけである。さら
に、図21のh10r10−NNの場合は、予測値にお
ける異常値はD17のみとなっている。図21におい
て、予測値のトレンドが小刻みに上下しているのは、多
数の隠れ素子により離散値がより細かく表現されること
に起因する。これらの結果より、CSSRNNにおいて
回路の規模を大きくすると、より大きなロバスト性を実
現できることがわかる。したがって、本発明のシステム
を用いれば、時系列の異常値が存在していても不連続ト
レンドを的確に推定することができる。
【0147】次に、時系列SとパラメータセットΦによ
り決まるモデルとの適合度を測る関数 merit(S|Φ)
(最小2乗法や最尤推定法等における評価関数)を用い
て、CSSRNNを予測フィルタとして構成した時に、
時系列の性質がどのように内部表現として獲得されるの
かを考える。
【0148】まず、隠れ変数ベクトルとガウス密度関数
の関係について考察する。CSSRNNの隠れ変数ベク
トルh(t) と入力ベクトルx(t) 上において、同時密度
関数p(ベクトルx(t) ,ベクトルh(t) |Φ,O
(t,s) バー)が(11)式により定義される。この同時
密度関数から導かれるベクトルx(t) の周辺密度p(ベ
クトルx(t) |Φ,O(t,s) バー)とベクトルh(t)
周辺分布関数P(ベクトルh(t) |Φ,O(t,s) バー)
の間には、ガウス密度関数を基底とする線形関係があ
る。このことは、以下の考察から容易に分かる。
【0149】時刻tにおけるCSSRNNの隠れ変数ベ
クトルの予測分布は、(13)式のP(ベクトルh(t)
|Φ,O(t,s) バー)によって決まる。CSSRNNが
表現する事象は、隠れ変数ベクトルが確率的に重なった
状態である。以後、表現上の簡約のため、予測における
隠れ変数ベクトルの確率的重ね合わせのことを様相と呼
ぶことにする。(13)式は、可能な全ての隠れ変数ベ
クトルの集合上で定義され、それらの重率を予測する式
である。
【0150】ここで、隠れ変数ベクトルを要素表示する
とともに、各要素に非負整数を指標として割り当てる。
隠れ素子の個数をmとすると、2m 個の隠れ変数ベクト
ルは、
【0151】
【数29】
【0152】のように表記される。例えば、m=2のと
きは、隠れ変数ベクトルはベクトルh (0) =(0,
0)、ベクトルh(1) =(1,0)、ベクトルh(2)
(0,1)、ベクトルh(3) =(1,1)の4つであ
る。
【0153】時刻tにおける入力ベクトルの予測分布
は、(12)式より、
【0154】
【数30】
【0155】と書き換えられる。ここで、 外8 (以
後、ベクトルwj と記す)はj番目の
【0156】
【外8】
【0157】隠れ素子の入力重みベクトルであり、
【0158】
【数31】
【0159】である。これは、平均値
【0160】
【数32】
【0161】、分散1のガウス密度関数である(以後、
形式的に
【0162】
【数33】
【0163】と表記する)。(22)式は、(13)式
を用いて次のように書き換えることができる。
【0164】
【数34】
【0165】ここで、
【0166】
【数35】
【0167】である。(23)式は、入力ベクトルの予
測密度関数と隠れ変数ベクトルにより指定されるガウス
密度関数の線形結合で表現されている。その結合係数
は、対応する隠れ変数ベクトルの予測分布である。した
がって、これらの結合係数はCSSRNNの内部状態の
非線形関数になる。各隠れ変数ベクトルh(i)
(hi1,...,him)を入力ベクトル空間上のガウス
密度関数に対応させる写像
【0168】
【数36】
【0169】は、各隠れ素子の重みの集合{ベクトルw
1 ,...,ベクトルwm }によって決まる。 CSS
RNNとして、隠れ素子2個で入力ベクトルの次元が1
の場合を考える。隠れ素子の入力重みをそれぞれw1
2 とすると、各隠れ変数ベクトルに対して基底となる
ガウス密度関数は、それぞれ、
【0170】
【数37】
【0171】となる。今、仮に隠れ変数ベクトルの時刻
tにおける予測分布が次のように求められたとする。
【0172】
【数38】
【0173】このとき、(23)式により入力x(t)
予測分布は、
【0174】
【数39】
【0175】となる。この場合、およそN(w1 ,1)
に近い形状の分布となることが分かる。一般に、時刻t
における入力x(t) の予測密度の形状は、入力重み間の
距離や基底となるガウス密度関数に対する重みに応じて
変わる。予測密度関数のすそが広がることもあれば、い
ずれの基底関数のピーク(平均値)に対しても予測密度
関数のピークとの間に偏差があることもある。また、予
測密度関数のピークが多数個あることもあり、その他に
も様々に変化し得る。隠れ変数ベクトルの予測分布が、
特定の隠れ変数ベクトルh(i) だけに極端に偏る場合
は、入力に対する予測密度関数はN(Σhij・ベクトル
j ,1)にほぼ一致する。このとき、その平均値Σh
ij・ベクトルwj は、hij=1となる隠れ素子の入力重
みベクトルw j により決められることになる。
【0176】上述のような関係を急激なトレンド変化を
伴う時系列の予測実験に利用してみる。まず、次式に示
す平均値移動型の時変ガウス分布により時系列Sを生成
する。
【0177】
【数40】
【0178】そして、隠れ素子が2個、各隠れ素子に割
り付けられたレジスタが1個のh2r1−NNを時系列
Sに適合させる。そのために、負値対数尤度により定義
された(9)式の merit(S|Φ)を最小にするパラメ
ータΦopt ={w1 ,θ1 ,u 1 ,w2 ,θ2 ,u2
を、数値的最適化法により見つける。適当なパラメータ
が選択されると、それをΦopt としてh2r1−NNを
構成し、図22に示すテスト用の時系列の予測を行う。
このときの予測の対象は、刻々と入力されるテストデー
タの次の時刻の入力値である。h2r1−NNの内部状
態の更新は、実際に入力される観測値を用いて行う。こ
のような設定は、オープンループと呼ばれる。図23
は、h2r1−NNによる予測結果を示している。図2
3の予測値は、入力x(t) の予測分布のピークに対応し
ている。図22と図23を比較すると、h2r1−NN
はほぼ正確に時系列のトレンドの不連続な切り替えを追
跡し、各トレンドをうまく予測していることが分かる。
予測密度全体の時間的変化(予測密度関数列)は図24
に示されている。図24において、入力値xの予測確率
密度Pが時間tの経過とともに変化する様子が示されて
いる。各時刻の予測確率密度Pのピークに対応するxの
値を予測値としてプロットしたものが図23である。
【0179】ここで、CSSRNNが時系列Sのどのよ
うな性質をその内部表現として獲得しているかを考察す
る。まず、h2r1−NNの各隠れ変数ベクトルの予測
分布と入力の予測分布との関係を定性的に説明するため
に必要な情報として、予測に用いたh2r1−NNの最
適パラメータセットを図25に示す。図25の各パラメ
ータの値から、隠れ変数ベクトルとガウス密度関数との
対応関係が、
【0180】
【数41】
【0181】となることが分かる。次に、h2r1−N
Nが予測する隠れ変数ベクトルh(0)=(0,0)、ベ
クトルh(1) =(1,0)、ベクトルh(2) =(0,
1)、ベクトルh(3) =(1,1)に対する確率密度
を、それぞれ図26、27、28、29に示す。図23
の時系列のトレンド予測と図24の予測密度全体の変
化、および図26から図29までの各隠れ変数ベクトル
の予測分布を比較検討すると、次のようなことが言え
る。
【0182】N(1,1)から生成される時系列の区間
では、隠れ変数ベクトルh(1) の予測分布が係数の中で
主項となり、予測密度の形状は主にN(1.0269
6,1.0)によって形作られる。また、時系列Sに対
してh2r1−NNが隠れ変数ベクトルの予測として適
切な様相を実現するために、無視できない割合でベクト
ルh(0) の分布N(0.0,1.0)が重なり合うよう
なパラメータが選ばれている。このため、予測密度関数
の負方向のすそが広がり、そのピークがN(1.026
96,1.0)のピークからxの負方向にずれているこ
とが分かる。ここで、適切な様相を実現することは、入
力に対する予測密度から計算される負値対数尤度を最小
にすることを意味する。
【0183】N(−1,1)から生成される時系列の区
間では、隠れ変数ベクトルh(2) の予測分布が係数の中
で主項となり、予測密度の形状は主にN(−1.108
53,1.0)によって形作られる。N(−0.081
57,1.0)の重みが無視できるほど小さくないの
で、予測密度関数の正方向のすそが広がり、そのピーク
がN(−1.10853,1.0)のピークからxの正
方向にずれていることが分かる。
【0184】以上の議論は、(23)式により理論的に
裏付けられている。この実験結果から次のような解釈が
得られる。時系列Sに対してCSSRNNの最適なパラ
メータとは、CSSRNNによって表現可能な予測密度
関数列の中から尤もらしい関数列を生成するものであ
る。最適なパラメータを設定することにより、CSSR
NNは時系列Sの背後にある法則性(例えば、トレンド
の切り替えなど)を相異なる様相から様相への変化とし
て表現する。時系列S自体は、様相の列によって指定さ
れた予測密度関数列により記述される。
【0185】実験結果においては、CSSRNNの予測
密度関数のモードによってトレンドが表現されている。
ここで、モードとは、ある時刻における予測密度関数の
最大ピークに対応するデータ値(最頻値)を指す。図2
6、27、28、29から明らかなように、様相として
は大きく2つに大別される。大別された各様相を1つの
ガウス密度関数基底N(Σhij・ベクトルwj ,1)に
よって高い精度で近似できるならば、そのガウス密度関
数が1つのトレンドを近似的に表現する。この場合、そ
のトレンドはCSSRNNの重みベクトルとして明示的
に分散表現されていることが分かる。
【0186】また、時系列のトレンドが、様相の主項と
なる隠れ変数ベクトルに対応するガウス密度関数基底N
(Σhij・ベクトルwj ,1)のピークと数値的にほぼ
一致する場合、そのトレンドのデータ値はCSSRNN
の入力荷重Σhij・ベクトルwj により分散表現され
る。
【0187】次に、予測フィルタとしてCSSRNNを
用いる場合、文脈層がどのような役割を果たすかについ
て考える。(25)式により生成される時系列の予測フ
ィルタとして要求されることは、時系列のトレンドを予
測することとトレンドが切り替わったときにそれを的確
に追跡することである。
【0188】(25)式から導かれる性質として、次の
ようなものを挙げることができる。文脈層は時間的に変
化し、予測密度関数の形状を変える。文脈層の内容O
(t,s)バーが変化することにより様相が変化し、予測密
度関数の形状が変わる。
【0189】
【数42】
【0190】は、j番目の隠れ素子の出力履歴が様相に
関与する度合を示す。(13)式において、Θj (t)
大きければj番目の成分が1である隠れベクトルの重率
が大きくなる。
【0191】では、具体的な時系列とCSSRNNの文
脈層の回帰係数およびしきい値との関係を考える。ここ
では、h2r1−NNとの比較のためにh2r2−NN
による予測値を図30に示し、その予測密度関数列を図
31に示す。図23と図30とを比較するとh2r2−
NNのトレンド予測には乱れが少なく、安定な予測を行
っていることが分かる。また、図31のどの時刻におけ
る予測密度関数の形状もガウス密度関数に近い。h2r
2−NNで使用した最適なパラメータセットは図32に
示されている。h2r2−NNの場合も、h2r1−N
Nと同様にして、予測フィルタとして適当なパラメータ
を見つけることができる。
【0192】次に、h2r2−NNが予測する隠れ変数
ベクトルh(0) =(0,0)、ベクトルh(1) =(1,
0)、ベクトルh(2) =(0,1)、ベクトルh(3)
(1,1)に対する確率密度を、それぞれ図33、3
4、35、36に示す。これらの図から、各区間の様相
はそれぞれ1つの隠れ変数ベクトルでほぼ完全に表現で
きていることが分かる。N(1,1)が支配する区間に
対してはベクトルh(2)が対応し、また、N(−1,
1)の区間に対してはベクトルh(3) が対応する。した
がって、トレンドが入力荷重により分散表現されている
ことが分かる。以上のことから、h2r1−NNに比べ
て、h2r2−NNの方が予測フィルタとしての性質を
より多く満足していると考えられる。
【0193】図37、38は、特別なテストデータとそ
れに対するh2r1−NNとh2r2−NNとによる予
測結果を示している。各CSSRNNのパラメータとし
ては、それぞれ図25、32に示したものを用いた。こ
のテストデータは、{−1.0,−0.5,−0.2,
−0.1,0.0,0.1,0.2,0.5,1.0}
のいずれかの値がある程度続いた後、不連続に切り替わ
るパターンを表している。そして、それらの値の組み合
わせを適宜決めることにより生成されている。この実験
の目的は、文脈層の回帰係数(レジスタ係数)としきい
値の役割を明らかにすることである。すなわち、最適パ
ラメータのCSSRNNにおいて、入力x(t) に対する
様相の変化およびトレンドの切り替わりを定性的に把握
することが狙いである。図37、38において、黒塗り
の四角形がテストデータを表し、白抜きの四角形がh2
r1−NNによる予測値を表し、白抜きの丸がh2r2
−NNによる予測値を表す。
【0194】テストデータの全区間(時間軸をtとし
て、t∈[1,2,...,230])において、全体
的な傾向として、h2r1−NNに比べてh2r2−N
Nの方がトレンドからの変位(変差)の大きなデータに
対して鈍感であり、トレンドの切り替わりに対する追従
の速さに遅れがある。
【0195】図37のt∈[1,...,30]におい
ては、N(1,1)またはN(−1,1)の平均値をト
レンドとして推定している状態で、分散1を越える変位
のデータが突然入った場合、以後の予測がどのように変
化するかを調べるためにテストデータを構成した。例え
ば、N(1,1)の平均値1をトレンドと推定している
状態で、その予測から外れてN(−1,1)の平均値−
1の値に近い入力x(t ) =−0.5が突然入った場合、
h2r1−NNの予測値もh2r2−NNの予測値も僅
かに揺らぐだけである。その予測値の乱れは、若干、h
2r1−NNの方が大きい。N(−1,1)の平均値−
1をトレンドとして推定している状態で、N(1,1)
の平均値1の値に近い入力x(t) =0.5が突然入った
場合についても同様である。h2r1−NN、h2r2
−NNの内部状態O(t,1) バー、O(t,2) バーから決ま
るそれぞれの様相は、トレンドからの変差が分散を越え
るような入力が3個程度含まれても現状を保持する。
【0196】t∈[31,...,60]においては、
現在の予測がトレンドと一致しているものとして、トレ
ンドそのものではないが、その周辺の値、つまり分散よ
りも小さな変位の値が連続して入力された場合、予測が
どのように変化したかを調べるためにデータを構成し
た。この場合、h2r1−NN、h2r2−NNともに
予測値に変動は見られない。この区間では、内部状態O
(t,1) バー、O(t,2) バーの変化による様相の変化はほ
とんど生じないと考えられる。
【0197】t∈[61,...,100]において
は、現在の予測がトレンドと一致しているものとして、
平均値から分散以内の変差を持った入力が連続している
状態で、分散の2倍の変差を持ったデータが突然入力さ
れた場合を考える。これは、揺らぎや異常値を模したデ
ータが入力された後の予測の変動を調べるためである。
予測値にはある程度の乱れが生じ、入力の変化の影響が
僅かながら持続する。h2r1−NNに比べてh2r2
−NNの方が、影響は残らないことが読みとれる。内部
状態O(t,1) バー、O(t,2) バーが変化し、それらの変
化は様相の変化として現れている。このとき、予測密度
関数のピークの移動は小さいが、ガウス密度関数に比べ
ると予測密度関数のすそは広がる傾向にある。
【0198】図38のt∈[101,...,150]
においては、現在の予測がトレンドと一致しているもの
として、変差が分散よりも大きく、分散の2倍以下であ
るようなデータが連続して入力される場合の予測の変化
を調べた。予測の変動は、h2r1−NNとh2r2−
NNではかなり異なっている。現在のトレンドを−1と
して入力x(t) =0.5を選び、その値を連続的に入力
し続けた場合、予測密度関数は徐々にN(1,1)に近
い形に変化する。h2r1−NNでは連続的かつ直線的
に変化している。一方、h2r2−NNでは指数関数的
に急激に変化してN(−1,1)に近い形からN(1,
1)に変化する。h2r1−NNに比べてh2r2−N
Nでは、様相の保持が強固であることが分かる。
【0199】t∈[151,...,230]において
は、内部状態の変化が様相の変化としてほとんど現れな
いという意味で保守的であることを示している。ここで
の入力はトレンドに対して分散を越える変差を持つデー
タではあるが、先の区間で用いられたデータよりも変差
の小さいものを用いた。h2r1−NNでは予測密度関
数のピークが連続的に移動するが、h2r2−NNでは
全く動かないといえる。h2r2−NNにおいて、入力
の変差が分散を越える大きさであっても、更新された内
部状態の変化が様相の変化としてほとんど現れていな
い。
【0200】以上、簡単にまとめると、(25)式で生
成されたデータに対して適切なパラメータを選択すると
き、平均値が一定に保たれている各区間において、CS
SRNNのその区間における様相が、入力の変動に関わ
らず、できるかぎり保存されるようなパラメータが選ば
れている。このような様相の保存という要求がある一方
で、様相の切り替えを的確に行うという要求にも答えな
ければならない。したがって、文脈層のレジスタに割り
付ける重みベクトルuj としきい値θj として、CSS
RNNの様相が保守的になり、かつ、様相から様相への
遷移では中間的な様相を経由しないような値を選択する
ことができればよい。それらの値は、適当な個数のレジ
スタを持つCSSRNNにおいて、負値対数尤度を最小
にするパラメータを探索することによって得られる。
【0201】CSSRNNの予測分布は、入力および隠
れ素子の過去の出力に応じて、2つのトレンドに対応す
る主な2つの様相の間を移り合う。様相間の切り替えは
揺らぎに対しては保守的であると同時に、実際の切り替
えに対しては不連続的に対処するように、しきい値およ
びレジスタの重み係数が選ばれている。
【0202】次に、レジスタの個数について考えてみ
る。様相の切り替えを的確に行うという要求に加えて、
計算効率という点も考えて文脈層の大きさを考える必要
がある。多数のレジスタを持つCSSRNNを予測フィ
ルタとして用いる場合、適切なパラメータを選択する時
の困難さやトレンドの切り替え時の動作遅れなど好まし
くない側面が浮かび上がる。レジスタの個数を増やせば
負値対数尤度を小さくすることはできるが、予測値が時
系列に引きずられるため予測フィルタとしては適切では
ない。したがって、時系列に対してレジスタの個数を適
切に算定する必要がある。そこで、単純なヒューリステ
ィクスとして、形式的に情報量基準を援用し、レジスタ
の個数(文脈層の深さ)の適切さを計算する方法を導入
する。
【0203】ここでは、(25)式によって生成された
時系列Sに対して、いくつかのh2rs−NN(1≦s
≦5)の形式的情報量基準 2×(負値対数尤度)+2×(隠れ素子1つ当たりのレ
ジスタの個数) を計算する。その結果は図39に示されている。
【0204】図39から、分布のすそが重なる領域に出
現するデータや異常値に対して各区間に対応する様相を
保存するには、予測レジスタの個数を2個として過去2
単位時間の出力を保存すれば十分であることが分かる。
レジスタが2個以上のCSSRNNでは、レジスタ数の
増加に伴う負値対数尤度の変化は小さい。また、トレン
ドの予測値の形状に大きな差が見られないことや、レジ
スタの個数が増えると逆にCSSRNNのトレンドの予
測がテストデータに引きずられる傾向があることなどを
実験的に確かめることができる。このような形式的情報
量基準を用いる評価方法は、(25)式のような構造の
情報源に対する予測フィルタを構成するという目的に合
致したヒューリスティクスと考えられる。
【0205】以上の実験および考察より、CSSRNN
による予測フィルタの内部表現と時系列データの関係に
ついて次のような結論が得られた。 (e)CSSRNNにおいて、予測密度関数p(ベクト
ルx(t) |Φ,O(t,s)バー)が隠れ変数ベクトルh
(i) の予測分布P(ベクトルh(i) |Φ,O(t,s)
ー)を重みとするガウス密度関数N(Σhij・ベクトル
j ,1)の線形結合で表現される。基底となるガウス
密度関数の平均値は、隠れ変数ベクトルと隠れ素子の入
力重みベクトルwj とにより決まり、Σhij・ベクトル
j となる。したがって、予測密度関数の形状は、隠れ
変数ベクトルが確率的に重合した状態(様相)と入力重
みベクトルとにより決まる。 (f)時系列Sに対してCSSRNNの最適なパラメー
タとは、CSSRNNによって表現可能な予測密度関数
列の中から尤もらしい関数列を生成するものである。ゆ
えに、最適なパラメータのCSSRNNでは、時系列S
の持っている性質(確率的な構造)が様相の重率に反映
される。 (g)時系列Sが平均値移動型のガウス密度関数によっ
て生成される場合、CSSRNNは時系列Sの背後にあ
るトレンドの切り替えなどの法則性を相異なる様相から
様相への遷移として表現する。時系列Sそれ自体は、様
相の列によって指定された予測密度関数列に従うものと
見倣される。 (h)時系列のトレンドが、様相の主項となる隠れ変数
ベクトルに対応するガウス密度関数基底N(Σhij・ベ
クトルwj ,1)のピークと数値的にほぼ一致し、か
つ、主項の重率が1.0に近ければ、トレンドの値はC
SSRNNの入力荷重Σhij・ベクトルwj により分散
表現される。 (i)作動中のCSSRNNでは、予測密度関数は、入
力および隠れ素子の過去の出力に応じて、複数のトレン
ドに対応する主な複数の様相間を移り合う。平均値移動
型ガウス密度関数に対する予測フィルタとしては、様相
間の切り替えが揺らぎに対して保守的であると同時に、
それが不連続的に実施されることが要求される。したが
って、内部状態の変動が様相の変動に可能な限り影響し
ないという条件で、可能な限り内部状態の変動の許容範
囲を広げるように、しきい値およびレジスタの重み係数
が選ばれなければならない。このとき、評価関数 merit
(S|Φ)を数値的に最適化することで、要求を満たす
パラメータが見つかる。 (j)予測フィルタを実現するために、CSSRNNの
大きさ(隠れ素子の個数とレジスタの個数)を適切に選
択する必要がある。平均値移動型ガウス密度関数に対し
て、形式的情報量基準を用いて文脈層の深さ(レジスタ
の個数)および各パラメータの値を定めると、適切な予
測フィルタを構成することができる。
【0206】上述した実施形態から分かるように、本発
明の時系列トレンド推定システムは、不連続に急変する
トレンドを的確にトレースすることができる。したがっ
て、次のような非定常非線形の時系列解析を必要とする
分野において、高速で的確なトレンドの推定に利用でき
る。 ♯1:コンピュータ・ネットワークの資源管理 ネットワーク・トラフィックやネットワーク全体のCP
U負荷を、時系列データとして推定することができる。
また、利用可能なメモリ量を用いてネットワークの利用
度をモデル化し、利用度の変化を推定することができ
る。
【0207】ネットワーク・トラフィックなどの時間的
に変化する測定量からネットワークの状態を予測するこ
とにより、ネットワークの資源を適切に制御することが
できる。特に、測定量が区分的に定常であって、各区間
毎に不連続に変化するトレンドを含む場合でも、ネット
ワークの状態が的確に予測される。 ♯2:生体信号処理 脳波による睡眠ステージの個人別のモデル化を行い、睡
眠障害の予測を行うことができる。また、心電による個
人別の負荷モデルを作成し、身体の異常の予測を行うこ
とができる。
【0208】
【発明の効果】本発明によれば、再帰型ニューラルネッ
トワークの内部状態と時系列データとの関係が明確にな
り、その関係を用いて時間的に不連続に変化する時系列
のトレンドを効率的に推定することが可能になる。
【図面の簡単な説明】
【図1】本発明の原理図である。
【図2】時系列トレンド推定処理のフローチャートであ
る。
【図3】実施形態のシステム構成図である。
【図4】実施形態の計算機システムの構成図である。
【図5】ネットワーク学習装置の構成図である。
【図6】2次元のパラメータセットの初期値シンプレッ
クスを示す図である。
【図7】予測装置の構成図である。
【図8】ニューラル素子を示す図である。
【図9】目標関数評価装置の構成図である。
【図10】正規化係数算定装置の構成図である。
【図11】確率密度算定装置の構成図である。
【図12】トレンド推定システムの処理フローチャート
である。
【図13】学習装置の処理フローチャートである。
【図14】予測装置の処理フローチャートである。
【図15】跳躍型トレンドの時系列を示す図である。
【図16】h2r1のニューラルネットワークによる予
測結果を示す図である。
【図17】h2r10のニューラルネットワークによる
予測結果を示す図である。
【図18】異常値を含む時系列を示す図である。
【図19】異常値を含む場合のh2r1のニューラルネ
ットワークによる予測結果を示す図である。
【図20】異常値を含む場合のh2r10のニューラル
ネットワークによる予測結果を示す図である。
【図21】異常値を含む場合のh10r10のニューラ
ルネットワークによる予測結果を示す図である。
【図22】テスト用の時系列を示す図である。
【図23】h2r1のニューラルネットワークによる予
測値を示す図である。
【図24】h2r1のニューラルネットワークによる予
測分布を示す図である。
【図25】h2r1のニューラルネットワークの最適パ
ラメータセットの例を示す図である。
【図26】h2r1のニューラルネットワークにおける
隠れ変数ベクトル(0,0)の確率密度を示す図であ
る。
【図27】h2r1のニューラルネットワークにおける
隠れ変数ベクトル(1,0)の確率密度を示す図であ
る。
【図28】h2r1のニューラルネットワークにおける
隠れ変数ベクトル(0,1)の確率密度を示す図であ
る。
【図29】h2r1のニューラルネットワークにおける
隠れ変数ベクトル(1,1)の確率密度を示す図であ
る。
【図30】h2r2のニューラルネットワークによる予
測値を示す図である。
【図31】h2r2のニューラルネットワークによる予
測分布を示す図である。
【図32】h2r1のニューラルネットワークの最適パ
ラメータセットの例を示す図である。
【図33】h2r2のニューラルネットワークにおける
隠れ変数ベクトル(0,0)の確率密度を示す図であ
る。
【図34】h2r2のニューラルネットワークにおける
隠れ変数ベクトル(1,0)の確率密度を示す図であ
る。
【図35】h2r2のニューラルネットワークにおける
隠れ変数ベクトル(0,1)の確率密度を示す図であ
る。
【図36】h2r2のニューラルネットワークにおける
隠れ変数ベクトル(1,1)の確率密度を示す図であ
る。
【図37】2つのニューラルネットワークの予測結果を
示す図(その1)である。
【図38】2つのニューラルネットワークの予測結果を
示す図(その2)である。
【図39】レジスタの個数と形式的情報基準の例を示す
図である。
【符号の説明】
1 入力手段 2 ニューラルネットワーク手段 3 予測値生成手段 4 出力手段 11 制御装置 12 表示・対話装置 13 システム管理装置 14 学習装置 15 観測装置 16 ネットワーク学習装置 17 予測装置 18 非線形方程式求解装置 19 コラム構造再帰型ニューラルネットワーク 21 CPU 22 メモリ 23 入出力端末 24 バス 31 アニーリング制御装置 32 パラメータ精錬装置 33 評価関数算定装置 41 零点算定装置 42 予測値選択装置 43 目標関数評価装置 44 正規化係数算定装置 45 確率密度算定装置 51−1,51−2,51−m,51−j ニューラル
素子(隠れ素子) 52−1−1,52−1−2,52−1−s,52−2
−1,52−2−2,52−2−s,52−m−1,5
2−m−2,52−m−s レジスタ 61,71,81 内部状態情報変換器 62−1,62−2,62−m,64,65,72−
1,72−2,72−m,77,82−1,82−2,
82−m 加算器 63−1,63−2,63−m ロジスティック関数演
算器 73 2値ベクトル生成器 74 ベクトル乗算器 75 ベクトル加算器 76,86 ノルム算定器 78,83−1,83−2,83−m,85 指数関数
計算器 79 累積型加算器 80 逆数演算器 84 乗算器

Claims (18)

    【特許請求の範囲】
  1. 【請求項1】 時間的に変化するデータの変化トレンド
    を推定する情報処理装置において、 時系列データを入力する入力手段と、 文脈層を有するコラム構造の再帰型ニューラルネットワ
    ークを含み、過去の時系列データに関する情報を含む内
    部状態を出力するニューラルネットワーク手段と、 前記内部状態を用いて予測値の候補の出現確率を求め、
    最も確率の高い候補を予測値として求める予測値生成手
    段と、 前記予測値を未知データの推定結果として出力する出力
    手段とを備えることを特徴とする時系列トレンド推定シ
    ステム。
  2. 【請求項2】 前記ニューラルネットワーク手段は、デ
    ータの特定の確率分布が選択される確率に関する情報を
    表す前記内部状態を出力することを特徴とする請求項1
    記載の時系列トレンド推定システム。
  3. 【請求項3】 与えられた時系列データを学習し、前記
    再帰型ニューラルネットワークの最適パラメータを生成
    して前記ニューラルネットワーク手段に与える学習手段
    をさらに備え、 前記ニューラルネットワーク手段は、前記最適パラメー
    タを用いて前記内部状態を計算するように構成されるこ
    とを特徴とする請求項1記載の時系列トレンド推定シス
    テム。
  4. 【請求項4】 前記学習手段は、前記再帰型ニューラル
    ネットワークのパラメータの任意の値と前記与えられた
    時系列データとから評価関数を計算し、該評価関数の値
    が最適となるようなパラメータを前記最適パラメータと
    するように構成されることを特徴とする請求項3記載の
    時系列トレンド推定システム。
  5. 【請求項5】 前記再帰型ニューラルネットワークは、
    前記時系列データを入力とするニューラル素子と、該ニ
    ューラル素子の過去における出力履歴を時間の序列を保
    って保持する文脈層のシフトレジスタとを含むコラムを
    複数備え、該シフトレジスタの出力は同じコラム内のニ
    ューラル素子に再帰的に入力されるように構成されるこ
    とを特徴とする請求項1記載の時系列トレンド推定シス
    テム。
  6. 【請求項6】 前記再帰型ニューラルネットワークは、
    前記時系列データを入力とするニューラル素子と該ニュ
    ーラル素子の過去における出力履歴を保持する文脈層の
    レジスタとを含むコラムを複数備え、該レジスタの出力
    は同じコラム内のニューラル素子に再帰的に入力される
    ように構成されることを特徴とする請求項1記載の時系
    列トレンド推定システム。
  7. 【請求項7】 前記予測手段は、時系列データの不連続
    なトレンドの離散性を表現する離散変数を前記ニューラ
    ル素子に割り付け、該離散変数と前記内部状態により表
    現されるエネルギー関数から定義される確率分布関数を
    生成し、該確率分布関数を用いて前記予測値を求めるよ
    うに構成されることを特徴とする請求項6記載の時系列
    トレンド推定システム。
  8. 【請求項8】 前記予測手段は、前記離散変数の確率分
    布を重みとして複数のガウス分布関数を合成した前記確
    率分布関数を生成するように構成されることを特徴とす
    る請求項7記載の時系列トレンド推定システム。
  9. 【請求項9】 前記予測手段は、前記内部状態を用いて
    複数のガウス分布関数の合成となる確率分布関数を生成
    し、該確率分布関数を用いて前記予測値を求めるように
    構成されることを特徴とする請求項1記載の時系列トレ
    ンド推定システム。
  10. 【請求項10】 前記予測手段は、該内部状態が更新さ
    れることにより時間によって形状を変える確率分布関数
    の列を生成し、該確率分布関数の列から時間的に変化す
    る予測値の列を生成するように構成されることを特徴と
    する請求項9記載の時系列トレンド推定システム。
  11. 【請求項11】 前記予測手段は、前記内部状態と前記
    再帰型ニューラルネットワークのパラメータとから決め
    られる予測方程式の解を、前記予測値の候補とするよう
    に構成されることを特徴とする請求項1記載の時系列ト
    レンド推定システム。
  12. 【請求項12】 前記予測手段は、前記内部状態と前記
    再帰型ニューラルネットワークのパラメータとにより記
    述される目標関数の零点を求める零点算定手段を備え、
    該零点に対応するデータ値を前記予測値の候補とするよ
    うに構成されることを特徴とする請求項11記載の時系
    列トレンド推定システム。
  13. 【請求項13】 前記予測手段は、前記零点の近傍にお
    ける前記目標関数の値を前記内部状態から計算して前記
    零点算定手段に与える目標関数評価手段をさらに備える
    ことを特徴とする請求項12記載の時系列トレンド推定
    システム。
  14. 【請求項14】 前記予測手段は、前記予測値の候補と
    前記内部状態とからデータの確率分布関数の値を計算す
    る確率算定手段をさらに備えることを特徴とする請求項
    11記載の時系列トレンド推定システム。
  15. 【請求項15】 前記再帰型ニューラルネットワーク
    は、ニューラル素子を含む複数のコラムを備え、前記予
    測手段は、該ニューラル素子に割り付けられた離散変数
    を用いて前記確率分布関数の正規化係数を計算する正規
    化係数算定手段をさらに備え、前記確率算定手段は、該
    正規化係数算定手段が求めた該正規化係数を用いて前記
    確率分布関数の値を計算するように構成されることを特
    徴とする請求項14記載の時系列トレンド推定システ
    ム。
  16. 【請求項16】 前記複数の予測値の候補を前記確率算
    定手段に与えて、対応する前記確率分布関数の複数の値
    を受け取り、該複数の値の中で最大値に対応する候補を
    前記予測値として選ぶ予測値選択手段をさらに備えるこ
    とを特徴とする請求項14記載の時系列トレンド推定シ
    ステム。
  17. 【請求項17】 時間的に変化するデータの変化トレン
    ドを推定する情報処理装置における記憶媒体であって、 時系列データを入力する入力手段と、 文脈層を有するコラム構造の再帰型ニューラルネットワ
    ークを含み、過去の時系列データに関する情報を含む内
    部状態を出力するニューラルネットワーク手段と、 前記内部状態を用いて予測値の候補の出現確率を求め、
    最も確率の高い候補を予測値として求める予測値生成手
    段と、 前記予測値を未知データの推定結果として出力する出力
    手段とを備えることを特徴とする記憶媒体。
  18. 【請求項18】 時間的に変化するデータの変化トレン
    ドを推定する方法において、 文脈層を有するコラム構
    造の再帰型ニューラルネットワークを用いて、過去の時
    系列データに関する情報を含む内部状態を求め、 前記内部状態を用いて予測値の候補の出現確率を求め、 最も確率の高い候補を未知データの予測値とすることを
    特徴とする時系列トレンド推定方法。
JP7229509A 1995-09-06 1995-09-06 コラム構造の再帰型ニューラルネットワークによる時系列トレンド推定システムおよび方法 Withdrawn JPH0973440A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP7229509A JPH0973440A (ja) 1995-09-06 1995-09-06 コラム構造の再帰型ニューラルネットワークによる時系列トレンド推定システムおよび方法
US08/701,700 US5956702A (en) 1995-09-06 1996-08-22 Time-series trend estimating system and method using column-structured recurrent neural network

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP7229509A JPH0973440A (ja) 1995-09-06 1995-09-06 コラム構造の再帰型ニューラルネットワークによる時系列トレンド推定システムおよび方法

Publications (1)

Publication Number Publication Date
JPH0973440A true JPH0973440A (ja) 1997-03-18

Family

ID=16893297

Family Applications (1)

Application Number Title Priority Date Filing Date
JP7229509A Withdrawn JPH0973440A (ja) 1995-09-06 1995-09-06 コラム構造の再帰型ニューラルネットワークによる時系列トレンド推定システムおよび方法

Country Status (2)

Country Link
US (1) US5956702A (ja)
JP (1) JPH0973440A (ja)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002062905A (ja) * 2000-06-27 2002-02-28 Mitsubishi Electric Research Laboratories Inc 連続した複雑系システムの頂点ベースでの最適化において動的に制約条件を取り扱うシステムの最適化方法
US9015095B2 (en) 2012-01-25 2015-04-21 Fujitsu Limited Neural network designing method and digital-to-analog fitting method
JP2018116693A (ja) * 2016-12-19 2018-07-26 三菱電機株式会社 動作に関する予測推論のモデルを求めるシステム及び方法、およびこれらのための非一時的コンピューター可読記憶媒体
JP2018528518A (ja) * 2015-07-27 2018-09-27 グーグル エルエルシー 再帰型ニューラルネットワークを使用する、条件が満足される尤度の予測
JP2019502212A (ja) * 2016-01-14 2019-01-24 株式会社Preferred Networks 時系列データ適合およびセンサ融合のシステム、方法、および装置
US10402721B2 (en) 2015-07-27 2019-09-03 Google Llc Identifying predictive health events in temporal sequences using recurrent neural network
JP2020046833A (ja) * 2018-09-18 2020-03-26 株式会社サイトビジット 試験問題予測システム及び試験問題予測方法
CN110941929A (zh) * 2019-12-06 2020-03-31 长沙理工大学 一种基于ARMA和Elman神经网络联合建模的电池健康状态评估方法
JP2020510926A (ja) * 2017-02-27 2020-04-09 アマゾン・テクノロジーズ、インコーポレイテッド インテリジェントセキュリティ管理
JP2020074099A (ja) * 2017-04-19 2020-05-14 シャンハイ カンブリコン インフォメーション テクノロジー カンパニー リミテッドShanghai Cambricon Information Technology Co.,Ltd. 処理装置と処理方法
WO2022215270A1 (ja) * 2021-04-09 2022-10-13 日本電気株式会社 予測モデル生成装置、予測モデル生成方法及び非一時的なコンピュータ可読媒体

Families Citing this family (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2996926B2 (ja) * 1997-03-11 2000-01-11 株式会社エイ・ティ・アール音声翻訳通信研究所 音素シンボルの事後確率演算装置及び音声認識装置
US6125105A (en) * 1997-06-05 2000-09-26 Nortel Networks Corporation Method and apparatus for forecasting future values of a time series
US6574587B2 (en) * 1998-02-27 2003-06-03 Mci Communications Corporation System and method for extracting and forecasting computing resource data such as CPU consumption using autoregressive methodology
US6678640B2 (en) * 1998-06-10 2004-01-13 Matsushita Electric Industrial Co., Ltd. Method and apparatus for parameter estimation, parameter estimation control and learning control
US6466894B2 (en) * 1998-06-18 2002-10-15 Nec Corporation Device, method, and medium for predicting a probability of an occurrence of a data
US6792412B1 (en) * 1999-02-02 2004-09-14 Alan Sullivan Neural network system and method for controlling information output based on user feedback
US6581047B1 (en) * 1999-04-07 2003-06-17 Inesa, Inc. Method for a sequential prediction of binary element's state in a binary process and the system for the method implementation
US7194434B2 (en) * 2000-06-15 2007-03-20 Sergio Piccioli Method for predictive determination of financial investment performance
WO2002057946A1 (en) * 2001-01-18 2002-07-25 The Board Of Trustees Of The University Of Illinois Method for optimizing a solution set
US7818224B2 (en) * 2001-03-22 2010-10-19 Boerner Sean T Method and system to identify discrete trends in time series
US6662091B2 (en) 2001-06-29 2003-12-09 Battelle Memorial Institute Diagnostics/prognostics using wireless links
US6889165B2 (en) 2001-07-02 2005-05-03 Battelle Memorial Institute Application specific intelligent microsensors
US20050119982A1 (en) * 2002-05-10 2005-06-02 Masato Ito Information processing apparatus and method
US7324980B2 (en) * 2002-05-10 2008-01-29 Sony Corporation Information processing apparatus and method
US20040068475A1 (en) * 2002-09-30 2004-04-08 Depold Hans R. Physics based neural network trend detector
US20040122950A1 (en) * 2002-12-20 2004-06-24 Morgan Stephen Paul Method for managing workloads in an autonomic computer system for improved performance
US20090210370A1 (en) * 2003-01-16 2009-08-20 Bayer Aktiengesellschaft Method for determining the permitted working range of a neural network
JP4773680B2 (ja) * 2003-08-07 2011-09-14 ソニー株式会社 情報処理装置および方法、プログラム記録媒体、並びにプログラム
US6980926B1 (en) * 2003-10-06 2005-12-27 The United States Of America As Represented By The Secretary Of The Navy Detection of randomness in sparse data set of three dimensional time series distributions
US7076350B2 (en) * 2003-12-19 2006-07-11 Lear Corporation Vehicle energy management system using prognostics
US7580852B2 (en) * 2004-04-15 2009-08-25 Sap Ag System and method for modeling non-stationary time series using a non-parametric demand profile
US7395251B2 (en) * 2005-07-01 2008-07-01 International Business Machines Corporation Neural networks for prediction and control
US8463721B2 (en) 2010-08-05 2013-06-11 Toyota Motor Engineering & Manufacturing North America, Inc. Systems and methods for recognizing events
US8775341B1 (en) 2010-10-26 2014-07-08 Michael Lamport Commons Intelligent control with hierarchical stacked neural networks
US9015093B1 (en) 2010-10-26 2015-04-21 Michael Lamport Commons Intelligent control with hierarchical stacked neural networks
US10565080B2 (en) * 2012-06-12 2020-02-18 Siemens Aktiengesellschaft Discriminative hidden kalman filters for classification of streaming sensor data in condition monitoring
TR201514432T1 (tr) * 2013-06-21 2016-11-21 Aselsan Elektronik Sanayi Ve Ticaret Anonim Sirketi Veri̇ni̇n i̇leri̇ beslemeli̇ si̇ni̇r aği mi̇mari̇si̇ kullanilarak yalanci-yi̇neleme i̇le i̇şlenmesi̇ i̇çi̇n yöntem
WO2015193531A1 (en) * 2014-06-16 2015-12-23 Nokia Technologies Oy Data processing
JP6874207B2 (ja) * 2018-03-01 2021-05-19 株式会社ソニー・インタラクティブエンタテインメント 推定装置、推定方法及びプログラム
US10824815B2 (en) 2019-01-02 2020-11-03 Netapp, Inc. Document classification using attention networks
US20220398833A1 (en) * 2019-11-13 2022-12-15 Nec Corporation Information processing device, learning method, and recording medium

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5093899A (en) * 1988-09-17 1992-03-03 Sony Corporation Neural network with normalized learning constant for high-speed stable learning
US5109475A (en) * 1988-09-19 1992-04-28 Hitachi, Ltd. Method and a system for selection of time series data
US5056037A (en) * 1989-12-28 1991-10-08 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Analog hardware for learning neural networks
US5255349A (en) * 1990-01-26 1993-10-19 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Electronic neural network for solving "traveling salesman" and similar global optimization problems
GB9021489D0 (en) * 1990-10-03 1990-11-14 Ensigma Ltd Methods and apparatus for verifying the originator of a sequence of operations
US5465321A (en) * 1993-04-07 1995-11-07 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Hidden markov models for fault detection in dynamic systems

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4745531B2 (ja) * 2000-06-27 2011-08-10 バイナリー サービシーズ リミテッド ライアビリティー カンパニー 連続した複雑系システムの頂点ベースでの最適化において動的に制約条件を取り扱うシステムの最適化方法
JP2002062905A (ja) * 2000-06-27 2002-02-28 Mitsubishi Electric Research Laboratories Inc 連続した複雑系システムの頂点ベースでの最適化において動的に制約条件を取り扱うシステムの最適化方法
US9015095B2 (en) 2012-01-25 2015-04-21 Fujitsu Limited Neural network designing method and digital-to-analog fitting method
US10726327B2 (en) 2015-07-27 2020-07-28 Google Llc Predicting likelihoods of conditions being satisfied using recurrent neural networks
JP2018528518A (ja) * 2015-07-27 2018-09-27 グーグル エルエルシー 再帰型ニューラルネットワークを使用する、条件が満足される尤度の予測
US10402721B2 (en) 2015-07-27 2019-09-03 Google Llc Identifying predictive health events in temporal sequences using recurrent neural network
US12073307B2 (en) 2015-07-27 2024-08-27 Google Llc Predicting likelihoods of conditions being satisfied using neural networks
US11790216B2 (en) 2015-07-27 2023-10-17 Google Llc Predicting likelihoods of conditions being satisfied using recurrent neural networks
JP2019502212A (ja) * 2016-01-14 2019-01-24 株式会社Preferred Networks 時系列データ適合およびセンサ融合のシステム、方法、および装置
JP2018116693A (ja) * 2016-12-19 2018-07-26 三菱電機株式会社 動作に関する予測推論のモデルを求めるシステム及び方法、およびこれらのための非一時的コンピューター可読記憶媒体
US11102221B2 (en) 2017-02-27 2021-08-24 Amazon Technologies, Inc. Intelligent security management
JP2020510926A (ja) * 2017-02-27 2020-04-09 アマゾン・テクノロジーズ、インコーポレイテッド インテリジェントセキュリティ管理
JP2020074099A (ja) * 2017-04-19 2020-05-14 シャンハイ カンブリコン インフォメーション テクノロジー カンパニー リミテッドShanghai Cambricon Information Technology Co.,Ltd. 処理装置と処理方法
JP2020046833A (ja) * 2018-09-18 2020-03-26 株式会社サイトビジット 試験問題予測システム及び試験問題予測方法
CN110941929A (zh) * 2019-12-06 2020-03-31 长沙理工大学 一种基于ARMA和Elman神经网络联合建模的电池健康状态评估方法
WO2022215270A1 (ja) * 2021-04-09 2022-10-13 日本電気株式会社 予測モデル生成装置、予測モデル生成方法及び非一時的なコンピュータ可読媒体

Also Published As

Publication number Publication date
US5956702A (en) 1999-09-21

Similar Documents

Publication Publication Date Title
JPH0973440A (ja) コラム構造の再帰型ニューラルネットワークによる時系列トレンド推定システムおよび方法
Chua et al. Deep reinforcement learning in a handful of trials using probabilistic dynamics models
Creager et al. Causal modeling for fairness in dynamical systems
Zhang et al. Particle swarm optimization for resource-constrained project scheduling
Van Moffaert et al. Multi-objective reinforcement learning using sets of pareto dominating policies
Drgoňa et al. Differentiable predictive control: Deep learning alternative to explicit model predictive control for unknown nonlinear systems
Le Guen et al. Deep time series forecasting with shape and temporal criteria
Ruiz-Montiel et al. A temporal difference method for multi-objective reinforcement learning
Xu et al. Online multi-task learning framework for ensemble forecasting
Creighton et al. Towards building a hybrid model for predicting stock indexes
Senn et al. Reducing the computational effort of optimal process controllers for continuous state spaces by using incremental learning and post-decision state formulations
Gao et al. A ${\bm\lambda} $-Cut and Goal-Programming-Based Algorithm for Fuzzy-Linear Multiple-Objective Bilevel Optimization
Salahshoor et al. Online affine model identification of nonlinear processes using a new adaptive neuro-fuzzy approach
Ivakhnenko et al. Recent developments of self-organising modeling in prediction and analysis of stock market
Akbarzadeh et al. Online learning in limit order book trade execution
Kaplarević-Mališić et al. Identifying optimal architectures of physics-informed neural networks by evolutionary strategy
Damkevala et al. Behavior analysis using serverless machine learning
Ryzhov et al. Optimal learning of transition probabilities in the two-agent newsvendor problem
Wijesuriya et al. Bayes-adaptive planning for data-efficient verification of uncertain Markov decision processes
Hart et al. Using echo state networks to approximate value functions for control
Ozoh et al. An In-Depth Study of Typical Machine Learning Methods via Computational Techniques
Banchio et al. Games of artificial intelligence: A continuous-time approach
Hart et al. Echo State Networks for Reinforcement Learning
Rojek et al. Industrial control system based on data processing
Mashor Modified recursive prediction error algorithm for training layered neural network

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20021203