JPH03219362A - 時系列データ処理方式 - Google Patents

時系列データ処理方式

Info

Publication number
JPH03219362A
JPH03219362A JP2014700A JP1470090A JPH03219362A JP H03219362 A JPH03219362 A JP H03219362A JP 2014700 A JP2014700 A JP 2014700A JP 1470090 A JP1470090 A JP 1470090A JP H03219362 A JPH03219362 A JP H03219362A
Authority
JP
Japan
Prior art keywords
time
series data
output
network
time series
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014700A
Other languages
English (en)
Inventor
Takashi Kawasaki
川崎 貴
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2014700A priority Critical patent/JPH03219362A/ja
Publication of JPH03219362A publication Critical patent/JPH03219362A/ja
Pending legal-status Critical Current

Links

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。

Description

【発明の詳細な説明】 〔概 要〕 ニューラルネットワークによる時系列データの処理に関
し、 変化に時間差のある複数種類の時系列データから所要の
出力を得るネットワークを、経済的に構成できる時系列
データ処理方式を目的とし、グローバルネットワークと
、ローカルネットワークと、バッファとを有し、該ロー
カルネットワークは、ニューラルネットワークであって
、所定の種類の時系列データごとに設けられ、当該時系
列データを入力として、所要の出力を生成するように設
定され、該バッファは、該ローカルネットワークごとに
対応し、当該ローカルネットワークの該出力について、
所定時間内の該出力から求める所定の関数値を保持し、
該グローバルネットワークは、ニューラルネットワーク
であって、該バッファの保持する該関数値を入力として
所要の出力を生成するように設定されているように構成
する。
〔産業上の利用分野〕
本発明は、ニューラルネ・ノドワークによる時系列デー
タの処理、特に変化に時間差のある複数種類の時系列デ
ータを処理する方式に関する。
〔従来の技術〕
公知のようにニューラルネットワークは、第5図に説明
的に示すように、入力層、中間層、出力層からなり、前
の層の全ノードの各出力を、各ノード入力ごとに定めら
れるある重みを乗じて次の層の通常は全ノードに入力し
、それら入力の合計を入力とする所定の関数の値を当ノ
ードの出力とするように構成する。中間層は2層以上の
場合もあり、出力層のノードは必要な出力の種類に応じ
て、2以上になってもよい。
各ノードの出力を定める前記の関数には、例えば、Xを
前記の入力合計値、eを自然対数の底として、f (x
)・1/(1+ e−X)で表されるシグモイド関数が
用いられる。なお、図の入力層の第4ノード及び中間層
の第1ノードは何れも定数1.0を出力するノードで、
この出力に他のノード出力と同様に重みを乗じて闇値と
し、各ノード入力に必要なバイアスを与える。
このようなニューラルネットワークを使用する場合には
、所要の入力信号をニューラルネットワークの入力層の
入力端子に入力して、出力層の出力端子に必要な出力値
を得るように学習する必要がある。
このニューラルネットワークの学習は公知のように、入
力信号と、その入力からの所望の出力信号を示す教師信
号とをニューラルネットワークに与え、出力信号と教師
信号との差を縮小するように、各ノード間の前記の重み
を調整する処理であり、例えばパンクプロパゲーション
法等の所定のアルゴリズムにより、実際の出力信号と教
師信号との差に基いて重みを変更する動作を反復して両
信号間の差を漸次減少させる。
このようにして両信号間の差を所定値以内に収束させる
ことにより、入力信号の1パターンについての学習がで
きるので、一般に複数の必要な入力信号パターンと教師
信号との組合わせの群について、前記のような学習動作
を反復して、ニューラルネットワークを所要の状態に設
定する。
センサで観測される温度値等の時系列データを入力して
、観測値の時間的な変動に基づく所要の出力を得るよう
に、前記のようなニューラルネットワークを利用するこ
とができる。そのような時系列データが複数種類あり、
それらを総合した結果を得たい場合に、第4図に示すよ
うに各種時系列データごとにローカルなニューラルネッ
トワーク(ローカルネットワークとする)1−1〜1−
n と、それらローカルネットワーク1−1〜1−nの
出力を入力とするニューラルネットワーク(グローバル
ネットワークとする)2からなる、2以上の階層でニュ
ーラルネットワークを接続する、いわゆるマルチネット
ワーク構成が用いられる。
〔発明が解決しようとする課題〕
そのような多種の時系列データを扱う問題において、各
種時系列データの間で時間的変動に時間差を持つ場合が
しばしばあるが、そのような時間差をカバーするには、
前記のマルチネットワーク構成では、例えば各時系列デ
ータの期間を、時間差を包含する程度に十分長くする必
要があり、その結果各ローカルネットワークの規模が太
き(なり、それに従って学習時間も長大化する等の問題
があった。
本発明は、ニューラルネットワークによる時系列データ
の処理において、変化に時間差のある複数種類の時系列
データから所要の出力を得るネットワークを、経済的に
構成できる時系列データ処理方式を目的とする。
〔課題を解決するための手段〕
第1図は、本発明の構成を示すブロック図である。
図は時系列データ処理方式の構成であって、グローバル
ネットワーク3と、ローカルネ・ノドワーク1−1〜1
−n と、バッファ4−1〜4−n とを有し、ローカ
ルネットワーク1−1〜l−n は、ニューラルネット
ワークであって、所定の種類の時系列データごとに設け
られ、当該時系列データを入力として、所要の出力を生
成するように設定され、バッファ4−1〜4−nは、ロ
ーカルネットワーク1−1〜1−nごとに対応し、当該
ローカルネットワークの該出力について、所定時間内の
該出力から求める所定の関数値を保持し、グローバルネ
ットワーク3は、ニューラルネットワークであって、バ
ッファ4−1〜4−nの保持する該関数値を入力として
所要の出力を生成するように設定されている。
〔作 用] この処理方式により、バッファ4−1〜4−nにおいて
、接続するローカルネットワーク1−1〜1−nの一定
時間内の各出力について、所定の闇値を越えた出力の有
無、或いはその時間内の出力の最大値等を前記関数値と
して、グローバルネットワーク3の入力とすれば、各時
系列データの期間を越える時間範囲にわたる処理を行う
ことが可能になり、ふノドワークを拡大しないでも、時
系列データ間の変化の時間差をカバーすることが容易に
できるようになる。
〔実施例〕
第2図は本発明の実施例を示すブロック図である、10
−1〜10−〇はそれぞれ所要の場所に設置された、温
度、湿度、圧力等のセンサである。データバッファ11
−1〜11−nは、それぞれ1センサと接続して、当該
センサの出力する一定時間ごとの観測値を、所定の時間
にわたって記憶し、その観測値列からローカルネットワ
ーク1−1〜1−nの各入力とする時系列データを生成
する。時系列データは観測値そのま−で構成してもよい
が、必要に応じて適宜加工して後の処理を効率よく進め
られるような前処理をする。
ローカルネットワーク1−1〜1−n は、それぞれの
時系列データ入力に対して必要な出力をするように予め
学習しておく。
バッファ4−1〜4−n は、それぞれ対応するローカ
ルネットワーク1−1〜1−nの出力を受は取って、例
えば一定の時間内に一定の闇値を越える出力が有ったか
否かを1及び0で保持する。第3図は各バッファ4−1
〜4−nの一構成例であって、閾値レジスタ20には、
それぞれ所要の閾値を設定しておき、比較回路21でロ
ーカルネットワーク1−1〜1−nの出力のアナログ値
と、閾値レジスタ20の内容とを比較し、ローカルネッ
トワークの出力値の方が大きい場合に1、大きくない場
合にOを判定値レジスタ22の左端ビットにセット、判
定値レジスタ22を1ビツト右にシフトする。
判定値レジスタ22は、所要の監視時間に応じたビット
長のレジスタとし、各ビットに各時間ごとの時系列デー
タによるローカルネットワークの出力に対応した判定値
を保持するようにする。この判定値レジスタ22の全ピ
ントの値の論理和をバッファ4−1〜4−nの出力とす
れば、所要の時間内に闇値を越える出力が有ったか否か
を示す。
グローバルネットワーク3は、それらのバッファ4−1
〜4−nの出力を入力して、所要の出力を得るように学
習しておく。
〔発明の効果〕
以上の説明から明らかなように本発明によれば、ニュー
ラルネットワークによる時系列データの処理において、
変化に時間差のある複数種類の時系列データから所要の
出力を得るネットワークを経済的に構成できるという著
しい工業的効果がある。
【図面の簡単な説明】
第1図は本発明の構成を示すブロック図、第2図は本発
明の実施例を示すブロック図、第3図は本発明のバッフ
ァの構成例ブロック図、第4図はマルチネットワーク構
成を示す図、第5図はニューラルネットワークの説明図
である。 図において、 1−1〜1−n はローカルネットワーク、2.3はグ
ローバルネットワーク、 4−1〜4−nはバッファ、 10−1〜10−nはセ
ンサ、11−1〜11−nはデータバッファ、20は闇
値レジスタ、  21は比較回路、22は判定値レジス
タを示す。

Claims (1)

  1. 【特許請求の範囲】 グローバルネットワーク(3)と、ローカルネットワー
    ク(1−1〜)と、バッファ(4−1〜)とを有し、該
    ローカルネットワーク(1−1〜)は、ニューラルネッ
    トワークであって、所定の種類の時系列データごとに設
    けられ、当該時系列データを入力として、所要の出力を
    生成するように設定され、該バッファ(4−1〜)は、
    該ローカルネットワーク(1−1〜)ごとに対応し、当
    該ローカルネットワークの該出力について、所定時間内
    の該出力から求める所定の関数値を保持し、 該グローバルネットワーク(3)は、ニューラルネット
    ワークであって、該バッファ(4−1〜)の保持する該
    関数値を入力として所要の出力を生成するように設定さ
    れていることを特徴とする時系列データ処理方式。
JP2014700A 1990-01-24 1990-01-24 時系列データ処理方式 Pending JPH03219362A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014700A JPH03219362A (ja) 1990-01-24 1990-01-24 時系列データ処理方式

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014700A JPH03219362A (ja) 1990-01-24 1990-01-24 時系列データ処理方式

Publications (1)

Publication Number Publication Date
JPH03219362A true JPH03219362A (ja) 1991-09-26

Family

ID=11868460

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014700A Pending JPH03219362A (ja) 1990-01-24 1990-01-24 時系列データ処理方式

Country Status (1)

Country Link
JP (1) JPH03219362A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05128086A (ja) * 1991-10-30 1993-05-25 Adoin Kenkyusho:Kk ネツトワーク型情報処理システム
JPH05233585A (ja) * 1992-02-24 1993-09-10 Hitachi Ltd 設備異常診断方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05128086A (ja) * 1991-10-30 1993-05-25 Adoin Kenkyusho:Kk ネツトワーク型情報処理システム
JPH05233585A (ja) * 1992-02-24 1993-09-10 Hitachi Ltd 設備異常診断方法

Similar Documents

Publication Publication Date Title
Styblinski et al. Fuzzy cognitive maps, signal flow graphs, and qualitative circuit analysis
HUP0003927A2 (hu) Dinamikus szinapszis neuronhálózatokban történő jelfeldolgozáshoz
US5564115A (en) Neural network architecture with connection pointers
KR900006863A (ko) 뉴랄네트워크 시스템(Neural net work system)
JP7132196B2 (ja) 処理装置および推論システム
US5072379A (en) Network of dedicated processors for finding lowest-cost map path
KR20190118437A (ko) 유효 데이터를 선별하기 위한 전처리부를 포함하는 인공 지능 시스템
JPH03219362A (ja) 時系列データ処理方式
DE69802372T4 (de) Klassifizierungssystem und -verfahren mit N-Tuple- oder RAM-basiertem neuronalem Netzwerk
US5764856A (en) Parallel neural networks having one neural network providing evaluated data to another neural network
Howland et al. Natural gas prediction using the group method of data handling
JP3101742B2 (ja) 最小値検出器
Li et al. Analyzing synchronization of time-delayed complex dynamical networks with periodic on-off coupling
JPH07152714A (ja) 部分線形回帰モデル
SU1631538A2 (ru) Устройство дл выбора экстремального из @ @ -разр дных двоичных чисел
JPH02157981A (ja) ニューラルネットを用いたパターン認識システム
JPH05233585A (ja) 設備異常診断方法
JPH09138786A (ja) ニューラルネットワークの学習装置
JPH0520293A (ja) 時系列パターンの学習方式
JP3417574B2 (ja) ファジィ論理演算用ニューロン素子
Di Stefano et al. Neural networks trained by a genetic algorithm for visual field diagnosis
JPH0675935A (ja) 多変数システム構成方法およびその装置
JPH0784981A (ja) 診断処理装置
JPH05135000A (ja) パターン学習システム
Dunyak et al. Training fuzzy number neural networks using constrained backpropagation