JP2001509623A - 計算機上でのダイナミカルシステムのニューラルモデリング方法及び構造 - Google Patents

計算機上でのダイナミカルシステムのニューラルモデリング方法及び構造

Info

Publication number
JP2001509623A
JP2001509623A JP2000502460A JP2000502460A JP2001509623A JP 2001509623 A JP2001509623 A JP 2001509623A JP 2000502460 A JP2000502460 A JP 2000502460A JP 2000502460 A JP2000502460 A JP 2000502460A JP 2001509623 A JP2001509623 A JP 2001509623A
Authority
JP
Japan
Prior art keywords
influence
layer
output
dynamical system
neural network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2000502460A
Other languages
English (en)
Inventor
ツィンマーマン ハンス−ゲオルク
ノイナイアー ラルフ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens AG
Original Assignee
Siemens AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens AG filed Critical Siemens AG
Publication of JP2001509623A publication Critical patent/JP2001509623A/ja
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Feedback Control In General (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

(57)【要約】 本発明は、ダイナミカルシステムのニューラルモデリング用の方法及びニューロン層装置である。このために、システムの時系列の慣性記述パラメータ及び加速度記述パラメータがネット内で別個にトレーニングされて処理される。そのようにして得られた各予測値は、所望の予測量にまとめられる。ダイナミックパラメータ毎に種々の指標を決めることによって、種々異なるターゲット量を種々異なる広幅ベースでの平均値の形式で得ることができ、このターゲット量のトレーニングによって、比較的大きな誤差流をネット内の報知のために形成することができ、そうすることによって、それぞれのダイナミックパラメータを正確にシミュレートすることができるようになる。装置及び方法は、有利には、データ予測及び他のダイナミカルシステム用に使用することができる。

Description

【発明の詳細な説明】
【0001】 本発明は、ニューラルネット用の方法及び層構成に関し、それにより、殊に、
ダイナミカルシステムを良好にモデリング(例えば、技術システム又は経済シス
テム)することができる。
【0002】 ダイナミカルシステムをニューラルネットによってモデリングする際、一般的
に、情報が、システムのダイナミクスを介して時系列の隣りのパターンに時間的
に依存するという問題がある。大抵、ニューラルネットの通常の学習方法では、
このパターンは、局所的に最小(Minima)になるのを回避して学習速度を
速くすることができるようにするために、ランダムに配列されたニューラルネッ
トを表現している。このようにして、ネットは、個別時間パターンの結合につい
ての知識を、ゆっくり変化するニューロンの荷重によって単に暗示的に獲得する
にすぎない。特に難しいのは、多数の入力量(例えば、30個の入力量のオーダ
ー(数百個にもなることがある))から、過度に少ない出力量、即ち、1つの出
力量又は選択的に2つの出力量に処理する必要がある場合に、ダイナミカルシス
テムをモデリングすることである。ニューラルネットによってシステム特性を良
好に写像するためには、ネットに非常に多数の時系列を表現する必要があるが、
このような多数の時系列は、実際には、殊に、経済的なデータの場合には、現れ
ないことが屡々である。
【0003】 この問題と取り組むために、従来技術では、ダイナミカルシステムにおいて、
そのニューラルモデリングのために、その内在構造を利用する解決手段が採用さ
れている。モデリングすべきダイナミカルシステムでは、殊にターゲット側で、
十分な個数の出力量が、種々異なるターゲットの形式で、システムの順次連続す
る状態を記述するのに用いられる値にされる。このようにして、多数の誤差情報
が、ターゲット側からネットの入力側に戻され、システムを正確に記述すること
ができるようになる。その詳細については、Decision Technol
ogies for Financial Engineeringに公表され
た、Hans Georg Zimmermann及びAndreas S.W
eigend、”How To Represent Dynamical S
ystems In Feed Foward Networks:A Six
Layer Architechture” Proceedings of
the Fourth International Conference
on Neural Networks in the Capital M
arket(NNCM−96)、1−8頁から分かる。この刊行物には、技術シ
ステム、乃至、影響量のダイナミック特徴化を用いてアクションデータから予測
を行うシステムのダイナミックを記述するために、ニューラルネット用の6層モ
デルが提案されている。この提案では、時系列のモデリングを改善する目的のた
めに、時系列の隣り合った複数の値が、別個にニューラルネットの種々異なる枝
でターゲットとしてトレーニングされ、事後に平均値形成により求めるべき出力
量にまとめられる。隣り合ったパターン間の依存性は、ニューラルネットの出力
側で、所謂インタラクションレイヤによって反映される。
【0004】 一方の枝は、この関連性では、ニューラルネットの一部分であることが分かり
、つまり、このニューラルネットは、人工的なニューラルネットであっても、複
数の入力量、少なくとも1つの出力量及び個別ニューロンの結合の際の適合可能
な荷重を有する。
【0005】 ドイツ連邦共和国特許公開第19537010号公報からは、少なくとも2つ
の時系列を共通に学習により修得させることによって、ダイナミック過程のシミ
ュレーション用の学習方法及び学習装置が公知である。各時系列に対して、固有
の学習能力のあるコンポーネントが形成されて、使用されている時系列の過去の
値に供給される。時系列の現在のコンポーネントは、その過去値及び他の時系列
の過去値によって相関関係が崩される(dekorreliert)。
【0006】 米国特許第5479571号明細書から、2つの隠れ(中間)層を有するニュ
ーラルネットが公知である。
【0007】 本発明の課題は、ダイナミカルシステムをニューラルにより計算機上でモデリ
ングすることができる別の方法及び別の構造を提供することにある。
【0008】 この課題は、特許請求の範囲請求項1記載の方法要件及び特許請求の範囲請求
項8記載の構造要件によって解決される。
【0009】 計算機上でのダイナミカルシステムのニューラルモデリング方法は、以下の各
要件: a)ダイナミカルシステムの影響量を、少なくとも1つの第1の出力量のシミュ
レーションのために、ダイナミカルシステムの慣性を特定する少なくとも1つの
第1の影響量と前記ダイナミカルシステムの加速度を特定する少なくとも1つの
第2の影響量とにグループ分けし、 b)ニューラルネットワーク(NN)内で、当該ニューラルネットワーク(NN
)の、少なくとも1つの第1(Z1)及び第2(Z2)の、相互に平行な枝を、
それぞれ第1の影響量乃至第2の影響量の特性でトレーニングし、 c)前記影響量(ED)に依存して第1の出力量(AD)を形成するために、前
記ニューラルネットワーク(NN)の平行枝(Z1,Z2)の単数乃至全ての出
力を結合する を有している。
【0010】 ダイナミカルシステムのシミュレーションのための、ニューラルネットワーク
用の層装置は、以下の各要件: a) 少なくとも、それぞれ1つの、ダイナミカルシステムの慣性を特定する第
1の影響量、及び、前記ダイナミカルシステムの加速度を特定する第2の影響量
のシミュレーションのために、少なくともそれぞれ1つの第1(4000)乃至
第2(4500)の隠れ(中間)ニューロン層、並びに、第1(5000)乃至
第2(5500)の出力層が設けられており、 b) シミュレートされた第1の影響量(610)と第2の影響量(620)と
を結合して出力量を形成するために結合層(6000)が設けられている を有している。
【0011】 本発明の有利な実施例は、従属請求項に記載されている。
【0012】 特に有利には、実施例では、システムの慣性及び加速度を特徴付けるダイナミ
カルシステムの種々異なるダイナミックな影響量が区別される。本発明の方法に
より、ニューラルネットの種々の下位枝に別個にモデリングすることによって、
ニューラルネットが種々異なるダイナミック特性を用いてターゲットの大きさを
学習するようになり、その際、自己の入力時系列を利用することができる。直ぐ
続いて、シミュレートすべき出力量は、これら種々異なる両ダイナミックパラメ
ータのモデリングされたターゲットの大きさを重畳することによって形成される
【0013】 有利には、ニューラルネットには、時系列が種々異なる影響量の時系列ベクト
ルの形式で供給され、形成された出力量は、場合によって重み付けされた平均値
形成によって唯一の出力量に統合することができる。つまり、そのように、入力
量内のノイズ成分が低減され、種々異なる入力量のモデリングによって、出力量
を一層正確にシミュレートすることができるからである。
【0014】 特に有利には、別の実施例では、ニューラルネットが重み付けされるように入
力信号が前処理され、その際、このニューロンの荷重は、後ろに設けられたニュ
ーラルネットの位置によって調整されて、モデリングすべきダイナミカルシステ
ムに及ぼしてはならない不所望な影響量をフィルタリングすることができるよう
になる。
【0015】 ニューラルネットの枝には、リニアな影響量のみならず、クォドラチック(q
uadratisch)に重み付けされた影響量を供給してもよい。つまり、ニ
ューラルネットには事象を区別するのに加えて付加的に、ラディアル基底関数を
実行することによって、パターン内の類似度を決定する手段も与えられるからで
ある。
【0016】 更に、それぞれのニューラルネットに供給すべきダイナミックな特徴量、即ち
、慣性パラメータ又は加速度パラメータに対して、多数の指標を形成し、それに
より、多数のターゲット量によって、ネット内での比較的大きな誤差逆伝播が形
成され、従って、それぞれのダイナミック量を一層正確にシミュレートすること
ができる。このために、有利には、目標値を中心にして定義された複数の間隔距
離で平均値乃至曲率がモデリングされる。
【0017】 更に、入力量は、この方法では、選定された指標の形式で形成されて、モデリ
ングすべきダイナミカルシステムの内部状態のクリアな像をネットワークに示す
ことができるようになる。ダイナミカルシステムは、瞬時に作用する慣性及び影
響力によって特徴付けられる。提供された入力時系列から、時系列の第1及び第
2の差を利用して、作用している慣性及び力を推定することができる。入力指標
のオーダーの正規化のために、付加的に時系列によって除算し、そうすることに
よって、入力指標が相対的に変化するようにすることができる。
【0018】 別の実施例では、さほど簡単ではないが、力の一部分が2次導関数として示さ
れる。多数のプロセスで、ダイナミカルシステムは、平衡状態を中心として振り
子運動することによって特徴付けられる。この実施例では、時系列の点と平衡点
との間の距離が、加速度の形式で記録する場合よりも一層良好に、作用力を特徴
付けることができるような大きさである。妥当な瞬時平衡点の記述のための簡単
な近似として、時系列の最終値の平均値が提供される。時系列の現在値と、平均
値との差を平衡状態として選定すると、最新の点情報を利用することができるが
、それに対して、平衡状態の評価は最新ではない。時系列の以前の値を、平衡状
態の評価のために、この点を中心にして対称的に平均値が形成されるように選定
すると、この差が有利であることが分かる。そのようにして、点と、特徴付ける
べきダイナミカルシステムの平衡状態との間の緊張状態を一層良好に特徴付ける
ことができるようになる。
【0019】 更に、ニューラルネットワーク用の層装置を、ダイナミカルシステムのシミュ
レーションのために設けてもよい。その場合には、シミュレートすべき各ダイナ
ミック特徴量のために、別個の枝をニューラルネットに設け、隠れ層を出力層を
用いて制御することによって、高次の誤差逆伝播を形成することができ、この高
次の誤差逆伝播により、ニューラルネットに、隣接時系列値の依存性についての
情報を反映させることができる。
【0020】 本発明の層装置の実施例では、前処理層が設けられており、この前処理層は、
両方のネットワーク枝乃至それぞれのネットワーク枝を共通に操作する。その際
、例えば、種々異なった前処理段を設ける必要はなく、前処理層での荷重を、ニ
ューラルネットワークのそれぞれの枝から誤差逆伝播することによって調整して
、不所望な影響量をフィルタリングし、従って、ノイズを一層正確にフィルタリ
ングすることができるようになる。
【0021】 特に有利には、層装置の実施例では、2次関数(Quadratschich
t)層が設けられており、この2次関数層は、入力値乃至前処理層によって供給
された値をクォドラチックに重み付けする。こうすることによって、後続の層に
ラディアル基底関数をシミュレートすることができ、従って、類似度の関係を形
成することができ、入力パターンの事象を識別することができるのみではない。
【0022】 結合層、層装置の個別の枝の後ろに、場合によっては重み付けされた平均値層
が設けられていて、予測量のベクトルから平均値を形成し、それにより、個別値
内のノイズを最小化することができる。
【0023】 特に有利には、層装置の場合に、ニューラルネットのそれぞれの枝の後ろに、
出力層として制御層を設け、この制御層により、個別指標と、シミュレートすべ
きそれぞれのダイナミックな特徴量との間隔距離をモデリングし、誤差逆伝播に
よって、ニューラルネット乃至ニューラルネットのそれぞれの枝に、種々異なる
指標がモデリングされずに、指標が1つしかモデリングされないのを阻止するこ
とができる。
【0024】 以下、本発明について、図示の実施例を用いて更に説明する。
【0025】 図1に示されているように、方法EVは、例えば、処理ブロック、第1の処理
ブロックZ1及び第2の処理ブロックZ2、並びに、別の処理ブロック3000
を有している。
【0026】 処理ブロックZ1及びZ2で、ニューラルネットNNの2つの別個の枝、第1
の枝Z1及び第2の枝Z2が示されている。
【0027】 第1の処理ブロックZ1及び第2の処理ブロックZ2は、実際のシステムから
取り出される、即ち、測定される時系列の形式で入力データを得る。
【0028】 第1乃至第2の処理ブロックZ1及びZ2では、ニューラルネットNNには、
それぞれ、第1の処理ブロックZ1乃至第1の層1500及び第2の処理ブロッ
クZ2の第2の処理層2500の複数の処理層、第1の処理層1000及び第2
の処理層2000が設けられており、これらの処理層は、信号線路110及び1
20によって相互に接続されている。
【0029】 第1の処理ブロックZ1には、加速度特徴量、例えば、引当金乃至戻り作用(
Rueckstellung)乃至ダイナミクスがシステム内で作用する力が記
載されている。
【0030】 第2の処理層Z2には、ダイナミカルシステムの慣性特徴量がシミュレートさ
れている。この、それぞれの処理ブロックが、この方法により同一に供給される
時系列の入力データは、この、それぞれのダイナミックな特徴量に対する同一の
指標に関して形成される。
【0031】 第2の処理ブロックZ2には、先行値に関して平均値をシミュレートするよう
に設けられており、その際、この先行値に基づいて、時系列値が、この値に関す
る種々異なる距離で取り出されて、平均値が形成される。
【0032】 同様のことが、第1の処理ブロックZ1にも当てはまり、このブロックでは、
先行値についての種々異なる曲線部分に対して時系列の曲率を供給することがで
きる。
【0033】 ニューラルネットの種々異なる枝、乃至、枝Z1及びZ2での内部処理後、出力
量が接続線路210及び220を介して結合モジュール3000に供給され、結
合モジュール3000は、その出力量から出力データ、即ち、予測値を形成する
。この方法によって、それぞれのダイナミック特徴量に対して別個のターゲット
量が定義され、この特徴量がニューラルネットの種々異なる枝でシミュレートさ
れる。こうすることによって、モデリングの際に、このダイナミックの特徴を示
す量を厳密に分離することができ、その際、トレーニングの際にも、別個の指標
がニューラルネットによって学習される。処理ブロックZ1,Z2毎に多数の指
標を形成することによって、多数のターゲット量を学習する必要があり、それに
より、それぞれのダイナミック量が、処理ブロックによってシミュレートされ、
処理枝の内部で誤差を高次に逆伝播することによって一層良くシミュレートされ
る。つまり、誤差逆伝播することによって、ニューラルネット内で荷重を一層正
確に調整することができるようになるからである。
【0034】 図2に示されているように、ニューラル層モデルは、ダイナミカルシステムの
ニューラルモデリングのために、複数の層1000,2000,3000,40
00,4500,5000,5500,6000,7000,7500を有して
おり、その際、それぞれの1000の桁数によって層のナンバーリングが示され
ている。
【0035】 それぞれの層を相互に接続することは、太い矢印と細い矢印によって示されて
おり、その際、太い矢印は、荷重を調整することができるということを示し、細
い矢印は、予め定義された荷重が調整されていることを示している。
【0036】 この実施例では、7つの層が図示されているが、本発明では、本発明の実施の
ために全ての層を設ける必要はない。本発明の基本原理は、層4000〜600
0によって示すことができる。
【0037】 ニューラルネットNNの入力ニューロン層1000の前で、ダイナミカルシス
テムの時系列データが前処理される。経済データに関して、前処理が、ネットワ
ークに、現時点で市場内で作用している力積乃至作用力(Impulse)及び
力の像を示す。
【0038】 殊に、種々の入力量によって表現された個別部分ダイナミックを、その慣性、
及び、この慣性と結合された力によって特徴を示す必要がある。有利には、慣性
の尺度として、入力量の相対変化が提供される。こうすることによって、この入
力量の変化の際の速度が示され、この入力量のオーダーが正規化される。
【0039】 力を特徴付けるために、入力量の2次導関数が利用される。但し、選択的に、
入力量を、平衡量の戻り作用(rueckstellende)力が、実際の状
態と、それぞれの平衡状態との距離に依存するような平衡量にするとよい。メカ
ニックなシステムでは、この平衡量は、バネ振り子の、休止状態からの変位であ
る。経済的なシステムでは、この観測量は、例えば、需要と供給との間の平衡過
程から導出された価格である。
【0040】 この特徴を示す際に、抗力乃至反跳力(ruecktreibenden K
raft)を記述するために、他の手続きが提供される。そのようなダイナミッ
クでは、現在値と平衡値との距離によって、システムが平衡状態の方向に引き戻
す力の一層良好な尺度を示す。その際、平衡状態の簡単な評価を時系列内の最後
の値の平均値形成によって達成することができる。
【0041】 この手続きには、何れにせよ、時系列の現在値が、平衡値の以前の評価に対し
て対向関係にあるという欠点がある。
【0042】 そのために、後続の経路は、有利には予測すべき点の値を、点情報の中央の平
均値に対比することができる時間内でリセットされる。この技術思想は、以下の
例を用いて理解することができ、その際、指標tは、実際の時間を示し、t−6
は、例えば、6ステップ早い時点を示し、aver(x(t),12)は、最も
現実的な12個のデータの平均値形成を示す。
【0043】 1. x=インフレーション指標(例えば、平衡過程に基づかない時系列) INPUT=(x(t)−x(t−6))/x(t−6) INPUT=(x(t)−2x(t−6)+x(t−12))/x(t
−6) y=US−$(例えば、供給−需要によって定義される時系列) INPUT=(y(t)−y(t−6))/y(t−6) INPUT=(y(t−6)−aver(y(t),12))/y(t−
6) しかし、入力ステップ1000の前の、この外部の前処理では、例えば、経済
的な解析の際の緊急の問題を完全に解消することはできない。その際、アウトラ
イナー(Ausreissern)を限定することが重要であり、又は、経済に
よってでなく、政治的な意志決定によって引き起こされる経済的な時系列の比較
的大きな動きをフィルタリングすることが重要である。しかし、ここでは、入力
変数をどの程度減衰すべきであるかの未知量を示す問題がある。
【0044】 このために、ニューラル層装置には、前処理層2000が設けられており、こ
の前処理層を用いて、ネットワークアーキテクチュアによって、この問題が、ニ
ューラルネットNNによって習得され、その際、未知の減衰定数は、学習可能な
パラメータとしてネット内に現れる。
【0045】 ニューラルネットNNに提供される信号の内部の前処理は、入力層1000と
、対角線マトリックス(対角線マトリックスは、200で示されている)に基づ
く前処理層2000との間での荷重マトリックスによって行われる。
【0046】 第1の内部層の活性度関数のために、双曲線正接つまりハイパボリックタンジ
ェント(tanh)が使用される。この手続きと層装置によって、アウトライナ
ーが各値内に限定される。同様に、有利には、荷重マトリックスによって入力側
を、荷重に基づいて減らす(Prunen)ことができる。有利には、前処理層
2000内で荷重を1に初期化する必要があり、有利には、荷重を値0〜1に限
定する必要がある。
【0047】 ニューロン層装置内では、処理層2000の出力信号が、別のニューロン層3
000,4000及び4500に更に転送される。層3000に、信号の純粋な
コピーが転送される間(その結果、300で、同一の写像が示される)、前処理
層2000から導出された信号をリニア及びクォドラチックに変換する、後続の
層4000及び5000乃至4500及び5500が得られる(このことが、矢
印400〜450によって示される)。
【0048】 クォドラチックな活性度関数を、前処理層2000から導出されたニューロン
層3000内のデータに適用することによって、ニューラルネットがラディアル
基底関数も実行することができ、従って、単に事象を区別することができるのみ
ならず、提供されたパターン内での類似点も学習することができる。続いて、そ
のようにして形成された信号400,410乃至420及び450は、更にニュ
ーロン層4000及び5000乃至4500及び5500内の荷重で乗算され、
その際、ステップ5500及び5000で、ニューラルネットNNの出力層が示
されており、ステップ4000及び4500で、隠れニューロン層が示されてい
る。
【0049】 ニューラル層装置の、この部分は、ニューロンのジグモイド内部層を有するマ
ルチレイヤパーセプトロンの古典的な概念と古典的なラディアル基底関数ネット
とを結合する。従って、この近似式のグローバルな式と局所的な式とが結合され
る。前処理層2000及び隠れ層4500用の活性度関数として、ハイパボリッ
クタンジェントが選定される。場合によっては、活性度関数をソフトマックス関
数(Softmax−funktion)に拡張すると有益である。
【0050】 層5000乃至5500は、基底になっているダイナミカルシステムを識別す
る。このために、この両層は、第1の出力層としてニューロン層装置内に設けら
れていて、学習する価値のある目標値を有している。この際、荷重は、例えば、
前の箇所で既に矢印の強さの説明の際に示したように、層4000〜5500に
適合可能である。有利には、層5500(ここでは、例えば、ダイナミカルシス
テムの慣性成分をモデリングする)に対して、ターゲット値として、近似すべき
時系列の3点平均及び平衡情報が示される。以下、そのようなターゲット乃至目
的値の幾つかの例を挙げる。
【0051】 TARGET=(x(t+5)+x(t+6)+x(t+7))/(3
(t))−1) TARGET=(x(t+4)x(t+6)+x(t+8))/(3x(
t))−1) 又は、 TARGET=(aver(x(t+7),3)−x(t))/x(t) TARGET=(aver(x(t+8),5)−x(t))/x(t) 有利には、この埋め込み値は、予測すべき値、ここでは例えばx(t)+6を
中心にして対称的に設けられている。平均値形成として、この埋め込み値は、付
加的に有利な、データ内のノイズを減衰する特性を有している。それに対して、
システムの加速度特性を学習すべき層5000には、所謂力乃至平均値情報が提
供される。ターゲット乃至目的値として、出力層5000に提供される力に対し
て、以下の特徴が提供される: TARGET=(−x(t+5)+2x(t+6)−x(t+7))/(
x(t))) TARGET=(−x(t+4)+2x(t+6)−x(t+8))/(
x(t))) 又は、 TARGET=(x(t+6)−aver(x(t+7),3))/x(t
) TARGET=(x(t+6)−aver(x(t+8),5))/x(t
) この際、力特徴部は、加速度の形式、又は、平衡状態での反転力(Umkehr
kraeften)の形式で示される。決定された点は、埋め込み及び所属の力
が、最終的に所望の目標値 TARGET=(x(t+6)−x(t))/x(t) に単に対状に加算することによって補完される。相互に対向し、且つ、隣り合っ
た両式を単に加算することによって、このことを理解することができる。当然、
この手続きは、本発明を実施する唯一の手段を示すということではない。提起さ
れている技術思想によると、当業者ならば、他の平均値形成乃至他のターゲット
量を選定し、相応に相互に結合して、予測すべき目標値をシミュレートすること
ができるが、その際、それには発明性はなく、乃至、本発明の技術思想に基づか
ざるを得ない。有利には、所属の力を種々に埋め込み且つ種々にスパン幅にする
ことによって、ダイナミクスの多数の特徴を表示して、それにより、学習するこ
とができるので、少数の枝、即ち、4500,5500乃至4000及び500
0内でのダイナミカルシステムのシミュレーションの際に、相応に、多数の中間
予測を得ることができ、これらの予測は、別のニューロン層6000内での加算
によって得られる。矢印610及び620は、この例では、同一であることを示
す。当然、同様の場合に、同一でないように写像することも考えることができる
が、その際、本発明の基本的な技術思想から逸脱せずに、種々のダイナミックパ
ラメータを、ニューラルネット内の種々の枝によってモデリングして、続いて、
ターゲット値に組み合わせられる。この多数の中間予測は、続いて、平均値形成
によって、最終的な予測に統合することができ、この統合は、例えば、ニューロ
ン層MWFで行われる。有利には、この重畳に加えて、更に統計的な不確実性が
調整される。
【0052】 2つの別の出力層7000及び7500は、種々の埋め込み相互の差異、乃至
、力相互の差異を調整するために設けられている。この後ろに設けられた層70
00,7500は、有利には、この差異、即ち、曲率及び平均値用のターゲット
の大きさの像形成の際に作用を及ぼすのを阻止するために設けられる種々の距離
の大きさのモデリングによって、ニューラルネットが平均値だけを学習し、学習
課程で種々異なる全ての指標を考慮しないように設定されている。ターゲットの
大きさと関連して、それぞれの距離を学習することによって、誤差逆伝播する際
に、この距離に配属された、それぞれのターゲット値を学習することができるよ
うになる。
【0053】 経済的なダイナミクス及びメカニック乃至物理的なダイナミクスの他に、本発
明の方法乃至本発明の層装置によると、提案されているネットアーキテクチュア
が多数の出力ニューロンによる学習に十分な誤差流を利用することができる点が
重要な要件であり、それにより、検査すべき市場乃至システムの非直線性を把握
することができるようになる。この際、有利には、図2で細く示されている接続
線は、学習すべきパラメータを含まないという点に注意する必要がある。包括的
なネット構成に対して相対的に、提案されている本発明のアーキテクチュアは、
比較的僅かな自由パラメータを有している。明示的に決定されたネットの荷重は
、副次的な条件と見なすことができ、その特徴は、付加的なモデル構成情報とし
て形成されている。有利には、両ステップ6000及びMWFは、ステップ50
00及び5500の結果を統合する。しかし、荷重は、これらの層間で適合可能
ではない。しかし、両ステップ6000及びMWFは、その誤差信号を層450
0及び4000に転送しない。
【図面の簡単な説明】
【図1】 本発明の方法の実施例のブロック図
【図2】 本発明のニューロン層装置を有するニューラルネットの実施例を示す図
【手続補正書】特許協力条約第34条補正の翻訳文提出書
【提出日】平成12年1月11日(2000.1.11)
【手続補正1】
【補正対象書類名】明細書
【補正対象項目名】0006
【補正方法】変更
【補正内容】
【0006】 米国特許第5479571号明細書から、2つの隠れ(中間)層を有するニュ
ーラルネットが公知である。 KATIC D.他の”Highly efficient robot d
ynamics learning by decomposed conne
ctionist feedforward control structu
re”,IEEE Transactions on systems,man
and cybernetics,Bd.25,Nr.1,Januar 1
995,145−158ページから、コンビネーションネット構造が公知であり
、4レイヤーパーセプトロン(four−layer perceptron)
形式の複数のニューラルネットが並列に設けられている。 米国特許第5583769号明細書から、複数のニューラルネットが階層状に
設けられたニューラルネット構造が公知である。
【手続補正2】
【補正対象書類名】明細書
【補正対象項目名】0007
【補正方法】変更
【補正内容】
【0007】 本発明の課題は、ダイナミカルシステムをニューラルにより計算機上でモデリ
ングすることができる別の方法及び別の構造を提供することにある。
【手続補正3】
【補正対象書類名】明細書
【補正対象項目名】0008
【補正方法】変更
【補正内容】
【0008】 この課題は、特許請求の範囲請求項1記載の方法要件及び特許請求の範囲請求
項9記載の構造要件によって解決される。
【手続補正4】
【補正対象書類名】明細書
【補正対象項目名】0009
【補正方法】変更
【補正内容】
【0009】 計算機上でのダイナミカルシステムのニューラルモデリング方法は、以下の各
要件: a)ダイナミカルシステムの影響量を、少なくとも1つの第1の出力量のシミュ
レーションのために、ダイナミカルシステムの慣性を特定する少なくとも1つの
第1の影響量と前記ダイナミカルシステムの加速度を特定する少なくとも1つの
第2の影響量とにグループ分けし、 b)ニューラルネットワーク(NN)内で、当該ニューラルネットワーク(NN
)の、少なくとも1つの第1(Z1)及び第2(Z2)の、相互に平行な枝を、
それぞれ第1の影響量乃至第2の影響量の特性でトレーニングし、 c)前記影響量(ED)に依存して第1の出力量(AD)を形成するために、前
記ニューラルネットワーク(NN)の平行枝(Z1,Z2)の単数乃至全ての出
力を結合する を有している。
【手続補正5】
【補正対象書類名】明細書
【補正対象項目名】0010
【補正方法】変更
【補正内容】
【0010】 ダイナミカルシステムのシミュレーションのための、ニューラルネットワーク
用の層装置は、以下の各要件: a) 少なくとも、それぞれ1つの、ダイナミカルシステムの慣性を特定する第
1の影響量、及び、前記ダイナミカルシステムの加速度を特定する第2の影響量
のシミュレーションのために、少なくともそれぞれ1つの第1(4000)乃至
第2(4500)の隠れ(中間)ニューロン層、並びに、第1(5000)乃至
第2(5500)の出力層が設けられており、 b) シミュレートされた第1の影響量(610)と第2の影響量(620)と
を結合して出力量を形成するために結合層(6000)が設けられている を有している。

Claims (13)

    【特許請求の範囲】
  1. 【請求項1】 計算機上でのダイナミカルシステムのニューラルモデリング
    方法において、以下の各要件: a)ダイナミカルシステムの影響量を、少なくとも1つの第1の出力量のシミュ
    レーションのために、ダイナミカルシステムの慣性を特定する少なくとも1つの
    第1の影響量と前記ダイナミカルシステムの加速度を特定する少なくとも1つの
    第2の影響量とにグループ分けし、 b)ニューラルネットワーク(NN)内で、当該ニューラルネットワーク(NN
    )の、少なくとも1つの第1(Z1)及び第2(Z2)の、相互に平行な枝を、
    それぞれ第1の影響量乃至第2の影響量の特性でトレーニングし、 c)前記影響量(ED)に依存して第1の出力量(AD)を形成するために、前
    記ニューラルネットワーク(NN)の平行枝(Z1,Z2)の単数乃至全ての出
    力を結合する ことを特徴とする方法。
  2. 【請求項2】 ダイナミカルシステムの各影響量を、少なくとも1つの第1
    の出力量のシミュレーションのために、慣性を特定する複数の第1の影響量及び
    前記ダイナミカルシステムの加速度を特定する複数の第2の影響量にグループ分
    けする 請求項1記載の方法。
  3. 【請求項3】 請求項1又は2記載の方法であって、 a)影響量(ED)をニューラルネット(NN)に時系列ベクトルの形式で供給
    し、従って、出力量ベクトルを第1の出力量(AD)から形成し、 b)前記第1の出力量の形成のために、前記出力量ベクトルのベクトル成分の平
    均値を形成する 方法。
  4. 【請求項4】 影響量(ED)内に含まれる障害を減衰するために、枝に供
    給された前記影響量(ED)をネット内で前処理する 請求項1〜3迄の何れか1記載の方法。
  5. 【請求項5】 平行枝(Z1,Z2)に、並列にリニア及びクォドラチック
    に重み付けされた影響量(ED)を供給する請求項1〜4迄の何れか1記載の方
    法。
  6. 【請求項6】 少なくとも単数又は複数の第1の影響量及び/又は単数又は
    複数の第2の影響量から、少なくとも2つの指標を形成し、該指標を用いて枝を
    別個のターゲットとしてトレーニングする 請求項1〜5迄の何れか1記載の方法。
  7. 【請求項7】 第1の影響量を、時系列内の値の埋め込み部(Einbet
    tung)として使用し、第2の影響量を、前記時系列内の曲率として使用する
    請求項3〜6迄の何れか1記載の方法。
  8. 【請求項8】 時系列を指標により形成する 請求項3〜6迄の何れか1記載の方法。
  9. 【請求項9】 ダイナミカルシステムのシミュレーションのための、ニュー
    ラルネットワーク用の層装置において、 a) 少なくとも、それぞれ1つの、ダイナミカルシステムの慣性を特定する第
    1の影響量、及び、前記ダイナミカルシステムの加速度を特定する第2の影響量
    のシミュレーションのために、少なくともそれぞれ1つの第1(4000)乃至
    第2(4500)の隠れ(中間)ニューロン層、並びに、第1(5000)乃至
    第2(5500)の出力層が設けられており、 b) シミュレートされた第1の影響量(610)と第2の影響量(620)と
    を結合して出力量を形成するために結合層(6000)が設けられている ことを特徴とする層装置。
  10. 【請求項10】 第1(4000)及び第2(4500)の隠れニューロン
    層の前にある前処理層(2000)が、ノイズのフィルタリング及び前記第1及
    び第2の隠れニューロン層(4000,4500)の供給のためのフィルタデー
    タの形成のために設けられている 請求項9記載の層装置。
  11. 【請求項11】 第1及び第2の隠れニューロン層(4000,4500)
    と前処理層(2000)との間に、クォドラチック(quadratisch)
    に重み付けされたフィルタデータ乃至入力データの形成のための2次関数(Qu
    adrierungsschicht)層が設けられている 請求項9〜10迄の何れか1記載の方法。
  12. 【請求項12】 平均化された出力量の形成用に、結合層(6000)の後
    ろに平均値形成層(MWF)が設けられている 請求項9〜11迄の何れか1記載の方法。
  13. 【請求項13】 それぞれ第1及び第2の影響量から形成された、それぞれ
    複数の指標の特性の制御のために、第1乃至第2の出力層(5000,5500
    )の後ろに、それぞれ1つの出力層(7000,7500)が、制御層の形式で
    設けられている 請求項9〜11迄の何れか1記載の方法。
JP2000502460A 1997-07-09 1998-07-08 計算機上でのダイナミカルシステムのニューラルモデリング方法及び構造 Withdrawn JP2001509623A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
DE19729391 1997-07-09
DE19729391.3 1997-07-09
PCT/DE1998/001887 WO1999003043A2 (de) 1997-07-09 1998-07-08 Verfahren und struktur zur neuronalen modellierung eines dynamischen systems auf einem rechner

Publications (1)

Publication Number Publication Date
JP2001509623A true JP2001509623A (ja) 2001-07-24

Family

ID=7835168

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000502460A Withdrawn JP2001509623A (ja) 1997-07-09 1998-07-08 計算機上でのダイナミカルシステムのニューラルモデリング方法及び構造

Country Status (3)

Country Link
EP (1) EP0995156A2 (ja)
JP (1) JP2001509623A (ja)
WO (1) WO1999003043A2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102017118995B4 (de) * 2017-05-11 2019-05-09 Schaeffler Technologies AG & Co. KG Verfahren zur Herstellung einer Komponente eines Verbrennungsmotors und Simulationssystem zur beschleunigten Simulation des Verhaltens einer Komponente eines Verbrennungsmotors
CN110070228B (zh) * 2019-04-25 2021-06-15 中国人民解放军国防科技大学 一种神经元分支进化的bp神经网络风速预测方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04133601A (ja) * 1990-09-21 1992-05-07 Toshiba Corp 保安機能付自動運転制御装置
DE4419925A1 (de) * 1994-06-08 1995-12-14 Bodenseewerk Geraetetech Inertialsensor-Einheit

Also Published As

Publication number Publication date
WO1999003043A3 (de) 1999-04-01
EP0995156A2 (de) 2000-04-26
WO1999003043A2 (de) 1999-01-21

Similar Documents

Publication Publication Date Title
CN111226232B (zh) 混合生成器模型
Alpaydin Multiple networks for function learning
Yang et al. Exploration of route choice behavior with advanced traveler information using neural network concepts
Sivanandam et al. Introduction to artificial neural networks
Kang An investigation of the use of feedforward neural networks for forecasting
CN110914839A (zh) 错误去相关的选择性训练
Worden et al. Artificial neural networks
Hurrion Using a neural network to enhance the decision making quality of a visual interactive simulation model
CN114170789B (zh) 基于时空图神经网络的智能网联车换道决策建模方法
CN108168577A (zh) 基于bp神经网络的mems陀螺随机误差补偿方法
CN113065431B (zh) 一种基于隐马尔可夫模型和循环神经网络的人体违规行为预测方法
Li et al. Complex neural fuzzy system and its application on multi-class prediction—A novel approach using complex fuzzy sets, IIM and multi-swarm learning
CN110335466A (zh) 交通流量预测方法和设备
Zhu et al. Vision-based control in the open racing car simulator with deep and reinforcement learning
WO1991002323A1 (en) Adaptive network for classifying time-varying data
JP2001509623A (ja) 計算機上でのダイナミカルシステムのニューラルモデリング方法及び構造
Sharma et al. Software effort estimation using neuro fuzzy inference system: Past and present
Mohammed et al. Reinforcement learning and deep neural network for autonomous driving
De Veaux et al. A brief introduction to neural networks
Varkentin et al. Development of an application for vehicle classification using neural networks technologies
KR20210146002A (ko) 다층 스파이킹 뉴럴 네트워크의 학습 방법 및 장치
Banik et al. Modeling chaotic behavior of Dhaka stock market index values using the neuro-fuzzy model
Wan et al. Introducing cost-sensitive neural networks
Yang et al. Exploration of driver route choice with advanced traveler information using neural network concepts
Tsibouris et al. Back propagation as a test of the efficient markets hypothesis

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20051004