JPH09198364A - ニューラルネット発生装置 - Google Patents

ニューラルネット発生装置

Info

Publication number
JPH09198364A
JPH09198364A JP8009389A JP938996A JPH09198364A JP H09198364 A JPH09198364 A JP H09198364A JP 8009389 A JP8009389 A JP 8009389A JP 938996 A JP938996 A JP 938996A JP H09198364 A JPH09198364 A JP H09198364A
Authority
JP
Japan
Prior art keywords
matrix
neural network
space
calculating
time series
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP8009389A
Other languages
English (en)
Inventor
Masahiro Kimura
昌弘 木村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP8009389A priority Critical patent/JPH09198364A/ja
Publication of JPH09198364A publication Critical patent/JPH09198364A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Feedback Control In General (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Complex Calculations (AREA)

Abstract

(57)【要約】 【課題】n次元空間Rn上の非線形力学系に対し、その
指定された有限個の軌道を実現するn個のユニットから
なる相互結合型ニューラルネットをすべて発生する。 【解決手段】相互結合型ニューラルネットのウエイト行
列Wの特解W*をTDRBP法により計算する時系列学
習手段20と、相互結合型ニューラルネットのユニット
活性化関数による軌道情報ξ(1)(2),…,ξ(m)の像で
あるn次元ベクトル空間RnのmL個のベクトルq1,
2,…,qmLを計算して出力する部分集合作成手段30
と、ベクトルq1,q2,…,qmLを入力してベクトル空間
nの最小部分ベクトル空間の直交補空間の基底{e1,
…,ed}を計算する基底作成手段40と、任意に与えら
れるn×d行列Aと特解W*と基底{e1,…,ed}を入
力として、ウエイト行列Wを計算するウエイト行列生成
手段50と、を設ける。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、非線形力学系のモ
デルとして使用されるニューラルネットを発生するニュ
ーラルネット発生装置に関し、特に、その非線形力学系
の軌道(時系列)のうち重要であるとして指定された軌
道(時系列)に対応するニューラルネットを発生するニ
ューラルネット発生装置に関する。
【0002】
【従来の技術】非線形力学系は、一般に環境との相互作
用によって生じ、例えば、炉内の流れ、音声合成、ロボ
ットの運動、コンピュータグラフィクス(CG)におけ
るアニメーション等のさまざまな分野において現れる。
非線形力学系を表現する制御可能な大域的モデルを構築
することが一般に困難であるので、非線形力学系の制御
可能なモデルの獲得は、非線形力学系の解析のための重
要な課題となっている。
【0003】ところで、相互結合型ニューラルネット
は、パラメータをもつ非線形力学系であり、隠れユニッ
トを用いることによって任意の非線形力学系を近似する
能力を備えるようになり、また、並列計算性をも有して
いる。そこで、制御可能な大域的モデルの構築が困難な
非線形力学系のモデルとして、相互結合型ニューラルネ
ットを用ることが試みられている。ここでは特に、n次
元ユークリッド空間
【0004】
【外1】 上の非線形力学系が、n個のユニットからなる相互結合
型ニューラルネットによってモデル化可能であるとき
に、このようなニューラルネットによって、この非線形
力学系をモデル化することを考える。n次元ユークリッ
ド空間上の非線形力学系とは、一言でいえば、その非線
形力学系の状態がn次元ベクトルで表現でき、このn次
元ベクトルの各要素が常微分方程式の解であるようなも
のをいう。以下、n次元ユークリッド空間を表わす
【0005】
【外2】 を単にRnと略記し、実数全体の集合
【0006】
【外3】 をRと略記する。
【0007】力学系は軌道(時系列)の集まりであり、
その各軌道(時系列)が実際の問題において重要な情報
である。実際問題においては、非線形力学系の軌道(時
系列)のうち、特に重要な有限個の軌道(時系列)が指
定される。したがって、非線形力学系のモデルとしての
ニューラルネットには、これらの軌道(時系列)を生成
するものであることがまず要求される。しかし、そのよ
うなニューラルネットモデルが、その非線形力学系の他
の軌道(時系列)を実現するかどうか、すなわち、この
非線形力学系のモデルを獲得したかどうかは、一般には
分からない。そこで、指定された有限個の軌道(時系
列)を実現する相互結合型ニューラルネットを全て求め
ることが必要になる。
【0008】公知の文献、例えば、J.Hertz, A.Krogh,
and R.Palmer; "Introduction to the Theory of Neura
l Computation", Lecture Notes Volume I, Santa Fe I
nstitute Studies in the Sciences of Complexity, (1
991)や、G.Z.Sun, H.H.Chen,and Y.C.Lee; "Green func
tion method for fast on-line learning algorithmof
recurrent neural networks", Advances in Neural Inf
ormation Processing Systems, Vol.4, 333-340, (199
2)等に示されているように、指定された軌道(時系列)
を追従する相互結合型ニューラルネットを求める方法と
して、RTRL法(Real-Time Recurrent Learning:実
時間再帰学習法)やグリーン(Green)関数法などによ
って代表されるオンライン学習法や、TDRBP(Time
-Dependent Recurrent Back-Propagation:時間依存再
帰逆伝搬)学習法が提案されている。計算量の面では、
TDRBP学習法が、最も効率的な学習法であることが
知られている。
【0009】n個のユニットからなる相互結合型ニュー
ラルネットは、各ユニットごとにそのユニットへの各ユ
ニットからの重み付け量を表わすn×n行列(ウエイト
行列)によってパラメータ付けられる。すなわち、n×
n行列であるウェイト行列Wを1つ決めると、相互結合
型ニューラルネットがただ1つ決まる。したがって、相
互結合型ニューラルネットを発生させるということは、
そのウエイト行列であるn×n行列を求めることと同値
である。
【0010】
【発明が解決しようとする課題】非線形力学系の指定さ
れた軌道(時系列)を実現する相互結合型ニューラルネ
ットが1つしか存在しないならば、既に提案されている
時系列学習法によって、この非線形力学系を学習してそ
のニューラルネットを得ることができる。しかしなが
ら、指定された軌道(時系列)を実現する相互結合型ニ
ューラルネットが複数個存在するならば、そのような相
互結合型ニューラルネットは実は無限個存在することが
証明されている。したがって、学習時の初期値(ウエイ
ト行列の初期値)を適当に変更しながら上述の時系列学
習法を実行したとしても、指定された軌道(時系列)を
実現する相互結合型ニューラルネットの全てをもらすこ
となく発生させることはできなかった。
【0011】本発明の目的は、n個のユニットからなる
相互結合型ニェーラルネットによってモデル化可能なn
次元ユークリッド空間Rn上の非線形力学系に対して、
指定されたその有限個の軌道(時系列)を実現するn個
のユニットからなる相互結合型ニューラルネットをすべ
て発生する装置を提供することにある。
【0012】
【課題を解決するための手段】本発明のニューラルネッ
ト発生装置は、n次元空間上の非線形力学系の有限個の
軌道が与えられたとき、n個のユニットからなり前記有
限個の軌道を追従する相互結合型ニューラルネットを全
て生成するニューラルネット発生装置において、n×n
行列W(0)を初期値として入力し、相互結合型ニューラ
ルネットのウエイト行列の特解であるn×n行列W*
計算して出力する時系列学習手段と、有限個の軌道の軌
道情報ξ(1)(2),…,ξ(m)を入力して、相互結合型ニ
ューラルネットのユニット活性化関数による軌道情報の
像であるn次元ベクトル空間RnのmL個のベクトル
1,q2,…,qmLを計算して出力する部分集合作成手段
と、部分集合作成手段が出力するベクトルq1,q2,…,
mLを入力してベクトル空間Rnの最小部分ベクトル空
間の直交補空間の基底{e1,…,ed}を計算して出力す
る基底作成手段と、任意に与えられるn×d行列Aと、
時系列学習手段が出力するn×n行列W*と、基底
{e1,…,ed}を入力として、相互結合型ニューラルネ
ットのウエイト行列Wを計算するウエイト行列生成手段
と、を有する。
【0013】本発明において、時系列学習手段として
は、TDRBP学習法によって特解であるn×n行列W
*を1つ生成するものを用いることが好ましい。
【0014】以下、本発明において使用される相互結合
型ニューラルネットについて説明する。ウエイト行列W
をもちn個のユニットからなる相互結合型ニューラルネ
ットφWとは、次のように決定される
【0015】
【数1】 からなる
【0016】
【外4】 写像である。この相互結合型ニューラルネットの各ユニ
ットに初期値pi∈Rを与えると、時刻t∈Rでの状態
x(t)=φW(t,p)は、次の常微分方程式によって決定
される(ただし、p=(p1,…,pn)):
【0017】
【数2】 ここで、x(t)=(x1(t),…,xn(t))であり、W=
(wij)はn×n行列であり、τは正の定数である。ま
た、ユニット活性化関数giは与えられたR上のの有界
な単調増加
【0018】
【外5】 関数であり、例えば、βを正の定数としてtanh(β
t)で表わすことができる。式(2)により各ユニットの状
態が与えられるので、このニューラルネットφWは、n
次元ユークリッド空間Rn上の力学系になる。初期値を
与えることによって生成されるニューラルネットφW
状態の時系列が、モデルとしてのニューラルネットにお
けるこの力学系の軌道を表わしている。
【0019】このようなニューラルネットにより表現可
能なn次元ユークリッド空間Rn上の非線形力学系ψ:
R×Rn→Rnを考える。この非線形力学系ψの有限個の
軌道ξ(1),…,ξ(m)が指定されたとする。ここに、ξ
(1),…,ξ(m)は、それぞれ、R n上の点p(1),…,p(m)
を初期値とするψの軌道である。すなわち、
【0020】
【数3】 である。これらの軌道ξ(1),…,ξ(m)を時間[0,T]
上で実現する相互結合型ニューラルネットφW(ただし
Wはn×n行列)をすべて発生させることが、本発明が
目指すところである。以下、本発明の作用について詳細
に説明する。
【0021】《特解の生成》与えられた軌道ξ(1),…,
ξ(m)を時間[0,T]上で実現する1つのニューラルネ
ットφW*(W*はn×n行列)が、TDRBP学習法に
よって、以下のように求められる。
【0022】
【数4】 ここでW(s)=(wij(s))はn×n行列であり、初期
値を適当に与えたときの次の常微分方程式の解である:
【0023】
【数5】 ここに、ηは適当な正数であり、Eはn×n行列全体の
集合上で定義された実数値関数であって、
【0024】
【数6】 である。TDRBP学習法では、∂E/∂wijは、
【0025】
【数7】 として計算される。ここに、
【0026】
【数8】 であり、
【0027】
【数9】 は次の常微分方程式の初期値問題の解である:
【0028】
【数10】 ここで、Iはn次の単位行列、diag(・)はn次の対
角行列、gj'はユニット活性化関数gjの導関数であ
る。また、x(k)(t;W)とξ(k)(t)∈Rnはともにn×
1行列とみなされている。
【0029】《一般解の生成》上述のようにして特解W
*が一つ求められたとして、一般解、すなわち全てのウ
エイト行列Wは、以下のようにして求められる。
【0030】ユニット活性化関数giを要素とするユー
クリッド空間Rn
【0031】
【外6】 同型写像gを、次式で定義する:
【0032】
【数11】 また、n次元ベクトル空間Rnの部分集合
【0033】
【数12】 を含むベクトル空間Rnの最小の部分ベクトル空間を、
V(ξ(1),…,ξ(m))とする。また、ベクトル空間Rn
の標準内積に関する、この部分ベクトル空間V(ξ(1),
…,ξ(m))の直交補空間
【0034】
【外7】 の基底を
【0035】
【数13】 とする。このとき、軌道ξ(1),…,ξ(m)を時間[0,
T]上で実現する相互結合型ニューラルネットφW(W
=(wij)はn×n行列)は、
【0036】
【数14】 によってすべて求められる。ここに、W*=(wij *)は
式(4)によって求められたウエイト行列であり、ai1,
…,aid(i=1,…,n)は任意の実数である。
【0037】本発明では、n個のユニットからなる相互
結合型ニューラルネットにより表現可能なn次元ユーク
リッド空間Rn上の非線形力学系ψの指定された軌道ξ
(1),…,ξ(m)を時間[0,T]上で実現する相互結合型
ニューラルネットφWを、TDRBP学習法による特解
φW*の計算と、ベクトル空間
【0038】
【外8】 の基底{e1,…,ed}の計算と、式(16),(17)とによっ
て、すべて発生することが可能になる。
【0039】
【発明の実施の形態】次に、本発明の実施の形態につい
て、図面を参照して説明する。図1は本発明の実施の一
形態のニューラルネット発生装置の構成を示すブロック
図である。
【0040】このニューラルネット発生装置1は、n次
元空間上の非線形力学系の有限個の軌道が与えられたと
きに、それらを追従するn個のユニットからなる相互結
合型ニューラルネットを全て生成するものであって、入
力手段10、時系列学習手段20、部分集合作成手段3
0、基底作成手段40、ウエイト行列生成手段50及び
出力手段60とによって、構成されている。n次元空間
上の非線形力学系の有限個の軌道情報は予め入力情報格
納部2に格納されているものとし、この軌道情報は入力
手段10によって入力情報格納部2からこのニューラル
ネット発生装置1に入力される。
【0041】時系列学習手段20は、入力手段10から
出力されるn×n行列W(0)を初期値として入力し、ニ
ューラルネットのウエイト行列の特解であるn×n行列
*を計算して出力するものであって、特解をTDRB
P学習法によって計算するために使用するルールを格納
する学習ルールデータベース21と、学習ルールデータ
ベース21を参照し入力した行列W*に基づいて特解の
算出を行う演算部22と、演算結果を一時的に保持する
ためのバッファ領域23とから構成されている。
【0042】部分集合作成手段30は、入力手段10か
ら非線形力学系の軌道情報ξ(1) (2),…,ξ(m)を入力
して、ニューラルネットのユニット活性化関数によるこ
れら軌道情報の像であるユークリッド空間Rnの部分集
合(すなわち、n次元のベクトル空間RnのmL個のベ
クトルq1,q2,…,qmL)を計算して出力するものであ
る。部分集合作成手段30は、部分集合の演算のために
使用する使用するルールを格納する集合作成ルールデー
タベース31と、集合作成ルールデータベース31を参
照して部分集合の演算を行う演算部32と、計算された
部分集合を一時的に保持するバッファ領域33とから構
成されている。
【0043】基底作成手段40は、部分集合作成手段3
0から出力された部分集合(ベクトルq1,q2,…,
mL)を入力して、この分集合を含むベクトル空間Rn
の最小部分ベクトル空間の直交補空間の基底{e1,…,
d}を計算して出力するものである。基底作成手段4
0は、基底の算出のために使用するルールを格納した基
底作成ルールデータベース41と、基底作成ルールデー
タベース41を参照して基底の算出を行う演算部42
と、算出した基底を一時的に格納するバッファ領域42
とによって構成されている。また、基底作成手段40か
らは、基底を構成する元の数、すなわち直交補空間の次
元dも出力される。
【0044】ウェイト行列生成手段50は、入力手段1
0を介して初期データとして与えられた任意のn×d行
列Aと、時系列学習手段20から出力されたn×n行列
*と、基底作成手段40からの基底{e1,…,ed}及
び直交補空間の次元dとを入力として、ニューラルネッ
トのウェイト行列Wを計算して出力するものである。ウ
ェイト行列生成手段50は、次元dに応じて演算を選択
するための演算制御部51と、ウエイト行列Wの計算の
ために使用するルールを格納する行列生成ルールデータ
ベース52と、行列生成ルールデータベース52を参照
してウェイト行列Wの算出する演算部53と、算出した
ウエイト行列Wを一時的に格納するバッファ領域54
と、初期データとして与えられるn×d行列Aを一時的
に格納するためのn×d行列格納領域55とから構成さ
れている。
【0045】出力手段60は、ウエイト行列生成手段5
0によって計算されたウエイト行列Wを所定の出力情報
格納部3に出力するためのものである。
【0046】このニューラルネット発生装置1は、一般
的には、計算機システムとして実現することができる。
その場合には、各ルールデータベース21,31,41,
52は計算機の補助記憶装置(ハードディスク装置な
ど)上に構築され、各演算部22,32,42,53及び
演算制御部51は計算機のCPUが受持ち、また、各バ
ッファ領域23,33,43,54及びn×d行列格納領
域55は計算機の主記憶(RAMなど)上に確保され
る。入力情報格納部2及び出力情報格納部3も、計算機
の補助記憶装置上に構築される。
【0047】次に、このニューラルネット発生装置1の
動作を説明する。
【0048】非線形力学系ψの軌道ξ(1),…,ξ(m)が、
時間[0,T]において、等時間間隔Δt、サンプル数
Lで指定されたとする。すなわち、
【0049】
【数15】 が指定されたとする。ここで、
【0050】
【数16】 である。p(1),…,p(m)をそれぞれ軌道ξ(1),…,ξ(m)
の初期値とする。これらの軌道ξ(1),…,ξ(m)を、時間
[0,T]上で実現する相互結合型のニューラルネット
φWをすべて求める場合について説明する。ここでWは
n×n行列である。
【0051】まず、入力手段10を介して、入力情報格
納部2から、軌道情報軌道ξ(1),…,ξ(m)、ウエイト行
列Wの初期値として使用される行列W(0)及び利用者に
よって与えられた任意のn×d行列Aが入力する。そし
て時系列学習手段20においてウエイト行列Wの特解W
*が算出され、また、部分集合作成手段30においてベ
クトルq1,q2,…,qmLが算出される。そして、基底作
成手段40において、ベクトルq1,q2,…,qmLに基づ
き基底{e1,…,ed}が算出され、最後に、ウエイト行
列生成手段50において、n×d行列A、特解W*、基
底{e1,…,ed}及び基底の元の数dにより、最初に指
定された軌道ξ(1),…,ξ(m)を実現する全ての相互結合
型ニューラルネットφWを実現するためのウエイト行列
Wが計算され、計算されたウエイト行列Wは出力手段6
0を介して出力情報格納部3に格納される。以下、各部
での処理の詳細を説明する。
【0052】《時系列学習手段20での処理》学習率η
(>0)と学習時の時間幅Δs(>0)を指定して、n
×n行列W(0 )=(wij (0))が初期値として与えられ
る。すると時系列学習手段20では、ニューラルネット
のウエイト行列W(s)=(wij(s)),(s>0)を、
【0053】
【数17】 にしたがって変更する。ここで許容誤差ε(>0)を指
定しておくと、式(21)によるウエイト行列W(s)の変更
は、
【0054】
【数18】 なるs*>0に到達すれば終了する。そこで、時系列学
習手段20は、
【0055】
【数19】 なるn×n行列W*=(wij *)をウエイト行列Wの特解
*として出力する。式(21)における
【0056】
【外9】 は、以下のようにして計算される。
【0057】
【数20】 ここでn×1行列x(k)((α−1)Δt;W(s)),(α
=1,…,L;k=1,…,m)は、
【0058】
【数21】 によって順次計算される。ただし、
【0059】
【数22】 である。また、n×1行列y(k)((α−1)Δt;W
(s)),(α=1,…,L;k=1,…,m)(式(10)参照)
は、
【0060】
【数23】 によって順次計算される。
【0061】《部分集合作成手段30での処理》部分集
合作成手段30は、式(18)によって与えられた軌道の離
散データから、ベクトル空間RnのmL個のベクトル
1,…,qmLを次式にしたがって計算し出力する。
【0062】
【数24】 ここで、gは式(13)で定義されたRn
【0063】
【外10】 同型写像である。
【0064】《基底作成手段40の処理》部分集合作成
手段30において求められたベクトルq1,…,qmLに対
して、
【0065】
【数25】 とおく。基底作成手段40は、これらmL個のベクトル
1,…,qmLを含むベクトル空間Rnの最小の部分ベクト
ル空間の直交補空間の基底{e1,…,ed}を計算する。
基底作成手段40は、直交補空間の次元dが0である場
合には、基底を出力せず、d=0という情報だけをウエ
イト行列生成手段に送る。以下、基底{e1,…,ed}を
計算する具体的手続きを説明する。
【0066】u∈Rnとn文字の置換σに対して、
【0067】
【外11】 を次式で定義する:
【0068】
【数26】 さて、
【0069】
【数27】 とし、n文字の置換σ1を1とj1との互換によって定義
する。また、
【0070】
【数28】 とし、
【0071】
【数29】 とする。そして、Rn∋qi (2),qi (3),…を、次のよう
に帰納的に計算する;一般に自然数rに対して、
【0072】
【数30】 が計算されたとき、
【0073】
【数31】 は、次のように計算される。:まず、(r+1)×(r+
1)行列Q(r+1,i,j)(ir+1≦i≦mL;r+1
≦j≦n)を、
【0074】
【数32】 で定義し、
【0075】
【数33】 とし、n文字の置換σr+1をr+1とjr+1の互換によっ
て定義し、
【0076】
【数34】 と計算する。この操作をrに関して順次続けて、r=
nであるか、ir+1が存在なくなれば、この操作を終
了する。の場合はd=0を出力する。の場合は、d
=n−rを出力するとともに、r×n行列Q=(qij
(r))とr×r行列Q(r);
【0077】
【数35】 を計算し、
【0078】
【数36】 を計算する。ここでε1,…εnは、それぞれ、
【0079】
【数37】 なるn×1行列である。また、n文字の置換σ1,…,σr
の合成置換σ=σ1…σnを計算し、さらに、その逆置換
σ-1を計算する。最後に、次の計算によって、目的の基
底{e1,…,ed}が求められる。
【0080】
【数38】 《ウエイト行列生成手段50での処理》基底作成手段4
0からd=0が出力された場合には、ウエイト行列生成
手段50は、時系列学習手段20で求められたn×n行
列W*=(wij *)のみを、求めるニューラルネットのウ
エイト行列として出力する。d>0の場合には、ウエイ
ト行列生成手段50は、利用者によって任意に与えられ
たn×d行列A=(aij)対して、基底作成手段40で
得られたd個のRn内でのベクトルe1,…,edと時系列
学習手段20で求められた特解W*=(wij *)を用い、
式(16),(17)にしたがって、求めるニューラルネットの
ウエイト行列W=(wij)を計算し、出力する。
【0081】n個のユニットからなる相互結合型ニュー
ラルネットはウエイト行列W(n×n行列)によって一
意決定されるので、ウエイト行列生成手段50によっ
て、n個のユニットからなり、指定された軌道(時系
列)ξ(1),…,ξ(m)を実現する相互結合型ニューラルネ
ットφWがすべて発生したことになる。
【0082】
【発明の効果】以上説明したように本発明は、n個のユ
ニットからなる相互結合型ニューラルネットによってモ
デル化可能なn次元ユークリッド空間Rn上の非線形力
学的に対して、その軌道(時系列)のうち特に重要であ
る有限個の軌道(時系列)が指定されたとき、n個のユ
ニットからなりそれら指定された軌道を実現する相互結
合型ニューラルネットをすべて発生させることが可能と
なるので、重要であるとされたそれら軌道(時系列)を
生成するモデルを獲得できるとともに、その非線形力学
系を含み、かつ、その指定された重要な軌道(時系列)
と同じ軌道(時系列)をもつ非線形力学系の族のモデル
を獲得できるという効果がある。
【図面の簡単な説明】
【図1】本発明の実施の一形態のニューラルネット発生
装置の構成を示すブロック図である。
【符号の説明】
1 ニューラルネット発生装置 2 入力情報格納部 3 出力情報格納部 10 入力手段 20 時系列学習手段 21 学習ルールデータベース 22,32,42,53 演算部 23,33,43,54 バッファ領域 30 部分集合作成手段 31 集合作成ルールデータベース 40 基底作成手段 41 基底作成ルールデータベース 50 ウエイト行列生成手段 51 演算制御部 52 行列生成ルールデータベース 55 n×d行列格納領域 60 出力手段

Claims (3)

    【特許請求の範囲】
  1. 【請求項1】 n次元空間上の非線形力学系の有限個の
    軌道が与えられたとき、n個のユニットからなり前記有
    限個の軌道を追従する相互結合型ニューラルネットを全
    て生成するニューラルネット発生装置において、 n×n行列W(0)を初期値として入力し、前記相互結合
    型ニューラルネットのウエイト行列の特解であるn×n
    行列W*を計算して出力する時系列学習手段と、 前記有限個の軌道の軌道情報ξ(1)(2),…,ξ(m)を入
    力して、前記相互結合型ニューラルネットのユニット活
    性化関数による前記軌道情報の像であるn次元ベクトル
    空間RnのmL個のベクトルq1,q2,…,qmLを計算して
    出力する部分集合作成手段と、 前記部分集合作成手段が出力するベクトルq1,q2,…,
    mLを入力してベクトル空間Rnの最小部分ベクトル空
    間の直交補空間の基底{e1,…,ed}を計算して出力す
    る基底作成手段と、 任意に与えられるn×d行列Aと、前記時系列学習手段
    が出力するn×n行列W*と、前記基底{e1,…,ed
    を入力として、前記相互結合型ニューラルネットのウエ
    イト行列Wを計算するウエイト行列生成手段と、を有す
    ることを特徴とするニューラルネット発生装置。
  2. 【請求項2】 前記時系列学習手段が、TDRBP学習
    法によって前記特解であるn×n行列W*を1つ生成す
    るものである請求項1に記載のニューラルネット発生装
    置。
  3. 【請求項3】 前記ウエイト行列生成手段が、前記n×
    d行列Aと前記基底{e1,…,ed}との行列積を前記時
    系列学習手段が出力するn×n行列W*に加算すること
    により前記ウエイト行列Wを計算するものである請求項
    1または2に記載のニューラルネット発生装置。
JP8009389A 1996-01-23 1996-01-23 ニューラルネット発生装置 Pending JPH09198364A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP8009389A JPH09198364A (ja) 1996-01-23 1996-01-23 ニューラルネット発生装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP8009389A JPH09198364A (ja) 1996-01-23 1996-01-23 ニューラルネット発生装置

Publications (1)

Publication Number Publication Date
JPH09198364A true JPH09198364A (ja) 1997-07-31

Family

ID=11719097

Family Applications (1)

Application Number Title Priority Date Filing Date
JP8009389A Pending JPH09198364A (ja) 1996-01-23 1996-01-23 ニューラルネット発生装置

Country Status (1)

Country Link
JP (1) JPH09198364A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111465940A (zh) * 2017-09-25 2020-07-28 日产自动车株式会社 机器视觉系统

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111465940A (zh) * 2017-09-25 2020-07-28 日产自动车株式会社 机器视觉系统
CN111465940B (zh) * 2017-09-25 2024-03-26 日产自动车株式会社 机器视觉系统

Similar Documents

Publication Publication Date Title
Castillo et al. Some applications of functional networks in statistics and engineering
Medsker et al. Recurrent neural networks: design and applications
Brandt et al. Adaptive interaction and its application to neural networks
Wierstra et al. Modeling systems with internal state using evolino
WO1991014226A1 (en) Neuro-fuzzy fusion data processing system
Maire Rule-extraction by backpropagation of polyhedra
Jose Definition of an energy function for the random neural to solve optimization problems
Campbell Descriptor systems in the 1990s
Barbaresco Entropy Geometric Structure as Casimir Invariant Function in Coadjoint Representation: Geometric Theory of Heat & Information based on Souriau Lie Groups Thermodynamics and Lie Algebra Cohomology
Wilkinson et al. Conditional simulation from highly structured Gaussian systems, with application to blocking-MCMC for the Bayesian analysis of very large linear models
Claveria et al. An application of deep learning for exchange rate forecasting
CN116959600A (zh) 分子状态预测方法、装置和存储介质
JPH09198364A (ja) ニューラルネット発生装置
Azencot et al. A differential geometry perspective on orthogonal recurrent models
Moreau et al. Embedding recurrent neural networks into predator–prey models
Koo et al. Decentralised control for large-scale sampled-data systems: digital redesign approach
Duane “FORCE” learning in recurrent neural networks as data assimilation
Faragó et al. Qualitatively adequate numerical modeling of some biological processes
Valdés et al. Deterministic Numeric Simulation and Surrogate Models with White and Black Machine Learning Methods: A Case Study on Inverse Mappings
Lissner Atomistic Mathematical Theory for Metaheuristic Structures of Global Optimization Algorithms in Evolutionary Machine Learning for Power Systems
Guo Combination of physics-based and data-driven modeling for structural seismic response prediction
Valpola et al. An ensemble learning approach to nonlinear dynamic blind source separation using state-space models
JPH1011413A (ja) 力学系のリカレントネット模型作成装置
Margaris et al. Design and implementation of parallel counterpropagation networks using MPI
Tian et al. Data-driven optimal control with neural network modeling of gradient flows