JPH0721141A - 神経回路網型オンライン学習方法および装置 - Google Patents
神経回路網型オンライン学習方法および装置Info
- Publication number
- JPH0721141A JPH0721141A JP5165540A JP16554093A JPH0721141A JP H0721141 A JPH0721141 A JP H0721141A JP 5165540 A JP5165540 A JP 5165540A JP 16554093 A JP16554093 A JP 16554093A JP H0721141 A JPH0721141 A JP H0721141A
- Authority
- JP
- Japan
- Prior art keywords
- equation
- homogeneous solution
- homogeneous
- euler
- determining
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Feedback Control In General (AREA)
Abstract
(57)【要約】
【目的】厳密な勾配をより小さい計算量で逐次計算する
ことができる神経回路網型オンライン学習方法および装
置を提供する。 【構成】最適化すべき目的関数に対応するオイラー=ラ
グランジュ方程式を考え、このオイラー=ラグランジュ
方程式の非同次方程式および同次方程式の初期値を初期
値を設定する(ステップ104,105)。状態変数を計算した
(ステップ106)上で、非同次項を計算し(ステップ107)、
非同次解と同次解を計算し(ステップ108,109)、非同次
解と状態変数との積の積分、同次解と状態変数との積の
積分を求め(ステップ110,111)、逐次この処理を繰り返
す。そののち、非同次解と同次解との線形結合で本来解
くべきオイラー=ラグランジュ方程式の解を求める(ス
テップ114)、勾配を計算して(ステップ115)、制御変数
の値を更新する(ステップ117)。
ことができる神経回路網型オンライン学習方法および装
置を提供する。 【構成】最適化すべき目的関数に対応するオイラー=ラ
グランジュ方程式を考え、このオイラー=ラグランジュ
方程式の非同次方程式および同次方程式の初期値を初期
値を設定する(ステップ104,105)。状態変数を計算した
(ステップ106)上で、非同次項を計算し(ステップ107)、
非同次解と同次解を計算し(ステップ108,109)、非同次
解と状態変数との積の積分、同次解と状態変数との積の
積分を求め(ステップ110,111)、逐次この処理を繰り返
す。そののち、非同次解と同次解との線形結合で本来解
くべきオイラー=ラグランジュ方程式の解を求める(ス
テップ114)、勾配を計算して(ステップ115)、制御変数
の値を更新する(ステップ117)。
Description
【0001】
【産業上の利用分野】本発明は、相互結合型神経回路網
(ニューラルネットワーク)を用いた神経回路網型オン
ライン学習方法および装置に関し、特に、勾配法に基づ
いて制御変数を逐次更新する神経回路網型オンライン学
習方法および装置に関する。
(ニューラルネットワーク)を用いた神経回路網型オン
ライン学習方法および装置に関し、特に、勾配法に基づ
いて制御変数を逐次更新する神経回路網型オンライン学
習方法および装置に関する。
【0002】
【従来の技術】まず、相互結合型神経回路網について説
明する。神経回路網は、複数のユニットから構成されて
おり、各ユニットには、他のユニットからの出力が入力
する部分、入力値に応じて状態変数を決定する部分、状
態変数を非線形変換して出力する部分からなっている。
N個のユニットからなる相互結合型神経回路網のダイナ
ミクスは、
明する。神経回路網は、複数のユニットから構成されて
おり、各ユニットには、他のユニットからの出力が入力
する部分、入力値に応じて状態変数を決定する部分、状
態変数を非線形変換して出力する部分からなっている。
N個のユニットからなる相互結合型神経回路網のダイナ
ミクスは、
【0003】
【外1】 に関する連立微分方程式
【0004】
【数1】 にしたがって決定される。ここでuiはユニットi(た
だし1≦i≦N)の状態変数であり、これを関数fによ
って非線形変換したものがこのユニットiの出力f
(ui)となる。(1)式左辺のドットは、時間tに対する微
分であることをしめしている。aiはユニットiの時定
数の逆数、wijはユニットjからユニットiへの結合の
重み、hiはユニットiに対して神経回路網の外部から
入力するものの値である。また、qiはユニットiの状
態変数uiの初期値である。
だし1≦i≦N)の状態変数であり、これを関数fによ
って非線形変換したものがこのユニットiの出力f
(ui)となる。(1)式左辺のドットは、時間tに対する微
分であることをしめしている。aiはユニットiの時定
数の逆数、wijはユニットjからユニットiへの結合の
重み、hiはユニットiに対して神経回路網の外部から
入力するものの値である。また、qiはユニットiの状
態変数uiの初期値である。
【0005】ここで、相互結合型神経回路網による学習
について説明する。最適化すべき目的関数Eは、N次元
空間内の
について説明する。最適化すべき目的関数Eは、N次元
空間内の
【0006】
【外2】 の汎関数として、
【0007】
【数2】 で定義される。教師が陽に提示されるユニットの集合を
V、ユニットi(∈V)への時刻tにおける教師をφi
とすると、被積分関数Fは、教師φiと実際の出力との
自乗誤差
V、ユニットi(∈V)への時刻tにおける教師をφi
とすると、被積分関数Fは、教師φiと実際の出力との
自乗誤差
【0008】
【数3】 として定義するのが一般的である。この場合、目的関数
Eは、時刻0から時刻Tまでの教師との差を評価するも
のとなる。学習は、このように定義される目的関数Eを
極小とするように、制御変数ai,wij,hiを勾配法で決
定することによって行なわれる。すなわち教師φi(t)
(ただしi∈V,0<t<T)の提示後、各制御変数a
i,wij,hiの関する勾配∂E/∂ai,∂E/∂wij,∂
E/∂hiを計算し、それぞれの値を
Eは、時刻0から時刻Tまでの教師との差を評価するも
のとなる。学習は、このように定義される目的関数Eを
極小とするように、制御変数ai,wij,hiを勾配法で決
定することによって行なわれる。すなわち教師φi(t)
(ただしi∈V,0<t<T)の提示後、各制御変数a
i,wij,hiの関する勾配∂E/∂ai,∂E/∂wij,∂
E/∂hiを計算し、それぞれの値を
【0009】
【数4】 にしたがって更新する。ここでεは、学習係数と呼ばれ
る正の定数である。
る正の定数である。
【0010】制御変数に関する勾配をオンラインで厳密
に計算する方法としては、WilliamsとZipserによる勾配
計算法がある(WIlliams, R. J. and Zipser, D., "A l
earning algorithm for continually running fully re
current neural networks,"Neural computation 1, 270
-280(1989))。∂E/∂wijの計算を例にこれらの手法
について説明する。
に計算する方法としては、WilliamsとZipserによる勾配
計算法がある(WIlliams, R. J. and Zipser, D., "A l
earning algorithm for continually running fully re
current neural networks,"Neural computation 1, 270
-280(1989))。∂E/∂wijの計算を例にこれらの手法
について説明する。
【0011】
【数5】 によってpi klを定義する。このとき勾配∂E/∂wij
は、(2)式と(5)式より、
は、(2)式と(5)式より、
【0012】
【数6】 として計算される。Fを前述のように教師との自乗誤差
((3)式)として定義することにすれば、(6)式は
((3)式)として定義することにすれば、(6)式は
【0013】
【数7】 とすることができる。pi klは、(1)式に(5)式を代入す
ることにより、微分方程式
ることにより、微分方程式
【0014】
【数8】 にしたがって計算される。ここでδikはクロネッカーの
記号である。(8)式によって計算される変数ui,pi klお
よび与えられる教師φiを用いて、被積分関数Fを時刻
0から時刻Tまで逐次計算することができる、ただし、
全てのpi klを計算するためには、ユニット数Nの4乗
に比例する計算量が必要である。
記号である。(8)式によって計算される変数ui,pi klお
よび与えられる教師φiを用いて、被積分関数Fを時刻
0から時刻Tまで逐次計算することができる、ただし、
全てのpi klを計算するためには、ユニット数Nの4乗
に比例する計算量が必要である。
【0015】一方、オフラインで勾配を計算する方法と
して、PearlmutterあるいはSatoによる勾配計算法があ
る(Pearlmutter, B. A., "Learning state space traj
ectories in recurrent neural networks," Neural Com
putation 1, 263-269(1989);Sato, M., "A learning al
gorithm to teach spatiotemporal patterns to recurr
ent neural networks," Biol, Cybern. 62, 259-263(19
90))。
して、PearlmutterあるいはSatoによる勾配計算法があ
る(Pearlmutter, B. A., "Learning state space traj
ectories in recurrent neural networks," Neural Com
putation 1, 263-269(1989);Sato, M., "A learning al
gorithm to teach spatiotemporal patterns to recurr
ent neural networks," Biol, Cybern. 62, 259-263(19
90))。
【0016】
【外3】 をラグランジュ乗数として、ラグランジュ関数
【0017】
【数9】 を定義する。オイラー=ラグランジュ方程式から、
v1,...,vNに関する微分方程式
v1,...,vNに関する微分方程式
【0018】
【数10】 が導かれる。新しく導入された変数v1,...,vNを用い
て、勾配∂E/∂wijは
て、勾配∂E/∂wijは
【0019】
【数11】 と表現することができる。この方法では、viに関する
微分方程式((10)式)の境界条件が、時刻Tにおいて与
えられるため、時間の流れに逆行する計算が必要であ
る。すなわち、時刻0から時刻Tまで状態変数uiを逐
次計算した後、時刻Tにおけるuiとviの値を初期値と
して時刻Tから時刻0まで(10)式にしたがってuiとvi
をオフラインで計算することにより、被積分関数Fを計
算しなければならない。
微分方程式((10)式)の境界条件が、時刻Tにおいて与
えられるため、時間の流れに逆行する計算が必要であ
る。すなわち、時刻0から時刻Tまで状態変数uiを逐
次計算した後、時刻Tにおけるuiとviの値を初期値と
して時刻Tから時刻0まで(10)式にしたがってuiとvi
をオフラインで計算することにより、被積分関数Fを計
算しなければならない。
【0020】
【発明が解決しようとする課題】相互結合型神経回路網
を用いた従来の神経回路網型オンライン学習装置は、神
経回路網を構成するユニットの数の4乗に比例する計算
量が必要であるので、多数のユニットから構成される大
規模な相互結合型神経回路網の学習には不適であるとい
う問題点がある。また、上述したオフライン型のもので
は、時間に対して逆行する計算をオフラインで行なわな
ければならないという問題点がある。
を用いた従来の神経回路網型オンライン学習装置は、神
経回路網を構成するユニットの数の4乗に比例する計算
量が必要であるので、多数のユニットから構成される大
規模な相互結合型神経回路網の学習には不適であるとい
う問題点がある。また、上述したオフライン型のもので
は、時間に対して逆行する計算をオフラインで行なわな
ければならないという問題点がある。
【0021】本発明の目的は、厳密な勾配をより小さい
計算量で逐次計算することができる神経回路網型オンラ
イン学習方法および装置を提供することにある。
計算量で逐次計算することができる神経回路網型オンラ
イン学習方法および装置を提供することにある。
【0022】
【課題を解決するための手段】本発明の神経回路網型オ
ンライン学習方法は、相互結合型神経回路網における制
御変数を勾配法に基づいて逐次更新する神経回路網型オ
ンライン学習方法において、最適化すべき目的関数に対
応するオイラー=ラグランジュ方程式の非同次方程式の
初期値を決定する第1の工程と、前記オイラー=ラグラ
ンジュ方程式の同次方程式の初期値を決定する第2の工
程と、前記オイラー=ラグランジュ方程式の非同次項を
計算する第3の工程と、前記非同次項に基づき前記オイ
ラー=ラグランジュ方程式の非同次解を計算する第4の
工程と、前記同次方程式に基づき同次解を計算する第5
の工程と、前記非同次解と状態変数との積を逐次積分す
る第6の工程と、前記同次解と前記状態関数との積を逐
次積分する第7の工程と、前記非同次解および前記同次
解との線形結合として、本来解くべきオイラー=ラグラ
ンジュ方程式の解を決定し、線形結合係数を決定する第
8の工程と、前記第6および第7の工程で得られた積分
の線形結合により、前記制御変数に関する勾配を決定す
る第9の工程とを有する。
ンライン学習方法は、相互結合型神経回路網における制
御変数を勾配法に基づいて逐次更新する神経回路網型オ
ンライン学習方法において、最適化すべき目的関数に対
応するオイラー=ラグランジュ方程式の非同次方程式の
初期値を決定する第1の工程と、前記オイラー=ラグラ
ンジュ方程式の同次方程式の初期値を決定する第2の工
程と、前記オイラー=ラグランジュ方程式の非同次項を
計算する第3の工程と、前記非同次項に基づき前記オイ
ラー=ラグランジュ方程式の非同次解を計算する第4の
工程と、前記同次方程式に基づき同次解を計算する第5
の工程と、前記非同次解と状態変数との積を逐次積分す
る第6の工程と、前記同次解と前記状態関数との積を逐
次積分する第7の工程と、前記非同次解および前記同次
解との線形結合として、本来解くべきオイラー=ラグラ
ンジュ方程式の解を決定し、線形結合係数を決定する第
8の工程と、前記第6および第7の工程で得られた積分
の線形結合により、前記制御変数に関する勾配を決定す
る第9の工程とを有する。
【0023】本発明の神経回路網型オンライン学習装置
は、相互結合型神経回路網における制御変数を勾配法に
基づいて逐次更新する神経回路網型オンライン学習装置
において、最適化すべき目的関数に対応するオイラー=
ラグランジュ方程式の非同次項を決定する非同次項決定
手段と、前記オイラー=ラグランジュ方程式にしたがっ
て非同次解を決定する非同次解決定手段と、前記オイラ
ー=ラグランジュ方程式の同次方程式にしたがって同次
解を決定する同次解決定手段と、前記非同次解決定手段
で求められた非同次解と状態変数との積を逐次積分する
第1の積分手段と、前記同次解決定手段で求められた同
次解と状態変数との積を逐次積分する第2の積分手段
と、前記非同次解決定手段で求められた非同次解および
前記同次解決定手段で求められた同次解の線形結合定数
を決定する線形結合定数決定手段と、前記第1および第
2の積分手段によって計算された積分の線形結合を前記
線形結合定数に応じて決定し、前記線形結合により前記
制御変数に対する勾配を決定する勾配決定手段とを有す
る。
は、相互結合型神経回路網における制御変数を勾配法に
基づいて逐次更新する神経回路網型オンライン学習装置
において、最適化すべき目的関数に対応するオイラー=
ラグランジュ方程式の非同次項を決定する非同次項決定
手段と、前記オイラー=ラグランジュ方程式にしたがっ
て非同次解を決定する非同次解決定手段と、前記オイラ
ー=ラグランジュ方程式の同次方程式にしたがって同次
解を決定する同次解決定手段と、前記非同次解決定手段
で求められた非同次解と状態変数との積を逐次積分する
第1の積分手段と、前記同次解決定手段で求められた同
次解と状態変数との積を逐次積分する第2の積分手段
と、前記非同次解決定手段で求められた非同次解および
前記同次解決定手段で求められた同次解の線形結合定数
を決定する線形結合定数決定手段と、前記第1および第
2の積分手段によって計算された積分の線形結合を前記
線形結合定数に応じて決定し、前記線形結合により前記
制御変数に対する勾配を決定する勾配決定手段とを有す
る。
【0024】
【作用】ラグランジュ関数から導かれるオイラー=ラグ
ランジュ方程式の非同次方程式および同次方程式をそれ
ぞれ適当な初期条件の下で時間にしたがって逐次計算
し、求められた非同次解および同次解の線形結合によっ
て本来解くべきオイラー=ラグランジュ方程式の解を求
め、これに基づいて制御変数に関する厳密な勾配をオン
ラインで計算するので、従来の方法に比してより小さい
計算量で厳密な勾配を求めることができる。
ランジュ方程式の非同次方程式および同次方程式をそれ
ぞれ適当な初期条件の下で時間にしたがって逐次計算
し、求められた非同次解および同次解の線形結合によっ
て本来解くべきオイラー=ラグランジュ方程式の解を求
め、これに基づいて制御変数に関する厳密な勾配をオン
ラインで計算するので、従来の方法に比してより小さい
計算量で厳密な勾配を求めることができる。
【0025】以下、本発明についてさらに詳しく説明す
る。上述したように、PearlmutterやSatoによる勾配計
算法では、(10)式で表わされるオイラー=ラグランジュ
方程式において境界条件が時刻Tで与えられるので、こ
の式を時刻Tから時刻0まで時間を逆行してオフライン
計算する必要があった。いまこの境界条件の代りに時刻
0で適当な初期条件を与え、この微分方程式をオンライ
ンで解くものとする。このときの解(特解)をs0iとす
る。この微分方程式は、
る。上述したように、PearlmutterやSatoによる勾配計
算法では、(10)式で表わされるオイラー=ラグランジュ
方程式において境界条件が時刻Tで与えられるので、こ
の式を時刻Tから時刻0まで時間を逆行してオフライン
計算する必要があった。いまこの境界条件の代りに時刻
0で適当な初期条件を与え、この微分方程式をオンライ
ンで解くものとする。このときの解(特解)をs0iとす
る。この微分方程式は、
【0026】
【数12】 で与えられる。また、時刻0で線形独立である初期条件
を与えて得られるN個の同次方程式の解をsni(n=
1,...,N)とする。
を与えて得られるN個の同次方程式の解をsni(n=
1,...,N)とする。
【0027】
【数13】 ここでδniはクロネッカーの記号である。こうして得ら
れるN個の同次方程式の解は線形独立であるから、本来
解くべきオイラー=ラグランジュ方程式の一般解は、
れるN個の同次方程式の解は線形独立であるから、本来
解くべきオイラー=ラグランジュ方程式の一般解は、
【0028】
【数14】 と書き表すことができる。γ1,...,γNは、本来の境界
条件が満足されるように、線形連立方程式
条件が満足されるように、線形連立方程式
【0029】
【数15】 を解いて求めればよい。このとき勾配∂E/∂wklは、
【0030】
【数16】 に帰着する。ここで各変数および各積分は、時刻0から
時刻Tまでオンライン計算することができる。以上説明
したようにして、勾配を厳密に計算することができる。
時刻Tまでオンライン計算することができる。以上説明
したようにして、勾配を厳密に計算することができる。
【0031】
【実施例】次に、本発明の実施例について図面を参照し
て説明する。図1は本発明の一実施例の神経回路網型オ
ンライン学習装置の構成を示すブロック図である。
て説明する。図1は本発明の一実施例の神経回路網型オ
ンライン学習装置の構成を示すブロック図である。
【0032】この装置は、N個のユニット501〜50N
によって構成されている。各ユニット501〜50Nは、
それぞれN+2本で構成される出力ライン51を有し、
これらの出力ライン51は、そのユニットを含む全ての
ユニット501〜50Nの入力ライン52に接続されてい
る。入力ライン52の本数は、教師が陽に提示されるユ
ニットについてはN2+2N+1、その他のユニットに
ついてはN2+2Nである。以下では制御変数wklの学
習を例に挙げて説明する。
によって構成されている。各ユニット501〜50Nは、
それぞれN+2本で構成される出力ライン51を有し、
これらの出力ライン51は、そのユニットを含む全ての
ユニット501〜50Nの入力ライン52に接続されてい
る。入力ライン52の本数は、教師が陽に提示されるユ
ニットについてはN2+2N+1、その他のユニットに
ついてはN2+2Nである。以下では制御変数wklの学
習を例に挙げて説明する。
【0033】図2は、ユニットの構成を示す図である。
ユニットは、大きく分けて、ユニットの状態変数および
出力を計算するブロック1、オイラー=ラグランジュ方
程式の非同次解を計算するブロック2、オイラー=ラグ
ランジュ方程式の同次解を計算するブロック3、制御変
数の更新量を計算しこれらの制御変数の更新を行なうブ
ロック4とによって構成されている。同次解を計算する
ブロック3は、ユニット数がNであることによって、N
個設けられている。
ユニットは、大きく分けて、ユニットの状態変数および
出力を計算するブロック1、オイラー=ラグランジュ方
程式の非同次解を計算するブロック2、オイラー=ラグ
ランジュ方程式の同次解を計算するブロック3、制御変
数の更新量を計算しこれらの制御変数の更新を行なうブ
ロック4とによって構成されている。同次解を計算する
ブロック3は、ユニット数がNであることによって、N
個設けられている。
【0034】状態変数および出力を計算するブロック1
は、入力ライン数がN、出力ライン数が1である。そし
てこのブロック1は、、各ユニットの出力f(uj)(1
≦j≦N)が入力してその当該ユニットの状態変数ui
を計算する状態変数計算部11と、算出された状態変数
uiに非線形変換fを施してこのユニットの出力f(u i)
を計算する出力計算部12とによって構成されている。
状態変数計算部11は、状態変数uiを(1)式にしたがっ
て計算する。これと同時に計算されるf'(ui)は、後述
する非同次解計算部22と同次解計算部31によって参
照されるようになっている。
は、入力ライン数がN、出力ライン数が1である。そし
てこのブロック1は、、各ユニットの出力f(uj)(1
≦j≦N)が入力してその当該ユニットの状態変数ui
を計算する状態変数計算部11と、算出された状態変数
uiに非線形変換fを施してこのユニットの出力f(u i)
を計算する出力計算部12とによって構成されている。
状態変数計算部11は、状態変数uiを(1)式にしたがっ
て計算する。これと同時に計算されるf'(ui)は、後述
する非同次解計算部22と同次解計算部31によって参
照されるようになっている。
【0035】非同次解を計算するブロック2は、出力ラ
イン数が1であり、教師が陽に提示されるユニットでは
入力ライン数がN+1、その他のユニットでは入力ライ
ン数がNである。そしてこのブロック2は、非同次項を
求める非同次項計算部21、非同次解を求める非同次解
計算部22、求めた非同次解と状態変数との積の積分を
求める積分計算部23によって構成されている。教師が
陽に提示されるユニットにおいては外部より教師φiが
提示され、非同次項計算部21では∂F/∂uiが計算
されるようになっている。そして非同次解計算部22で
は、オイラー=ラグランジュ方程式の非同次解s0iが、
イン数が1であり、教師が陽に提示されるユニットでは
入力ライン数がN+1、その他のユニットでは入力ライ
ン数がNである。そしてこのブロック2は、非同次項を
求める非同次項計算部21、非同次解を求める非同次解
計算部22、求めた非同次解と状態変数との積の積分を
求める積分計算部23によって構成されている。教師が
陽に提示されるユニットにおいては外部より教師φiが
提示され、非同次項計算部21では∂F/∂uiが計算
されるようになっている。そして非同次解計算部22で
は、オイラー=ラグランジュ方程式の非同次解s0iが、
【0036】
【数17】 にしたがって計算され、積分計算部23では、
【0037】
【数18】 が逐次計算される。
【0038】同次解を計算するN個のブロック3は、そ
れぞれ各ユニットからの同次解が入力するN本の入力ラ
インを有する。そして各ブロック3は、同次解を計算す
る同次解計算部31と、求めた同次解と状態変数との積
の積分を求める積分計算部32によって構成されてい
る。同次解計算部31では、オイラー=ラグランジュ方
程式の同次解sni(n=1,...,N)が、(13)式に応じ
て計算される。積分計算部32では、
れぞれ各ユニットからの同次解が入力するN本の入力ラ
インを有する。そして各ブロック3は、同次解を計算す
る同次解計算部31と、求めた同次解と状態変数との積
の積分を求める積分計算部32によって構成されてい
る。同次解計算部31では、オイラー=ラグランジュ方
程式の同次解sni(n=1,...,N)が、(13)式に応じ
て計算される。積分計算部32では、
【0039】
【数19】 が逐次計算される。
【0040】制御変数の更新量を計算しこれらの制御変
数の更新を行なうブロック4は、線形結合係数を求める
係数計算部41と、線形結合係数に基づいて勾配を求め
る勾配計算部42と、求めた勾配に応じて制御変数を更
新する制御変数更新部43とが設けられている。係数計
算部41では、(15)式の線形連立方程式が解かれて、線
形結合係数γ1,...,γNが求められる。勾配計算部42
では、求められた係数γ1,...,γNを用い、(16)式に基
づいて勾配∂E/∂wklが計算される。そして、計算さ
れた勾配に基づき、制御変数更新部43において、制御
変数wklが
数の更新を行なうブロック4は、線形結合係数を求める
係数計算部41と、線形結合係数に基づいて勾配を求め
る勾配計算部42と、求めた勾配に応じて制御変数を更
新する制御変数更新部43とが設けられている。係数計
算部41では、(15)式の線形連立方程式が解かれて、線
形結合係数γ1,...,γNが求められる。勾配計算部42
では、求められた係数γ1,...,γNを用い、(16)式に基
づいて勾配∂E/∂wklが計算される。そして、計算さ
れた勾配に基づき、制御変数更新部43において、制御
変数wklが
【0041】
【数20】 にしたがって更新される。
【0042】次に、この装置を用いて行なう神経回路網
型オンライン学習方法の処理手順について、図3のフロ
ーチャートにより説明する。ここに示した例は、教師を
時刻0から時刻Tまで提示した後に、制御変数に関する
勾配を計算して学習を行なうものである。
型オンライン学習方法の処理手順について、図3のフロ
ーチャートにより説明する。ここに示した例は、教師を
時刻0から時刻Tまで提示した後に、制御変数に関する
勾配を計算して学習を行なうものである。
【0043】まず、制御変数の初期値を適当な値に設定
(ステップ101)した後、時刻tを0とする(ステッ
プ102)。状態変数の初期値を適当な値に設定し(ス
テップ103)、オイラー=ラグランジュ方程式の非同
次方程式の初期値を設定し(ステップ104)、オイラ
ー=ラグランジュ方程式の同次方程式の初期値を設定す
る(ステップ105)。そして、状態変数を計算し、各
ユニットの出力を決定する(ステップ106)。
(ステップ101)した後、時刻tを0とする(ステッ
プ102)。状態変数の初期値を適当な値に設定し(ス
テップ103)、オイラー=ラグランジュ方程式の非同
次方程式の初期値を設定し(ステップ104)、オイラ
ー=ラグランジュ方程式の同次方程式の初期値を設定す
る(ステップ105)。そして、状態変数を計算し、各
ユニットの出力を決定する(ステップ106)。
【0044】次に、計算された状態変数に基づき、非同
次項を計算し(ステップ107)、非同次解および同次
解を計算する(ステップ108および109)。非同次
解と状態変数との積の積分、同次解と状態変数との積の
積分をそれぞれ計算する(ステップ110および11
1)。時刻tがTになっているかを調べ(ステップ11
2)、時刻tが未だTになっていない場合には、時刻の
増分Δtをtに加算し、逐次、ステップ106からステ
ップ111までの処理を繰り返すために、ステップ10
6に戻る。
次項を計算し(ステップ107)、非同次解および同次
解を計算する(ステップ108および109)。非同次
解と状態変数との積の積分、同次解と状態変数との積の
積分をそれぞれ計算する(ステップ110および11
1)。時刻tがTになっているかを調べ(ステップ11
2)、時刻tが未だTになっていない場合には、時刻の
増分Δtをtに加算し、逐次、ステップ106からステ
ップ111までの処理を繰り返すために、ステップ10
6に戻る。
【0045】一方、時刻tがTとなった場合には、同次
解と非同次解を線形結合して本来解くべきオイラー=ラ
グランジュ方程式の解を得るために、線形結合係数を決
定する(ステップ114)。そして、求めた線形結合係
数に基づいて、勾配を計算する(ステップ115)。求
めた勾配のノルムと予め設定されている値とを比較し
(ステップ116)、ノルムの方が小さい場合には所定
の打ち切り条件を満たしたとして処理を終了する。一
方、ノルムが大きい場合には、十分収束していない場合
であるから、求めた勾配に応じて制御変数の値を更新し
(ステップ117)、ステップ102に戻って再計算を
行なう。
解と非同次解を線形結合して本来解くべきオイラー=ラ
グランジュ方程式の解を得るために、線形結合係数を決
定する(ステップ114)。そして、求めた線形結合係
数に基づいて、勾配を計算する(ステップ115)。求
めた勾配のノルムと予め設定されている値とを比較し
(ステップ116)、ノルムの方が小さい場合には所定
の打ち切り条件を満たしたとして処理を終了する。一
方、ノルムが大きい場合には、十分収束していない場合
であるから、求めた勾配に応じて制御変数の値を更新し
(ステップ117)、ステップ102に戻って再計算を
行なう。
【0046】以上の処理を行なうことにより、厳密な勾
配に基づく学習が行なわれることになる。
配に基づく学習が行なわれることになる。
【0047】教師を提示するごとに制御変数に関する勾
配を計算して学習を行なうことも可能である。図4はこ
の場合の処理手順を示すフローチャートである。
配を計算して学習を行なうことも可能である。図4はこ
の場合の処理手順を示すフローチャートである。
【0048】まず、制御変数の初期値を適当な値に設定
し(ステップ151)、時刻tを0として(ステップ1
52)、状態変数の初期値を適当な値に設定し(ステッ
プ153)、オイラー=ラグランジュ方程式の非同次方
程式および同次方程式の初期値をそれぞれ設定する(ス
テップ154およびステップ155)。そして、状態変
数を計算して出力を決定し(ステップ156)、計算さ
れた状態変数に基づき、非同次項を計算し(ステップ1
57)、非同次解および同次解を計算する(ステップ1
58および159)。非同次解と状態変数との積の積
分、同次解と状態変数との積の積分をそれぞれ計算する
(ステップ160および161)。
し(ステップ151)、時刻tを0として(ステップ1
52)、状態変数の初期値を適当な値に設定し(ステッ
プ153)、オイラー=ラグランジュ方程式の非同次方
程式および同次方程式の初期値をそれぞれ設定する(ス
テップ154およびステップ155)。そして、状態変
数を計算して出力を決定し(ステップ156)、計算さ
れた状態変数に基づき、非同次項を計算し(ステップ1
57)、非同次解および同次解を計算する(ステップ1
58および159)。非同次解と状態変数との積の積
分、同次解と状態変数との積の積分をそれぞれ計算する
(ステップ160および161)。
【0049】そののち、同次解と非同次解を線形結合し
て本来解くべきオイラー=ラグランジュ方程式の解を得
るために、線形結合係数を決定する(ステップ16
2)。そして、求めた線形結合係数に基づいて勾配を計
算し(ステップ163)、求めた勾配に基づいて制御変
数の値を更新する(ステップ164)。制御変数の更新
後、時刻tに増分Δtを加算し、ステップ156に戻
る。
て本来解くべきオイラー=ラグランジュ方程式の解を得
るために、線形結合係数を決定する(ステップ16
2)。そして、求めた線形結合係数に基づいて勾配を計
算し(ステップ163)、求めた勾配に基づいて制御変
数の値を更新する(ステップ164)。制御変数の更新
後、時刻tに増分Δtを加算し、ステップ156に戻
る。
【0050】以上の処理を行なうことによって、勾配が
求められて学習が行なわれる。図4に示して例では、ス
テップ156からステップ165までのループを回るご
とに制御変数が異なるので、計算される勾配は、厳密な
ものとならない。この問題を解決するためには、目的関
数の被積分関数Fを例えば
求められて学習が行なわれる。図4に示して例では、ス
テップ156からステップ165までのループを回るご
とに制御変数が異なるので、計算される勾配は、厳密な
ものとならない。この問題を解決するためには、目的関
数の被積分関数Fを例えば
【0051】
【数21】 のように定義し、学習係数εをτよりも十分小さく設定
すればよい。
すればよい。
【0052】以上、本発明の実施例について説明した。
従来、相互結合型神経回路網のオンライン学習にはユニ
ット数の4乗に比例する計算量を必要としていたが、本
発明により、ユニット数の3乗に比例する計算時間でオ
ンライン学習を遂行することが可能となった。本発明の
神経回路網型オンライン学習方法および装置は、時系列
パターンの学習を必要とされる、例えばロボットの制御
や動画像処理などへの応用が考えられる。本発明は、よ
り多数のユニットからなる相互結合型神経回路網による
オンライン学習に著しい効果を発揮する。
従来、相互結合型神経回路網のオンライン学習にはユニ
ット数の4乗に比例する計算量を必要としていたが、本
発明により、ユニット数の3乗に比例する計算時間でオ
ンライン学習を遂行することが可能となった。本発明の
神経回路網型オンライン学習方法および装置は、時系列
パターンの学習を必要とされる、例えばロボットの制御
や動画像処理などへの応用が考えられる。本発明は、よ
り多数のユニットからなる相互結合型神経回路網による
オンライン学習に著しい効果を発揮する。
【0053】
【発明の効果】以上説明したように本発明は、ラグラン
ジュ関数から導かれるオイラー=ラグランジュ方程式の
非同次方程式および同次方程式をそれぞれ適当な初期条
件の下で時間にしたがって逐次計算し、求められた非同
次解および同次解の線形結合によって本来解くべきオイ
ラー=ラグランジュ方程式の解を求め、これに基づいて
制御変数に関する勾配をオンラインで計算することによ
り、従来の方法に比してより小さい計算量で厳密な勾配
を求めることができ、より少ない計算量、計算時間でオ
ンライン学習を行なうことができるようになるという効
果がある。
ジュ関数から導かれるオイラー=ラグランジュ方程式の
非同次方程式および同次方程式をそれぞれ適当な初期条
件の下で時間にしたがって逐次計算し、求められた非同
次解および同次解の線形結合によって本来解くべきオイ
ラー=ラグランジュ方程式の解を求め、これに基づいて
制御変数に関する勾配をオンラインで計算することによ
り、従来の方法に比してより小さい計算量で厳密な勾配
を求めることができ、より少ない計算量、計算時間でオ
ンライン学習を行なうことができるようになるという効
果がある。
【図1】本発明の一実施例の神経回路網型オンライン学
習装置の構成を示すブロック図である。
習装置の構成を示すブロック図である。
【図2】ユニットの構成を示すブロック図である。
【図3】学習処理の手順を示すフローチャートである。
【図4】学習処理の手順を示すフローチャートである。
1〜4 ブロック 11 状態変数計算部 12 出力計算部 21 非同次項計算部 22 非同次解計算部 23,32 積分計算部 31 同次解計算部 41 係数計算部 42 勾配計算部 43 制御変数更新部 501〜50N ユニット 101〜117,151〜165 ステップ
Claims (2)
- 【請求項1】 相互結合型神経回路網における制御変数
を勾配法に基づいて逐次更新する神経回路網型オンライ
ン学習方法において、 最適化すべき目的関数に対応するオイラー=ラグランジ
ュ方程式の非同次方程式の初期値を決定する第1の工程
と、 前記オイラー=ラグランジュ方程式の同次方程式の初期
値を決定する第2の工程と、 前記オイラー=ラグランジュ方程式の非同次項を計算す
る第3の工程と、 前記非同次項に基づき前記オイラー=ラグランジュ方程
式の非同次解を計算する第4の工程と、 前記同次方程式に基づき同次解を計算する第5の工程
と、 前記非同次解と状態変数との積を逐次積分する第6の工
程と、 前記同次解と前記状態関数との積を逐次積分する第7の
工程と、 前記非同次解および前記同次解との線形結合として、本
来解くべきオイラー=ラグランジュ方程式の解を決定
し、線形結合係数を決定する第8の工程と、 前記第6および第7の工程で得られた積分の線形結合に
より、前記制御変数に関する勾配を決定する第9の工程
とを有することを特徴とする神経回路網型オンライン学
習方法。 - 【請求項2】 相互結合型神経回路網における制御変数
を勾配法に基づいて逐次更新する神経回路網型オンライ
ン学習装置において、 最適化すべき目的関数に対応するオイラー=ラグランジ
ュ方程式の非同次項を決定する非同次項決定手段と、 前記オイラー=ラグランジュ方程式にしたがって非同次
解を決定する非同次解決定手段と、 前記オイラー=ラグランジュ方程式の同次方程式にした
がって同次解を決定する同次解決定手段と、 前記非同次解決定手段で求められた非同次解と状態変数
との積を逐次積分する第1の積分手段と、 前記同次解決定手段で求められた同次解と状態変数との
積を逐次積分する第2の積分手段と、 前記非同次解決定手段で求められた非同次解および前記
同次解決定手段で求められた同次解の線形結合定数を決
定する線形結合定数決定手段と、 前記第1および第2の積分手段によって計算された積分
の線形結合を前記線形結合定数に応じて決定し、前記線
形結合により前記制御変数に対する勾配を決定する勾配
決定手段とを有することを特徴とする神経回路網型オン
ライン学習装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP5165540A JPH0721141A (ja) | 1993-07-05 | 1993-07-05 | 神経回路網型オンライン学習方法および装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP5165540A JPH0721141A (ja) | 1993-07-05 | 1993-07-05 | 神経回路網型オンライン学習方法および装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH0721141A true JPH0721141A (ja) | 1995-01-24 |
Family
ID=15814329
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP5165540A Pending JPH0721141A (ja) | 1993-07-05 | 1993-07-05 | 神経回路網型オンライン学習方法および装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH0721141A (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108027593A (zh) * | 2015-09-25 | 2018-05-11 | 西门子股份公司 | 用于运行技术系统的方法和设备 |
-
1993
- 1993-07-05 JP JP5165540A patent/JPH0721141A/ja active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108027593A (zh) * | 2015-09-25 | 2018-05-11 | 西门子股份公司 | 用于运行技术系统的方法和设备 |
CN108027593B (zh) * | 2015-09-25 | 2021-10-26 | 西门子股份公司 | 用于运行技术系统的方法和设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3743247B2 (ja) | ニューラルネットワークによる予測装置 | |
US7395251B2 (en) | Neural networks for prediction and control | |
JPH07191712A (ja) | 調節されるシステム内のプロセスに指令を与えるための方法および装置 | |
EP4216098A1 (en) | Methods and apparatuses for constructing vehicle dynamics model and for predicting vehicle state information | |
CN111399375A (zh) | 一种基于非线性系统的神经网络预测控制器 | |
CN114692494A (zh) | 一种锂电池温度场在线建模方法及系统 | |
CN106610584A (zh) | 一种基于神经网络与专家系统的再制造工序质量控制方法 | |
CN109782586B (zh) | 参数自整定的miso异因子紧格式无模型控制方法 | |
CN101285816A (zh) | 铜锍吹炼的过程参数软测量仪表及其软测量方法 | |
US8190536B2 (en) | Method of performing parallel search optimization | |
JPH0721141A (ja) | 神経回路網型オンライン学習方法および装置 | |
JPH0756608A (ja) | 信号処理方法 | |
Li et al. | Decentralized stabilization of large-scale stochastic nonlinear systems with time-varying powers | |
CN111625995A (zh) | 一种集成遗忘机制和双超限学习机的在线时空建模方法 | |
CN110309472B (zh) | 基于离线数据的策略评估方法及装置 | |
CN113361200A (zh) | 一种基于群体共识的信息不确定性灰色群体决策方法 | |
CN109814388B (zh) | 参数自整定的miso异因子偏格式无模型控制方法 | |
CN111752152A (zh) | Siso紧格式无模型控制器基于lstm神经网络的参数自整定方法 | |
JPH07244502A (ja) | 制御装置 | |
CN112015083B (zh) | Siso紧格式无模型控制器基于集成学习的参数自整定方法 | |
JPH04264664A (ja) | 神経回路網型パターン処理装置 | |
JPH05181825A (ja) | 未知数量推定方法およびその装置 | |
CN111781821A (zh) | SISO紧格式无模型控制器基于Attention机制循环神经网络的参数自整定方法 | |
SU911540A2 (ru) | Устройство дл контрол параметров | |
CN114329808A (zh) | 汽轮机运行异常数据识别方法及设备 |