JPH1173405A - 神経回路網型逐次学習方法、神経回路網型逐次学習装置および神経回路網型逐次学習プログラムを記録した記録媒体 - Google Patents
神経回路網型逐次学習方法、神経回路網型逐次学習装置および神経回路網型逐次学習プログラムを記録した記録媒体Info
- Publication number
- JPH1173405A JPH1173405A JP23153897A JP23153897A JPH1173405A JP H1173405 A JPH1173405 A JP H1173405A JP 23153897 A JP23153897 A JP 23153897A JP 23153897 A JP23153897 A JP 23153897A JP H1173405 A JPH1173405 A JP H1173405A
- Authority
- JP
- Japan
- Prior art keywords
- learning
- neural network
- data
- type sequential
- input
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Complex Calculations (AREA)
- Feedback Control In General (AREA)
Abstract
(57)【要約】
【課題】 神経回路網型逐次学習機械において、学習後
の誤差関数の2階行列の固有ベクトルを慣性項へ効果的
に変換して、有効に忘却を抑止する。 【解決手段】 学習部での学習後の誤差関数の2階層微
分行列の固有値・固有ベクトルを計算する手段、該計算
された固有値によって固有ベクトルを選択して格納する
手段、該固有値・固有ベクトルと次の学習データから得
られる勾配を用いて慣性項を計算する手段を設ける。学
習部では、この慣性項を用いて、与えられた入出力デー
タに合うように、神経回路網内の重みを修正する。
の誤差関数の2階行列の固有ベクトルを慣性項へ効果的
に変換して、有効に忘却を抑止する。 【解決手段】 学習部での学習後の誤差関数の2階層微
分行列の固有値・固有ベクトルを計算する手段、該計算
された固有値によって固有ベクトルを選択して格納する
手段、該固有値・固有ベクトルと次の学習データから得
られる勾配を用いて慣性項を計算する手段を設ける。学
習部では、この慣性項を用いて、与えられた入出力デー
タに合うように、神経回路網内の重みを修正する。
Description
【0001】
【発明の属する技術分野】本発明は、人工神経回路網に
おいて、与えられたデータを逐次に学習する神経回路網
型逐次学習方法および装置、さらには神経回路網型逐次
学習プログラムを記録した記録媒体に関するものであ
る。
おいて、与えられたデータを逐次に学習する神経回路網
型逐次学習方法および装置、さらには神経回路網型逐次
学習プログラムを記録した記録媒体に関するものであ
る。
【0002】
【従来の技術】従来の神経回路網型逐次学習機械は、一
般に入力されるデータから時間的に近傍のデータをある
数だけ格納し、それらを用いて学習を行なっている。こ
の時、用いられなくなったデータに関しては、逐次型学
習装置から忘れ去られる現象が起こる。この忘れ去られ
る現象を回避するための方法としては、学習後の重みだ
けを格納し、次の学習時に格納しておいた重みを用いる
ことによって、忘却を抑制することが考えられるが、こ
の方法は、限られた学習対象のみに効果的に働き、より
汎用的な方法論として確立されていない。
般に入力されるデータから時間的に近傍のデータをある
数だけ格納し、それらを用いて学習を行なっている。こ
の時、用いられなくなったデータに関しては、逐次型学
習装置から忘れ去られる現象が起こる。この忘れ去られ
る現象を回避するための方法としては、学習後の重みだ
けを格納し、次の学習時に格納しておいた重みを用いる
ことによって、忘却を抑制することが考えられるが、こ
の方法は、限られた学習対象のみに効果的に働き、より
汎用的な方法論として確立されていない。
【0003】
【発明が解決しようとする課題】このため、本出願人
は、先に特願平9−4150号として、学習後の誤差関
数の2階行列の固有ベクトルを誤差逆伝搬法の慣性項に
代入する方法を提案した。しかし、この方法は、固有ベ
クトルを慣性項に変換する効果的な方法がなく、より良
い効果が得られない場合がある。
は、先に特願平9−4150号として、学習後の誤差関
数の2階行列の固有ベクトルを誤差逆伝搬法の慣性項に
代入する方法を提案した。しかし、この方法は、固有ベ
クトルを慣性項に変換する効果的な方法がなく、より良
い効果が得られない場合がある。
【0004】本発明の目的は、従来の神経回路網型逐次
学習機械において、忘却の影響を抑制する際、固有ベク
トルを慣性項へ変換する効果的な新しい手法を提供する
ことにある。
学習機械において、忘却の影響を抑制する際、固有ベク
トルを慣性項へ変換する効果的な新しい手法を提供する
ことにある。
【0005】
【課題を解決するための手段】本発明における学習の処
理とは、与えられた入出力データに合うように、神経回
路網内の重みを修正することをさす。本発明は、この神
経回路網内の重みを修正する神経回路網型逐次学習にお
いて、学習後の誤差関数の2階微分行列の固有値・固有
ベクトルを計算し、固有値によって固有ベクトルを選択
して格納し、その固有値・固有べクトルと次の学習デー
タから得られる勾配を用いて慣性項を計算し、その慣性
項を用いて、与えられたデータを学習することを主要な
特徴とするものである。
理とは、与えられた入出力データに合うように、神経回
路網内の重みを修正することをさす。本発明は、この神
経回路網内の重みを修正する神経回路網型逐次学習にお
いて、学習後の誤差関数の2階微分行列の固有値・固有
ベクトルを計算し、固有値によって固有ベクトルを選択
して格納し、その固有値・固有べクトルと次の学習デー
タから得られる勾配を用いて慣性項を計算し、その慣性
項を用いて、与えられたデータを学習することを主要な
特徴とするものである。
【0006】
【発明の実施の形態】以下、本発明の実施形態を図面に
より詳細に説明する。図1は、本発明の一実施の形態の
神経回路網型逐次学習装置の構成図である。図1におい
て、1は学習するデータを入力する入力部、2は入力部
1の入力データを格納するデータ格納部、3はデータ格
納部2で格納されているデータを学習する学習部、4は
学習部3の学習後の誤差関数の2階微分行列の固有値・
固有ベクトルを計算する固有値・固有ベクトル計算部、
5は固有値・固有ベクトル計算部4で計算された固有値
・固有ベクトルを選別し、格納する固定値・固有ベクト
ル格納部、6は固定値・固有ベクトル格納部5に格納さ
れている固有値・固有ベクトルと次の学習データの勾配
から、慣性項を計算(変換)する変換部、7は学習部3
での学習した結果を出力する出力部、8は全体を制御す
る制御部である。
より詳細に説明する。図1は、本発明の一実施の形態の
神経回路網型逐次学習装置の構成図である。図1におい
て、1は学習するデータを入力する入力部、2は入力部
1の入力データを格納するデータ格納部、3はデータ格
納部2で格納されているデータを学習する学習部、4は
学習部3の学習後の誤差関数の2階微分行列の固有値・
固有ベクトルを計算する固有値・固有ベクトル計算部、
5は固有値・固有ベクトル計算部4で計算された固有値
・固有ベクトルを選別し、格納する固定値・固有ベクト
ル格納部、6は固定値・固有ベクトル格納部5に格納さ
れている固有値・固有ベクトルと次の学習データの勾配
から、慣性項を計算(変換)する変換部、7は学習部3
での学習した結果を出力する出力部、8は全体を制御す
る制御部である。
【0007】本神経回路網型逐次学習装置の動作概要
は、以下の通りである。入力部1において入力されたデ
ータが、データ格納部2で格納される。該データ格納部
2では、格納しておけるデータ数に制限があるので、時
間的に近傍である数に制限し格納する。学習部3におい
て学習(神経回路網内の重みの修正)が行なわれたの
ち、固有値・固有ベクトル計算部4で誤差関数の2階微
分行列(ヘシアン行列)の固有値・固有ベクトルを計算
し、固有値によって固有ベクトルを選択して固有値・固
有ベクトル格納部5に格納する。次の学習データが与え
られた時、変換部5において、学習データの誤差関数の
勾配と格納されている固有ベクトルから慣性項を計算す
る。
は、以下の通りである。入力部1において入力されたデ
ータが、データ格納部2で格納される。該データ格納部
2では、格納しておけるデータ数に制限があるので、時
間的に近傍である数に制限し格納する。学習部3におい
て学習(神経回路網内の重みの修正)が行なわれたの
ち、固有値・固有ベクトル計算部4で誤差関数の2階微
分行列(ヘシアン行列)の固有値・固有ベクトルを計算
し、固有値によって固有ベクトルを選択して固有値・固
有ベクトル格納部5に格納する。次の学習データが与え
られた時、変換部5において、学習データの誤差関数の
勾配と格納されている固有ベクトルから慣性項を計算す
る。
【0008】ここで、学習部3の動作について、一つ前
の過去の学習データを考慮する場合を例に以下に詳述す
る。
の過去の学習データを考慮する場合を例に以下に詳述す
る。
【0009】学習部3は、図2のような入力層、中間
層、出力層からなる多層の人工の神経回路網で構成され
る。層内は、多入力一出力の人工神経ユニットで構成さ
れる。この人工神経回路網は、人工神経ユニット間の重
みとして、与えられる入力と出力の関係を学習する。
層、出力層からなる多層の人工の神経回路網で構成され
る。層内は、多入力一出力の人工神経ユニットで構成さ
れる。この人工神経回路網は、人工神経ユニット間の重
みとして、与えられる入力と出力の関係を学習する。
【0010】いま、データ格納部2において格納されて
いるデータを
いるデータを
【0011】
【外1】
【0012】とする。人工神経回路網の入出力関係を
【0013】
【数1】
【0014】で表すと、人工神経回路網の出力と与えら
れたデータの誤差関数Eは、次の式(1)で表される。
れたデータの誤差関数Eは、次の式(1)で表される。
【0015】
【数2】
【0016】従来の誤差逆伝搬法などで修正される重み
の修正量は、次の式(2)で表される(例えば、D.E.
Rumelhart,G.E.Hinton and R.J.Williams(1
986).“Learnig internal representations by e
rror propagation,”inParallel distributed proc
essing:Explorations in the Microstructureof Co
gnition,Vol.1,D.E.Rumelhard and J.L.McC
lelland(eds)MIT Press Cambridge MA.参
照)。
の修正量は、次の式(2)で表される(例えば、D.E.
Rumelhart,G.E.Hinton and R.J.Williams(1
986).“Learnig internal representations by e
rror propagation,”inParallel distributed proc
essing:Explorations in the Microstructureof Co
gnition,Vol.1,D.E.Rumelhard and J.L.McC
lelland(eds)MIT Press Cambridge MA.参
照)。
【0017】
【数3】
【0018】ここで、
【0019】
【外2】
【0020】は慣性項と呼ばれる。
【0021】学習は式(2)を繰り返し行ない、式
(1)と、
(1)と、
【0022】
【外3】
【0023】がある条件を満たした時に終了する。
【0024】この学習後、固有値・固有ベクトル計算部
4において、誤差関数式(1)の重みによるへシアン行
列を求め、その行列の固有値μiと固有ベクトル
4において、誤差関数式(1)の重みによるへシアン行
列を求め、その行列の固有値μiと固有ベクトル
【0025】
【外4】
【0026】を求める。そして、固有値の大きい固有ベ
クトルを固有値・固有ベクトル格納部5へ格納する。
クトルを固有値・固有ベクトル格納部5へ格納する。
【0027】次の学習時に、式(2)の第一項
【0028】
【外5】
【0029】を計算する。その
【0030】
【外6】
【0031】と固有値・固有ベクトル格納部5に格納さ
れている固有ベクトル
れている固有ベクトル
【0032】
【外7】
【0033】を用いて、変換部6において、慣性項を次
の式(3)にしたがって計算する。式(3)中、λはあ
る定数である。
の式(3)にしたがって計算する。式(3)中、λはあ
る定数である。
【0034】
【数4】
【0035】学習終了後に、出力が知りたいデータを人
工神経回路網へ入力し、出力を調べる。さらに、学習デ
ータが入力されれば、上記を繰り返す。
工神経回路網へ入力し、出力を調べる。さらに、学習デ
ータが入力されれば、上記を繰り返す。
【0036】図3に、本実施形態における一連の処理フ
ローチャートを示す。図3において、特に太線で囲った
処理310、320が本実施形態で特徴とする処理であ
る。
ローチャートを示す。図3において、特に太線で囲った
処理310、320が本実施形態で特徴とする処理であ
る。
【0037】なお、図3の処理フローチャートは神経回
路網型逐次学習プログラムとして、FD若しくはCD−
ROM等の記録媒体にコンピュータで読み取り可能な形
式で記録し、販売することが可能である。
路網型逐次学習プログラムとして、FD若しくはCD−
ROM等の記録媒体にコンピュータで読み取り可能な形
式で記録し、販売することが可能である。
【0038】
【発明の効果】以上説明したように、本発明によれば、
与えられた入出力データに合うように、神経回路網内の
重みを修正する神経回路網型逐次学習において、誤差関
数の2階微分行列の固有ベクトル・固有値と、次の学習
データの誤差関数の勾配から慣性項を計算し、学習でき
る。このことによって、有効に忘却の影響を抑制でき
る。具体的には、本発明は、逐次にデータが入力される
ようなオンライン学習・予測などの装置に効果的に用い
ることができ、気象、交通、株価予測など幅広い応用が
考えられる。
与えられた入出力データに合うように、神経回路網内の
重みを修正する神経回路網型逐次学習において、誤差関
数の2階微分行列の固有ベクトル・固有値と、次の学習
データの誤差関数の勾配から慣性項を計算し、学習でき
る。このことによって、有効に忘却の影響を抑制でき
る。具体的には、本発明は、逐次にデータが入力される
ようなオンライン学習・予測などの装置に効果的に用い
ることができ、気象、交通、株価予測など幅広い応用が
考えられる。
【図1】本発明の実施形態を示す神経回路網型逐次学習
型装置の構成図である。
型装置の構成図である。
【図2】学習部の多層人工神経回路網の構成例を示す図
である。
である。
【図3】図1の全体の処理フローチャートの一例であ
る。
る。
1 入力部 2 データ格納部 3 学習部 4 固有値・固有ベクトル計算部 5 固有値・固有ベクトル格納部 6 変換部 7 出力部 8 制御部
Claims (3)
- 【請求項1】 与えられた入出力データに合うように、
神経回路網内の重みを修正する神経回路網型逐次学習方
法であって、 学習後の誤差関数の2階微分行列の固有値・固有ベクト
ルを計算し、固有値によって固有ベクトルを選択して格
納し、その固有値・固有べクトルと次の学習データから
得られる勾配を用いて慣性項を計算し、その慣性項を用
いて、与えられたデータを学習することを特徴とする神
経回路網型逐次学習方法。 - 【請求項2】 与えられた入出力データに合うように、
神経回路網内の重みを修正する(以下、これを学習と呼
ぶ)神経回路網型逐次学習装置において、 学習するデータの入力と出力の組を入力する入力手段
と、 前記入力手段の入力データを格納するデータ格納手段
と、 前記データ格納手段で格納されているデータを学習する
学習手段と、 前記学習手段の学習後の誤差関数の2階微分行列の固有
値・固有ベクトルを計算する計算手段と、 前記計算手段で計算された固有値・固有ベクトルを選別
し、格納する固有値・固有ベクトル格納手段と、 前記固有値・固有ベクトル格納手段に格納されている固
有値・固有ベクトルと次の学習データの勾配から、慣性
項へ変換して学習手段へ出力する手段と、 前記学習手段による学習結果を出力する出力手段と、 前記各手段を制御する制御手段と、からなることを特徴
とする神経回路網型逐次学習装置。 - 【請求項3】 与えられた入出力データに合うように、
神経回路網内の重みを修正するための神経回路網型逐次
学習プログラムを記録したコンピュータ読み取り可能な
記録媒体であって、 学習するデータを入力するプロセスと、 前記入力されたデータを格納するプロセスと、 前記格納されている入力データを人工神経回路網に入力
して、出力値の誤差を計算し、重みを修正(学習)する
プロセスと、 学習後の誤差関数の2階微分行列の固有値・固有ベクト
ルを計算するプロセスと、 前記計算された固有値・固有ベクトルを選別して格納す
るプロセスと、 前記格納されている固有値・固有ベクトルと次の学習デ
ータの勾配から慣性項を計算するプロセスと、 学習した結果を出力するプロセスとを有することを特徴
とする神経回路網型逐次学習プログラムを記録した記録
媒体。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP23153897A JPH1173405A (ja) | 1997-08-27 | 1997-08-27 | 神経回路網型逐次学習方法、神経回路網型逐次学習装置および神経回路網型逐次学習プログラムを記録した記録媒体 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP23153897A JPH1173405A (ja) | 1997-08-27 | 1997-08-27 | 神経回路網型逐次学習方法、神経回路網型逐次学習装置および神経回路網型逐次学習プログラムを記録した記録媒体 |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH1173405A true JPH1173405A (ja) | 1999-03-16 |
Family
ID=16925076
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP23153897A Pending JPH1173405A (ja) | 1997-08-27 | 1997-08-27 | 神経回路網型逐次学習方法、神経回路網型逐次学習装置および神経回路網型逐次学習プログラムを記録した記録媒体 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH1173405A (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20190028531A (ko) * | 2016-07-18 | 2019-03-18 | 딥마인드 테크놀로지스 리미티드 | 복수의 기계 학습 태스크에 대해 기계 학습 모델들을 훈련 |
-
1997
- 1997-08-27 JP JP23153897A patent/JPH1173405A/ja active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20190028531A (ko) * | 2016-07-18 | 2019-03-18 | 딥마인드 테크놀로지스 리미티드 | 복수의 기계 학습 태스크에 대해 기계 학습 모델들을 훈련 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2001236337A (ja) | ニューラルネットワークによる予測装置 | |
JPH04262453A (ja) | ニュ−ロ学習制御方法及び装置 | |
JP3214876B2 (ja) | ニューラルネットワークの構成方法およびニューラルネットワーク構築支援システム | |
JPH1173405A (ja) | 神経回路網型逐次学習方法、神経回路網型逐次学習装置および神経回路網型逐次学習プログラムを記録した記録媒体 | |
JP2968631B2 (ja) | 熱延プロセス制御方法 | |
JP2825939B2 (ja) | ニューラルネットワーク学習装置 | |
JPH0451384A (ja) | ニューラルネットワークの構築方法 | |
JP2897220B2 (ja) | 信号処理装置 | |
JP2540654B2 (ja) | ニュ―ラルネットワ―クの学習装置 | |
JPH10198646A (ja) | 神経回路網型逐次学習方法および装置 | |
JPH05265509A (ja) | 学習制御装置 | |
JP2929106B2 (ja) | ステレオマッチング方法及びその装置 | |
JP3276035B2 (ja) | 神経回路網モデルの逐次型加速化学習方法 | |
JPH11328143A (ja) | 神経回路網型学習装置の学習度計算方法、神経回路網型学習装置、および学習度計算プログラムを記録した記録媒体 | |
JPH05128285A (ja) | ニユーロプロセツサ | |
JP2979562B2 (ja) | 学習処理装置 | |
JPH09138786A (ja) | ニューラルネットワークの学習装置 | |
JPH0618649B2 (ja) | 圧延機の圧下スケジュール設定方法 | |
JP3273568B2 (ja) | 階層型ニューラルネットワークおよびその学習方法 | |
JPH086916A (ja) | リカレント型ニューラルネットワーク学習方法及びその装置 | |
Nikravesh et al. | Process control of nonlinear time variant processes via artificial neural network | |
JPH0620048A (ja) | 画像処理装置 | |
JP2607351B2 (ja) | 多層パーセプトロンの神経回路網の効率的な学習のための誤差信号の発生方法 | |
JPH08166934A (ja) | ニューラルネットワークを用いた関数生成装置 | |
JPH1055347A (ja) | 神経回路網型逐次学習方法および装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A02 | Decision of refusal |
Effective date: 20040316 Free format text: JAPANESE INTERMEDIATE CODE: A02 |