JPH06250997A - 神経回路網の高速学習装置 - Google Patents

神経回路網の高速学習装置

Info

Publication number
JPH06250997A
JPH06250997A JP5040206A JP4020693A JPH06250997A JP H06250997 A JPH06250997 A JP H06250997A JP 5040206 A JP5040206 A JP 5040206A JP 4020693 A JP4020693 A JP 4020693A JP H06250997 A JPH06250997 A JP H06250997A
Authority
JP
Japan
Prior art keywords
neural network
learning
range
output
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP5040206A
Other languages
English (en)
Inventor
Masaya Ono
雅也 小野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP5040206A priority Critical patent/JPH06250997A/ja
Publication of JPH06250997A publication Critical patent/JPH06250997A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Feedback Control In General (AREA)

Abstract

(57)【要約】 【目的】本発明は、少ない学習データを用いた短かい学
習時間で極めて精度の高い神経回路網を構築できること
を最も主要な目的としている。 【構成】新たに学習するデータを蓄積する新規学習デー
タベースと、新規学習データベースに蓄積されたデータ
の学習を行なうための神経回路網手段と、神経回路網手
段の入出力関数特性に対する必要条件を設定する条件設
定手段と、条件設定手段により設定された必要条件を逸
脱しない範囲で、神経回路網手段の構造の変動できる修
正可能範囲を計算する修正可能範囲計算手段と、新規学
習データベースに蓄積されているデータを神経回路網手
段に学習させるために必要な神経回路網手段の構造の修
正量を計算する修正範囲計算手段と、修正範囲計算手段
により計算された修正量が修正可能範囲計算手段により
計算された修正可能範囲内にある場合に神経回路網手段
の構造を修正する手段とを備えたことを特徴としてい
る。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は、神経回路網(ニューラ
ル・ネットワーク)の学習装置に係り、特に先見的に得
られているデータを利用することにより、少ない学習デ
ータを用いた短かい学習時間で極めて精度の高い神経回
路網を構築し得るようにした神経回路網の高速学習装置
に関するものである。
【0002】
【従来の技術】神経回路網は、人間の脳の神経回路網を
補記した演算装置である。この神経回路網は、近時、学
習機能を有する特徴を生かして、認識や制御等さまざま
な分野で用いられてきている。
【0003】ところで、バックプロバゲーション・アル
ゴリズムに代表される神経回路網の学習では、新しいデ
ータを学習する際に、過去に学習したデータを考慮せず
に、荷重値等の修正を行なっている。このため、複数の
学習データ全てを学習するのに、同じデータを何度も繰
り返して神経回路網に学習させる必要があり、計算時間
が多くかかる場合がある。
【0004】また、これまでの神経回路網は、与えられ
た学習データのみによって、構造の修正が行なわれてい
るため、学習データが充分に揃っていないと、精度の高
い写像を構成することはできない。しかしながら、学習
データを充分に揃えることは、学習データ数の増加につ
ながり、結果として学習に多くの時間が必要になってい
るのが現状である。
【0005】さらに、これまでの神経回路網は、学習に
よって構成される写像の満たすべき性質が先見的に分か
っている場合でも、直接その性質を満たすように神経回
路網を構築することができず、その性質を実現するに必
要なだけの学習データを学習対象にし、長時間の計算を
要している。
【0006】
【発明が解決しようとする課題】以上のように、従来の
神経回路網の学習においては、先見的に写像の満たすべ
き性質が既知の場合でも、学習データが充分に揃ってい
ないと精度の高い神経回路網を構築できず、また学習に
多くの時間がかかるという問題があった。
【0007】本発明の目的は、少ない学習データを用い
た短かい学習時間で極めて精度の高い神経回路網を構築
することが可能な神経回路網の高速学習装置を提供する
ことにある。
【0008】
【課題を解決するための手段】上記の目的を達成するた
めに、
【0009】まず、請求項1に記載の発明による神経回
路網の高速学習装置は、新たに学習するデータを蓄積す
る新規学習データベースと、新規学習データベースに蓄
積されたデータの学習を行なうための神経回路網手段
と、神経回路網手段の入出力関数特性に対する必要条件
を設定する条件設定手段と、条件設定手段により設定さ
れた必要条件を逸脱しない範囲で、神経回路網手段の構
造の変動できる修正可能範囲を計算する修正可能範囲計
算手段と、新規学習データベースに蓄積されているデー
タを神経回路網手段に学習させるために必要な神経回路
網手段の構造の修正量を計算する修正範囲計算手段と、
修正範囲計算手段により計算された修正量が修正可能範
囲計算手段により計算された修正可能範囲内にある場合
に、神経回路網手段の構造を修正する手段とを備えて構
成している。
【0010】また、請求項2に記載の発明による神経回
路網の高速学習装置は、データの処理を行なうための少
なくとも一つの第1の神経回路網手段と、新たに学習す
るデータを蓄積する新規学習データベースと、新規学習
データベースに蓄積されたデータの学習を行なうための
第2の神経回路網手段と、第2の神経回路網手段の入出
力関数特性に対する必要条件を設定する条件設定手段
と、条件設定手段により設定された必要条件を逸脱しな
い範囲で、第2の神経回路網手段の構造の変動できる修
正可能範囲を計算する修正可能範囲計算手段と、新規学
習データベースに蓄積されているデータを第2の神経回
路網手段に学習させるために必要な第2の神経回路網手
段の構造の修正量を計算する修正範囲計算手段と、修正
範囲計算手段により計算された修正量が修正可能範囲計
算手段により計算された修正可能範囲内にある場合に、
第2の神経回路網手段の構造を修正する手段と、学習が
終了した第2の神経回路網手段の構造を第1の神経回路
網に複写する手段とを備えて構成している。
【0011】ここで、特に上記請求項1または2に記載
の神経回路網の高速学習装置において、修正範囲計算手
段により計算された修正量が修正可能範囲計算手段によ
り計算された修正可能範囲内にない場合に、修正量を修
正可能範囲の上限または下限値に置き換えて修正する手
段を付加している。
【0012】また、上記条件設定手段による入出力関数
特性に対する必要条件としては、入出力関数特性の感度
変化許容範囲を設定し、入力に対する出力の感度に制限
を加えるようにしている。
【0013】
【作用】従って、本発明の神経回路網の高速学習装置に
おいては、神経回路網手段の入出力関数特性に対する必
要条件を逸脱しない範囲で、神経回路網手段の構造(荷
重値、しきい値)を変動させることが可能な修正可能範
囲を計算し、新しいデータの学習による影響を上記修正
可能範囲内に収めることにより、先見的に得られている
データを神経回路網手段に反映させながら新しいデータ
を学習する、すなわち先見的に写像の満たすべき性質が
既知の場合に、この性質を保つ範囲で神経回路網手段の
学習を行なうことにより、少ない学習データを用いて短
かい学習時間で、極めて精度の高い神経回路網を構築す
ることができる。
【0014】
【実施例】以下、本発明をバックプロパゲーション・ア
ルゴリズム(以下、BPと略称する)による学習に適用
する場合の一実施例について、図面を参照して詳細に説
明する。まず、実施例の説明の前に、実施例理解の前提
となる神経回路網モデル、神経回路網の学習の打ち切
り、実施例で取り扱う例題について説明する。 (神経回路網モデルについて)
【0015】図6は、神経細胞(以下、ユニットと称す
る)の数理モデルを示す図である。図6において、ユニ
ットはn個の入力端子を有し、それぞれの端子には荷重
値が設定されている。また、ユニットにはしきい値が設
定されている。そして、n個の入力端子からの入力をx
1 ,x2 ,…xn とし、またそれぞれの入力端子に設定
された荷重値をw1 ,w2 ,…wn とし、さらにユニッ
トのしきい値をhとすると、ユニットへの入力はw1
1 +w2 ・x2 +…+wn ・xn −hとなる。ユニッ
トへの入力は、シグモイド関数fによって変換され、そ
の出力yはy=f(w1 ・x1 +w2 ・x2 +…+wn
・xn −h)となる。ここで、f(x)=1/(1+e
xp(−x))であるが、ユニットの出力関数として
は、部分的に線形関数f(x)=xが用いられることも
ある。
【0016】次に、図7は、図6に示されるユニットを
複数連結して構成した3層の層状神経回路網を示す図で
ある。図7において、入力層のユニットの数をN1 個、
中間層のユニットの数をN2 個、出力層のユニットの数
をN3 とすると、図7の神経回路網には、N1 ・N2
2 ・N3 個の荷重値と、N1 +N2 +N3 個のしきい
値が存在する。そして、入力層のユニットは、神経回路
網のN1 本の入力端子に直結しており、神経回路網への
入力は、そのまま入力層のユニットの出力となる。
【0017】また、神経回路網のN3 本の出力端子は、
出力層のユニットに直結しており、出力層のユニットの
出力は、そのまま神経回路網の出力となる。BPによる
学習は、神経回路網の出力が望ましい出力に近づくよう
に、N1 ・N2 +N2 ・N3個の荷重値、およびN1
2 +N3 個のしきい値を修正することである。 (非線形関数によるデータのフィッティングとしての神
経回路網)
【0018】神経回路網の適用方法としては、神経回路
網の出力を0/1のように離散値として処理する方法
と、神経回路網の出力をある物理量に対応させ、例えば
0から1までの連続変数として処理する方法の2通りが
ある。
【0019】まず、神経回路網の出力を離散値として処
理するのは、パターン認識等、データの分類に神経回路
網を用いる場合である。ここでは、入力されたデータが
どのカテゴリーに属するかを、複数の出力ユニットの0
/1の組み合わせで表現している。この時、神経回路網
の出力は、厳密に0または1に一致する必要はなく、適
当な離散化処置により、望ましい出力に近い出力は、望
ましい出力と同一とみなされる。
【0020】これに対して、神経回路網の出力を連続変
数として処理するのは、複数の変数間の関数関係を連続
する数値として作成する場合である。例えば、変数xと
yとを関係づける写像y=f(x)を、x1 とy1 、x
2 とy2 、…xn とyn という、n組の学習データから
構成する神経回路網は、図8に示すような一入力一出力
という構造をとる。この時、神経回路網の出力は、変数
yの値に直接対応しているので、その出力値には厳密性
が求められる。 (神経回路網の学習の打切りについて)
【0021】神経回路網が学習対象とするデータは、1
つではなく複数存在し、学習データ全てについて神経回
路網の出力が望ましい出力になるように、荷重値、しき
い値を修正しなければならない。一般に、望ましい出力
と神経回路網の出力とが完全に一致するまで学習を続け
ることはなく、問題に応じて決められた評価基準を満た
したところで学習は打ち切られる。そして、この評価基
準も、神経回路網の出力を離散変数として処理するか、
連続変数として処理するかによって異なる。
【0022】まず、神経回路網の出力を離散変数として
処理する場合、適当な離散化処置により、望ましい出力
からある範囲内に存在する出力は、望ましい出力と同一
とみなされるので、その時点で学習を途中で打ち切るこ
とができる。
【0023】これに対して、神経回路網の出力を連続変
数として処理する場合、神経回路網の出力が対象とする
変数の値に直接対応しているので、出力データの適当な
変換によって、神経回路網の出力を望ましい出力と同一
とみなすことができない。従って、神経回路網の出力と
望ましい出力との差がある範囲内になった時点で学習が
打ち切られる。通常、この差を打ち切り誤差と称し、打
ち切り誤差を小さくすれば、学習データの学習はより正
確に行なわれるが、打ち切り誤差を小さくし過ぎると、
未学習のテストデータに対する出力精度が低下する現象
が多くみられる。その原因としては、学習データに含ま
れるノイズやデータの偏りの影響まで、神経回路網が学
習してしまい、学習対象である系本来の入出力関数特性
が学習されなくなってしまうことが挙げられる。そし
て、この現象は、学習データの数が少ない時、特に学習
によって調整されるパラメータ数よりも学習データ数が
少ない時に顕著に現われる。従って、神経回路網の出力
を連続変数として用いる場合には、対象とする系の特性
や学習データ数等に応じて、適当な打ち切り誤差で学習
を打ち切ることになる。
【0024】なお、以下に説明する実施例では、後述す
るように、神経回路網の出力を連続変数として処理する
ので、神経回路網の出力が適当な打ち切り誤差の範囲内
で望ましい出力と一致することを以て、学習が終了した
とみなすことを前提とする。 (実施例で取り扱う例題)実施例で取り扱う、写像の作
成という例題について説明する。
【0025】ここでは、写像y=f(x)を、x1 とy
1 、x2 とy2 、…、xn とyn という、n組の学習デ
ータから構成する。これは、例えば、離散的な時系列デ
ータXn において、Xn+1 =f(Xn )という関係が成
立すると考えられるときに、(Xi-1 ,Xi )の複数の
データの組(i=1,…n)より、写像fを作成し、新
たに得られるXn からXn+1 を推定するという、時系列
予測問題に対応するものである。この時、先見的なデー
タにより、写像fの入力に対する出力の感度df/dx
の上下限が分かっており、かつその範囲内の感度を実現
する神経回路網が得られているものとする。そこで、本
実施例における神経回路網手段に対する必要条件として
は、「神経回路網の新規データの学習による感度の変動
がある範囲内に収まっていること」と指定できる。以
下、上記のような考え方に基づく本発明の一実施例につ
いて説明する。図1は、本実施例にかかる神経回路網の
高速学習装置の構成例を示すブロック図である。
【0026】すなわち、本実施例の神経回路網の高速学
習装置は、データ生成器1と、出力切り換えスイッチ2
と、第1の神経回路網3と、出力結果格納部4と、新規
学習データ登録器5と、新規学習データベース6と、第
2の神経回路網7と、入出力関数条件設定器8と、荷重
値修正可能範囲計算器9と、荷重値データベース10
と、修正範囲計算器11と、神経回路網学習器12と、
学習制御器13と、神経回路網交換器14と、モード切
り換え器15とから構成している。ここで、データ生成
器1は、処理または学習されるデータを生成するもので
ある。
【0027】また、出力切り換えスイッチ2は、モード
切り換え器15からのモード切り換え信号により、デー
タ生成器1を第1の神経回路網3側あるいは新規学習デ
ータ登録器5側へ接続するように出力切り換えを行なう
ものである。さらに、第1の神経回路網3は、データ生
成器1からのデータを処理し、その処理結果を出力する
ものである。さらにまた、出力結果格納部4は、第1の
神経回路網3の処理結果を格納するものである。一方、
新規学習データ登録器5は、データ生成器1より新たに
生成されるデータを新規学習データベース6に登録する
ものである。また、新規学習データベース6は、新規学
習データ登録器5により登録される新たに学習するデー
タを蓄積するものである。
【0028】さらに、第2の神経回路網7は、第1の神
経回路網3と同一の構造を有するものであり、新規学習
データベース6に蓄積されたデータの学習をオフライン
で行なうためのものである。
【0029】一方、入出力関数条件設定器8は、新規学
習データの学習により構成される、第2の神経回路網7
の入出力関数特性に対する必要条件(感度変化許容範
囲)を設定するものである。この入出力関数条件設定器
8はユーザインターフェイスを装備し、オペレータが第
2の神経回路網7の入出力関数特性に対する必要条件を
設定するためのユーザインターフェイスを備えている。
【0030】また、荷重値修正可能範囲計算器9は、第
2の神経回路網7の入出力特性が入出力関数条件設定器
8により設定された必要条件を逸脱しない範囲(満たす
範囲)で、第2の神経回路網7の構造(各荷重値および
各しきい値)の変動できる修正可能範囲を計算するもの
である。さらに、荷重値データベース10は、荷重値修
正可能範囲計算器9により計算された荷重値・しきい値
の修正可能範囲を蓄積するものである。
【0031】一方、修正範囲計算器11は、新規学習デ
ータベース6に蓄積されているデータを第2の神経回路
網7に学習させるために必要な第2の神経回路網7の構
造の修正量を計算するものである。この修正範囲計算器
11はユーザインタフェイスを装備し、オペレータが新
規学習データの学習を打ち切るための打ち切り誤差を入
力するためのインターフェイスを備えている。
【0032】また、神経回路網学習器12は、第2の神
経回路網7の学習を行なう機能と、修正範囲計算器11
により計算された修正量が荷重値修正可能範囲計算器9
により計算された修正可能範囲内にある場合に、第2の
神経回路網7の構造を修正する機能を有するものであ
る。
【0033】さらに、学習制御器13は、第1の神経回
路網3を新しく更新するための手続き(神経回路網の荷
重値およびしきい値を変更する手続き)を制御するもの
である。この学習制御器13はユーザインターフェイス
を装備し、上記設定範囲内で学習が行なわれたか否かを
オペレータに提示するインターフェイスを備えている。
また、神経回路網交換器14は、学習が終了した第2の
神経回路網7の構造を第1の神経回路網3に複写するた
めのものである。
【0034】さらに、モード切り換え器15は、2つの
モード、すなわち第1の神経回路網3によるデータの処
理のモードと、第2の神経回路網7の学習を行なうモー
ドとを切り換えるためのモード切り換え信号を、出力切
り換えスイッチ2へ出力するものである。次に、以上の
ように構成した本実施例の神経回路網の高速学習装置の
作用について、図2に示すフロー図を用いて説明する。
【0035】まず、本実施例の神経回路網の高速学習装
置は、2つの動作モードを有する。その一つは、第1の
神経回路網3によるデータの処理のモード、もう一つは
第2の神経回路網7の学習を行なうモードである。この
2つのモードは、モード切り換え器15により切り換え
られる(ステップS0)。最初に、データの処理のモー
ドについて説明する。
【0036】まず、モード切り換え器15からのモード
切り換え信号により、出力切り換えスイッチ2によっ
て、データ生成器1が第1の神経回路網3へ接続される
(ステップS1)。これにより、データ生成器1から出
力されたデータは、処理用データとして第1の神経回路
網3に入力され(ステップS2)、第1の神経回路網3
ではこの入力されたデータに対して処理が行なわれ、デ
ータが出力される(ステップS3)。そして、この出力
結果は、出力結果格納部4に格納される(ステップS
4)。次に、神経回路網の学習のモードについて説明す
る。
【0037】まず、モード切り換え器15からのモード
切り換え信号により、出力切り換えスイッチ2によっ
て、データ生成器1が新規学習データ登録器5に接続さ
れる(ステップS10)。これにより、データ生成器1
から出力されたデータは、学習用データとして新規学習
データ登録器5に入力され(ステップS11)、このデ
ータは新規学習データベース6へ登録される(ステップ
S12)。
【0038】次に、学習制御器13では、モード切り換
え器15からの信号を受け、神経回路網学習器12に学
習を実行するように信号が送出される。これにより、神
経回路網学習器12では、後述する方法で第2の神経回
路網7の学習がオフラインで行なわれ、学習が終了する
と学習制御器13に学習終了の信号が送出される。学習
制御器13では、この学習終了の信号を受けて、神経回
路網交換器14に交換実行の信号が送出されると共に、
モード切り換え器15に学習終了の信号が送出される。
これにより、神経回路網交換器14では、学習が終了し
た第2の神経回路網7の構造が第1の神経回路網3に複
写される。次に、第2の神経回路網7の学習方法につい
て説明する。
【0039】第2の神経回路網7では、学習前は、第1
の神経回路網3と同一の構成(荷重値、しきい値、ユニ
ットの出力関数)を有する。学習は、第2の神経回路網
7に対して行なわれ、学習が終了した時点で第1の神経
回路網3に、荷重値およびしきい値が複写される。
【0040】神経回路網学習器12は、学習制御器13
からの学習実行の信号を受けて、修正範囲計算器11
に、新規学習データベース6に登録された新規学習デー
タを学習するために必要な荷重値およびしきい値の修正
量を計算させる(ステップS13)。次に、オペレータ
によって、入出力関数条件設定器8に入力された第2の
神経回路網7の入出力関数特性に対する必要条件によ
り、第2の神経回路網7の荷重値およびしきい値の修正
可能範囲が、荷重値修正可能範囲計算器9で後述する方
法により計算され(ステップS14)、その計算結果が
荷重値データベース10に登録される。そして、神経回
路網学習器12では、修正範囲計算器11により求めら
れた修正量と、荷重値データベース10に登録されてい
る荷重値またはしきい値の修正可能範囲とが比較される
(ステップS15)。
【0041】この結果、修正量が修正可能範囲内におさ
まっている場合には、第2の神経回路網7の荷重値およ
びしきい値が修正され(ステップS16)、学習制御器
13に対して学習終了の信号が送出される。
【0042】これに対して、修正量が修正可能範囲内に
おさまらない場合には、神経回路網学習器12では、荷
重値・しきい値の修正量を、修正可能範囲の上限または
下限値に置き換えて(ステップS17)、第2の神経回
路網7の荷重値およびしきい値が修正され(ステップS
16)、学習制御器13に対して学習終了の信号が送出
される。この時、修正量が修正可能範囲を越えているこ
とを、学習制御器13のインターフェイスによってオペ
レータに報知するようにしてもよい。
【0043】次に、学習制御器13では、神経回路網学
習器12からの学習終了の信号に応答して、第2の神経
回路網7の荷重値およびしきい値が第1の神経回路網3
に複写され(ステップS18)、モード切り換え器15
に学習終了の信号が送出される。次に、上記修正範囲計
算器11において、新規学習データを学習するのに必要
な修正量を計算する方法について説明する。
【0044】まず、第2の神経回路網7に対して、新規
学習データだけの学習が行なわれる。この学習は、オペ
レータが修正範囲計算器11のインターフェイスに入力
した打ち切り誤差の範囲まで、第2の神経回路網7の出
力が収束したら打ち切られる。そして、学習後の第2の
神経回路網7の荷重値・しきい値と、第1の神経回路網
3の荷重値・しきい値との差を計算することで、新規学
習データを学習するのに必要な修正量が計算される。次
に、上記荷重値修正可能範囲計算器9において、荷重
値、しきい値の修正可能範囲を計算する方法について説
明する。
【0045】いま、新規学習データの学習前の第2の神
経回路網7の入出力関数特性は、y=f(x)なる関数
fで表わされる。ここで、xおよびyは、それぞれ第2
の神経回路網7の入力および出力である。修正可能範囲
の計算は、この第2の神経回路網7の元の入出力関数特
性fと、新規データの学習により作成される入出力関数
特性を示す関数f^との感度の差 df(x)/dx−df^(x)/dx を、オペレータが設定する許容範囲内に保ちつつ、第2
の神経回路網7の荷重値、しきい値をどこまで変動させ
ることができるかが、荷重値修正可能範囲計算器9によ
り計算される。
【0046】以下に、オペレータが入出力関数条件設定
器8に設定する感度変化許容範囲から、荷重値修正可能
範囲を計算する方法について示す。なお、以下の説明で
は、第1の神経回路網3、第2の神経回路網7は、図7
に示すような3層の層状神経回路網で、中間層のユニッ
トの出力関数をシグモイド関数、出力層のユニットの出
力関数を線形関数とする。 (a)出力感度が新規データの学習により変わらない場
【0047】これは、図3に示すように、入力xに対す
る出力yの感度dy/dxが、新規データの学習の前後
で不変で、xによらないある定数値だけyの値が変動す
る場合に対応する。この時、第2の神経回路網7の出力
関数fの微分計数df(x)/dxは学習により変化し
ないので、第2の神経回路網7の全ての荷重値は固定す
る。ここで、第2の神経回路網7の出力層の出力細胞の
しきい値のみを調整することにより、第2の神経回路網
7の出力関数fの微分係数df(x)/dxは固定した
まま、新規学習データの学習が可能である。この時、荷
重値データベース10には、荷重値の値:固定(修正可
能範囲0)、中間層のしきい値:固定、出力層のしきい
値:制限無し、という修正範囲が記憶される。また、出
力層のしきい値の変化量に制限を加えることで、出力y
の、入力xによらない変動量に制限を加えることも可能
である。この時、第2の神経回路網7の出力層の出力細
胞の出力関数は線形であるので、しきい値の変化量が第
2の神経回路網7の出力の変化と等しくなる。 (b)出力感度の、設定された範囲内での変動を許容す
る場合
【0048】これは、図4に示すように、新規データの
学習により、入力xに対する出力yの感度dy/dx
が、入出力関数条件設定器8で設定された範囲内で変動
する場合に対応する。この時、入力層と中間層との間の
荷重値を固定し、中間層と出力層の荷重値の変動量を制
限することにより、第2の神経回路網7の出力関数fの
微分係数df(x)/dxの変動量を、設定された範囲
内に抑えることができる。以下に、神経回路網により構
成される出力関数fの微分係数df(x)/dxの変動
量に制限を加える方法について、図5を用いて詳細に説
明する。いま、神経回路網のパラメータを以下のように
設定する。
【0049】
【表1】 この時、中間層および出力層のユニットの出力は、次式
で与えられる。
【0050】
【数1】 すると、出力関数の微分係数の変動量は、i番目の入力
とk番目の出力に対しては、
【0051】
【数2】 で表わされる。この変動量への制限を、変動量の最大値
を定められた範囲内に抑えるという形で加える場合、k
番目の出力に対する制限は、次式で与えられる。
【0052】
【数3】
【0053】上式で、入力Ii は下限Il ,上限Ih
間で連続的に変化するものとする。ここで、出力関数の
微分係数の変動可能な範囲Δが設定された時、上記
(2)式を満たすような荷重値修正量の最大値Wk
【0054】
【数4】 を求める。いま、入力層と中間層との荷重値w1 ijおよ
びしきい値h1 j を固定する。すなわち、
【0055】
【数5】 である。上記(1−1),(1−2),(1−3),
(1−4)式より、
【0056】
【数6】 であるが、上記(4−1),(4−2)式より、
【0057】
【数7】 であるので、上記(5−1),(5−2)式より、
【0058】
【数8】 となる。上記(3),(6)式より、
【0059】
【数9】 となる。
【0060】
【数10】 であるが、 0≦f´(x)≦1/4 なので、
【0061】
【数11】 よって、上記(7),(8)式より、
【0062】
【数12】 となる。従って、
【0063】
【数13】 が成立するので、学習前の入力層と中間層間の荷重値w
1 ijの値より、
【0064】
【数14】 のように荷重値修正量の範囲を設定すれば、出力関数の
微分係数の変動量をΔ以内に抑えることができる。
【0065】上述したように、本実施例の神経回路網の
高速学習装置においては、オペレータにより設定され
た、第2の神経回路網7の入出力関数特性に対する必要
条件(感度変化許容範囲)から、第2の神経回路網7の
荷重値およびしきい値の修正可能範囲を計算し、この修
正可能範囲内で第2の神経回路網7により、新規学習デ
ータベース6に登録されたデータの学習を行なうように
している。
【0066】従って、第2の神経回路網7の入出力関数
特性の感度に対する必要条件を満たしながら、新規デー
タを学習することが可能となる。これにより、先見的に
写像の満たすべき性質が既知の場合に、この性質を保つ
範囲で神経回路網の学習を行なうことができるため、少
ない学習データを用いた短かい学習時間で、極めて精度
の高い神経回路網を構築することが可能となる。
【0067】尚、上記実施例では、第2の神経回路網7
の入出力関数特性に対する必要条件を設定する条件設定
手段として、入出力関数条件設定器8により、第2の神
経回路網7の入出力関数特性の感度変化許容範囲を設定
し、入力に対する出力の感度に制限を加える場合につい
て説明したが、何らこれに限定されるものではない。
【0068】
【発明の効果】以上説明したように本発明によれば、新
たに学習するデータを蓄積する新規学習データベース
と、新規学習データベースに蓄積されたデータの学習を
行なうための神経回路網手段と、神経回路網手段の入出
力関数特性に対する必要条件を設定する条件設定手段
と、条件設定手段により設定された必要条件を逸脱しな
い範囲で、神経回路網手段の構造の変動できる修正可能
範囲を計算する修正可能範囲計算手段と、新規学習デー
タベースに蓄積されているデータを神経回路網手段に学
習させるために必要な神経回路網手段の構造の修正量を
計算する修正範囲計算手段と、修正範囲計算手段により
計算された修正量が修正可能範囲計算手段により計算さ
れた修正可能範囲内にある場合に、神経回路網手段の構
造を修正する手段とを備えて構成したので、少ない学習
データを用いた短かい学習時間で極めて精度の高い神経
回路網を構築することが可能な神経回路網の高速学習装
置が提供できる。
【図面の簡単な説明】
【図1】本発明による神経回路網の高速学習装置の一実
施例を示すブロック図。
【図2】同実施例における神経回路網の高速学習装置の
作用を説明するためのフロー図。
【図3】同実施例における神経回路網の入出力関数の変
化(出力感度が不変である場合)を説明するための図。
【図4】同実施例における神経回路網の入出力関数の変
化(出力感度が変動する場合)を説明するための図。
【図5】同実施例における神経回路網により構成される
出力関数の微分係数の変動量に制限を加える方法を説明
するための図。
【図6】ユニットの数理モデルを示す図。
【図7】3層の層状神経回路網を示す図。
【図8】1入力、1出力の神経回路網
【符号の説明】
1…データ生成器、2…出力切り換えスイッチ、3…第
1の神経回路網、4…出力結果格納部、5…新規学習デ
ータ登録器、6…新規学習データベース、7…第2の神
経回路網、8…入出力関数条件設定器、9…荷重値修正
可能範囲計算器、10…荷重値データベース、11…修
正範囲計算器、12…神経回路網学習器、13…学習制
御器、14…神経回路網交換器、15…モード切り換え
器。

Claims (4)

    【特許請求の範囲】
  1. 【請求項1】 新たに学習するデータを蓄積する新規学
    習データベースと、 前記新規学習データベースに蓄積されたデータの学習を
    行なうための神経回路網手段と、 前記神経回路網手段の入出力関数特性に対する必要条件
    を設定する条件設定手段と、 前記条件設定手段により設定された必要条件を逸脱しな
    い範囲で、前記神経回路網手段の構造の変動できる修正
    可能範囲を計算する修正可能範囲計算手段と、 前記新規学習データベースに蓄積されているデータを前
    記神経回路網手段に学習させるために必要な前記神経回
    路網手段の構造の修正量を計算する修正範囲計算手段
    と、 前記修正範囲計算手段により計算された修正量が前記修
    正可能範囲計算手段により計算された修正可能範囲内に
    ある場合に、前記神経回路網手段の構造を修正する手段
    と、 を備えて成ることを特徴とする神経回路網の高速学習装
    置。
  2. 【請求項2】 データの処理を行なうための少なくとも
    一つの第1の神経回路網手段と、 新たに学習するデータを蓄積する新規学習データベース
    と、 前記新規学習データベースに蓄積されたデータの学習を
    行なうための第2の神経回路網手段と、 前記第2の神経回路網手段の入出力関数特性に対する必
    要条件を設定する条件設定手段と、 前記条件設定手段により設定された必要条件を逸脱しな
    い範囲で、前記第2の神経回路網手段の構造の変動でき
    る修正可能範囲を計算する修正可能範囲計算手段と、 前記新規学習データベースに蓄積されているデータを前
    記第2の神経回路網手段に学習させるために必要な前記
    第2の神経回路網手段の構造の修正量を計算する修正範
    囲計算手段と、 前記修正範囲計算手段により計算された修正量が前記修
    正可能範囲計算手段により計算された修正可能範囲内に
    ある場合に、前記第2の神経回路網手段の構造を修正す
    る手段と、 学習が終了した前記第2の神経回路網手段の構造を前記
    第1の神経回路網に複写する手段と、 を備えて成ることを特徴とする神経回路網の高速学習装
    置。
  3. 【請求項3】 前記請求項1または2に記載の神経回路
    網の高速学習装置において、 前記修正範囲計算手段により計算された修正量が前記修
    正可能範囲計算手段により計算された修正可能範囲内に
    ない場合に、前記修正量を前記修正可能範囲の上限また
    は下限値に置き換えて修正する手段を付加して成ること
    を特徴とする神経回路網の高速学習装置。
  4. 【請求項4】前記条件設定手段による入出力関数特性に
    対する必要条件としては、入出力関数特性の感度変化許
    容範囲を設定し、入力に対する出力の感度に制限を加え
    るようにしたことを特徴とする請求項1または2に記載
    の神経回路網の高速学習装置。
JP5040206A 1993-03-01 1993-03-01 神経回路網の高速学習装置 Pending JPH06250997A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP5040206A JPH06250997A (ja) 1993-03-01 1993-03-01 神経回路網の高速学習装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP5040206A JPH06250997A (ja) 1993-03-01 1993-03-01 神経回路網の高速学習装置

Publications (1)

Publication Number Publication Date
JPH06250997A true JPH06250997A (ja) 1994-09-09

Family

ID=12574312

Family Applications (1)

Application Number Title Priority Date Filing Date
JP5040206A Pending JPH06250997A (ja) 1993-03-01 1993-03-01 神経回路網の高速学習装置

Country Status (1)

Country Link
JP (1) JPH06250997A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015167019A (ja) * 2010-07-07 2015-09-24 クゥアルコム・インコーポレイテッドQualcomm Incorporated ニューロプロセッサにおける交換可能なシナプス荷重記憶装置に関する方法及びシステム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015167019A (ja) * 2010-07-07 2015-09-24 クゥアルコム・インコーポレイテッドQualcomm Incorporated ニューロプロセッサにおける交換可能なシナプス荷重記憶装置に関する方法及びシステム

Similar Documents

Publication Publication Date Title
Li et al. Non-fragile state estimation for delayed fractional-order memristive neural networks
US20080172349A1 (en) Neural network controller with fixed long-term and adaptive short-term memory
US5195169A (en) Control device for controlling learning of a neural network
KR20190018885A (ko) 중첩 신경망을 프루닝하는 방법 및 장치
JPH05127706A (ja) ニユーラルネツト型シミユレータ
JPH06250997A (ja) 神経回路網の高速学習装置
JPH0451384A (ja) ニューラルネットワークの構築方法
JPH05128284A (ja) ニユーロプロセツサ
JPH05101028A (ja) 複数特徴量の統合判定方法
JPH05265509A (ja) 学習制御装置
US11615316B1 (en) Machine learning using gradient estimate determined using improved perturbations
JP3281020B2 (ja) 神経回路網の高速学習装置
JPH04264664A (ja) 神経回路網型パターン処理装置
CN110504709B (zh) 光伏集群无功电压调控方法、终端设备及存储介质
US5528729A (en) Neural network learning apparatus and learning method
JPH05324598A (ja) ニューラル・ネットワーク学習装置における学習方式
JPH0561850A (ja) 階層型ニユーラルネツトワークおよびその学習方法
JP2828768B2 (ja) ファジィ知識構築装置
JPH11134314A (ja) 簡略化準ニュートン射影法演算システム、神経回路網学習システム、記録媒体および信号処理装置
JPH0713745A (ja) 神経回路網型パターン学習方法およびパターン処理装置
CN113054993A (zh) 乘积和计算电路及其乘积和计算方法
JPH02140802A (ja) 自己修正型ファジィ制御方法
JP2000112914A (ja) 神経回路網の学習方法
JPH0721141A (ja) 神経回路網型オンライン学習方法および装置
JPH0535898A (ja) 多層パーセプトロンの結合係数更新方式