JPH0451354A - ニューラルネットワーク学習装置 - Google Patents

ニューラルネットワーク学習装置

Info

Publication number
JPH0451354A
JPH0451354A JP2161532A JP16153290A JPH0451354A JP H0451354 A JPH0451354 A JP H0451354A JP 2161532 A JP2161532 A JP 2161532A JP 16153290 A JP16153290 A JP 16153290A JP H0451354 A JPH0451354 A JP H0451354A
Authority
JP
Japan
Prior art keywords
learning
pattern
output
input
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2161532A
Other languages
English (en)
Other versions
JP2825939B2 (ja
Inventor
Chikako Matsumoto
智佳子 松本
Hitomi Ushiyama
牛山 ひとみ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2161532A priority Critical patent/JP2825939B2/ja
Publication of JPH0451354A publication Critical patent/JPH0451354A/ja
Application granted granted Critical
Publication of JP2825939B2 publication Critical patent/JP2825939B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。

Description

【発明の詳細な説明】 [概要] 入力パターンとこれに対する教師信号きしての学習比カ
バターンを使用し、教師信号に一致する出力パターンが
得られるようにネットワークの結合の重みを計算して更
新するニューラルネットワーク学習装置に関し、 学習を効率良く終らせることを目的とし、学習の進行状
況を見ながら自動的に学習用の入出力パターンを新たに
生成追加したり、削除したりするように構成する。
[産業上の利用分野] 本発明は、学習パターンを使用してニューラルネットワ
ークを学習させるニューラルネットワーク学習装置に関
する。
ニューラルネットワークの学習は、入力パターンとこれ
に対する教師信号としての出力パターンを準備し、学習
用の入出力パターンをネットワークに与えて教師信号に
一致する出力パターンが得られるようにネットワークの
結合の重みを計算して更新する。しかし、ニューラルネ
ットワークの学習では、学習パターンの数やパターン種
類が学習の結果が大きく影響するが、学習を終了してみ
なければパターン数の不足やパターンが適切でなかった
ことがわからず、学習終了後に学習パターンを修正して
再学習する必要がある。従って、学習の終了を待たずに
途中で学習の進行状況を調べて適切な学習パターンを提
供できるようにすることが望まれる。
[従来の技術] 第6図は従来のニューラルネットワーク学習装置の説明
図である。
第6図において、ニューラルネットワーク学習装置は学
習パターン保持部10と重み更新部16で構成される。
即ち、学習パターン保持部10は、入力パターンI、と
、この入力パターンI、に対する教師信号としての出力
パターンT、を保持している。学習実行部14はニュー
ラルネッI・ワーク12を含み、学習パターン保持部1
0の入力パターン■。
をニューラルネットワーク12に入力してネッI・ワー
クの出力パターンO1及び重みを求める。更に重み更新
部1Gは、ネットワーク出力パターンO2と学習用の出
力パターン(教師信号)TPとに基づき、例えばパック
プロパゲーション法等に従って両者が一致するようにニ
ューラルネットワーク12の結合の重みを計算して更新
する。
[発明が解決しようとする課題] このような従来のニューラルネットワーク学習装置にあ
っては、学習を始める際に入力パターンと教師信号とし
ての出力パターンを学習パターン保持部10に与えると
、学習の途中でその入出力パターンを変えることができ
ない。ところが、ニューラルネットワークによる学習で
は、学習パターンが他のパターンとは全く異なるような
パターンは収束しに<(、類似例を増やすと収束が早く
なったり、そのパターンを削除しなければ収束しなかっ
たりする場合が多い。また、学習させたパターンについ
ては対応する結果を得ることができるが、学習パターン
数が少ないと、学習させたパターンとパターンの間に普
通良く使われるバタンか存在した場合、この間のパター
ンについての保証がなくなる。
このように、ニューラルネットワークによる学習では、
学習させるパターン数やパターンの種類によって学習の
結果が大きく左右するが、従来装置では学習が終了して
みて初めて学習のパターン数が少ないことや、学習パタ
ーンがよくないことに気が付き、学習パターンを修正し
て再学習しなければならず、学習効率が悪いという問題
があった。
本発明は、このような従来の問題点に鑑みてなされたも
ので、学習を効率良く終らせることのできるニューラル
ネットワーク学習装置を提供することを目的とする。
[課題を解決するための手段] 第1図は本発明の原理説明図である。
まず本発明は、第1図(a)に示すように、入力パター
ンとこれに対する教師信号としての学習用カバターンを
格納した学習パターン保持部10と、学習パターン保持
部10の入力パターンをニューラルネッ)・ワーク1.
2に入力し、ネットワークの出力パターンとネッI・ワ
ークの結合の重みを求める学習実行部1−4と、ネット
ワークへの入力パターンに対応した学習用カバターンと
ネットワーク出力パターン及び重みに基づき所定の学習
規則、例えばパックプロパゲーション法に従ってネット
ワーク1−2の重みを計算して更新する重み更新部16
とを備えたニューラルネットワーク学習装置を対象とす
る。
このようなニューラルネットワーク学習装置につき本発
明にあっては、第1図(b)に示すように、ニューラル
・ネットワーク1.2の学習途中で学習の進行状態を見
ながら自動的に入力パターンと出力パターンを新たに生
成して学習パターン保持部1−Oに追加する学習パター
ン制御部18−1を設けたことを特徴とする。
ここで学習パターン制御部18−1は、第1図(b)に
示すように、 学習パターン保持部10の出力パターンと学習実行部1
4から得られたネッI・ワーク出力パターンとを比較し
て学習の進行状態を調べる出力データ検査部20と 出力データ検査部20の検査結果に基づいて学習用の入
出力パターンを生成する入出力データ生成部22と; 入出力データ生成部22で新たに生成された学習用の入
出力パターンを学習パターン保持部10に追加する学習
データ追加部24と; を備える。
具体的な生成追加の例としては、出力データ検査部20
より全パターンについてある程度の収束状況が得られた
際に、入出力データ生成部22において学習パターン保
持部1−0から隣接する2つの入出力パターン(ha、
Te1)(it、Tl)を取り出して線形補間した新た
な入出力パターン(12,I2)を生成し、新たに生成
した入力パターン(I2)を学習実行部14に入力して
ネットワークの出力パターン(02)を算出し、新たに
生成した出力パターン(I2)と一致しない場合には、
学習データ追加部24により新たに生成した入出力パタ
ーン(I2,T2)を学習パターン保持部10に追加さ
せる。
また他の生成追加の例としては、出力データ生成部22
において学習パターン保持部]0から任意の学習入出力
パターン(IP、TP)を取り手出して入力パターン(
■、)に所定のゆらぎ(例えば−0,1〜0.1程度)
を加えた新たな入力パターン(■p−)を生成し、新た
に生成した入力パターン(■p −)を学習実行部1−
4に入力してネットワークの出力パターン(op−)を
算出し、この出力パターン(0,=)が学習用の出力パ
ターン(T、)に一致しない場合に、新たに生成した学
習入出力パターン(i、−、T、)を学習データ追加部
24により学習パターン保持部10に追加する。
更に追加生成の他の例としては、出力データ検査部20
により学習途中で収束の進まない学習用の入出力パター
ンを検出し、この検出パターンと同じ学習入出力パター
ンを入出力データ生成部22で生成して学習データ追加
部24により学習パターン保持部10に追加する。
また本発明にあっては、ニューラルネットワーク学習装
置につき、第1−図(c)に示すように、学習途中で学
習の進行状態を見ながら自動的に学習入出力パターンを
学習パターン保持部10から削除する学習パターン制御
部18−2を設けたことを特徴とする。
ここで学習パターン制御部18−2は、学習パターン保
持部10の出力パターンと学習実行部14から得られた
ネットワーク出力パターンとを比較して学習の進行状態
を調べる出力データ検査部20と: 出力データ検査部20の検査結果に基づいて学習パター
ン保持部10から入出力パターンを削除する学習データ
削除部26と; を備える。
パターン削除の具体例としては、学習パターン保持部1
−0に格納された中から入出力パターンの差が少ないも
のを検出して学習データ削除部26から削除する。
またパターン削除の他の例として、学習パターン保持部
10に格納された中から学習途中で収束の進まない入出
力パターンを検出して学習データ削除部26から削除す
る。
更にパターン削除の他の例として、学習パターン保持部
10に格納された全パターンの内の数パーセントが学習
を繰り返しても収束しないことを検出した際に、収束し
ない数パーセントの学習入出力パターンを学習データ削
除部26から削除するように構成する。
[作用] このような構成を備えた本発明のニューラルネットワー
ク学習装置によれば次の作用が得られる。
まず入力パターンがニューラルネットワークに入力され
、ネットワークの出力値と、ネットワークの結合の重み
が計算される。重み更新部ではネットワークの出力と教
師信号の誤差が少なくなるように、パックプロパゲーシ
ョン法等の学習規則に基づいて重みを更新させる。
学習パターン制御部18では、1回の学習毎にネットワ
ークの出力と教師信号の誤差を計算して学習の収束状態
を調べる。学習を繰り返しても、全学習パターン中の数
パーセントが収束しないような場合は、同じ学習パター
ンを生成して追加、あるいは削除する。また学習がある
程度まで進んだと判断された段階で、線形補間等により
新たに入出力パターンを生成して学習の成果を調べ、学
習が済んでいないものを新たな学習パターンとして追加
する。
[実施例] 第2図は本発明の一実施例を示した実施例構成図であり
、学習の途中で学習の進行状況を見ながら自動的に学習
用の入出力パターンを生成追加する場合を例にとってい
る。
第2図において、まず基本的なニューラルネットワーク
学習装置は、学習パターン保持部10、ニューラルネッ
トワーク12を備えた学習実行部14及び重み更新部1
6で構成され、これに加えて本発明にあっては新たに学
習パターン制御部1゜8−1が設けられる。
学習パターン保持部J−0には学習用の入力パターンI
、と、入力パターンI、に対する教師信号としての出力
パターン(以下「教師パターン」という)Tpが格納さ
れている。ここでI)=1,2゜・・・、nでパターン
の数を示す。
学習実行部]4は学習パターン保持部10から取り出さ
れた学習用の入力パターン■、をニューラルネットワー
ク]−2に入力し、ニューラルネットワーク12の出力
パターンOrとニューラルネットワーク12の結合の重
みを求める。
重み更新部16は現在学習実行部14に与えられている
入力パターン■、に対応する教師パターンT2を学習パ
ターン保持部10から取り込むと共に、学習実行部14
で求めたネットワーク出力パターンO2及びネットワー
クの結合の重みを受け、これらを学習パラメータとして
所定の学習規則、例えはパックプロパゲーション法に従
ってネットワーク出力パターンO4と教師パターンT。
との誤差を最小にするネットワークの重みを計算して更
新する。この重み更新部1−6の学習規則となるパック
プロパゲーション法は例えば特願昭62−333484
号に示される。即ち、パックプロパゲーション法にあっ
ては階層構造をもつニューラルネットワーク12のユニ
ットに対する入力結線の重みとユニットの閾値とを教師
パターンとネットワーク出力パターンの誤差のフィード
バックにより適応的に自動調整して学習する。
ここでパックプロパゲーション法によるニューラルネッ
トワークの学習原理を説明するとつぎのようになる。
パックプロパゲーション法を適用するネットワークは、
第5図に示すように多層ネットワークであり、各層は多
くのユニットで構成されており、各ユニットは互いにあ
る重みで結合されている。
このネットワークに入力パターンと、望ましい出力パタ
ーンの組を与えることによって、ネットワ−クの重みを
学習させることができる。
学習は以下のように進められる。ネットワークに成る入
力パターンを与え、出力を得る。その出力が正しくなけ
れば、正しい又は望ましい出力値教師信号)をネットワ
ークに教える。すると、ネットワークは正しい出力と実
際の出力値の差が減少するように、ネットワークの内部
構造(結合の重み)を調整する。これを何度も繰り返す
ことによって、ネットワークは成る入出力関係を満たす
ような重みを、自動的に学習していくのである。
この学習アルゴリズムをパックプロパゲーション法とい
う。
このようにして学習したネットワークを用いると、学習
させた入力パターンについては教示した正しい出力を返
すが、更に学習させていない人カバターンについても学
習した入出力パターンを補間した出力パターンを返す。
これが、ニューラルネットの大きな特徴となっている。
以下に、この学習原理を詳細に説明する。
まず学習対象となるニューラルネットワークは多層ネッ
トワーク構造になっている。各層は多(のユニットで構
成されており、各ユニット間には、各々結合の重みWが
定義される。各ユニットは以下に示すようにしてネット
ワークの出力値を計算する。
第4図に示すように、あるユニットが複数のユニットか
ら入力を受けた場合、その総和に各ユニットの閾値θを
加えたものが、入力値netになる。
net−ΣW IH01十〇 W+、:ユニットU、からユニットU1への結合の重み 0、:ユニッl−U +の出力 ユニットの出力値はこの入力の総和n e t ニ、活
性化関数を適用して計算される。活性化関数には微分可
能な非線型関数であるシグモイド関数を用いると、ユニ
ットU、の出力値0、は0+ = 1./ (1+ex
p(nell) )になる。
パックプロパゲーション法で用いるネットワーク1 りは、−船釣には多層のネッ)・ワーつてあるが、ここ
では通常よく用いられる、第5図に示すような3層のネ
ットワークの場合について述べる。3つの層は入力層2
2、隠れ層24、出力層26と呼ばれており、各層は多
くのユニットで構成される。隠れ層24の各ユニットは
、入力層22の全てのユニットと結合している。出力層
26の各ユニットは、隠れ層24の全てのユニットと結
合している。各層内での結合は無い。
入力層22の各ユニットには、ネットワークへの入力デ
ータが与えられる。
従って、隠れ層24の各ユニットの出力値11は、ne
 t、−ΣWI It d h 4−θ、      
(1)11 + −1−/ (i −1−exp(−n
ett ) )     (2)dh:に番目の入カニ
ニットの出力 り、:j番目の隠れユニットの出力値 Vi71.;l(番目の入カニニットと、j番目の隠れ
ユニット間の結合の重み θ、  j番目の隠れユニットの閾値 になる。
また、出力層の各ユニットの出力値Oは、前記(1)、
  (2)式より ne t+−ΣW + v d v+ΣWI+1〕1+
θ、(3)ド 0、 =1/ (i−+exp(−netl) )  
   (4)1〕1  j番目の隠れユニットの出力値
0、・i番目の出カニニットの出力値 w、、:j番目の隠れユニットと、i番目の出カニニッ
ト間の結合の重み θI :j番目の出カニニットの閾値 次にネットワークの出力が、望ましい出力になるように
、ネットワークの重みを変える。あるパターンpを与え
た時の実際の出力値(op、)と、望ましい出力値(t
□)の平均2乗誤差をとる。
Ep −(t□−0,、) 2/2     (5)学
習させるためには、この誤差を減らすように、次の学習
規則に従ってネットワーク中の全ての重みを変える。
[出力層についての学習規則] ■隠れ層のユニット−出力層のユニットの間の重みの変
化 △W++ (n)  −ηΣδp111 nl + α
△wz(n、−:+−)■入力層のユニッ)・−出力層
のユニットの間の重みの変化 ΔWlk (n) −77Σδ、lhl、に+αΔW、
k(n −1)但し、n:学習回数         
(7)α:モーメンタム δ、、−(t p+  0−t)Σδ、、W、□   
  (8)[隠れ層についての学習規則コ 入力層のユニット−隠れ層のユニットの間の重みの変化 △W)h (n) −’7ΣδpHlnl+αΔW、(
n  ]、)δ0.−h、、CJ、  by)Σδ、、
WI+(10)再び第2図を参照するに、このような学
習パターン保持部1−0、学習実行部14及び重み更新
部16で成る基本的なニューラルネットワーク学習装置
に対し、本発明で新たに設けられた学習パターン制御部
J8は、ニューラルネットワーク1−2の学習の途中で
学習の進行状況を見ながら自動的に学習用の入出力パタ
ーンを生成して学習パターン保持部1−0に追加する機
能を有する。
具体的には、学習パターン制御部18−1−は出力デー
タ検査部20と入出力データ生成部22と学習データ追
加部24で構成される。
即ち、出力データ検査部20は所定の検査規則を備え、
学習パターン保持部10から得られた教師パターンTP
七学習実行部14で求められたニューラルネットワーク
12のネットワーク出力パターンO1との比較を行い、
どの学習パターンがどれくらいの学習進行状態にあるか
を調べる。この学習の進行状態は学習用の教師パターン
T、とネットワーク出力パターンO1との誤差に基づき
ネットワーク出力パターンOPの教師パターンTpに対
する収束の度合いとして調べることができる。また、出
力データ検査部20は入出力ブタ生成部22で新たに生
成された学習用の入力パターンを学習実行部14に与え
たときのネットワーク出力パターンについての評価も行
う。
学習データ生成部22は後の説明で明らかにする生成規
則に従って学習パターン保持部10に格納されている入
力パターンIP、教師パターンT、以外の学習用の入出
力パターンを既に学習パターン保持部10に保持してい
る学習用の入力パターンI、及び教師パターンT、に基
づいて生成する。
更に、学習データ追加部24は入出力データ生成部22
で新たに生成された入出力パターンのうち、学習実行部
]4に入力パターンを与えることで出力データ検査部2
0で特定の検査結果が得られたものについてのみ学習パ
ターン保持部10に新たな入力パターン及び教師パター
ンとして追加格納する。
次に、入出力データ生成部22に設定された生成規則に
従った新たな学習用の入出力パターンの生成追加を説明
する。
[生成規則1.] まず、学習パターン制御部18− ]、の出力データ検
査部20にあっては、学習パターン保持部10の入力パ
ターン■、を使用した学習実行部14によるニューラル
ネットワーク12の学習毎にネットワーク出力パターン
O2と教師パターンT。
の誤差を計算し、学習による収束状態を調べる。
このような出力データ検査部20における1−回の学習
毎の収束状態の算出による検査について、学習ハターン
保持部10の全パターンについて、ある程度収束した状
態、即ち全パターンのネットワーク出力パターンと教師
パターンの誤差が規定値以下となった状態で入出力デー
タ生成部22が生成規則1に従った新たな入力パターン
の生成追加を行う。
この生成規則1は入出力生成部22が学習パターン保持
部1−0の中から隣接する2つの入出力パターン(lo
、To)と(I+、T+)を取込み、この2つの入出力
パターンの間に位置する入出力パターン(I2,T2)
を線形補間により算出する。このように、線形補間によ
り新たに算出された入出力パターン(I2,T2)につ
き、入力パターンI2を学習実行部14のニューラルネ
ットワーク1−2に与え、入力パターン■2に対するネ
ットワーク出力02を学習実行部14で算出する。
学習実行部14で算出されたネットワーク出力パターン
02は出力データ検査部20で対応する教師パターンT
2と比較される。
この新たに生成した教師パターンT2とネットワーク出
力パターン02との間に Tまた02   (任意の精度) の関係があれば、新たに生成した入出力パターン(12
,I2)を学習パターン保持部10に追加することなく
、そのまま学習を続ける。一方、教師パターンT2とネ
ットワーク出力パターン02の間に T2≠02 の関係があった場合には、学習データ追加部24は線形
補間で生成された入出力パターン(I2゜I2)を新た
な学習パターンとして学習パターン保持部10に追加格
納する。
[生成規則2] 生成規則]の場合と同様、1回の学習毎にネットワーク
出力0.と教師パターンT、との誤差を出力データ検査
部20で算出して学習の収束状態を調べている。
出力データ検査部20による学習の進行状態の検査結果
が学習パターン保持部10の全パターンについて、ある
程度収束した状態で入出力データ生成部22が起動し、
学習パターン保持部10に格納されている、ある入出力
パターン(1,、T、)を取出し、その入力パターンI
、に所定のゆらぎを加えた入力パターンIp ′を生成
する。入力パターン■、に加えるゆらぎとしては、例え
ば0.1〜0.1の範囲の小さな値を加える。このよう
にしてゆらぎを加えた入力パターン■。
は学習実行部14のニューラルネットワーク12に与え
られ、ネットワークの出力パターンO1を算出する。続
いて、出力データ検査部20で入力パターン■1の教師
パターンT、とゆらぎを加えた入力パターンIp−によ
り得られたネットワーク出力パターンO6′の差を調べ
る。
’rp ”OP −(任意の精度) であれば、学習パターン保持部10に新たに生成した入
出力パターンを追加することなく、そのまま学習を続け
る。
T、 f=or の場合には、学習データ追加部24が入出力パターン(
1,−、’r、)を新たな学習パターンとして学習パタ
ーン保持部10に追加する。
[生成規則3] この生成規則3においても、生成規則1の場合と同様、
1回の学習毎に学習パターン制御部181の出力データ
検査部20でネットワーク出力パターン0.と教師パタ
ーンTpの誤差を計算して学習の収束状態を調べている
出力データ検査部20による学習の進行状態の検査から
学習パターン保持部10に格納された全パターンのうち
の数パーセントのパターンが収束しにくい状態のとき、
この数パーセントの収束しにくいパターンと同じパター
ンを入出力データ生成部22で新たに生成し、学習パタ
ーン保持部10に追加する。その結果、全パターンのう
ちの数パーセントの収束しにくいパターンについては学
習パターン保持部10に二重に学習パターンが格納され
ることとなり、収束しにくい状態にある学習パターンに
よるニューラルネッ)・ワーク12に対する学習実行部
14の学習頻度が増加し、その分だけ学習進行を促進す
ることができる。
第3図は本発明の第2実施例を示した実施例構成図であ
り、この実施例にあっては学習の途中で学習の進行状態
を見ながら自動的に学習パターンを削除することを特徴
とする。
第3図において、学習パターン保持部10、学習実行部
1−4及び重み更新部16については第2図の実施例と
同じであり、これに加えて学習の進行状態を見ながら学
習パターン保持部10に格納された入出力パターンを削
除する学習パターン制御部1−8−2が設けられる。
学習パターン制御部1−8−2は出力データ検査部20
と学習データ削除部26で構成される。出力データ検査
部20は第2図の学習パターン制御部18−1と同様、
1回の学習毎に学習パターン保持部10の教師パターン
T、と学習実行部1431゜ で求められたネットワーク出力パターンO1との誤差を
計算して学習の進行状態を調べる検査機能を有するが、
第3図の実施例にあっては、この検査規則に加えて学習
パターンを削除する検査規則、即ち削除規則を実行する
機能を併せて有する。学習データ削除部26は出力デー
タ検査部20で実行された削除規則に従って、対応する
学習パターンを学習パターン保持部1−0から削除する
次に、第3図の実施例における削除規則を詳細に説明す
る。
[削除規則1] ニューラルネットワーク12の学習に先立ち、そのとき
学習パターン保持部14に格納されている学習用の入出
力パターンのうち、入力パターンと出力パターン(教師
パターン)の差の少ないものを検出し、学習データ削除
部26により学習パターン保持部」Oから削除する。即
ち、差の少ない入力パターンと出力パターン(教師パタ
ーン)でニューラルネットワーク1−2を学習しても、
もともと差が少ないことから、収束の如何に拘らずネッ
トワークの結合の重み更新の度合いは制限され、このよ
うな入出力パターンは、元来、学習パターンとしては適
切でないことから、不要な学習パターンとして削除する
[削除規則2] 1、回の学習毎に学習パターン制御部18−2の出力デ
ータ検査部20でネットワーク出力パターンO1と教師
パターンT、の誤差を計算して学習の収束状態を調べ、
全パターンのうちの数パーセントが収束しにくい状態の
とき、この数パーセントの収束しに(い学習パターンを
学習データ削除部26に通知して学習パターン保持部1
0より削除させる。即ち、学習の進行に対し90数パー
セントが収束しているのに、残り数パーセントが収束し
にくい状態にあるときには、この収束しにくい数パーセ
ントの学習パターンは学習パターンとして不適切なもの
と見做すことができ、従って、このような不適切な学習
パターンを使用しても学習に時間がかかるだけで必ずし
も収束状態が得られず、従って削除することにより適切
な学習パタ−ンによる学習の進行状態とすることができ
、学習を速やかに終わらせることが可能となる。
尚、上記の実施例は3つの生成規則及び2つの削除規則
を個別に説明したが、必要に応じてこれら生成規則及び
削除規則を適宜に組み合わせた学習パターンの追加、削
除を行なうようにしてもよいことは勿論である。
[発明の効果] 以上説明してきたように本発明によれば、学習の途中で
学習の結果を考慮した学習パターンを自動的に追加、削
除できるため、不要の学習パターンを除くと共に必要な
パターンを新たに加えた質の高い学習ができる。更に、
学習の終了を待って学習の成果を調べ、成果が不十分で
あった場合に更に学習パターンを変更して再学習する手
間が不要となり、学習の時間を大幅に短縮することがで
きる。
【図面の簡単な説明】
第1図は本発明の原理説明図; 第2図は本発明の第1実施例構成図: 第3図は本発明の第2実施例構成図; 第4図はニューラルネットワークのユニッ)・説明図; 第5図はニューラルネットワーク構成図:第6図は従来
のニューラルネットワーク学習装置構成図である。 26:学習データ削除部

Claims (10)

    【特許請求の範囲】
  1. (1)学習用の入力パターンと該入力パターンに対する
    教師パターンとしての出力パターンを格納した学習パタ
    ーン保持部(10)と、該学習パターン保持部(10)
    の入力パターンをニューラルネットワーク(12)に入
    力し、ネットワークの出力パターンとネットワークの結
    合の重みを求める学習実行部(14)と、前記学習パタ
    ーン格納部(10)の出力パターンとネットワーク出力
    パターン及び重みに基づき所定の学習規則に従って前記
    ネットワーク(12)の重みを計算して更新する重み更
    新部(16)とを備えたニューラルネットワーク学習装
    置に於いて、前記ニューラル・ネットワーク(12)の
    学習途中で学習の進行状態を見ながら自動的に入力パタ
    ーンと出力パターンを新たに生成して前記学習パターン
    保持部(10)に追加する学習パターン制御部(18−
    1)を設けたことを特徴とするニューラル・ワークの学
    習装置。
  2. (2)請求項1記載のニューラルネットワーク学習装置
    に於いて、 前記学習パターン制御部(18−1)は、 前記学習パターン保持部(10)の出力パターンと前記
    学習実行部(14)から得られたネットワーク出力パタ
    ーンとを比較して学習の進行状態を調べる出力データ検
    査部(20)と; 該出力データ検査部(20)の検査結果に基づいて新た
    な学習用の入出力パターンを生成する入出力データ生成
    部(22)と; 該入出力データ生成部(22)で新たに生成された学習
    用の入出力パターンを前記学習パターン保持部(10)
    に追加する学習データ追加部(24)と;を備えたこと
    を特徴とするニューラルネットワーク学習装置。
  3. (3)請求項2記載のニューラルネットワーク学習装置
    に於いて、 前記出力データ検査部(20)より全パターンについて
    ある程度の収束状況が得られた際に、前記入出力データ
    生成部(22)において前記学習パターン保持部(10
    )から隣接する2つの入出力パターン(I_0,T_0
    )(I_1,T_1)を取り出して線形補間した新たな
    学習入出力パターン(I_2,T_2)を生成し、該新
    たに生成した入力パターン(I_2)を前記学習実行部
    (14)に入力してネットワークの出力パターン(O_
    2)を算出し、前記新たに生成した学習用の出力パター
    ン(T_2)と一致しない場合には、前記学習データ追
    加部(24)により新たに生成した入出力パターン(I
    _2,T_2)を前記学習パターン保持部(10)に追
    加することを特徴とするニューラルネットワーク学習装
    置。
  4. (4)請求項2記載のニューラルネットワーク学習装置
    に於いて、 前記出力データ検査部(20)より全パターンについて
    ある程度の収束状況が得られた際に、前記入出力データ
    生成部(22)において前記学習パターン保持部(10
    )から任意の入出力パターン(I_P,T_P)を取り
    出して所定のゆらぎを加えた新たな入力パターン(I_
    P′)を生成し、該新たに生成した入力パターン(I_
    P′)を前記学習実行部(14)に入力してネットワー
    クの出力パターン(O_P′)を求め、該出力パターン
    (O_P′)が前記新たに生成した出力パターン(T_
    P)に一致しない場合に、前記学習データ追加部(24
    )により新たに生成した入出力パターン(I_P′,T
    _P)を前記学習パターン保持部(10)に追加するこ
    とを特徴とするニューラルネットワーク学習装置。
  5. (5)請求項2記載のニューラルネットワーク学習装置
    に於いて、 前記出力データ検査部(20)により学習途中で収束の
    進まない入出力パターンを検出し、該検出パターンと同
    じ出力パターンを前記入出力データ生成部(22)で生
    成して前記学習データ追加部(24)により前記学習パ
    ターン保持部(10)に追加することを特徴とすニュー
    ラルネットワーク学習装置。
  6. (6)学習用の入力パターンと該入力パターンに対する
    教師パターンとしての出力パターンを格納した学習パタ
    ーン保持部(10)と、該学習パターン保持部(10)
    の入力パターンをニューラルネットワーク(12)に入
    力し、ネットワークの出力パターンとネットワークの結
    合の重みを求める学習実行部(14)と、前記学習パタ
    ーン格納部(10)の出力パターンとネットワーク出力
    パターン及び重みに基づき所定の学習規則に従って前記
    ネットワーク(12)の重みを計算して更新する重み更
    新部(16)とを備えたニューラルネットワーク学習装
    置に於いて、学習途中で学習の進行状態を見ながら自動
    的に前記学習パターン保持部(10)に格納された入出
    力パターンを削除する学習パターン制御部(18−2)
    を設けたことを特徴とするニューラルネットワーク学習
    装置。
  7. (7)請求項1記載のニューラルネットワーク学習装置
    に於いて、 前記学習パターン制御部(18−2)は、 前記学習パターン保持部(10)の出力パターンと前記
    学習実行部(14)から得られたネットワークの出力パ
    ターンとを比較して学習の進行状態を調べる出力データ
    検査部(20)と; 該出力データ検査部(20)の検査結果に基づいて前記
    学習パターン保持部(10)の入出力パターンを削除す
    る学習データ削除部(26)と; を備えたことを特徴とするニューラルネットワーク学習
    装置。
  8. (8)請求項7記載のニューラルネットワーク学習装置
    に於いて、 前記学習パターン保持部(10)に格納された中から入
    出力パターンの差が少ないものを検出して前記学習デー
    タ削除部(26)により削除することを特徴とするニュ
    ーラルネットワーク学習装置。
  9. (9)請求項7記載のニューラルネットワーク学習装置
    に於いて、 前記学習パターン保持部(10)に格納された中から学
    習途中で収束の進まない入出力パターンを検出して前記
    学習データ削除部(26)により削除することを特徴と
    するニューラルネットワーク学習装置。
  10. (10)請求項7記載のニューラルネットワーク学習装
    置に於いて、 前記学習パターン保持部(10)に格納された全パター
    ンの内の数パーセントが学習を繰り返しても収束しない
    ことを検出した際に、該収束しない数パーセントの入出
    力パターンを前記学習データ削除部(26)により削除
    することを特徴とするニューラルネットワーク学習装置
JP2161532A 1990-06-20 1990-06-20 ニューラルネットワーク学習装置 Expired - Lifetime JP2825939B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2161532A JP2825939B2 (ja) 1990-06-20 1990-06-20 ニューラルネットワーク学習装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2161532A JP2825939B2 (ja) 1990-06-20 1990-06-20 ニューラルネットワーク学習装置

Publications (2)

Publication Number Publication Date
JPH0451354A true JPH0451354A (ja) 1992-02-19
JP2825939B2 JP2825939B2 (ja) 1998-11-18

Family

ID=15736886

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2161532A Expired - Lifetime JP2825939B2 (ja) 1990-06-20 1990-06-20 ニューラルネットワーク学習装置

Country Status (1)

Country Link
JP (1) JP2825939B2 (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05298277A (ja) * 1992-04-24 1993-11-12 Hitachi Ltd ニュ−ラルネット学習装置及び学習方法
JPH0683792A (ja) * 1991-06-12 1994-03-25 Hitachi Ltd ニューラルネットワークの学習装置およびニューラルネットワークの学習パターン呈示方法
JPH06187315A (ja) * 1992-10-23 1994-07-08 Nippondenso Co Ltd ニューラルネット型追加学習装置
JP2003140708A (ja) * 2001-11-05 2003-05-16 Denso Corp 学習制御空調装置の教師データ作成方法
CN111382866A (zh) * 2018-12-27 2020-07-07 瑞萨电子株式会社 用于机器学习的系统和方法
JP2021032115A (ja) * 2019-08-22 2021-03-01 トヨタ自動車株式会社 車両用学習制御システム、車両用制御装置、および車両用学習装置
JP2021032116A (ja) * 2019-08-22 2021-03-01 トヨタ自動車株式会社 車両用制御装置、車両用学習システム、および車両用学習装置
JP2021032114A (ja) * 2019-08-22 2021-03-01 トヨタ自動車株式会社 車両用学習制御システム、車両用制御装置、および車両用学習装置

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0683792A (ja) * 1991-06-12 1994-03-25 Hitachi Ltd ニューラルネットワークの学習装置およびニューラルネットワークの学習パターン呈示方法
JPH05298277A (ja) * 1992-04-24 1993-11-12 Hitachi Ltd ニュ−ラルネット学習装置及び学習方法
JPH06187315A (ja) * 1992-10-23 1994-07-08 Nippondenso Co Ltd ニューラルネット型追加学習装置
JP2003140708A (ja) * 2001-11-05 2003-05-16 Denso Corp 学習制御空調装置の教師データ作成方法
CN111382866A (zh) * 2018-12-27 2020-07-07 瑞萨电子株式会社 用于机器学习的系统和方法
JP2020107012A (ja) * 2018-12-27 2020-07-09 ルネサスエレクトロニクス株式会社 演算処理装置および機械学習方法
US11568226B2 (en) 2018-12-27 2023-01-31 Renesas Electronics Corporation System and method for machine-learning
JP2021032115A (ja) * 2019-08-22 2021-03-01 トヨタ自動車株式会社 車両用学習制御システム、車両用制御装置、および車両用学習装置
JP2021032116A (ja) * 2019-08-22 2021-03-01 トヨタ自動車株式会社 車両用制御装置、車両用学習システム、および車両用学習装置
JP2021032114A (ja) * 2019-08-22 2021-03-01 トヨタ自動車株式会社 車両用学習制御システム、車両用制御装置、および車両用学習装置
AU2020217421B2 (en) * 2019-08-22 2022-01-13 Toyota Jidosha Kabushiki Kaisha Vehicle learning control system, vehicle control device, and vehicle learning device
US11326541B2 (en) 2019-08-22 2022-05-10 Toyota Jidosha Kabushiki Kaisha Vehicle learning control system, vehicle control device, and vehicle learning device

Also Published As

Publication number Publication date
JP2825939B2 (ja) 1998-11-18

Similar Documents

Publication Publication Date Title
JPH0451354A (ja) ニューラルネットワーク学習装置
US5857178A (en) Neural network apparatus and learning method thereof
Yeşildirek et al. A neural network controller for flexible-link robots
Fortuna et al. Improving back-propagation learning using auxiliary neural networks
JP2540654B2 (ja) ニュ―ラルネットワ―クの学習装置
Lewis et al. Neural network control of robot arms and nonlinear systems
JP2606317B2 (ja) 学習処理装置
JP2699447B2 (ja) 信号処理装置
JP3172164B2 (ja) ニューラルネットワークにおける結合のグループ単位逐次学習方式
JPH05242063A (ja) ニューラルネットワークシステム
JPH07182433A (ja) 神経回路の時系列学習方法
JP3172163B2 (ja) ニューラルネットワークにおける結合のグループ単位学習調整方式
JPH06348676A (ja) 構造化神経回路網構築装置
JP2607351B2 (ja) 多層パーセプトロンの神経回路網の効率的な学習のための誤差信号の発生方法
Lam et al. Formation and dynamics of modules in a dual-tasking multilayer feed-forward neural network
JPH03105663A (ja) 強化学習処理方式
Hutchins Identifying nonlinear dynamic systems using neural nets and evolutionary programming
JP3073031B2 (ja) ニューラルネットワーク学習装置
Lin et al. Using context‐sensitive neuro‐fuzzy systems for nonlinear system identification
Nikravesh et al. Process control of nonlinear time variant processes via artificial neural network
Golpayegani et al. Improved adaptive neural fuzzy filter and its application in noise cancellation
Kim et al. Neural network identification and control of unstable systems using supervisory control while learning
JPH0635889A (ja) ニューラルネットワーク装置及びその学習方法
Yu et al. A simple procedure in back-propagation training
Abbattista et al. An iterative two-phase approach to fuzzy system design