JPH05324598A - ニューラル・ネットワーク学習装置における学習方式 - Google Patents

ニューラル・ネットワーク学習装置における学習方式

Info

Publication number
JPH05324598A
JPH05324598A JP4126176A JP12617692A JPH05324598A JP H05324598 A JPH05324598 A JP H05324598A JP 4126176 A JP4126176 A JP 4126176A JP 12617692 A JP12617692 A JP 12617692A JP H05324598 A JPH05324598 A JP H05324598A
Authority
JP
Japan
Prior art keywords
unit
output
layer
learning
output value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP4126176A
Other languages
English (en)
Inventor
Chikako Matsumoto
智佳子 松本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP4126176A priority Critical patent/JPH05324598A/ja
Publication of JPH05324598A publication Critical patent/JPH05324598A/ja
Withdrawn legal-status Critical Current

Links

Landscapes

  • Feedback Control In General (AREA)

Abstract

(57)【要約】 【目的】 ニューラル・ネットワーク学習装置において
学習時間を短縮する。 【構成】 入力層と出力層の間に少なくとも1つの隠れ
層を持ち、各層が複数個のユニットから構成されてお
り、又、各層内では結合がなく、層間ではユニット間が
ある重み係数によって結合され、前層の出力に重み係数
を乗算し総和をとったものに非線形または線形関数を施
したものを各ユニットの出力とするニューラル・ネット
ワークにおいて、前記隠れ層、出力層の出力とそれに対
応する教師信号による目標値とを比較して、その層のユ
ニットの出力と前記教師信号による目標値との間の誤差
が無くなったか否かを出力値判定部(E)で判断し、前
記誤差が無くなったと判断された場合、その特定のユニ
ットに接続した他のユニットとの間の結合の重みの変化
量の計算を以後停止し、重み更新を行わないこととし
た。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は、ニューラル・ネットワ
ーク学習装置における、学習方式に関する。
【0002】
【従来の技術】図7は従来のニューラル・ネットワーク
を用いた学習装置である。ニューラル・ネットワークを
用いた学習装置は「学習パターン保持部」(A)と、
「ニューラル・ネットワーク実行部」(B)と、「重み
更新部」(C)からなる。以下にその説明を記す。 (A)学習パターン保持部 学習パターン保持部では入力パターンと、それに対する
出力パターンを保持してる。 (B)ニューラル・ネットワーク実行部 多層のネットワーク構造になっている。各層は多くのユ
ニットで構成されており、各ユニット間には、各々の結
合の重みwが定義されている。ユニットは以下に示すよ
うにしてネットワークの出力値を計算する。
【0003】あるユニットが複数のユニットから入力を
受けた場合、その総和に各ユニットのしきい値Θを加え
たものが、入力値になる。(図3参照)
【0004】
【数1】
【0005】ユニットの出力値はこの入力総和net
に、活性化関数を適用して計算される。活性化関数には
微分可能な非線形型関数が用いられる。ここでは、一般
的に用いられるsigmoid関数を適応すると、ユニ
ットUi の出力値Oi
【0006】
【数2】
【0007】バックプロパゲーションで用いるネットワ
ークは、一般的には多層のネットワーク構造であるが、
ここでは通常よく用いられる、図4に示すような3層の
ネットワークの場合について述べる。3つの層は入力
層、隠れ層、出力層と呼ばれており、各層は多くのユニ
ットで構成される。
【0008】入力層の各ユニットにネットワークへの入
力データが与えられる。従って、隠れ層の各ユニットの
出力値hは
【0009】
【数3】
【0010】また、出力層の各ユニットの出力値oは
【0011】
【数4】
【0012】(C)重み更新部 図8に従来の重み更新部の処理の流れを示す。図8のス
テップ50では、まず誤差計算を行う。ネットワークの
出力が、望ましい出力になるように、ネットワークの重
みを調節する。学習規則としてバックプロパゲーション
法を用いる。あるパターンpを与えた時の実際の出力値
(opi)と、教師信号(tpi)の平均2乗誤差Epをと
る。学習させるためには、この誤差Epを減らすよう
に、ネットワーク中の全ての重みを変える。
【0013】
【数5】
【0014】次に、図8のステップ51で示すように、
隠れ層ユニットと出力層ユニットの間の重み変化量を求
める。
【0015】
【数6】
【0016】 δpi = (tpi − opi){opi(1−opi)} …(7)式 次に、図8のステップ52で示すように、入力層ユニッ
トと隠れ層ユニットの間の重み変化を求める。
【0017】
【数7】
【0018】そして、図8のステップ53で示すよう
に、重みの更新を行う。 w(n) = w(n−1)+Δw(n) …(10)式
【0019】
【発明が解決しようとする問題点】ニューラル・ネット
ワークを用いて学習する場合、従来の方法では学習が完
了するまで、全ての重みの更新を行い続ける。そのた
め、すでに収束しているパターンに関しても、重みを微
少変化させることとなり、それが振動の元となったり、
必要のない計算時間を費やすこととなっている。
【0020】従って、学習時間を減少させるためには、
すでに収束しているパターンを見つけて、そのパターン
に関係するノードの重みについては、計算量をできるだ
け減らす必要がある。
【0021】
【問題を解決するための手段】本発明では、前記問題解
決のため、原理図1のように、入力層と出力層の間に少
なくとも1つの隠れ層を持ち、各層が複数個のユニット
から構成されており、又、各層内では結合がなく、層間
ではユニット間がある重み係数によって結合され、前層
の出力に重み係数を乗算し総和をとったものに非線形ま
たは線形関数を施したものを各ユニットの出力とするニ
ューラル・ネットワークと、前記ニューラルネットワー
ク(NW)への入力パターンとそれに対する望ましい出
力である教師信号を保持する学習パターン保持部(A)
と、この学習パターン保持部(A)の入力パターンをニ
ューラルネットワーク(NW)に入力し出力値を計算す
る学習実行部(B)と、所定の学習規則及び学習パラメ
ータを保持するとともにこれら学習規則及び学習パラメ
ータに基づいて、前記学習実行部(B)でのネットワー
クの出力と教師信号とを比較し、ネットワークの重みを
更新する重み更新部(C)と、を備えたニューラルネッ
トワーク学習装置において、以下のような解決手段を採
用した。
【0022】すなわち、前記ニューラルネットワーク
(NW)の各層の少なくとも一つの層ユニットの出力と
それに対応する教師信号による目標値とを比較して、そ
の層のユニットの出力と前記教師信号による目標値との
間の誤差が無くなったか否かを判断する出力値判定部
(E)を備え、この出力値判定部(E)により前記誤差
が無くなったと判断された場合、前記重み更新部は、そ
の特定のユニットに接続した他のユニットとの間の結合
の重みの変化量の計算を以後停止し、重み更新を行わな
いようにした。
【0023】本発明で、各層ユニットの出力値と教師信
号による目標値との間の誤差が無くなったと判断される
場合とは、誤差が完全に無くなった場合のみならず、誤
差が無いものといってよい状態も含むものとする。
【0024】より具体的には、ニューラル・ネットワー
クを用いて学習した場合、学習が進むに従って、ある入
力パターンを与えた場合に出力層ユニットの出力値は教
師信号に、隠れ層ユニットの出力値が0か1の値に落ち
着くようになる。
【0025】従って出力層ユニットの出力値を監視し、
出力層ユニットの出力値が教師信号に連続して数回等し
くなったら、その出力層ユニットに繁がっている隠れ層
のユニット(ノード)との間の結合の重みの更新量は計
算しない。
【0026】同様に、隠れ層ユニットの出力値を監視
し、隠れ層の出力値が連続して数回0か1の値になった
ら、もしくは0または1に近くになった場合、その隠れ
層のノードに繁がっている入力層のユニット(ノード)
との間の重みについては更新量は計算しない。
【0027】出力層ユニットの出力値を監視し、また
は、隠れ層ユニットの出力値を監視するためには、各入
力パターンに対する出力層のユニットの出力値の履歴を
保存する出力値保存部、あるいは、各入力パターンに対
する隠れ層のユニットの出力値の履歴を保存する出力値
保存部を備える必要がある。
【0028】本発明ではニューラルネットワーク(N
W)として、入力層、隠れ層、出力層を有する階層型ネ
ットワークを使用できるが、Elman型リカレントネ
ットワークも使用できる。
【0029】Elman型ネットワークとは、入力層、
隠れ層、出力層を有し、かつ、隠れ層の出力データを複
写して保持するとともに保持した出力データを再度隠れ
層に入力するコンテキスト層を備えたニューラルネット
ワーク(NW)である。入力層、隠れ層、出力層の各層
はそれぞれ複数のユニット(ノード)を有している。
【0030】そして、入力層の各ユニットには入力デー
タが入力される。時刻tにおける隠れ層の出力値wをコ
ンテキスト層にコピーし、このコンテキスト層と入力層
の値が時刻t+1における隠れ層の入力となる。従っ
て、このコンテキスト層が過去の入力データの履歴を保
持することになる。
【0031】
【作用】図5に、本方式による学習時の処理の流れを示
す。図5のステップ60では、従来例の図8のステップ
50と同様に、出力ユニットの出力値と、教師信号の誤
差計算を行い、過去数回にわたって誤差が0になったか
どうかを判定する。
【0032】図5のステップ61では、出力層の出力値
が教師信号に収束していないユニット(図6の○ユニッ
ト)については、従来例と同様に、出力ユニット−隠れ
ユニット間の結合の重み変化量(Δwij)の計算を行
う。
【0033】図5のステップ62では、出力層の出力値
が過去数回にわたって教師信号と等しくなっているユニ
ットについては、出力層のユニット(図6の●ユニッ
ト)に接続している結合(図6の実線部分)の重み変化
量の計算は行わずに、重みの変化量(Δwij)を0とす
る。
【0034】図5のステップ63では、隠れ層の出力値
が過去数回にわたって0或いは1に収束しているかどう
か判断する。図5のステップ64では、隠れ層の出力値
が0或いは1に収束していないユニット(図6の○ユニ
ット)については、従来例と同じように隠れユニット−
入力ユニットの結合の重み変化量(Δwjk)の計算を行
う。
【0035】図5のステップ65では、隠れ層の出力値
が0或いは1に収束しているユニットについては、隠れ
層のユニット(図6の●ユニット)に接続している結合
(図6の実線部分)の重み変化量(Δwjk)の計算は行
わずに、重みの変化量を0とする。
【0036】図5のステップ66では、従来例の図8の
ステップ53と同様に重みの更新を行う。
【0037】
【実施例】本発明の実施例を示す。図2は本発明の実施
例であるニューラル・ネットワーク学習装置である。
「学習パターン保持部」(A)と、「ニューラル・ネッ
トワーク実行部」(B)と、「重み更新部」(C)と、
出力層と隠れ層の出力値を過去数回分保存しておく「出
力値保存部」(D)からなる。重み更新部(C)には出
力値を評価するための出力値判定規則を有する出力値判
定部(E)が存在する。
【0038】「学習パターン保持部」(A)と、「ニュ
ーラル・ネットワーク実行部」(B)と、については、
従来例と全く同じである。「出力値保存部」(D)で
は、出力層ユニットと隠れ層ユニットの出力値を過去数
回分保存しておき、「重み更新部」(C)にそのデータ
を送る。出力値判定部(E)は、出力層ユニットと隠れ
層ユニットの出力値を過去数回分についてその目標値と
比較し、重み更新部(C)での結合の重み更新を行うか
否かの判断をする。
【0039】学習の流れについて説明する。まず、「学
習パターン保持部」(A)の入力パターンが「ニューラ
ル・ネットワーク実行部」(B)のニューラル・ネット
ワークに入力され、ニューラル・ネットワークでは“ネ
ットワークの出力”と“ネットワークの結合の重み”を
計算する。また、出力層ユニットに出力値と隠れ層ユニ
ットの出力値が「出力値保存部」(D)に送られる。
【0040】「出力値保存部」(D)では、出力層ユニ
ットの出力値については過去5回分(一例)の、隠れ層
ユニットの出力値については過去3回分(一例)のデー
タを保存してある。そのデータは「重み更新部」(C)
に送られる。
【0041】「重み更新部」(C)では、出力値判定部
(E)が「出力値保存部」(D)から送られたデータ
と、出力値判定規則により、重みの更新を行うかどうか
決定する。ここで、出力値判定規則とは、 出力層ユニットの出力値が過去5回にわたって、教師
信号と一致している。
【0042】隠れ層ユニットの出力値が過去3回にわ
たって、0或いは1になっている。 * なお、比較する過去の出力値の回数は如何なる場合
も同じ回数ではなく、扱うデータなどにより随時可変と
する。 である。
【0043】上記の条件に合致するものについては、重
みの変化量の計算は行わない。上記の条件を満たさない
ものについては、従来と同様に重みの変化量を学習規
則、学習パラメターをもとに計算する。
【0044】こうして、更新された重みは、「ニューラ
ルネットワーク実行部」(B)に送られる。すなわち、
学習にあたり、図5のステップ60では、出力ユニット
の出力値と、教師信号の誤差計算を行い、過去5回にわ
たって誤差が0になったかどうかを判定する。
【0045】誤差が0になっていなければ、図5のステ
ップ61では、出力層の出力値が教師信号に収束してい
ないユニット(図6の○ユニット)については、従来例
と同様に、出力ユニット−隠れユニット間の結合の重み
変化量(Δwij)の計算を行う。
【0046】誤差が0であれば、図5のステップ62で
は、出力層の出力値が過去5回にわたって教師信号と等
しくなっているユニットについては、出力層のユニット
(図6の●ユニット)に接続している結合(図6の実線
部分)の重み変化量の計算は行わずに、重みの変化量
(Δwij)を0とする。
【0047】図5のステップ63では、隠れ層の出力値
が過去3回にわたって0或いは1に収束しているかどう
か判断する。図5のステップ64では、隠れ層の出力値
が0或いは1に収束していないユニット(図6の○ユニ
ット)については、従来と同じように隠れユニット−入
力ユニットの結合の重み変化量(Δwjk)の計算を行
う。
【0048】図5のステップ65では、隠れ層の出力値
が0或いは1に収束しているユニットについては、隠れ
層のユニット(図6の●ユニット)に接続している結合
(図6の実線部分)の重み変化量(Δwjk)の計算は行
わずに、重みの変化量を0とする。
【0049】図5のステップ66では、従来例の図8の
ステップ53と同様に重みの更新を行う。
【0050】
【発明の効果】本発明によると、重みを更新する際に、
すでに目標値に収束しているパターンについての重みの
更新を省くことができる。従って、従来の方式に比べて
学習時間を大幅に短縮することができる。特に、ほとん
どのパターンが収束に向かった学習の末期の段階で、よ
り大きな効果をあげることができる。
【図面の簡単な説明】
【図1】 本発明の原理図
【図2】 本発明によるニューラル・ネットワーク学習
装置の一実施例
【図3】 ネットワークの入出力特性
【図4】 ネットワークの構造
【図5】 本発明による重みの更新方法
【図6】 出力値判定規則に合致したネットワーク
【図7】 従来のニューラル・ネットワーク学習装置
【図8】 従来の重みの計算方法
【符号の説明】
(A) 学習パターン保持部 (B) 学習実行部 (C) 重み更新部 (D) 出力値保存部 (E) 出力値判定部 (NW)ニューラルネットワーク

Claims (3)

    【特許請求の範囲】
  1. 【請求項1】 入力層と出力層の間に少なくとも1つの
    隠れ層を持ち、各層が複数個のユニットから構成されて
    おり、又、各層内では結合がなく、層間ではユニット間
    がある重み係数によって結合され、前層の出力に重み係
    数を乗算し総和をとったものに非線形または線形関数を
    施したものを各ユニットの出力とするニューラル・ネッ
    トワークと、 前記ニューラルネットワーク(NW)への入力パターン
    とそれに対する望ましい出力である教師信号を保持する
    学習パターン保持部(A)と、 この学習パターン保持部(A)の入力パターンをニュー
    ラルネットワーク(NW)に入力し出力値を計算する学
    習実行部(B)と、 所定の学習規則及び学習パラメータを保持するとともに
    これら学習規則及び学習パラメータに基づいて、前記学
    習実行部(B)でのネットワークの出力と教師信号とを
    比較し、ネットワークの重みを更新する重み更新部
    (C)と、 を備えたニューラルネットワーク学習装置において、 前記ニューラルネットワーク(NW)の各層の少なくと
    も一つの層ユニットの出力とそれに対応する教師信号に
    よる目標値とを比較して、その層のユニットの出力と前
    記教師信号による目標値との間の誤差が無くなったか否
    かを判断する出力値判定部(E)を備え、 この出力値判定部(E)により前記誤差が無くなったと
    判断された場合、前記重み更新部は、その特定のユニッ
    トに接続した他のユニットとの間の結合の重みの変化量
    の計算を以後停止し、重み更新を行わないことを特徴と
    するニューラルネットワーク学習装置における学習方
    式。
  2. 【請求項2】 各入力パターンに対する出力層のユニッ
    トの出力値の履歴を保存する出力値保存部(D)を有
    し、前記出力値判定部(E)は、出力値保存部(D)か
    ら特定出力層のユニットの過去特定回数にわたる出力値
    を受け、その出力値につき過去数回にわたって連続して
    教師信号との間の誤差が無くなったと判断された場合、
    その特定のユニットに接続した他のユニットとの間の結
    合の重みの変化量の計算を以後停止し、重み更新を行わ
    ないことを特徴とする請求項1記載のニューラルネット
    ワーク学習装置における学習方式。
  3. 【請求項3】 各入力パターンに対する隠れ層のユニッ
    トの出力値の履歴を保存する出力値保存部(D)を有
    し、前記出力値判定部(E)は、出力値保存部(D)か
    ら特定隠れ層のユニットの過去特定回数にわたる出力値
    を受け、その出力値につき過去数回にわたって連続して
    0か1の値になった場合、もしくは0または1に近くに
    なった場合、その特定のユニットに接続した他のユニッ
    トとの間の結合の重みの変化量の計算を以後停止し、重
    み更新を行わないことを特徴とする請求項1記載のニュ
    ーラルネットワーク学習装置における学習方式。
JP4126176A 1992-05-19 1992-05-19 ニューラル・ネットワーク学習装置における学習方式 Withdrawn JPH05324598A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP4126176A JPH05324598A (ja) 1992-05-19 1992-05-19 ニューラル・ネットワーク学習装置における学習方式

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP4126176A JPH05324598A (ja) 1992-05-19 1992-05-19 ニューラル・ネットワーク学習装置における学習方式

Publications (1)

Publication Number Publication Date
JPH05324598A true JPH05324598A (ja) 1993-12-07

Family

ID=14928565

Family Applications (1)

Application Number Title Priority Date Filing Date
JP4126176A Withdrawn JPH05324598A (ja) 1992-05-19 1992-05-19 ニューラル・ネットワーク学習装置における学習方式

Country Status (1)

Country Link
JP (1) JPH05324598A (ja)

Similar Documents

Publication Publication Date Title
JPH0760428B2 (ja) 線形微分方程式を用いて接続の重みが生成されるような分散並列処理ネットワーク
US20080172349A1 (en) Neural network controller with fixed long-term and adaptive short-term memory
US5857178A (en) Neural network apparatus and learning method thereof
JPH07121498A (ja) ニューラルネットワーク構築方法
JP2825939B2 (ja) ニューラルネットワーク学習装置
JPH05324598A (ja) ニューラル・ネットワーク学習装置における学習方式
JP3354593B2 (ja) ネットワーク型情報処理装置の学習システム
JP2907486B2 (ja) ニューラルネットワーク装置
JP2897220B2 (ja) 信号処理装置
JP2540654B2 (ja) ニュ―ラルネットワ―クの学習装置
Aksu et al. Training the multifeedback-layer neural network using the Particle Swarm Optimization algorithm
JP2606317B2 (ja) 学習処理装置
Castellano et al. Simplifying a neuro-fuzzy model
JP2699447B2 (ja) 信号処理装置
JPH07104848B2 (ja) ニューラルネットの学習効率化方法
JP2979562B2 (ja) 学習処理装置
JP3073031B2 (ja) ニューラルネットワーク学習装置
JP3172163B2 (ja) ニューラルネットワークにおける結合のグループ単位学習調整方式
JP3002563B2 (ja) ニューラルネットワーク学習装置の重み更新方式
JP2000035955A (ja) 階層型ニューラルネットワークの構成方法
JPH05204885A (ja) ニューラルネットワークの学習高速化装置及び方法
JPH0877130A (ja) 神経回路網モデルの逐次型加速化学習方法
Hush et al. The recursive neural network and its applications in control theory
JPH0696046A (ja) ニューラルネットワークの学習処理装置
JPH0713745A (ja) 神経回路網型パターン学習方法およびパターン処理装置

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 19990803