JPH07319844A - ニューラルネットワークの学習装置及びニューラルネットワークの学習方法 - Google Patents

ニューラルネットワークの学習装置及びニューラルネットワークの学習方法

Info

Publication number
JPH07319844A
JPH07319844A JP6110930A JP11093094A JPH07319844A JP H07319844 A JPH07319844 A JP H07319844A JP 6110930 A JP6110930 A JP 6110930A JP 11093094 A JP11093094 A JP 11093094A JP H07319844 A JPH07319844 A JP H07319844A
Authority
JP
Japan
Prior art keywords
error
neural network
learning
load
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP6110930A
Other languages
English (en)
Inventor
Kiyoshi Nakabayashi
清 仲林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP6110930A priority Critical patent/JPH07319844A/ja
Publication of JPH07319844A publication Critical patent/JPH07319844A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

(57)【要約】 【目的】 本発明の目的は、過剰学習を回避して、分類
精度を向上させ、誤差/荷重比率を調整した、学習を行
うことができるニューラルネットワークの学習装置及び
ニューラルネットワークの学習方法を提供することであ
る。 【構成】 本発明は、学習サンプルデータ20を入力し
た時のニューラルネットワークの出力と教師信号の誤差
を算出する誤差算出手段11と、荷重差分算出手段12
と、出力誤差と荷重差分が均衡するように誤差/荷重比
率を調整する誤差/荷重比率調整手段14と、出力誤差
と荷重差分の和が減少するようにニューラルネットワー
クの結合荷重を調整する結合荷重調整手段13とを有す
る学習手段10を有する。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は、ニューラルネットワー
クの学習装置及びニューラルネットワークの学習方法に
係り、特に、データの分類処理を行うニューラルネット
ワークの学習において、既知である概略の分類規則とサ
ンプルデータから、学習を併用しデータを分類するニュ
ーラルネットワークの学習装置及びニューラルネットワ
ークの学習方法に関する。
【0002】
【従来の技術】従来よりデータの分類処理のために多層
構造ニューラルネットワークが用いられている。図4
は、一般的な多層構造型ニューラルネットワークの構成
を示す。同図に示すニューラルネットワークの構成は、
分類対象データの特徴量を入力する入力層101、分類
結果を出力する出力層103、入力層101と出力層1
03の間には1層乃至それ以上の層を有する中間層10
2により構成される。
【0003】各層のユニットの入力は、その前段の層の
各々のユニットの出力に結合されている。各々のユニッ
トの出力は、以下の式に従って決定される。
【0004】
【数1】
【0005】ここで、上記のokj は、k層(k≧1、
k=1)のj番目のユニットの出力値、wkij は、k−
1層のj番目のユニットへの結合荷重、N(k-1) は、k
−1層のユニットの総数である。但し、wk0j は、k層
のj番目のユニットにバイアスを与えるための結合荷重
で、o(k-1)0は常に1とする。また、入力層(k=1)
の各ユニットは、入力された特徴量をそのまま出力す
る。
【0006】このようなニューラルネットワークにデー
タの分類を行わせるためには、入力層ユニットに分類対
象データの特徴量を与えた時に、そのデータの属する分
類カテゴリに対応する出力層ユニットのみが高い値を出
力し、他の出力層ユニットが低い値を出力するように、
上記の各ユニット間の結合荷重及びバイアス値を設定す
る必要がある。
【0007】このために、従来の技術の第1の方法とし
て、結合荷重及びバイアス値をランダムな値に初期設定
しておき、分類結果が既知である学習サンプルデータの
特徴量を入力したときの実際の出力値と学習サンプルデ
ータの正しい分類を与える出力値(以下、教師信号と呼
ぶ)の誤差が減少するように、結合荷重及びバイアス値
を微少量ずつ繰り返し調整する逆誤差伝搬学習方法が知
られている。
【0008】図5は、従来の第1の方法を説明するため
の図である。同図に示す構成は、学習部10、ニューラ
ルネットワーク1及び学習サンプルデータ20より構成
される。
【0009】学習部10は、ニューラルネットワーク1
に学習サンプルデータ20の特徴量を入力した時の実際
の出力値と教師信号との誤差を算出する誤差算出部11
と、誤差が減少するように逆誤差伝搬学習方式を用いて
結合荷重及びバイアス値を微少量ずつ調整する結合荷重
調整部13から構成される。
【0010】学習部10の誤差算出部11は、ニューラ
ルネットワークの入力層に学習サンプルデータ20の特
徴量を入力した時のニューラルネットワークの出力値E
D と教師信号の二乗誤差ej D
【0011】
【数2】
【0012】を算出する。ここで、Kは、出力層の層番
号、即ち、ニューラルネットワーク1の全層数である。
また、yj は、出力層のj番目のユニットに対する当該
学習サンプルの教師信号である。
【0013】次に、結合荷重調整部13は、算出された
誤差が減少するように、ニューラルネットワーク1の結
合荷重及びバイアス値wkij を以下の式に従って微少量
調整する。
【0014】 δkij D =−ηdkij D o(k−1)i (5) ここで、δkij D は、結合荷重ないしバイアス値wkij
の調整値、ηは1回の繰り返しでの調整量の大きさを決
めるパラメータである。dkj D はk層が出力層(k=
K)の時、以下の式で算出される。
【0015】 dKj D =ej D (1−oKj)(1+oKj) (6) ここで、ej D は、(4)式に従って誤差算出部11で
算出された出力誤差である。k層が中間層の時は、dkj
D は以下の式で与えられる。
【0016】
【数3】
【0017】以上の誤差算出部11による誤差算出と結
合荷重調整部13による結合荷重及びバイアス値の調整
を、学習サンプルを繰り返し与えて実行し、二乗誤差E
D の変化が一定値以下になった時、学習を終了する。
【0018】次に従来の第2の方法について説明する。
【0019】従来の第2の方法は、概ね正しいと考えら
れるデータ分類規則が既知である時にこの分類規則と等
価な分類機能を有するように、ニューラルネットワーク
の結合荷重及びバイアス値を初期設定し、その後、学習
サンプルデータを用いて教師信号に対する出力誤差と結
合荷重の初期設定値からのずれの和が減少するように結
合荷重及びバイアス値を調整する方式であり、本発明の
発明者らにより、特願平3−180号『ニューラルネッ
トワークの学習方式』に記載されている。
【0020】以下、図6を用いて従来の第2の方法を説
明する。図6に示す方式は、既知である分類規則22、
学習サンプルデータの特徴量と分類結果20、データ分
類規則301を論理演算式に変換する論理演算式に変換
する論理演算変換部15、得られた論理演算式と等価な
動作を行うようにニューラルネットワーク1の構造及び
結合荷重を設定する結合荷重設定部16より構成され
る。また、この時の結合荷重は、初期結合荷重21とし
て規則される。学習部10は、ニューラルネットワーク
1に学習サンプルデータ20の特徴量を入力したときの
出力値と教師信号との誤差に結合荷重の初期設定値から
のずれを加えた和が減少するように結合荷重及びバイア
ス値を微少量ずつ繰り返し調整する。
【0021】次に、上記の各部の動作について説明す
る。
【0022】今、既知であるデータ分類規則22として
以下が論理演算変換部15に与えられたとする。
【0023】 IF(x1 >a1 ) and (x2 >a2 )THEN y (8) IF(x3 >a3 ) and (x4 <a4 )THEN y (9) 最初の式(8)は、「分類対象データの特徴量x1 が定
数a1 より大きく、かつ、x2 がa2 より大きければ分
類対象データは、カテゴリyに属する」ことを意味して
おり、二番目の式(9)は、「特徴量x3 がa3 より大
きく、かつx4がa4 より小さければ分類対象データは
カテゴリyに属する」ことを意味している。これらの式
から論理演算変換部15は、「(x1 がa1 より大き
く、かつx 2 がa2 より大きい)または、(x3 がa3
より大きく、かつx4 がa4 より小さい)ならば、yが
真」を意味する以下の論理演算式を生成する。但し、*
は論理関、+は論理和、!は論理否定を表す。
【0024】 y=(x1 >a1 )*(x2 >a2 ) +(x3 >a3 )*!(x4 >a4 ) (10) 次に、結合荷重設定部16の動作について図7を用いて
説明する。図7は、第2の従来の方法の結合荷重設定部
の動作を説明するための図である。結合荷重設定部16
は、論理演算変換部15から与えられる論理演算式23
に従ってニューラルネットワーク24の結合構成及び結
合荷重を決定する。ニューラルネットワーク24の結合
構成は、同図に示すように、論理演算式23の右辺に現
れる変数毎に一つの入力層ユニットを、変数と定数の比
較項毎に一つの第1中間層ユニットを、乗法項毎に一つ
の第2中間層ユニットを割り当て、出力層で全乗法項の
加法を実現するように行う。
【0025】結合荷重wの決定方法は、本発明の発明者
らによる特願平2−185570号『ニューラルネット
の学習方式』に詳細に記述されているがここでは、決定
のための計算式を示す。
【0026】1.加法ユニット(出力層) n−入力加法ユニットを考える。入力信号Ii (1≦i
≦n)が−1≦Ii ≦−dの場合「偽」、d≦Ii ≦1
の場合「真」とする。出力信号oが−1≦o≦−d’の
場合「偽」、d’≦o≦1の場合「真」とする。以上の
条件で、加法機能を実現するには、結合荷重wi (1≦
i≦n)とバイアスw0 を以下のように設定する。
【0027】
【数4】
【0028】但し、入力が否定項(y=a+!bのb)
である場合は、wi =−wとする。
【0029】また、dは、d>(n−1)/(n+1)
という条件を満たす必要がある。
【0030】2.乗法ユニット(第2中間層) n,d,d’を加法の場合と同様に定義する。乗法機能
を実現するには、結合荷重wi (1≦i≦n)とバイア
スw0 を以下のように設定する。
【0031】
【数5】
【0032】但し、入力が否定項(y=a・!bのb)
である場合は、wi =−wとする。また、dは、d>
(n−1)/(n+1)という条件を満たす必要があ
る。
【0033】3.比較ユニット(第1中間層) 入力Iが定数Aより大きい時に「真」を出力するユニッ
トの結合荷重w1 とバイアスw0 の関係を以下のように
設定する。
【0034】 w0 =−w1 A (15) なお、ユニット及びユニット間の結合として論理式に対
応しない余分のものがあってもよく、これらの結合は、
上で決定した結合荷重よりも絶対値の十分小さいランダ
ムな値に設定される。
【0035】次に、学習部10の動作について説明す
る。図6において、荷重差分算出部12は、結合荷重の
初期設定値との差分を算出する。その他については、図
5に示した従来の第1の方法の学習部10と同様であ
る。
【0036】学習部10の動作原理について説明する。
【0037】学習部10は、結合荷重設定部16によっ
て、初期設定されたニューラルネットワーク1につい
て、以下の式で示される評価関数EDWを減少させるよう
に結合荷重の値を変化させる。
【0038】
【数6】
【0039】ここで、右辺第1項の評価関数ED は、
(3)式に示した、学習サンプルデータ20の特徴量を
入力した時のニューラルネットワーク1の出力値と教師
信号との二乗誤差である。また、第2項は、結合荷重の
初期設定値からのずれを表す項である。即ち、学習部1
0は、ニューラルネットワーク1の出力値の二乗誤差と
結合荷重の初期設定値からのずれの和が減少するように
結合荷重を調整する。
【0040】右辺第2項において、Wkij は結合荷重w
kij の初期設定値である。f(x,y)は、xとyの差
が増加すると増加する関数で、例えば(x−y)2 であ
る。λkij は、ED と各結合荷重の差分を加え合わせる
際の比率で誤差/荷重比率と呼ぶ。
【0041】上の評価関数EDWを減少させるための結合
荷重wkij の変化量δkij DWは、以下の式で与えられ
る。
【0042】
【数7】
【0043】ここで、δkij D は(5)で算出される、
通常野逆誤差伝搬学習における結合荷重の調整量であ
る。上式により例えば、f(x,y)=(x−y)2
した時には、 δkij DW =δkij D −2ηλkij kij (wkij − Wkij ) (21) となる。
【0044】学習部10は、以上の動作原理に従って動
作する。以下、f(x,y)=(x−y)2 とした場
合、即ち、(21)式に従って結合荷重の調整を行う場
合について説明する。
【0045】誤差算出部11は、ニューラルネットワー
ク1の入力層に学習サンプルデータ20の特徴量を入力
した時のニューラルネットワークの出力値と教師信号の
誤差を、通常の逆誤差伝搬学習の場合と同様に(3)
式、(4)式に従って算出する。また、荷重差分算出部
12は、初期結合荷重21Wkij と現在の結合荷重の値
kij を用いて(21)式の右辺第2項、即ち、 −2ηλkij kij (wkij − Wkij ) を算出する。結合荷重調整部13は、誤差算出部11で
算出された出力誤差値を用いて、従来の逆誤差伝搬手法
と同様に(21)式の右辺第1項δ kij D を算出し、荷
重差分算出部12で算出された右辺第2項と加え合わせ
て、結合荷重調整量δkij DWを算出して結合荷重の調整
を行う。
【0046】以上の誤差算出部11による誤差算出、荷
重差分算出部12による結合荷重の初期設定値からのず
れの算出、及び、結合荷重調整部13による結合荷重の
調整を学習サンプルを繰り返し与えて実行し、評価関数
DWの変化が一定値以下になったとき学習を終了する。
【0047】次に、従来の第3の方法を説明する。従来
の第3の方法は、ニューラルネットワークのような非線
型システムではなく、通常の線型システムにおいて、シ
ステムのパラメータに関する概ね正しいと考えられる知
識が事前に与えられている場合に、この知識とシステム
の入出力サンプルデータの観測値からパラメータの決定
を行おうとするもので、辻、大森、佐野、『先験情報を
利用した一般化特異値分解に基づく信号外挿』、電子情
報通信学会論文誌A,Vol.J75-A, No.4,pp.718-725に記
載されている。以下、本発明との本質的な部分での関連
が明確になるように簡略化して説明する。
【0048】この文献においては、y=Axで表現され
る行列Aが既知でベクトルx=(x1 ,x2 ,…)に関
して線形なシステムを対象に、xに関して概ね正しいと
考えられる事前知識及び観測されるベクトルy=
(y1 ,y2 ,…)から、xを推定する問題を扱ってい
る。
【0049】ベクトルxの推定は以下の評価関数EL
最小化するように行われる。
【0050】
【数8】
【0051】ここで、X=(X1 ,X2 ,…)は、事前
知識で与えられるxの概ね正しいと考えられている値で
ある。即ち、上の評価関数の右辺第1項は、観測値と推
定値の二乗誤差であり、第2項は、推定値の事前知識か
らのずれである。また、λj は第1項と第2項を加え合
わせる際の比率である。
【0052】即ち、従来の第3の方法は、線形なシステ
ムを対象に、従来の技術の第2の方法と同様な問題解決
を行おうとしているものである。
【0053】従来の第3の方法は、従来の第2の方法に
は含まれていなかった、上式の第1項と第2項を加え合
わせる際の比率λj の決定法も含んでいる。λj の決定
は、以下の式で表されるABICと呼ばれる基準を最小
化するように行われる。
【0054】
【数9】
【0055】ここで、Nは観測ベクトルyの次元数、Λ
は比率λj を対角成分とする対角行列である。また、|
X|は行列Xの行列式、XT は行列の転置を表す。E^
L (Λ)は、あるΛの値のもとでの(22)式の評価関
数EL の最小値である。
【0056】ABIC基準の理論的な説明は、Akaike,
"Likelihood and the Bayes procedure", Trabajos de
Estadistica, Vol. 31, 1980, pp.143-166" に記載さ
れている。ABIC(Λ)L は、Λの対数尤度の−2倍
として定義される量であり、ABIC(Λ)L を最小化
してΛの推定値を得ることは、Λの最尤推定を行うこと
と等価である。
【0057】従来の第3の方法では、通常のニュートン
法による数値計算によりABIC(Λ)L を最小化する
Λの推定値を求めている。
【0058】定性的に(23)式の意味を述べる。右辺
第1項を小さくすることは、E^L(Λ)が小さくなる
ように、λj を設定することに等しい。(22)式から
明らかなように、E^L (Λ)が小さくなるためには、
λj は小さければよい。従って、右辺第1項を小さくす
ることは、λj を小さくすることと等価である。一方、
右辺第2項を小さくするためには、|Λ|が大きい、即
ち、λj が大きければよい。従って、第1項と第2項の
和を最小にするようなλj が存在して、これによって評
価関数EL (Λ)の観測値と推定値の二乗誤差の項(第
1項)と推定値の事前知識からのずれを表す項(第2
項)の均衡が取られることになる。
【0059】
【発明が解決しようとする問題点】しかしながら、上記
従来の第1の方法は、逆誤差伝搬学習法式により、学習
サンプルデータに対するニューラルネットワークの実際
の出力値と教師信号の誤差が減少するように学習を行っ
ている。このため、学習サンプルデータに対しては学習
を繰り返すことによって、正しい分類結果を与えるニュ
ーラルネットワークを得ることができるが、学習サンプ
ルデータ以外の未知データを入力した時に、正しい分類
結果が得られる保証は無い。特に、学習サンプルデータ
に偏りが有る場合や、学習サンプルデータの個数が十分
でない場合には、ニューラルネットワークの分類機能が
学習サンプルデータのみの分類に特化される過剰学習が
生じ易く、この問題は顕著となる。
【0060】また、従来の第2の方法は、既知である概
ね正しいと考えられる分類規則と等価な分類機能を有す
るように、ニューラルネットワークの結合荷重を初期設
定しておき、これに対して、さらに学習サンプルデータ
に対する出力誤差と結合荷重の初期設定値からのずれの
和が減少するように学習を行っている。このため、初期
に与えた分類機能を極力保ったまま、学習サンプルに対
する誤差が減少するように学習が行われるので、従来の
第1の技術における過剰学習を回避して分類精度の向上
を図ることができる。
【0061】しかし、(17)式に示す学習の評価関数
において、ニューラルネットワークの出力値の二乗誤差
と結合荷重の初期設定値からのずれを加え合わせる割合
である誤差/荷重比率λkij の値によって学習結果が大
きく左右されるという問題点がある。即ち、誤差/荷重
比率が小さすぎる場合には、結合荷重の初期設定値から
のずれが過少評価されて過剰学習が生じ、逆に誤差/荷
重比率が大き過ぎる場合には、学習サンプルに対する誤
差が過少評価されて初期に与えた分類機能のまま学習が
進まないという状態を生じる可能性がある。しかし、誤
差/荷重比率を最適な値に設定する根拠が学習開始前に
得られないため、試行錯誤的にλkji の値を替えて学習
を繰り返す必要がある。
【0062】さらに、従来の第3の方法は、線形なシス
テムを対象に、従来の第2の方法と同様な問題の解決を
行っており、従来の第2の方法の誤差/荷重比率λkij
に相当する値を、観測値と推定値の二乗誤差項と推定値
の事前知識からのずれを表す項の均衡をとるように決定
する方法を示している。しかし、対象が線形なシステム
に限られているため、この方法をそのまま、ニューラル
ネットワークのような非線形なシステムに適用すること
はできない。
【0063】本発明は、上記の点に鑑みなされたもの
で、初期に与えた分類機能を保ったまま、学習サンプル
に対する誤差が減少するように学習が行われて過剰学習
が回避されると共に、誤差/荷重比率を人手で試行錯誤
的に設定する必要がなく、分類精度を向上することが可
能なニューラルネットワークの学習装置及びニューラル
ネットワークの学習方法を提供することを目的とする。
【0064】また、本発明の更なる目的は、ニューラル
ネットワークの出力値の二乗誤差と結合荷重の初期決定
値からのずれが均衡して減少するように、両者を加え合
わせる割合である誤差/荷重比率を調整した、学習を行
うことができるニューラルネットワークの学習装置及び
ニューラルネットワークの学習方法を提供することを目
的とする。
【0065】
【課題を解決するための手段】図1は、本発明の原理構
成図である。
【0066】本発明のニューラルネットワークの学習装
置は、既知である分類規則を論理演算式に変換する変換
手段と、得られた論理演算式と等価の分類機能を有する
ようにニューラルネットワークの構造及び結合荷重を初
期設定する手段と、得られたニューラルネットワークを
学習サンプルデータを用いて学習させる学習手段を有す
るニューラルネットワークの学習装置において、学習手
段10は、学習サンプルデータ20を入力した時のニュ
ーラルネットワークの出力と教師信号の出力誤差を算出
する誤差算出手段11と、ニューラルネットワーク1の
結合荷重の初期設定値21からのずれに適当な誤差/荷
重比率を掛け合わせた荷重差分を算出する荷重差分算出
手段12と、出力誤差と荷重差分が均衡するように誤差
/荷重比率を調整する誤差/荷重比率調整手段14と、
出力誤差と荷重差分の和が減少するように誤差/荷重比
率調整手段14により調整された誤差/荷重に基づいて
ニューラルネットワークの結合荷重を調整する結合荷重
調整手段13とを有する。
【0067】また、上記の誤差/荷重比率調整手段14
は、ある一つの誤差/荷重比率を選択して、微小量増加
または、微小量減少させる。
【0068】さらに、本発明のニューラルネットワーク
の学習方法は、予め与えられた概ね正確であると考えら
れる分類規則と等価の分類機能を有するように初期設定
されたニューラルネットワークの評価関数を最小化する
結合荷重を求めるニューラルネットワークの学習方法に
おいて、評価関数が所定の値以下になるまで、教師信号
に対する出力誤差と結合荷重の初期設定値からのずれの
和である荷重差分が均衡するように加え合わせる比率
(誤差/荷重比率)を調整する。
【0069】
【作用】本発明のニューラルネットワークの学習装置及
び学習方法は、予め与えられた概ね正確であると考えら
れる分類規則と等価の分類機能を有するように初期設定
されたニューラルネットワークを、教師信号に対する誤
差と結合荷重の初期設定値からのずれの和が減少するよ
うに調整する際に、両者の値が均衡するように、両者を
加え合わせる割合である誤差/荷重比率を調整すること
により、初期に与えた分類機能を保ったまま、学習サン
プルデータに対する誤差が減少するように学習が行われ
るので、過剰学習が回避されると共に、誤差/荷重比率
を人手で試行錯誤的に設定する必要がない。
【0070】
【実施例】以下、図面と共に本発明の実施例を詳細に説
明する。
【0071】図2は、本発明の一実施例のニューラルネ
ットワークの学習装置の構成を示す。同図において、図
6と同一構成部分には、同一符号を付し、その説明を省
略する。
【0072】学習部10は、学習サンプルデータ20の
特徴量を入力した時のニューラルネットワーク1の出力
と教師信号(学習サンプルデータ20の分類結果)との
誤差を算出する誤差算出部11、ニューラルネットワー
ク1の結合荷重の初期設定値21からのずれに誤差/荷
重比率を掛け合わせた荷重差分を算出する荷重差分算出
部12、出力誤差と荷重差分の和が減少するように、ニ
ューラルネットワークの結合荷重を調整する結合荷重調
整部13に加えて、出力誤差と荷重差分の値が均衡する
ように誤差/荷重比率を調整する誤差/荷重比率調整部
14より構成される。
【0073】最初に、学習部10の動作原理について説
明する。学習部10は、以下の尺度が減少するように誤
差/荷重比率λkij を調整しつつ、ニューラルネットワ
ークの結合荷重を調整する。
【0074】
【数10】
【0075】ここで、Mはサンプルデータ数、NK はニ
ューラルネットワークの出力層ユニット数、即ち分類カ
テゴリ数である。Λは誤差/荷重比率λp =λkijを対
角成分とする対角行列である。E^DW(Λ)は、あるΛ
の値のもとで、従来の第2の方法でニューラルネットワ
ークの結合荷重の調整を行って学習が完了した時点での
評価関数EDWの値、即ち、あるΛの値のもとでの評価関
数EDWの極小値である。
【0076】G(Λ)は、(p,q)の成分が以下の値
になる行列である。
【0077】
【数11】
【0078】ここで、oKjはニューラルネットワークの
出力層のj番目のユニットの出力、w q はq番目の結合
荷重であり、
【0079】
【数12】
【0080】は、あるΛの値のもとで従来の第2の方法
で学習が完了したニューラルネットワークの入力層に学
習データxi を入力したときの偏微分
【0081】
【数13】
【0082】の値である。即ち、(24)式のABIC
DW(Λ)は、従来の第2の方法でΛを決定するために用
いられた(23)式のABICL (Λ)と同様なもので
あって、(23)式のAT AをG(Λ)で置き換えたも
のになっている。これは、推定対象パメータ(従来の技
術の第3の方法では、x、本発明では、wp )の微小な
変換が評価関数(従来の技術の第3の方法では、EL
本発明では、EDW)の二乗誤差項に与える変化の大きさ
が、線形システムの場合はAT Aに、本発明で扱うニュ
ーラルネットワークの場合は、G(Λ)に反映されてい
るからである。
【0083】(24)式の定性的な意味は、従来の第3
の方法と同様であって、右辺第1項を小さくすること
は、λp を小さくすることと等価である、右辺第2項を
小さくすることは、λp を大きくすることと等価であ
る。従って、第1項と第2項の和を最小にするようなλ
p が存在して、これによって評価関数EDWの出力誤差項
と荷重差分項の均衡が取られることになる。
【0084】学習部10は、以上のABICDW(Λ)を
最小にするように誤差/荷重比率λ p を調整して、評価
関数EDWの出力誤差項と荷重差分項の均衡を取りつつ、
評価関数EDWが減少するように結合荷重を調整する。
【0085】この時、従来の第3の方法と異なるのは、
ニューラルネットワークが非線形システムであるため、
ABICDW(Λ)に含まれるE^DW(Λ)から直接算出
できない点、及び従来の第3の方法では、AT Aが定数
であったのに対してG(Λ)がΛによって変化し、かつ
E^DW(Λ)から直接算出できない点である。このた
め、通常のニュートン法等の方法を用いてABIC
DW(Λ)を最小化することはできない。
【0086】そこで、学習部10は、図3に示すような
動作によりABICDW(Λ)を最小化する。
【0087】ステップ1)誤差/荷重比率調整部11
は、誤差/荷重比率Λを適用な初期値に設定する。
【0088】ステップ2−1)現在のΛを用い、従来の
第2の方法で評価関数EDWを最小化するニューラルネッ
トワーク1の結合荷重を求める。即ち、誤差算出部11
は、ニューラルネットワーク1の入力層に学習サンプル
データの特徴量を入力した時のニューラルネットワーク
1の出力値と教師信号の誤差を、通常の逆誤差伝搬学習
の場合と同様に、(3)式、(4)式に従って算出す
る。また、荷重差分算出部12は、初期結合荷重21W
kij と現在の結合荷重の値wkij を用いて(21)式の
右辺第2項、即ち、 −2ηλkij kij (wkij −Wkij ) を算出する。結合荷重調整部13は、誤差算出部11で
算出された出力誤差値を用いて、従来の逆誤差伝搬手法
と同様に(21)式の右辺第1項δkij D を算出し、荷
重差分算出部12で算出された右辺第2項と加え合わせ
て、結合荷重調整量δkij DWを算出して結合荷重の調整
を行う。
【0089】以上の誤差算出部11による誤差算出、荷
重差分算出部12による結合荷重の初期設定値からのず
れの算出、及び結合荷重調整部13による結合荷重の調
整を、学習サンプルを繰り返し与えて実行し、評価関数
DWの変化が一定値以下になったとき調整を終了する。
【0090】ステップ2−2)誤差/荷重比率調整部1
4は、ステップ2により得られる現在のΛに対するE^
DW(Λ)及びG(Λ)の値からABICDW(Λ)を算出
する。
【0091】ステップ3−1)誤差/荷重比率調整部1
4は、ある一つの誤差/比重比率Λ p を選択して微小量
増加させる。これにより、決定されるΛを用いてステッ
プ2〜3を再度実行する。
【0092】ステップ3−2)ABICDW(Λ)が減少
すれば、ステップ3−5へ、減少していなければ、ステ
ップ3−3に移行する。
【0093】ステップ3−3)誤差/荷重比率調整部1
4は、ステップ3−1で選んだ誤差/荷重比率λp を逆
に微小量減少させる。これによって決まるΛを用いて、
ステップ2〜3を再度実行する。
【0094】ステップ3−4)ABICDW(Λ)が減少
すれば、ステップ3−5へ移行し、減少していなければ
ステップ4−1に移行する。
【0095】ステップ3−5)直前に使用したΛを現在
の値として以後使用する。
【0096】ステップ4−1)誤差/荷重比率調整部1
4は、他の誤差/荷重比率Λp を選んでステップ3−1
〜3−2を実行する。これを全て誤差/荷重比率λp
ついて繰り返す。
【0097】ステップ4−2)ABICDW(Λ)が全て
の誤差/荷重比率λp について減少しなくなったら終了
し、この時点でのニューラルネットワークの結合荷重を
最終的な値とする。
【0098】
【発明の効果】上述のように、本発明のニューラルネッ
トワークの学習装置及び学習方法によれば、予め与えら
れた概ね正確であると考えられる分類規則と等価の分類
機能を有するように初期設定されたニューラルネットワ
ークを、教師信号に対する誤差と結合荷重の初期設定値
からのずれの和が減少するように調整する際に、両者の
値が均衡するように、両者を加え合わせる割合である誤
差/荷重比率調整するように構成したので、初期に与え
た分類機能を保ったまま、学習サンプルに対する誤差が
減少するように学習が行われて過剰学習が回避されると
共に、誤差/荷重比率を人手で試行錯誤的に設定する必
要が無くなる。
【図面の簡単な説明】
【図1】本発明の原理構成図である。
【図2】本発明の一実施例のニューラルネットワークの
学習装置の構成図である。
【図3】本発明の一実施例の学習部の動作の概要を示す
フローチャートである。
【図4】多層構造型ニューラルネットワークの構成図で
ある。
【図5】従来の第1の方法を説明するための図である。
【図6】従来の第2の方法を説明するための図である。
【図7】従来の第2の方法の結合荷重設定部の動作を説
明するための図である。
【符号の説明】
1 ニューラルネットワーク 10 学習手段、学習部 11 誤差算出手段、誤差算出部 12 荷重差分算出手段、荷重差分算出部 13 結合荷重調整手段、結合荷重調整部 15 論理演算変換部 16 結合荷重設定部 20 学習サンプルデータ 21 初期結合荷重 22 既知である事例データ分類規則

Claims (3)

    【特許請求の範囲】
  1. 【請求項1】 既知である分類規則を既知である分類規
    則を論理演算式に変換する変換手段と、得られた論理演
    算式と等価の分類機能を有するように多層構造型ニュー
    ラルネットワークの構造及び結合荷重を初期設定を行う
    手段と、得られたニューラルネットワークを、分類結果
    が既知となっている学習サンプルデータを用いて学習さ
    せる学習手段を有するニューラルネットワークの学習装
    置において、 該学習手段は、 該学習サンプルデータを入力した時の該ニューラルネッ
    トワークの出力と教師信号の出力誤差を算出する誤差算
    出手段と、 ニューラルネットワークの結合荷重の初期設定値からの
    ずれに適当な誤差/荷重比率を掛け合わせた荷重差分を
    算出する荷重差分算出手段と、 該出力誤差と該荷重差分が均衡するように該誤差/荷重
    比率を調整する誤差/荷重比率調整手段と、 該出力誤差と該荷重差分の和が減少するように、該誤差
    /荷重比率調整手段により調整された該誤差/荷重比率
    に基づいて、該ニューラルネットワークの結合荷重を調
    整する結合荷重調整手段とを有することを特徴とするニ
    ューラルネットワークの学習装置。
  2. 【請求項2】 前記誤差/荷重比率調整手段は、ある一
    つの前記誤差/荷重比率を選択して、微小量増加また
    は、微小量減少させる請求項1記載のニューラルネット
    ワークの学習装置。
  3. 【請求項3】 予め与えられた概ね正確であると考えら
    れる分類規則と等価の分類機能を有するように初期設定
    されたニューラルネットワークの評価関数を最小化する
    結合荷重を求めるニューラルネットワークの学習方法に
    おいて、 該評価関数が所定の値以下になるまで、教師信号に対す
    る出力誤差と結合荷重の初期設定値からのずれの和であ
    る荷重差分が均衡するように加え合わせる比率(誤差/
    荷重比率)を調整することを特徴とするニューラルネッ
    トワークの学習方法。
JP6110930A 1994-05-25 1994-05-25 ニューラルネットワークの学習装置及びニューラルネットワークの学習方法 Pending JPH07319844A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP6110930A JPH07319844A (ja) 1994-05-25 1994-05-25 ニューラルネットワークの学習装置及びニューラルネットワークの学習方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP6110930A JPH07319844A (ja) 1994-05-25 1994-05-25 ニューラルネットワークの学習装置及びニューラルネットワークの学習方法

Publications (1)

Publication Number Publication Date
JPH07319844A true JPH07319844A (ja) 1995-12-08

Family

ID=14548216

Family Applications (1)

Application Number Title Priority Date Filing Date
JP6110930A Pending JPH07319844A (ja) 1994-05-25 1994-05-25 ニューラルネットワークの学習装置及びニューラルネットワークの学習方法

Country Status (1)

Country Link
JP (1) JPH07319844A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105787559A (zh) * 2016-02-29 2016-07-20 嘉兴学院 基于神经网络的色纺纱配色方法
US11514308B2 (en) 2017-09-08 2022-11-29 Fujitsu Limited Method and apparatus for machine learning

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105787559A (zh) * 2016-02-29 2016-07-20 嘉兴学院 基于神经网络的色纺纱配色方法
CN105787559B (zh) * 2016-02-29 2017-12-26 嘉兴学院 基于神经网络的色纺纱配色方法
US11514308B2 (en) 2017-09-08 2022-11-29 Fujitsu Limited Method and apparatus for machine learning

Similar Documents

Publication Publication Date Title
Xu et al. A consensus model for hesitant fuzzy preference relations and its application in water allocation management
Xu A direct approach to group decision making with uncertain additive linguistic preference relations
Tao et al. Uncertain linguistic fuzzy soft sets and their applications in group decision making
CN111656315A (zh) 一种基于卷积神经网络架构的数据处理方法及装置
CN106295794A (zh) 基于光滑Group Lasso惩罚项的分数阶的神经网络建模方法
JP2021108039A (ja) モデル圧縮装置及びプログラム
JPH08227408A (ja) ニューラルネットワーク
Barons et al. Balancing the elicitation burden and the richness of expert input when quantifying discrete Bayesian networks
CN112905436B (zh) 一种面向复杂软件的质量评估预测方法
JPH07319844A (ja) ニューラルネットワークの学習装置及びニューラルネットワークの学習方法
CN105825866A (zh) 基于模糊系统实时卷积混合盲信号分离自适应步长方法
JPH0451384A (ja) ニューラルネットワークの構築方法
Tong et al. Importance sampling for option Greeks with discontinuous payoffs
Mehta et al. A general procedure for estimating finite population mean using ranked set sampling
JP2541044B2 (ja) 適応フィルタ装置
JPH064692A (ja) ニューラルネットワークの学習方式
JPH08286922A (ja) ファジィ・ニューラルネットワーク装置
JPH05128284A (ja) ニユーロプロセツサ
EP0567983B1 (en) Learning type waveform recognizer
JPH06161979A (ja) ニューラルネットワークの学習方式
JPH0644207A (ja) ニューラルネットワーク及びその構成方法
JPH04230570A (ja) ニュ−ラルネットワ−クの学習方式
EP3968234A1 (en) Method, computer program product and system for optimising the use of an artificial neural network
CN112802141B (zh) 一种应用于图像目标检测的模型压缩方法及终端
JPH0981535A (ja) ニューラルネットワークの学習方法