JPH064692A - ニューラルネットワークの学習方式 - Google Patents

ニューラルネットワークの学習方式

Info

Publication number
JPH064692A
JPH064692A JP4165023A JP16502392A JPH064692A JP H064692 A JPH064692 A JP H064692A JP 4165023 A JP4165023 A JP 4165023A JP 16502392 A JP16502392 A JP 16502392A JP H064692 A JPH064692 A JP H064692A
Authority
JP
Japan
Prior art keywords
error
neural network
learning
output
sample data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP4165023A
Other languages
English (en)
Inventor
Kiyoshi Nakabayashi
清 仲林
Mina Maruyama
美奈 丸山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP4165023A priority Critical patent/JPH064692A/ja
Publication of JPH064692A publication Critical patent/JPH064692A/ja
Pending legal-status Critical Current

Links

Abstract

(57)【要約】 【目的】 本発明の目的は、過剰学習を回避して分類精
度を向上させ、ニューラルネットワークの出力値の二乗
誤差と結合荷重の初期設定値からのずれの割合を結合荷
重毎に設定することなく、学習することができるニュー
ラルネットワークの学習方式を提供することである。 【構成】 本発明は、第1の出力誤差15を算出する第
1の誤差算出手段11と、第2の誤差算出手段12と、
第1の誤差15及び第2の誤差16を加え合わせる比率
を決定する誤差比率算出手段13と、第1の出力誤差1
5と第2の出力誤差16を決定された比率で加え合わせ
た和が減少するように結合荷重及びバイアス値を調整す
る結合荷重調整手段14とを含む学習手段10を有す
る。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は、データの分類処理を行
うニューラルネットワークの学習方式に係り、特に、既
知である概略の分類規則と学習サンプルデータからの学
習を併用して、分類精度の高いニューラルネットワーク
を構成することが可能なニューラルネットワークの学習
方式に関する。
【0002】
【従来の技術】従来より、データの分類処理を目的に多
層構造型ニューラルネットワークが用いられている。図
4は多層構造型ニューラルネットワークの構成を示す。
同図において、ニューラルネットワークは分類対象デー
タの特徴量x1 〜x4 を入力する入力層101、分類結
果O31,O32を出力する出力層102、さらに、入力層
101と出力層102の間には、1層乃至それ以上の層
により構成される中間層103により構成される。各層
のユニットの入力は、その前段の層の各々のユニットの
出力に結合されている。各々のユニットの出力は以下の
式に従って決定される。
【数1】 ここで、okjはk層(k≧1、k=1が入力層)のj番
目のユニットの出力値、wkij はk−1層のi番目のユ
ニットからk層のj番目のユニットへの結合荷重、N
(k-1) はk−1層のユニットの総数である。但し、w
koj はk層のj番目のユニットにバイアスを与えるため
の結合荷重で、k−1層の出力値o(k-1)0は常に1とす
る。また、入力層(k=1)の各ユニットは入力された
特徴量xj をそのまま出力する。
【0003】このようなニューラルネットワークにデー
タの分類を行わせるためには、入力層ユニットに分類対
象データの特徴量を与えた時に、そのデータの属する分
類カテゴリに対応する出力層ユニットのみが高い値を出
力し、他の出力層ユニットが低い値を出力するように、
上記の各ユニット間の結合荷重及びバイアス値を設定す
る必要がある。
【0004】このために、従来の第1の方法として、結
合荷重及びバイアス値をランダムな値に初期設定してお
き、分類結果が既知である学習サンプルデータの特徴量
を入力したときの実際の出力値と,学習サンプルデータ
の正しい分類を与える出力値(以下、教師信号と呼ぶ)
の誤差が減少するように結合荷重及びバイアス値を微少
量ずつ繰り返し調整する逆誤差伝搬学習方式が知られて
いる。
【0005】図5は従来の第1の方法を説明するための
図を示す。同図において、学習前のニューラルネットワ
ーク201−1に対して学習手段203を用いて学習
し、学習後のニューラルネットワーク201−2を得
る。学習手段203は、ニューラルネットワークに学習
サンプルデータ202の特徴量を入力したときの実際の
出力値と教師信号との誤差を算出する誤差算出手段20
3−1と、その誤差が減少するように逆誤差伝搬学習方
式を用いて結合荷重及びバイアス値を微少量ずつ調整す
る結合荷重調整手段203−2を有する。
【0006】図5における学習手段203の動作につい
て説明する。誤差算出手段203−1はニューラルネッ
トワークの入力層101に学習サンプルデータ202の
特徴量を入力した時のニューラルネットワークの出力値
と教師信号の二乗誤差
【数2】 を算出する。ここで、Kは出力層102の層番号、すな
わちニューラルネットワークの全層数である。また、y
j は出力層102のj番目のユニットに対する当該学習
サンプルの教師信号である。
【0007】次に、結合荷重調整手段203−2は算出
された誤差が減少するように、ニューラルネットワーク
の結合荷重及びバイアス値wkij を,以下の式に従って
微少量調整する。 δkij D =−ηdkj D (k-1)i (5) ここで、δkij D は結合荷重乃至バイアス値wkij の調
整量、ηは一回の繰り返しの調整量の大きさを決めるパ
ラメータである。
【0008】調整量dkj D はk層が出力層(k=K)の
時、以下の式で算出される。
【数3】 ここで、ej D は式(4) に従って誤差算出手段203−
1で算出された出力誤差である。k層が中間層の時は、
調整量dkj D は以下の式で与えられる。
【数4】 以上の誤差算出手段203−1による誤差算出と結合荷
重調整手段203−2による結合荷重及びバイアス値の
調整を学習サンプルを繰り返し与えて実行し、二乗誤差
D が一定値以下になったとき学習を終了する。
【0009】次に、従来の第2の方法について説明す
る。第2の方法(特願平3−180)「ニューラルネッ
トワークの学習方式」は、概ね正しいと考えられるデー
タ分類記憶が既知である時に、この分類規則と等価な分
類機能を有するように、ニューラルネットワークの結合
荷重及びバイアス値を初期設定し、その後学習サンプル
データを用いて教師信号に対する出力誤差と結合荷重の
初期設定値からのずれの和が減少するように結合荷重及
びバイアス値を調整する方式である。
【0010】図6は従来の第2の方法を説明するための
図を示す。同図において、既知の事例データ分類規則3
01は、論理演算変換手段302により論理演算式に変
換され、結合荷重設定手段303に送出される。結合荷
重設定手段303は、得られた論理演算式と等価な動作
を行うようにニューラルネットワークの構造及び結合荷
重を設定する。学習手段203は、結合荷重設定手段3
03から得られるニューラルネットワークに対して学習
サンプルデータの特徴量を入力したときの出力値と、教
師信号との誤差に結合荷重の初期設定値からのずれを加
えた和が減少するように結合荷重及びバイアス値を微少
量ずつ繰り返し調整する。
【0011】次に、上記の第2の方法の各手段の動作に
ついて説明する。今、既知であるデータ分類記憶301
として以下の規則が与えられたとする。 IF (x1 >a1 )and(x2 >a2 )THEN y (8) IF (x3 >a3 )and(x4 <a4 )THEN y (9) 最初の式は「分類対象データの特徴量x1 が定数がa1
より大きく、かつx2がa2 より大きければ分類対象デ
ータはカテゴリyに属する」ことを意味しており、二番
目の式は「特徴量x3 がa3 より大きく、かつx4 がa
4 より小さければ分類対象データはカテゴリyに属す
る」ことを意味している。これらの式から論理演算変換
手段302は、「(x1 がa1 より大きく、かつx2
2 より大きい、または、(x3 がa3 より大きく、か
つx4 がa4 より小さい)ならば、yが真」を意味する
以下の論理演算式を生成する。但し、「*」は論理積、
「+」は論理和、「¬」は論理否定を表す。 y=(x1 >a1 )*(x2 >a2 )+(x3 >a3 )*¬(x4 >a4 ) (10) 次に、結合荷重設定手段303の動作について説明す
る。
【0012】図7は、従来の第2の方法の結合荷重設定
手段の動作を示す。同図において、結合荷重設定手段3
03は、論理演算変換手段302から与えられる論理演
算式401に従って、ニューラルネットワーク402の
結合構成及び結合荷重を決定する。ニューラルネットワ
ーク402の結合構成は、同図のニューラルネットワー
ク402の各ユニットに示すように、論理演算式401
の右辺に現れる変数毎に、1つの入力層ユニットを変数
と定数の比較項毎に、一つの第1の中間層ユニットを乗
法項毎に一つの第2中間層ユニットを割り当て、出力層
で全乗法項の加法を実現する様に行う。
【0013】結合荷重wの決定方法は、特願平2−18
5570号「ニューラルネットワークの学習方式」に詳
細に記載されている。以下に結合荷重を決定するための
計算式を示す。 1.加法ユニット(出力層) n−入力加法ユニットを考える。入力信号Ii (1≦i
≦n)が−1≦Ii ≦−dの場合「偽」、d≦Ii ≦1
の場合「真」とする。出力信号oが、−1≦o≦−d’
の場合「偽」、d’≦o≦1の場合「真」とする。以上
の条件で、加法機能を実現するには、結合荷重wi (1
≦i≦n)とバイアスw0 を以下のように設定する。
【数5】 但し、入力が否定項(y=a+¬bのb)である場合
は、wi =−wとする。また、dは、d>(n−1)/
(n+1)という条件を満たす必要がある。
【0014】2.乗法ユニット(第2中間層) n,d,d’を加法の場合と同様に定義する。乗法機能
を実現するには、結合荷重wi (1≦i≦n)とバイア
スw0 を以下のように設定する。
【数6】 但し、入力が否定項(y=a*¬bのb)である場合
は、wi =−wとする。また、dは、d>(n−1)/
(n+1)という条件を満たす必要がある。
【0015】3.比較ユニット(第1中間層) 入力Iが定数Aより大きい時に、「真」を出力するユニ
ットの結合荷重w1 とバイアスw0 の関係は以下のよう
に設定する。 w0 =−w1 A (15) なお、ユニット及びユニット間の結合として論理式に対
応しない余分のものがあってもよく、これらの結合は上
で決定した結合荷重よりも絶対値の十分小さいランダム
な値に設定される。
【0016】次に、従来の第2の方法の学習手段203
の動作について説明する。図6において、荷重散差分算
出手段203−3は、結合荷重の初期設定値との差分を
算出する。その他の誤差算出手段203−1及び結合荷
重調整手段203−2については、従来の第1の方法と
同様である。
【0017】学習手段203は、前段の結合荷重設定手
段303によって初期設定されたニューラルネットワー
クについて、以下の式で示されるニューラルネットワー
クに対して、学習サンプルデータの特徴量を入力したと
きの出力値と教師信号との誤差に結合荷重の初期設定値
からのずれを加えた和である評価関数EDWを減少させる
ように結合荷重の値を変化させる。
【数7】 ここで、式(16)、(17)の右辺第一項ED は、(3)式に示
した学習サンプルデータの特徴量を入力した時のニュー
ラルネットワークの出力値と教師信号との二乗誤差であ
る。また、式(16)の第二項EW 及び式(17)の第二項は結
合荷重の初期設定値からのずれを表す項である。即ち、
学習手段203はニューラルネットワークの出力値の二
乗誤差と結合荷重の初期設定値からのずれの和が減少す
るように結合荷重を調整する。式(17)の第二項におい
て、Wkij は結合荷重wkij の初期設定値である。式(1
7)におけるf(x,y)の形式は、xとyの差が増加す
ると増加する関数で、例えば、(x−y)2 である。ε
kij は評価関数EDWに対する各結合荷重の差分の寄与の
大きさを決めるパラメータである。
【0018】上記の評価関数EDWを減少させるための結
合荷重wkij の変化量δkij DWは以下の式で与えられ
る。
【数8】 ここで、δkij D は、式(5) で算出される通常の逆誤差
伝搬学習における結合荷重の調整量である。式(18)、(1
9)及び(20)により、例えば、 f(x,y)=(x−y)2 としたときは、変化量δkij DWは、 δkij DW=δkij D −2ηεkij kij (wkij −Wkij ) (21) となる。
【0019】学習手段203は、上記の動作原理に従っ
て動作する。以下f(x,y)=(x−y)2 とした場
合、すなわち、(21)式に従って結合荷重の調整を行う場
合について説明する。
【0020】誤差算出手段203−1は、ニューラルネ
ットワークの入力層に学習サンプルデータの特徴量を入
力した時のニューラルネットワークの出力値と教師信号
の誤差を通常の逆誤差伝搬学習の場合と同様に式(3) 及
び式(4) に従って算出する。
【0021】また、荷重差分算出手段203−3は、結
合荷重の初期設定値Wkij を記憶しておき、現在の結合
荷重の値wkij を用いて式(21)の右辺第二項、即ち、 −2ηεkij kij (wkij −Wkij ) を算出する。
【0022】結合荷重調整手段203−2は、誤差算出
手段203−1で算出された出力誤差値を用いて、従来
の逆誤差伝搬法と同様に、式(21)式右辺第一項δkij D
を算出し、荷重差分算出手段203−3で算出された右
辺第二項と加え合わせて、結合荷重調整量δkij DWを算
出して結合荷重の調整を行う。
【0023】以上の誤差算出手段203−1による誤差
算出、荷重差分算出手段203−3による結合荷重の初
期設定値からのずれの算出及び、結合荷重調整手段20
3−2による結合荷重の調整を、学習サンプルを繰り返
し与えて実行し、評価関数E DWが一定値以下になったと
き学習を終了する。
【0024】
【発明が解決しようとする課題】しかしながら、上記従
来の第1の方法は、逆誤差伝搬学習方式により、学習サ
ンプルデータに対するニューラルネットワークの実際の
出力値と教師信号の誤差が減少するように学習を行って
いる。このため、学習サンプルデータに対しては、学習
を繰り返すことによって、正しい分類結果を与えるニュ
ーラルネットワークを得ることができるが、学習サンプ
ルデータ以外の未知データを入力した時に正しい分類結
果が得られる保証はない。特に学習サンプルデータに偏
りがある場合や、学習サンプルデータの個数が十分でな
い場合には、ニューラルネットワークの分類機能が学習
サンプルデータのみの分類に特化される過剰学習が生じ
易く、この問題は顕著となる。
【0025】また、従来の第2の方法は、既知である概
ね正しいと考えられる分類規則と等価な分類機能を有す
るようにニューラルネットワークの結合荷重を初期設定
しておき、これに対してさらに学習サンプルデータに対
する出力誤差と結合荷重の初期設定値からのずれの和が
減少するように学習を行っている。このため、初期に与
えた分類機能を極力保ったまま、学習サンプルに対する
誤差が減少するように学習が行われるので、従来の第1
の方法における過剰学習を回避して分類精度の向上を図
ることが可能となる。
【0026】しかし、学習の評価関数として式(17)に示
すようにニューラルネットワークの出力値の二乗誤差と
結合荷重の初期設定値からのずれという性質の異なる量
を加え合わせているため、両者を加え合わせる割合であ
るパラメータεkij の値を決定する根拠を与えることが
難しく、仮に既知の分類規則や学習サンプルデータの信
頼性を示す確信度が与えられていても、これを学習に反
映することができず、試行錯誤的にパラメータεkij
値を変えて学習を繰り返す必要がある。さらに、パラメ
ータεkij はニューラルネットワークの結合毎に値を設
定する必要があり、その設定は非常に繁雑になるという
問題がある。
【0027】本発明は、上記の点に鑑みなされたもの
で、過剰学習を回避して分類精度を向上させ、ニューラ
ルネットワークの出力値の二乗誤差と結合荷重の初期設
定値からのずれの割合を結合荷重毎に設定することな
く、学習することができるニューラルネットワークの学
習方式を提供することを目的とする。
【0028】
【課題を解決するための手段】本発明は、分類対象デー
タの特徴量によって分類対象データ24の分類を行う既
知の分類規則を論理演算式に変換する論理演算変換手段
と、論理演算式と等価の分類機能を有するように多層構
造型ニューラルネットワークの構造及び結合荷重及びバ
イアス値を初期設定する結合荷重設定手段と、ニューラ
ルネットワークを分類結果が既知となっている学習サン
プルデータを用いて学習させる学習手段とを有するニュ
ーラルネットワークの学習方式において、学習手段10
が、学習サンプルデータの特徴量に対するニューラルネ
ットワークの現在の出力値21と学習サンプルデータの
既知である分類結果を正しく与えるための出力値22か
ら第1の出力誤差15を算出する第1の誤差算出手段1
1と、学習サンプルデータ24の特徴量に対する前記ニ
ューラルネットワークの現在の出力値21とニューラル
ネットワークの初期設定時の出力値23から第2の出力
誤差16を算出する第2の誤差算出手段12と、学習サ
ンプルデータ24の特徴量に応じて第1の誤差算出手段
11と第2の誤差算出手段12によって算出された第1
の出力誤差15及び第2の出力誤差16を加え合わせる
比率を決定する誤差比率算出手段13と、第1の出力誤
差15と第2の出力誤差16を誤差比率算出手段13で
決定された比率で加え合わせた和が減少するようにニュ
ーラルネットワークの結合荷重及びバイアス値を調整す
る結合荷重調整手段14とを含む。
【0029】
【作用】本発明のニューラルネットワークの学習方式
は、予め与えられた概ね正確であると考えられる分類規
則と等価の分類機能を有するように、初期設定されたニ
ューラルネットワークを学習サンプルデータを用いて調
整する際に、教師信号(学習サンプルデータの既知であ
る分類結果を正しく与える出力値24)に対する第1の
誤差15とニューラルネットワークの初期出力値23に
対する第2の誤差16を、学習サンプルデータ24の入
力の特徴量に応じて決定された比率で加え合わせた和が
減少するようにニューラルネットワークの結合荷重を調
整する。これにより、初期に与えた分類機能を保ったま
ま、学習サンプルデータ24に対しても誤差が減少する
ように、学習を行うことができるため、過剰学習が回避
され、さらに、ニューラルネットワークの出力値の二乗
誤差と結合荷重の初期設定値からのずれの割合を結合荷
重毎に設定する必要がない。
【0030】
【実施例】以下、本発明の実施例を図面を用いて説明す
る。
【0031】図2は本発明の一実施例の構成を示す。同
図中、図6と同一構成部分には同質符号を付す。学習手
段203は、学習サンプルデータ202に対するニュー
ラルネットワークの出力値と分類結果が既知となった学
習サンプルデータの第1の誤差を算出する第1の誤差算
出手段203−1、学習サンプルデータ202に対する
ニューラルネットワークの出力値と初期設定されたニュ
ーラルネットワークの出力値との第2の誤差を算出する
第2の誤差算出手段203−4、第1の誤差と第2の誤
差を加え合わせる比率を学習サンプルデータ202の入
力特徴量に応じて決定する誤差比率算出手段203−5
及び、決定された比率に従って、第1の誤差と第2の誤
差を加え合わせた和が減少するようにニューラルネット
ワークの結合荷重及びバイアス値を微少量ずつ調整する
結合荷重調整手段203−2から構成される。学習手段
203以外は図6の構成と同様であるので、その説明は
省略する。
【0032】はじめに、学習手段203の動作原理につ
いて説明する。学習手段203は、結合荷重設定手段3
03によって、初期設定されたニューラルネットワーク
については、以下の式で示される評価関数EDRを減少さ
せるように結合荷重の値を変化させる。
【数9】 式(22)において、ej D は式(4) に示した学習サンプル
データの特徴量を入力した時のニューラルネットワーク
の出力値oKjと教師信号yj の誤差である。
【0033】また、ej R は出力値oKjと、学習サンプ
ルデータ202の特徴量を結合荷重設定手段303によ
って初期設定されたニューラルネットワークに入力した
ときの出力値OKjとの誤差である。
【0034】γj (x)は、出力層のj番目のユニット
における、評価関数EDRに対する(ej D )2と(ej R )
2 の寄与の比率を決める学習サンプルデータ202の
特徴量xの関数で、0≦γj (x)≦1である。xは学
習サンプルデータの特徴量x 1 ,x2 ,…,xn をまと
めてベクトルとして表したものである。
【0035】γj (x)は、以下に述べるニューラルネ
ットワークの学習において、初期に与えた既知の事例デ
ータ分類規則301と学習サンプルデータ202のいず
れに重きをおいて学習を進めるかを決定する比率であ
る。例えば、分類規則301がかなり信頼できる場合に
は式(22)において、(ej R )2の寄与が大きくなるよう
に比率γj (x)を0.8乃至、0.9といった大きめ
の値に設定する。さらに、比率γj (x)は、学習サン
プルデータの特徴量xの関数であるので、特徴量xに応
じて値を変えることが可能である。即ち、特徴量xがあ
る領域内に存在する場合には、分類規則が信頼できるの
で比率γj (x)を大きくし、それ以外では学習サンプ
ルデータ202に重きをおいて、比率γj (x)を小さ
く設定するといったことが可能である。
【0036】次に、上の評価関数EDRを減少させるため
の学習の方法、即ち、結合荷重wki j の変化量の算出方
法について述べる。
【0037】結合荷重wkij の変化量δkij DRは以下の
式で算出される。
【数10】 式(2) から∂akj/∂wkij は以下のようになる。
【数11】 また、
【数12】 と、定義する。
【0038】調整量dkj DRは、k層が出力層(k=K)
の時、以下の式で算出される。 dkj DR=[{1−γj (x) }ej D +γj (x) ej R ](1−oKj)(1+oKj) (28) ここで、ej D は式(4) に示した、学習サンプルデータ
の特徴量を入力した時のニューラルネットワークの出力
値oKjと教師信号yj の誤差、ej R は式(23)に従って
算出した、初期設定されたニューラルネットワークの出
力値OKjと現在のニューラルネットワークの出力値oKj
との誤差である。
【0039】k層が中間層の時は、調整量dkj DRは以下
の式で与えられる。
【数13】 学習手段203は上記の動作原理に従って動作する。
【0040】図3は本発明の一実施例の動作を示すフロ
ーチャートである。
【0041】ステップ1:既知であるデータ分類規則3
01は、論理演算変換手段302によって、論理演算式
に変換され、結合荷重設定手段303に送られる。
【0042】ステップ2:結合荷重設定手段303は論
理演算式に従ってニューラルネットワークの構造及び結
合荷重を設定する。以上の動作は従来の第2の方法と同
様である。
【0043】ステップ3:学習手段203は、得られた
ニューラルネットワークに学習サンプルデータ202の
特徴量を入力し、以下に詳細に述べる動作によって、学
習を行う。 (ステップ31)学習手段203の第1の誤差算出手段
203−1は、ニューラルネットワークの入力層に学習
サンプルデータ202の特徴量を入力したときのニュー
ラルネットワークの出力値と教師信号の誤差ej D =o
Kj−yj を、通常の逆誤差伝搬学習の場合と同様に算出
する。 (ステップ32)一方、第2の誤差算出手段203−4
は、初期設定されたニューラルネットワークの出力値O
Kjを予め記憶しておき、現在のニューラルネットワーク
の出力値oKjを用いて式(23)に従って両者の誤差ej R
=oKj−OKjを算出する。 (ステップ33)誤差比率算出手段203−5は、学習
サンプルデータ202の特徴量xから、比率γj (x)
を算出する。 (ステップ34)結合荷重調整手段203−2は、第1
の誤差算出手段203−1で算出された誤差ej D 、第
2の誤差算出手段203−4で算出された誤差ej R
び、誤差比率算出手段203で算出されたサンプルデー
タ特徴量γj (x)を用いて式(28) に従って、出力層
のdkj DRを算出する。さらに、式(29)に従って、中間層
のdkj DRを算出する。これによって求められたdkj DR
ら式(25)〜式(27)に従って結合荷重変化量δkij DRを算
出して結合荷重の調整を行う。
【0044】ステップ4:評価関数EDRが一定値以下に
なるまでニューラルネットワークの結合荷重の調整を繰
り返す。
【0045】以上の第1の誤差算出手段203−1及び
第2の誤差算出手段203−4による誤差算出、誤差比
率算出手段203−5による誤差比率算出及び、結合荷
重調整手段203−2による結合荷重の調整を、学習サ
ンプルを繰り返し与えて実行し、評価関数EDRが一定値
以下になったとき学習を終了する。
【0046】なお、上記の方法において、比率γ
j (x)は、0≦γj (x)≦1であるようなxの任意
の関数とすることができる。これをどのような関数にす
るかは、分類規則と学習サンプルデータのどちらを信頼
して学習するかに応じて事前に決定すればよい。例え
ば、分類記憶に予めその規則の信頼度が付与されている
ような確信度付き規則の場合は、それを用いて比率γ
(x)を決定してもよい。また、学習サンプルデータの
入力特徴量ベクトルの分布密度を用いて、学習サンプル
データの分布密度が高い範囲では学習サンプルデータを
信頼するようにし、そうでない範囲では分類規則を信頼
するように比率γ(x)を決定するという方法を取るこ
ともできる。
【0047】
【発明の効果】上述のように、本発明のニューラルネッ
トワークの学習方法によれば、予め得られた概ね正確で
あると考えられる分類規則と等価の分類機能を有するよ
うに初期設定されたニューラルネットワークを、学習サ
ンプルデータを用いて調整する際に、学習サンプルデー
タに対する出力誤差と既知の分類規則に基づいて初期設
定されたニューラルネットワークの出力値に対する出力
誤差を、加え合わせた値が減少するように結合荷重を調
整するように構成したため、初期に与えた分類機能を極
力保ったまま、学習サンプルに対しても誤差が減少する
ように学習を行うことが可能となり、従来の第1の方法
における過剰学習を回避して分類精度を向上することが
可能となる。
【0048】また、学習サンプルデータに対する出力誤
差と、初期設定されたニューラルネットワークの出力値
に対する出力誤差を加え合わせる際の比率を学習サンプ
ルデータと分類規則の信頼度に応じて設定できるように
構成したため、従来の第2の方法のように、ニューラル
ネットワークの出力値の二乗誤差と結合荷重の初期設定
値からのずれの割合を結合荷重毎に設定する必要がなく
なる。
【0049】また、比率の設定も分類規則の確信度ある
いは学習サンプルデータの分布密度などから容易に行う
ことが可能となる。
【図面の簡単な説明】
【図1】本発明の原理構成図である。
【図2】本発明の一実施例の構成図である。
【図3】本発明の一実施例の動作を表すフローチャート
である。
【図4】多層構造型ニューラルネットワークの構成図で
ある。
【図5】従来の第1の方法を説明するための図である。
【図6】従来の第2の方法を説明するための図である。
【図7】従来の第2の方法の結合荷重設定手段の動作を
示す図である。
【符号の説明】
10 学習手段 11 第1の誤差算出手段 12 第2の誤差算出手段 13 誤差比率算出手段 14 結合荷重調整手段 15 第1の誤差 16 第2の誤差 21 現ニューラルネットワークの出力値 22 教師データ 23 ニューラルネットワークの初期設定値 24 学習サンプルデータ 101 入力層 102 出力層 103 中間層 201−1 学習前のニューラルネットワーク 201−2 学習後のニューラルネットワーク 202 学習サンプルデータ 203 学習手段 203−1 第1誤差算出手段 203−2 結合荷重調整手段 203−4 第2誤差算出手段 203−5 誤差比率算出手段 301 既知の事例データ分類規則 302 論理演算変換手段 303 結合荷重設定手段 401 論理演算式 402 ニューラルネットワーク

Claims (1)

    【特許請求の範囲】
  1. 【請求項1】 分類対象データの特徴量によって該分類
    対象データの分類を行う既知の分類規則を論理演算式に
    変換する論理演算変換手段と、該論理演算式と等価の分
    類機能を有するように多層構造型ニューラルネットワー
    クの構造及び結合荷重及びバイアス値を初期設定する結
    合荷重設定手段と、該ニューラルネットワークを分類結
    果が既知となっている学習サンプルデータを用いて学習
    させる学習手段とを有するニューラルネットワークの学
    習方式において、 前記学習手段が、 前記学習サンプルデータの特徴量に対する前記ニューラ
    ルネットワークの現在の出力値と前記学習サンプルデー
    タの既知である分類結果を正しく与える出力値から第1
    の出力誤差を算出する第1の誤差算出手段と、 該学習サンプルデータの特徴量に対する前記ニューラル
    ネットワークの現在の出力値と前記ニューラルネットワ
    ークの初期設定時の出力値から第2の出力誤差を算出す
    る第2の誤差算出手段と、 該学習サンプルデータの特徴量に応じて該第1の誤差算
    出手段と該第2の誤差算出手段によって算出された該第
    1の出力誤差及び該第2の出力誤差を加え合わせる比率
    を決定する誤差比率算出手段と、 該第1の出力誤差と該第2の出力誤差を該誤差比率算出
    手段で決定された比率で加え合わせた和が減少するよう
    に前記ニューラルネットワークの結合荷重及びバイアス
    値を調整する結合荷重調整手段とを含むことを特徴とす
    るニューラルネットワークの学習方式。
JP4165023A 1992-06-23 1992-06-23 ニューラルネットワークの学習方式 Pending JPH064692A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP4165023A JPH064692A (ja) 1992-06-23 1992-06-23 ニューラルネットワークの学習方式

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP4165023A JPH064692A (ja) 1992-06-23 1992-06-23 ニューラルネットワークの学習方式

Publications (1)

Publication Number Publication Date
JPH064692A true JPH064692A (ja) 1994-01-14

Family

ID=15804380

Family Applications (1)

Application Number Title Priority Date Filing Date
JP4165023A Pending JPH064692A (ja) 1992-06-23 1992-06-23 ニューラルネットワークの学習方式

Country Status (1)

Country Link
JP (1) JPH064692A (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6411503B1 (en) 1996-10-11 2002-06-25 Fujitsu Limited Portable type information apparatus
US6560100B1 (en) 1996-10-24 2003-05-06 Fujitsu Limited Portable computer equipped with add-on battery
JP2020181240A (ja) * 2019-04-23 2020-11-05 株式会社東芝 データ生成装置、データ生成方法およびプログラム

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6411503B1 (en) 1996-10-11 2002-06-25 Fujitsu Limited Portable type information apparatus
US6560100B1 (en) 1996-10-24 2003-05-06 Fujitsu Limited Portable computer equipped with add-on battery
US6563702B1 (en) 1996-10-24 2003-05-13 Fujitsu Limited Portable computer equipped with add-on battery
US6674637B2 (en) 1996-10-24 2004-01-06 Fujitsu Limited Portable computer equipped with add-on battery
JP2020181240A (ja) * 2019-04-23 2020-11-05 株式会社東芝 データ生成装置、データ生成方法およびプログラム

Similar Documents

Publication Publication Date Title
EP0591921B1 (en) Learning and recognition machine
JPH08227408A (ja) ニューラルネットワーク
US5845051A (en) Learning method for multilayer perceptron neural network with N-bit data representation
US5129038A (en) Neural network with selective error reduction to increase learning speed
JPH064692A (ja) ニューラルネットワークの学習方式
JPH0451384A (ja) ニューラルネットワークの構築方法
Mordukhovich et al. Stability of discrete approximations and necessary optimality conditions for delay-differential inclusions
US5490236A (en) Method of assigning initial values of connection parameters to a multilayered neural network
JPH04230570A (ja) ニュ−ラルネットワ−クの学習方式
JP2779119B2 (ja) 学習認識装置
JPH07319844A (ja) ニューラルネットワークの学習装置及びニューラルネットワークの学習方法
CN105740950B (zh) 基于滑齿法的神经网络的模板匹配方法
JPH04230569A (ja) ニュ−ラルネットワ−クの学習方式
JPH04127239A (ja) ファジィ推論パラメータの自動調節方法および学習状態の表示方法
US5542005A (en) Recognition unit and recognition apparatus
JPH0644207A (ja) ニューラルネットワーク及びその構成方法
JPH06161979A (ja) ニューラルネットワークの学習方式
JP3262340B2 (ja) 情報処理装置
JPH0785277A (ja) データ分類方式
JPH05314088A (ja) ニューラルネットワークの学習方式
JPH05101209A (ja) 階層型ニユーラルネツトワークの学習方法
JPH05307535A (ja) 学習型波形認識処理装置
JP2722016B2 (ja) ケーブル構造物の形状決定方法
JPH0784977A (ja) 多層構造型ニューラルネットワークの構成方法
JPH04264664A (ja) 神経回路網型パターン処理装置