JPH04216162A - ニューラルネットワークの学習方式 - Google Patents

ニューラルネットワークの学習方式

Info

Publication number
JPH04216162A
JPH04216162A JP2402937A JP40293790A JPH04216162A JP H04216162 A JPH04216162 A JP H04216162A JP 2402937 A JP2402937 A JP 2402937A JP 40293790 A JP40293790 A JP 40293790A JP H04216162 A JPH04216162 A JP H04216162A
Authority
JP
Japan
Prior art keywords
neural network
learning
elements
input
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2402937A
Other languages
English (en)
Inventor
Kazuhiro Obara
小原 和博
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2402937A priority Critical patent/JPH04216162A/ja
Publication of JPH04216162A publication Critical patent/JPH04216162A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は、学習能力を有するニュ
ーラルネットワークによりパターン認識を行うためのニ
ューラルネットワークの学習方式に関する。
【0002】
【従来の技術】学習可能なニューラルネットワークの例
としてバックプロパゲーション型ニューラルネットワー
ク[参考文献  Rumelhart,D.E.et 
al.:Parallel DistributedP
rocessing,Vol.l,MIT Press
 (1986)]を、パターン認識問題の例として手書
き数字認識をとりあげて説明する。
【0003】図1は、バックプロパゲーション型ニュー
ラルネットワークの構成例を示す図である。図1におい
て、1は入力層のニューロンを、2は中間層のニューロ
ンを、3は出力層のニューロンをそれぞれ示し、入力層
と中間層のニューロンは接続線4で接続され、中間層と
出力層のニューロンは接続線5で接続されている。
【0004】図2は、従来技術でのニューラルネットワ
ークの学習方式のフローを示す。以下、従来技術につい
て、図2を参照しながら説明する。
【0005】まず、学習用の特徴パターンの全集合SL
  をニューラルネットワーク(NN)に入力して学習
させる(ステップ110)。教師信号には、分類すべき
識別クラスに対応する値、すなわち、ある手書き数字に
所属する特徴パターンを入力するときには、その数字に
対応する出力層のニューロンへの値だけは「1」とし、
その他は「0」とするような値を用いる。
【0006】次に、学習済みの上記ニューラルネットワ
ーク(NN)に、未知の特徴パターンを入力してパター
ン認識を行わせる(ステップ120)。
【0007】手書き数字の横方向濃淡頻度分布(横方向
に見たときの黒画素の数の分布)と縦方向濃淡頻度分布
(縦方向に見たときの黒画素の数の分布)を特徴パター
ンの例とした場合の、従来技術によるニューラルネット
ワーク学習およびパターン認識の実験を行った。
【0008】図3は手書き数字の横方向濃淡頻度分布の
例を示し、図4は縦方向濃淡頻度分布の例を示す。
【0009】具体的に言うと、75人分の横方向濃淡頻
度分布あるいは縦方向濃淡頻度分布(ともに32次元の
特徴パターンで、各数字につき75個、計750個)を
入力とした。ニューラルネットワークの規模は、横方向
入力、縦方向入力ともに、32個の入力層のニューロン
、10個の中間層のニューロン、10個の出力層のニュ
ーロンである。
【0010】その結果、学習済みニューラルネットワー
クを用いた未知データ(75人分の手書き数字によるデ
ータ)の認識率は、横方向入力で83.20%、縦方向
入力のときには51.33%となった。
【0011】
【発明が解決しようとする課題】このような従来技術で
は、学習用の入力パターン間に類似性があっても、同一
のクラスに所属する学習データに関しては、特に区別す
ることなく、同じ教師信号で同じ回数だけ学習させてい
たために、次のような問題が生じる。
【0012】図3および図4からわかるように、手書き
数字の縦方向頻度分布では各クラス(数字)に対応する
特徴パターンがよく似ている。例えば、数字「6」と数
字「8」の縦方向分布は比較的類似性が高く、学習用入
力パターンの中にはほとんど区別がつかないようなもの
もある。
【0013】このような類似した入力パターンに対して
、あるひとつのクラス(通常、正解クラス)に対応する
出力層のニューロンへの値だけは「1」とし、その他は
「0」とするように、断定的な値を教師信号として与え
ると、極めて類似した入力に対して明らかに異なる値を
学習させるという学習上の問題(コンフリクトと呼ぶ)
が生じる。バックプロパゲーションの学習過程という観
点から言うと、いつまで学習させても、他のクラスとよ
く似た入力データでは相当の誤差を生じ続けることにな
る。
【0014】従って、学習が定常状態に収束しないので
、効果的な学習ができず、未知データの認識率も高くな
らないという問題が生じる。
【0015】本発明は、上記に鑑みてなされたもので、
その目的とするところは、コンフリクトを軽減して性能
のよいパターン認識を実現し得るニューラルネットワー
クの学習方式を提供することにある。
【0016】
【課題を解決するための手段】上記目的を達成するため
、本発明のニューラルネットワークの学習方式は、ある
メディアの特徴パターンをニューラルネットワークに入
力し、パターンの認識メカニズムを学習させるニューラ
ルネットワークの学習方式であって、学習用の特徴パタ
ーンの全集合をニューラルネットワークに入力して、一
定期間学習させた後、全集合に対する前記ニューラルネ
ットワークの出力値を調べて、正解クラスに対応するニ
ューロンの出力が第1位とならない要素のうち、出力の
絶対値が第1の所定値以下かまたは第1位との差が第2
の所定値以上になるような要素からなる部分集合を生成
し、この部分集合に含まれる要素だけは呈示する回数を
零にするかまたは他の要素よりも少なくするようにして
、再度全集合を入力として前記ニューラルネットワーク
の学習を行わせ、再度学習させた前記ニューラルネット
ワークで未知のパターン認識を行わせることを要旨とす
る。
【0017】
【作用】本発明のニューラルネットワークの学習方式で
は、コンフリクトを生じる可能性のある類似パターンを
含む学習用の特徴パターンの全集合を一旦ニューラルネ
ットワークで学習させた後、全集合に対する前記ニュー
ラルネットワークの出力値を調べて、正解クラスに対応
するニューロンの出力が十分でない要素、すなわち出力
値が第1位とならない要素のうち、出力の絶対値が第1
の所定値以下かまたは第1位との差が第2の所定値以上
になるような要素からなる部分集合を生成し、この部分
集合に含まれる要素だけは呈示する回数を零にするかま
たは他の要素よりも少なくするようにして、再度全集合
を入力として前記ニューラルネットワークの学習を行わ
せ、再度学習させた前記ニューラルネットワークで未知
のパターン認識を行わせる。
【0018】
【実施例】以下、図面を用いて本発明の実施例を説明す
る。
【0019】この実施例では、ニューラルネットワーク
によるパターン認識の例題として手書き数字認識を、ま
た、入力特徴パターンの例として、横方向濃淡頻度分布
と縦方向濃淡頻度分布を、学習能力を有するニューラル
ネットワークの例として、バックプロパゲーション型ニ
ューラルネットワークをとりあげて、本発明の実施例を
説明する。
【0020】図5は本発明の一実施例に係わる学習方式
の処理を示すフローチャートである。以下、本方式の処
理について、図5を参照しながら説明する。
【0021】まず、学習用の特徴パターンの全集合SL
 をニューラルネットワーク(NN)に入力して、一定
期間、学習させる(ステップ210)。それから、予め
、0以上1以下の範囲で、2つのパラメータαとβを設
定したとき、学習データに対する上記ニューラルネット
ワークの出力値を調べて、正解クラスに対応するニュー
ロンの出力値が第1位とならない要素のうち、出力の絶
対値がα以下になるか、あるいは、誤って第1位となっ
た出力との差がβ以上となるような要素からなる集合S
’L を生成する(ステップ220)。
【0022】次に、集合S’L に含まれる学習データ
だけは呈示する回数をゼロとするか、あるいは、他の学
習データよりも少なくするようにして、再度、全集合S
L を入力として、上記ニューラルネットワーク(NN
)を学習させる(ステップ230)。そして、再度学習
済みのニューラルネットワーク(NN)で、未知のパタ
ーンを認識させる(ステップ240)。
【0023】実際に、評価実験を行った。従来技術の評
価実験と同様に、75人分の横方向濃淡頻度分布と縦方
向濃淡頻度を個別の入力とした。ニューラルネットワー
クの規模も従来技術と同様である。
【0024】本実験では、教師信号として、分類すべき
識別クラスに対応する値、すなわち、ある手書き数字に
所属する特徴パターンを入力するときには、その数字に
対応する出力層のニューロンへの値だけは「1」とし、
その他は「0」とするような値を用いた。
【0025】また、本実験では、再学習時(ステップ2
30)、ニューラルネットワークの重みをすべてランダ
ム値にリセットした。
【0026】実験の結果、学習後のニューラルネットワ
ークによる、75人分の未知データに対する認識率は以
下のとおりとなった。
【0027】横方向入力の場合、十分な出力値とならな
い学習データ(α=0.10、β=0.60として検出
した学習データ)の呈示回数をゼロとしたとき、83.
60%の認識率となった。また、最大の出力値とならな
い学習データすべて(α=1、β=0として検出した学
習データ)の呈示回数を2分の1としたときには、84
.67%の認識率となった。これらはいずれも、従来技
術での認識率83.20%を上回っている。
【0028】縦方向入力の場合、十分な出力値とならな
い学習データ(α=0.10、β=0.30として検出
した学習データ)の呈示回数をゼロとしたとき、53.
33%の認識率となった。また、最大の出力値とならな
い学習データすべて(α=1、β=0として検出した学
習データ)の呈示回数を2分の1としたときには、54
.13%の認識率となった。これらはいずれも、従来技
術での認識率51.33%を上回っている。
【0029】以上の説明では、呈示回数削減の割合とし
て、出力値によらず、一律にn分の1(nは正の整数)
とした場合を例にとって説明したが、これ以外の割合を
採用する場合、例えば、出力値に応じて段階的に呈示回
数を少なくする(出力値が小さいデータでは、より呈示
回数を少なくする)ような場合にも適用できることは明
らかである。
【0030】また、以上の説明では、教師信号として、
入力パターン間の類似性によらず、正解のクラスだけに
「1」を、その他のクラスには「0」を与えるような場
合を例にとって説明したが、これ以外の教師信号を与え
る場合、例えば、類似の入力パターンには、差の少ない
値を教師信号とする場合[参考文献…小原和博、石川勉
:ニューラルネットによるパターン認識のためのコンフ
リクトの少ない学習方式、信学技報、NC90−15,
pp.13−20(1990.7)]にも適用できるこ
とは明らかである。
【0031】さらに、以上の説明では、ニューラルネッ
トワークの重みを、再学習時、すべてランダム値にリセ
ットする場合を例にとって説明したが、最初の学習(ス
テップ210)終了後の重みを初期値とする場合にも適
用できることは明らかである。
【0032】そして、以上の説明では、メディアの例と
して手書き数字をとりあげて説明したが、本発明は、手
書き数字以外の文字、図形、画像などのパターン認識に
も適用できることは明らかである。
【0033】また、以上の説明では、手書き数字の特徴
パターンとして、横方向濃淡頻度分布と縦方向濃淡頻度
分布を例にとって説明したが、本発明は、ななめ方向の
濃淡頻度分布や、その他の類似性の高い特徴パターンを
採用する場合にも適用できることは明らかである。
【0034】
【発明の効果】以上説明したように、本発明によれば、
ニューラルネットワークの学習方式において、学習用の
特徴パターンの全集合をニューラルネットワークに入力
して、一定期間、学習させた後、全集合に対する上記ニ
ューラルネットワークの出力値を調べて、正解クラスに
対応するニューロンの出力が十分でない要素からなる部
分集合を生成するとともに、この部分集合に含まれる要
素だけは呈示する回数をゼロとするか、あるいは、少な
くするようにして、再度、全集合を入力として、上記ニ
ューラルネットワークの学習を行わせることで、従来技
術よりもコンフリクトの少ないニューラルネットワーク
の学習が実現でき、従って、未知データに対しても性能
のよいパターン認識を行えるような、ニューラルネット
ワークの学習方式を実現できる。
【図面の簡単な説明】
【図1】バックプロパゲーション型ニューラルネットワ
ークの構成を示す図である。
【図2】従来のニューラルネットワークの学習方式の処
理を示すフローチャートである。
【図3】手書き数字の横方向濃淡頻度分布の例を示す図
である。
【図4】手書き数字の縦方向濃淡頻度分布の例を示す図
である。
【図5】本発明の一実施例に係わるニューラルネットワ
ークの学習方式の処理を示すフローチャートである。
【符号の説明】
1  入力層のニューロン 2  中間層のニューロン 3  出力層のニューロン

Claims (1)

    【特許請求の範囲】
  1. 【請求項1】  あるメディアの特徴パターンをニュー
    ラルネットワークに入力し、パターンの認識メカニズム
    を学習させるニューラルネットワークの学習方式であっ
    て、学習用の特徴パターンの全集合をニューラルネット
    ワークに入力して、一定期間学習させた後、全集合に対
    する前記ニューラルネットワークの出力値を調べて、正
    解クラスに対応するニューロンの出力が第1位とならな
    い要素のうち、出力の絶対値が第1の所定値以下かまた
    は第1位との差が第2の所定値以上になるような要素か
    らなる部分集合を生成し、この部分集合に含まれる要素
    だけは呈示する回数を零にするかまたは他の要素よりも
    少なくするようにして、再度全集合を入力として前記ニ
    ューラルネットワークの学習を行わせ、再度学習させた
    前記ニューラルネットワークで未知のパターン認識を行
    わせることを特徴とするニューラルネットワークの学習
    方式。
JP2402937A 1990-12-17 1990-12-17 ニューラルネットワークの学習方式 Pending JPH04216162A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2402937A JPH04216162A (ja) 1990-12-17 1990-12-17 ニューラルネットワークの学習方式

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2402937A JPH04216162A (ja) 1990-12-17 1990-12-17 ニューラルネットワークの学習方式

Publications (1)

Publication Number Publication Date
JPH04216162A true JPH04216162A (ja) 1992-08-06

Family

ID=18512701

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2402937A Pending JPH04216162A (ja) 1990-12-17 1990-12-17 ニューラルネットワークの学習方式

Country Status (1)

Country Link
JP (1) JPH04216162A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06187315A (ja) * 1992-10-23 1994-07-08 Nippondenso Co Ltd ニューラルネット型追加学習装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06187315A (ja) * 1992-10-23 1994-07-08 Nippondenso Co Ltd ニューラルネット型追加学習装置

Similar Documents

Publication Publication Date Title
US5519789A (en) Image clustering apparatus
Sun et al. Sparsifying neural network connections for face recognition
EP3166049B1 (en) Systems and methods for attention-based configurable convolutional neural networks (abc-cnn) for visual question answering
Gedeon Indicators of hidden neuron functionality: the weight matrix versus neuron behaviour
CN108764281A (zh) 一种基于半监督自步学习跨任务深度网络的图像分类方法
EP0464327A2 (en) Neutral network apparatus and method for pattern recognition
CN107909101A (zh) 基于卷积神经网络的半监督迁移学习字符识别方法及系统
US11093800B2 (en) Method and device for identifying object and computer readable storage medium
CN109086653B (zh) 手写模型训练方法、手写字识别方法、装置、设备及介质
US5446829A (en) Artificial network for temporal sequence processing
DE4217832A1 (de) Mustererkennungs- und musterlerngeraet
WO2019232855A1 (zh) 手写模型训练方法、手写字识别方法、装置、设备及介质
CN112528777A (zh) 一种用于课堂环境下的学生面部表情识别方法及系统
US5790758A (en) Neural network architecture for gaussian components of a mixture density function
US6735579B1 (en) Static memory processor
Nga et al. Transfer learning for gender and age prediction
Ashwinkumar et al. Deep learning based approach for facilitating online proctoring using transfer learning
US6560582B1 (en) Dynamic memory processor
CN111371611A (zh) 一种基于深度学习的加权网络社区发现方法及装置
CN109034279B (zh) 手写模型训练方法、手写字识别方法、装置、设备及介质
Mori et al. Neural networks that learn to discriminate similar Kanji characters
Choi et al. Biologically motivated visual attention system using bottom-up saliency map and top-down inhibition
JPH04216162A (ja) ニューラルネットワークの学習方式
Becerikli et al. Alternative neural network based edge detection
Gomes et al. Primal sketch feature extraction from a log-polar image