JPH04216162A - ニューラルネットワークの学習方式 - Google Patents
ニューラルネットワークの学習方式Info
- Publication number
- JPH04216162A JPH04216162A JP2402937A JP40293790A JPH04216162A JP H04216162 A JPH04216162 A JP H04216162A JP 2402937 A JP2402937 A JP 2402937A JP 40293790 A JP40293790 A JP 40293790A JP H04216162 A JPH04216162 A JP H04216162A
- Authority
- JP
- Japan
- Prior art keywords
- neural network
- learning
- elements
- input
- output
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 61
- 210000002569 neuron Anatomy 0.000 claims abstract description 21
- 238000003909 pattern recognition Methods 0.000 claims abstract description 15
- 238000000034 method Methods 0.000 claims description 20
- 238000002474 experimental method Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 238000007796 conventional method Methods 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Landscapes
- Image Analysis (AREA)
Abstract
(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。
め要約のデータは記録されません。
Description
【0001】
【産業上の利用分野】本発明は、学習能力を有するニュ
ーラルネットワークによりパターン認識を行うためのニ
ューラルネットワークの学習方式に関する。
ーラルネットワークによりパターン認識を行うためのニ
ューラルネットワークの学習方式に関する。
【0002】
【従来の技術】学習可能なニューラルネットワークの例
としてバックプロパゲーション型ニューラルネットワー
ク[参考文献 Rumelhart,D.E.et
al.:Parallel DistributedP
rocessing,Vol.l,MIT Press
(1986)]を、パターン認識問題の例として手書
き数字認識をとりあげて説明する。
としてバックプロパゲーション型ニューラルネットワー
ク[参考文献 Rumelhart,D.E.et
al.:Parallel DistributedP
rocessing,Vol.l,MIT Press
(1986)]を、パターン認識問題の例として手書
き数字認識をとりあげて説明する。
【0003】図1は、バックプロパゲーション型ニュー
ラルネットワークの構成例を示す図である。図1におい
て、1は入力層のニューロンを、2は中間層のニューロ
ンを、3は出力層のニューロンをそれぞれ示し、入力層
と中間層のニューロンは接続線4で接続され、中間層と
出力層のニューロンは接続線5で接続されている。
ラルネットワークの構成例を示す図である。図1におい
て、1は入力層のニューロンを、2は中間層のニューロ
ンを、3は出力層のニューロンをそれぞれ示し、入力層
と中間層のニューロンは接続線4で接続され、中間層と
出力層のニューロンは接続線5で接続されている。
【0004】図2は、従来技術でのニューラルネットワ
ークの学習方式のフローを示す。以下、従来技術につい
て、図2を参照しながら説明する。
ークの学習方式のフローを示す。以下、従来技術につい
て、図2を参照しながら説明する。
【0005】まず、学習用の特徴パターンの全集合SL
をニューラルネットワーク(NN)に入力して学習
させる(ステップ110)。教師信号には、分類すべき
識別クラスに対応する値、すなわち、ある手書き数字に
所属する特徴パターンを入力するときには、その数字に
対応する出力層のニューロンへの値だけは「1」とし、
その他は「0」とするような値を用いる。
をニューラルネットワーク(NN)に入力して学習
させる(ステップ110)。教師信号には、分類すべき
識別クラスに対応する値、すなわち、ある手書き数字に
所属する特徴パターンを入力するときには、その数字に
対応する出力層のニューロンへの値だけは「1」とし、
その他は「0」とするような値を用いる。
【0006】次に、学習済みの上記ニューラルネットワ
ーク(NN)に、未知の特徴パターンを入力してパター
ン認識を行わせる(ステップ120)。
ーク(NN)に、未知の特徴パターンを入力してパター
ン認識を行わせる(ステップ120)。
【0007】手書き数字の横方向濃淡頻度分布(横方向
に見たときの黒画素の数の分布)と縦方向濃淡頻度分布
(縦方向に見たときの黒画素の数の分布)を特徴パター
ンの例とした場合の、従来技術によるニューラルネット
ワーク学習およびパターン認識の実験を行った。
に見たときの黒画素の数の分布)と縦方向濃淡頻度分布
(縦方向に見たときの黒画素の数の分布)を特徴パター
ンの例とした場合の、従来技術によるニューラルネット
ワーク学習およびパターン認識の実験を行った。
【0008】図3は手書き数字の横方向濃淡頻度分布の
例を示し、図4は縦方向濃淡頻度分布の例を示す。
例を示し、図4は縦方向濃淡頻度分布の例を示す。
【0009】具体的に言うと、75人分の横方向濃淡頻
度分布あるいは縦方向濃淡頻度分布(ともに32次元の
特徴パターンで、各数字につき75個、計750個)を
入力とした。ニューラルネットワークの規模は、横方向
入力、縦方向入力ともに、32個の入力層のニューロン
、10個の中間層のニューロン、10個の出力層のニュ
ーロンである。
度分布あるいは縦方向濃淡頻度分布(ともに32次元の
特徴パターンで、各数字につき75個、計750個)を
入力とした。ニューラルネットワークの規模は、横方向
入力、縦方向入力ともに、32個の入力層のニューロン
、10個の中間層のニューロン、10個の出力層のニュ
ーロンである。
【0010】その結果、学習済みニューラルネットワー
クを用いた未知データ(75人分の手書き数字によるデ
ータ)の認識率は、横方向入力で83.20%、縦方向
入力のときには51.33%となった。
クを用いた未知データ(75人分の手書き数字によるデ
ータ)の認識率は、横方向入力で83.20%、縦方向
入力のときには51.33%となった。
【0011】
【発明が解決しようとする課題】このような従来技術で
は、学習用の入力パターン間に類似性があっても、同一
のクラスに所属する学習データに関しては、特に区別す
ることなく、同じ教師信号で同じ回数だけ学習させてい
たために、次のような問題が生じる。
は、学習用の入力パターン間に類似性があっても、同一
のクラスに所属する学習データに関しては、特に区別す
ることなく、同じ教師信号で同じ回数だけ学習させてい
たために、次のような問題が生じる。
【0012】図3および図4からわかるように、手書き
数字の縦方向頻度分布では各クラス(数字)に対応する
特徴パターンがよく似ている。例えば、数字「6」と数
字「8」の縦方向分布は比較的類似性が高く、学習用入
力パターンの中にはほとんど区別がつかないようなもの
もある。
数字の縦方向頻度分布では各クラス(数字)に対応する
特徴パターンがよく似ている。例えば、数字「6」と数
字「8」の縦方向分布は比較的類似性が高く、学習用入
力パターンの中にはほとんど区別がつかないようなもの
もある。
【0013】このような類似した入力パターンに対して
、あるひとつのクラス(通常、正解クラス)に対応する
出力層のニューロンへの値だけは「1」とし、その他は
「0」とするように、断定的な値を教師信号として与え
ると、極めて類似した入力に対して明らかに異なる値を
学習させるという学習上の問題(コンフリクトと呼ぶ)
が生じる。バックプロパゲーションの学習過程という観
点から言うと、いつまで学習させても、他のクラスとよ
く似た入力データでは相当の誤差を生じ続けることにな
る。
、あるひとつのクラス(通常、正解クラス)に対応する
出力層のニューロンへの値だけは「1」とし、その他は
「0」とするように、断定的な値を教師信号として与え
ると、極めて類似した入力に対して明らかに異なる値を
学習させるという学習上の問題(コンフリクトと呼ぶ)
が生じる。バックプロパゲーションの学習過程という観
点から言うと、いつまで学習させても、他のクラスとよ
く似た入力データでは相当の誤差を生じ続けることにな
る。
【0014】従って、学習が定常状態に収束しないので
、効果的な学習ができず、未知データの認識率も高くな
らないという問題が生じる。
、効果的な学習ができず、未知データの認識率も高くな
らないという問題が生じる。
【0015】本発明は、上記に鑑みてなされたもので、
その目的とするところは、コンフリクトを軽減して性能
のよいパターン認識を実現し得るニューラルネットワー
クの学習方式を提供することにある。
その目的とするところは、コンフリクトを軽減して性能
のよいパターン認識を実現し得るニューラルネットワー
クの学習方式を提供することにある。
【0016】
【課題を解決するための手段】上記目的を達成するため
、本発明のニューラルネットワークの学習方式は、ある
メディアの特徴パターンをニューラルネットワークに入
力し、パターンの認識メカニズムを学習させるニューラ
ルネットワークの学習方式であって、学習用の特徴パタ
ーンの全集合をニューラルネットワークに入力して、一
定期間学習させた後、全集合に対する前記ニューラルネ
ットワークの出力値を調べて、正解クラスに対応するニ
ューロンの出力が第1位とならない要素のうち、出力の
絶対値が第1の所定値以下かまたは第1位との差が第2
の所定値以上になるような要素からなる部分集合を生成
し、この部分集合に含まれる要素だけは呈示する回数を
零にするかまたは他の要素よりも少なくするようにして
、再度全集合を入力として前記ニューラルネットワーク
の学習を行わせ、再度学習させた前記ニューラルネット
ワークで未知のパターン認識を行わせることを要旨とす
る。
、本発明のニューラルネットワークの学習方式は、ある
メディアの特徴パターンをニューラルネットワークに入
力し、パターンの認識メカニズムを学習させるニューラ
ルネットワークの学習方式であって、学習用の特徴パタ
ーンの全集合をニューラルネットワークに入力して、一
定期間学習させた後、全集合に対する前記ニューラルネ
ットワークの出力値を調べて、正解クラスに対応するニ
ューロンの出力が第1位とならない要素のうち、出力の
絶対値が第1の所定値以下かまたは第1位との差が第2
の所定値以上になるような要素からなる部分集合を生成
し、この部分集合に含まれる要素だけは呈示する回数を
零にするかまたは他の要素よりも少なくするようにして
、再度全集合を入力として前記ニューラルネットワーク
の学習を行わせ、再度学習させた前記ニューラルネット
ワークで未知のパターン認識を行わせることを要旨とす
る。
【0017】
【作用】本発明のニューラルネットワークの学習方式で
は、コンフリクトを生じる可能性のある類似パターンを
含む学習用の特徴パターンの全集合を一旦ニューラルネ
ットワークで学習させた後、全集合に対する前記ニュー
ラルネットワークの出力値を調べて、正解クラスに対応
するニューロンの出力が十分でない要素、すなわち出力
値が第1位とならない要素のうち、出力の絶対値が第1
の所定値以下かまたは第1位との差が第2の所定値以上
になるような要素からなる部分集合を生成し、この部分
集合に含まれる要素だけは呈示する回数を零にするかま
たは他の要素よりも少なくするようにして、再度全集合
を入力として前記ニューラルネットワークの学習を行わ
せ、再度学習させた前記ニューラルネットワークで未知
のパターン認識を行わせる。
は、コンフリクトを生じる可能性のある類似パターンを
含む学習用の特徴パターンの全集合を一旦ニューラルネ
ットワークで学習させた後、全集合に対する前記ニュー
ラルネットワークの出力値を調べて、正解クラスに対応
するニューロンの出力が十分でない要素、すなわち出力
値が第1位とならない要素のうち、出力の絶対値が第1
の所定値以下かまたは第1位との差が第2の所定値以上
になるような要素からなる部分集合を生成し、この部分
集合に含まれる要素だけは呈示する回数を零にするかま
たは他の要素よりも少なくするようにして、再度全集合
を入力として前記ニューラルネットワークの学習を行わ
せ、再度学習させた前記ニューラルネットワークで未知
のパターン認識を行わせる。
【0018】
【実施例】以下、図面を用いて本発明の実施例を説明す
る。
る。
【0019】この実施例では、ニューラルネットワーク
によるパターン認識の例題として手書き数字認識を、ま
た、入力特徴パターンの例として、横方向濃淡頻度分布
と縦方向濃淡頻度分布を、学習能力を有するニューラル
ネットワークの例として、バックプロパゲーション型ニ
ューラルネットワークをとりあげて、本発明の実施例を
説明する。
によるパターン認識の例題として手書き数字認識を、ま
た、入力特徴パターンの例として、横方向濃淡頻度分布
と縦方向濃淡頻度分布を、学習能力を有するニューラル
ネットワークの例として、バックプロパゲーション型ニ
ューラルネットワークをとりあげて、本発明の実施例を
説明する。
【0020】図5は本発明の一実施例に係わる学習方式
の処理を示すフローチャートである。以下、本方式の処
理について、図5を参照しながら説明する。
の処理を示すフローチャートである。以下、本方式の処
理について、図5を参照しながら説明する。
【0021】まず、学習用の特徴パターンの全集合SL
をニューラルネットワーク(NN)に入力して、一定
期間、学習させる(ステップ210)。それから、予め
、0以上1以下の範囲で、2つのパラメータαとβを設
定したとき、学習データに対する上記ニューラルネット
ワークの出力値を調べて、正解クラスに対応するニュー
ロンの出力値が第1位とならない要素のうち、出力の絶
対値がα以下になるか、あるいは、誤って第1位となっ
た出力との差がβ以上となるような要素からなる集合S
’L を生成する(ステップ220)。
をニューラルネットワーク(NN)に入力して、一定
期間、学習させる(ステップ210)。それから、予め
、0以上1以下の範囲で、2つのパラメータαとβを設
定したとき、学習データに対する上記ニューラルネット
ワークの出力値を調べて、正解クラスに対応するニュー
ロンの出力値が第1位とならない要素のうち、出力の絶
対値がα以下になるか、あるいは、誤って第1位となっ
た出力との差がβ以上となるような要素からなる集合S
’L を生成する(ステップ220)。
【0022】次に、集合S’L に含まれる学習データ
だけは呈示する回数をゼロとするか、あるいは、他の学
習データよりも少なくするようにして、再度、全集合S
L を入力として、上記ニューラルネットワーク(NN
)を学習させる(ステップ230)。そして、再度学習
済みのニューラルネットワーク(NN)で、未知のパタ
ーンを認識させる(ステップ240)。
だけは呈示する回数をゼロとするか、あるいは、他の学
習データよりも少なくするようにして、再度、全集合S
L を入力として、上記ニューラルネットワーク(NN
)を学習させる(ステップ230)。そして、再度学習
済みのニューラルネットワーク(NN)で、未知のパタ
ーンを認識させる(ステップ240)。
【0023】実際に、評価実験を行った。従来技術の評
価実験と同様に、75人分の横方向濃淡頻度分布と縦方
向濃淡頻度を個別の入力とした。ニューラルネットワー
クの規模も従来技術と同様である。
価実験と同様に、75人分の横方向濃淡頻度分布と縦方
向濃淡頻度を個別の入力とした。ニューラルネットワー
クの規模も従来技術と同様である。
【0024】本実験では、教師信号として、分類すべき
識別クラスに対応する値、すなわち、ある手書き数字に
所属する特徴パターンを入力するときには、その数字に
対応する出力層のニューロンへの値だけは「1」とし、
その他は「0」とするような値を用いた。
識別クラスに対応する値、すなわち、ある手書き数字に
所属する特徴パターンを入力するときには、その数字に
対応する出力層のニューロンへの値だけは「1」とし、
その他は「0」とするような値を用いた。
【0025】また、本実験では、再学習時(ステップ2
30)、ニューラルネットワークの重みをすべてランダ
ム値にリセットした。
30)、ニューラルネットワークの重みをすべてランダ
ム値にリセットした。
【0026】実験の結果、学習後のニューラルネットワ
ークによる、75人分の未知データに対する認識率は以
下のとおりとなった。
ークによる、75人分の未知データに対する認識率は以
下のとおりとなった。
【0027】横方向入力の場合、十分な出力値とならな
い学習データ(α=0.10、β=0.60として検出
した学習データ)の呈示回数をゼロとしたとき、83.
60%の認識率となった。また、最大の出力値とならな
い学習データすべて(α=1、β=0として検出した学
習データ)の呈示回数を2分の1としたときには、84
.67%の認識率となった。これらはいずれも、従来技
術での認識率83.20%を上回っている。
い学習データ(α=0.10、β=0.60として検出
した学習データ)の呈示回数をゼロとしたとき、83.
60%の認識率となった。また、最大の出力値とならな
い学習データすべて(α=1、β=0として検出した学
習データ)の呈示回数を2分の1としたときには、84
.67%の認識率となった。これらはいずれも、従来技
術での認識率83.20%を上回っている。
【0028】縦方向入力の場合、十分な出力値とならな
い学習データ(α=0.10、β=0.30として検出
した学習データ)の呈示回数をゼロとしたとき、53.
33%の認識率となった。また、最大の出力値とならな
い学習データすべて(α=1、β=0として検出した学
習データ)の呈示回数を2分の1としたときには、54
.13%の認識率となった。これらはいずれも、従来技
術での認識率51.33%を上回っている。
い学習データ(α=0.10、β=0.30として検出
した学習データ)の呈示回数をゼロとしたとき、53.
33%の認識率となった。また、最大の出力値とならな
い学習データすべて(α=1、β=0として検出した学
習データ)の呈示回数を2分の1としたときには、54
.13%の認識率となった。これらはいずれも、従来技
術での認識率51.33%を上回っている。
【0029】以上の説明では、呈示回数削減の割合とし
て、出力値によらず、一律にn分の1(nは正の整数)
とした場合を例にとって説明したが、これ以外の割合を
採用する場合、例えば、出力値に応じて段階的に呈示回
数を少なくする(出力値が小さいデータでは、より呈示
回数を少なくする)ような場合にも適用できることは明
らかである。
て、出力値によらず、一律にn分の1(nは正の整数)
とした場合を例にとって説明したが、これ以外の割合を
採用する場合、例えば、出力値に応じて段階的に呈示回
数を少なくする(出力値が小さいデータでは、より呈示
回数を少なくする)ような場合にも適用できることは明
らかである。
【0030】また、以上の説明では、教師信号として、
入力パターン間の類似性によらず、正解のクラスだけに
「1」を、その他のクラスには「0」を与えるような場
合を例にとって説明したが、これ以外の教師信号を与え
る場合、例えば、類似の入力パターンには、差の少ない
値を教師信号とする場合[参考文献…小原和博、石川勉
:ニューラルネットによるパターン認識のためのコンフ
リクトの少ない学習方式、信学技報、NC90−15,
pp.13−20(1990.7)]にも適用できるこ
とは明らかである。
入力パターン間の類似性によらず、正解のクラスだけに
「1」を、その他のクラスには「0」を与えるような場
合を例にとって説明したが、これ以外の教師信号を与え
る場合、例えば、類似の入力パターンには、差の少ない
値を教師信号とする場合[参考文献…小原和博、石川勉
:ニューラルネットによるパターン認識のためのコンフ
リクトの少ない学習方式、信学技報、NC90−15,
pp.13−20(1990.7)]にも適用できるこ
とは明らかである。
【0031】さらに、以上の説明では、ニューラルネッ
トワークの重みを、再学習時、すべてランダム値にリセ
ットする場合を例にとって説明したが、最初の学習(ス
テップ210)終了後の重みを初期値とする場合にも適
用できることは明らかである。
トワークの重みを、再学習時、すべてランダム値にリセ
ットする場合を例にとって説明したが、最初の学習(ス
テップ210)終了後の重みを初期値とする場合にも適
用できることは明らかである。
【0032】そして、以上の説明では、メディアの例と
して手書き数字をとりあげて説明したが、本発明は、手
書き数字以外の文字、図形、画像などのパターン認識に
も適用できることは明らかである。
して手書き数字をとりあげて説明したが、本発明は、手
書き数字以外の文字、図形、画像などのパターン認識に
も適用できることは明らかである。
【0033】また、以上の説明では、手書き数字の特徴
パターンとして、横方向濃淡頻度分布と縦方向濃淡頻度
分布を例にとって説明したが、本発明は、ななめ方向の
濃淡頻度分布や、その他の類似性の高い特徴パターンを
採用する場合にも適用できることは明らかである。
パターンとして、横方向濃淡頻度分布と縦方向濃淡頻度
分布を例にとって説明したが、本発明は、ななめ方向の
濃淡頻度分布や、その他の類似性の高い特徴パターンを
採用する場合にも適用できることは明らかである。
【0034】
【発明の効果】以上説明したように、本発明によれば、
ニューラルネットワークの学習方式において、学習用の
特徴パターンの全集合をニューラルネットワークに入力
して、一定期間、学習させた後、全集合に対する上記ニ
ューラルネットワークの出力値を調べて、正解クラスに
対応するニューロンの出力が十分でない要素からなる部
分集合を生成するとともに、この部分集合に含まれる要
素だけは呈示する回数をゼロとするか、あるいは、少な
くするようにして、再度、全集合を入力として、上記ニ
ューラルネットワークの学習を行わせることで、従来技
術よりもコンフリクトの少ないニューラルネットワーク
の学習が実現でき、従って、未知データに対しても性能
のよいパターン認識を行えるような、ニューラルネット
ワークの学習方式を実現できる。
ニューラルネットワークの学習方式において、学習用の
特徴パターンの全集合をニューラルネットワークに入力
して、一定期間、学習させた後、全集合に対する上記ニ
ューラルネットワークの出力値を調べて、正解クラスに
対応するニューロンの出力が十分でない要素からなる部
分集合を生成するとともに、この部分集合に含まれる要
素だけは呈示する回数をゼロとするか、あるいは、少な
くするようにして、再度、全集合を入力として、上記ニ
ューラルネットワークの学習を行わせることで、従来技
術よりもコンフリクトの少ないニューラルネットワーク
の学習が実現でき、従って、未知データに対しても性能
のよいパターン認識を行えるような、ニューラルネット
ワークの学習方式を実現できる。
【図1】バックプロパゲーション型ニューラルネットワ
ークの構成を示す図である。
ークの構成を示す図である。
【図2】従来のニューラルネットワークの学習方式の処
理を示すフローチャートである。
理を示すフローチャートである。
【図3】手書き数字の横方向濃淡頻度分布の例を示す図
である。
である。
【図4】手書き数字の縦方向濃淡頻度分布の例を示す図
である。
である。
【図5】本発明の一実施例に係わるニューラルネットワ
ークの学習方式の処理を示すフローチャートである。
ークの学習方式の処理を示すフローチャートである。
1 入力層のニューロン
2 中間層のニューロン
3 出力層のニューロン
Claims (1)
- 【請求項1】 あるメディアの特徴パターンをニュー
ラルネットワークに入力し、パターンの認識メカニズム
を学習させるニューラルネットワークの学習方式であっ
て、学習用の特徴パターンの全集合をニューラルネット
ワークに入力して、一定期間学習させた後、全集合に対
する前記ニューラルネットワークの出力値を調べて、正
解クラスに対応するニューロンの出力が第1位とならな
い要素のうち、出力の絶対値が第1の所定値以下かまた
は第1位との差が第2の所定値以上になるような要素か
らなる部分集合を生成し、この部分集合に含まれる要素
だけは呈示する回数を零にするかまたは他の要素よりも
少なくするようにして、再度全集合を入力として前記ニ
ューラルネットワークの学習を行わせ、再度学習させた
前記ニューラルネットワークで未知のパターン認識を行
わせることを特徴とするニューラルネットワークの学習
方式。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2402937A JPH04216162A (ja) | 1990-12-17 | 1990-12-17 | ニューラルネットワークの学習方式 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2402937A JPH04216162A (ja) | 1990-12-17 | 1990-12-17 | ニューラルネットワークの学習方式 |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH04216162A true JPH04216162A (ja) | 1992-08-06 |
Family
ID=18512701
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2402937A Pending JPH04216162A (ja) | 1990-12-17 | 1990-12-17 | ニューラルネットワークの学習方式 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH04216162A (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06187315A (ja) * | 1992-10-23 | 1994-07-08 | Nippondenso Co Ltd | ニューラルネット型追加学習装置 |
-
1990
- 1990-12-17 JP JP2402937A patent/JPH04216162A/ja active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06187315A (ja) * | 1992-10-23 | 1994-07-08 | Nippondenso Co Ltd | ニューラルネット型追加学習装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US5519789A (en) | Image clustering apparatus | |
Sun et al. | Sparsifying neural network connections for face recognition | |
EP3166049B1 (en) | Systems and methods for attention-based configurable convolutional neural networks (abc-cnn) for visual question answering | |
Gedeon | Indicators of hidden neuron functionality: the weight matrix versus neuron behaviour | |
CN108764281A (zh) | 一种基于半监督自步学习跨任务深度网络的图像分类方法 | |
EP0464327A2 (en) | Neutral network apparatus and method for pattern recognition | |
CN107909101A (zh) | 基于卷积神经网络的半监督迁移学习字符识别方法及系统 | |
US11093800B2 (en) | Method and device for identifying object and computer readable storage medium | |
CN109086653B (zh) | 手写模型训练方法、手写字识别方法、装置、设备及介质 | |
US5446829A (en) | Artificial network for temporal sequence processing | |
DE4217832A1 (de) | Mustererkennungs- und musterlerngeraet | |
WO2019232855A1 (zh) | 手写模型训练方法、手写字识别方法、装置、设备及介质 | |
CN112528777A (zh) | 一种用于课堂环境下的学生面部表情识别方法及系统 | |
US5790758A (en) | Neural network architecture for gaussian components of a mixture density function | |
US6735579B1 (en) | Static memory processor | |
Nga et al. | Transfer learning for gender and age prediction | |
Ashwinkumar et al. | Deep learning based approach for facilitating online proctoring using transfer learning | |
US6560582B1 (en) | Dynamic memory processor | |
CN111371611A (zh) | 一种基于深度学习的加权网络社区发现方法及装置 | |
CN109034279B (zh) | 手写模型训练方法、手写字识别方法、装置、设备及介质 | |
Mori et al. | Neural networks that learn to discriminate similar Kanji characters | |
Choi et al. | Biologically motivated visual attention system using bottom-up saliency map and top-down inhibition | |
JPH04216162A (ja) | ニューラルネットワークの学習方式 | |
Becerikli et al. | Alternative neural network based edge detection | |
Gomes et al. | Primal sketch feature extraction from a log-polar image |