JPH07219922A - パターン認識装置の学習装置 - Google Patents

パターン認識装置の学習装置

Info

Publication number
JPH07219922A
JPH07219922A JP6030850A JP3085094A JPH07219922A JP H07219922 A JPH07219922 A JP H07219922A JP 6030850 A JP6030850 A JP 6030850A JP 3085094 A JP3085094 A JP 3085094A JP H07219922 A JPH07219922 A JP H07219922A
Authority
JP
Japan
Prior art keywords
learning
pattern
neuron
threshold
category
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP6030850A
Other languages
English (en)
Inventor
Koji Suzuki
耕二 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd filed Critical Fuji Xerox Co Ltd
Priority to JP6030850A priority Critical patent/JPH07219922A/ja
Publication of JPH07219922A publication Critical patent/JPH07219922A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

(57)【要約】 【目的】 誤認識を防止し、十分な認識率を得るような
学習ができるようにすること。 【構成】 参照ベクトルを用いて識別を行う層状フィー
ドフォワード型ニューラルネットワークを用いたパター
ン認識装置の学習装置において、参照ベクトルを保持す
るニューロンの発火を制御するための閾値を、ニューラ
ルネットワークの学習中に与えられる学習パターンとそ
れに対応する教師信号に基づいて、参照ベクトルと学習
パターンとが異なるカテゴリーに属するときに前記ニュ
ーロンが発火しないように調整する閾値調整手段17を
具備したことを特徴とする。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明はニューラルネットワーク
を用いたパターン認識装置に関し、とくにその学習装置
に関する。
【0002】
【従来の技術】ニューラルネットワークを用いたパター
ン認識装置を実現する方法としてLVQ(Learni
ng Vector Quantization)がし
ばしば取上げられる(T.Kohonen, G.Ba
rana and R.Chrisley; IEE
E, Proc. of ICNN, Vol.1,
pp.61−68, July, 1988.)。LV
Qではカテゴリを代表する参照ベクトルを保持した処理
ユニット( Processing Unit)が基本
単位とされる。Processing Unitの持つ
参照ベクトルの更新、すなわち学習は次のように行われ
る。Processing Unit iがもつ参照ベ
クトルをmiとする。学習において時間は離散時間と
し、時刻tにおける入力パターンをx(t)とし、cを
x(t)に最も近い参照ベクトルをもったProces
sing Unitとする。このとき、学習において各
Processing Unitでは以下のように参照
ベクトルを更新する。 ・xとUnit cが同じカテゴリーに属する場合 mc(t+1)=mc(t)+α(t)(x(t)−mc
(t)) ・xとUnit cが異なるカテゴリーに属する場合 mc(t+1)=mc(t)−α(t)(x(t)−mc
(t)) ・i≠cのProcessing Unitにおいて mc(t+1)=mc(t) ここで全時刻を通じて0<α(t)<1で、α(t)は
時間とともに単調に減少する関数とする。
【0003】図9に従来の参照ベクトルを用いたニュー
ラルネットワークの学習における各手段間の関係を表し
た構成図を示す。ニューラルネットワーク演算部90に
おいてニューロン出力演算手段91が、結合荷重記憶手
段92および閾値記憶手段93およびパターン入力手段
94からそれぞれ結合荷重および閾値および入力パター
ンを受けとりニューラルネットワークの出力等を計算す
る。このニューラルネットワーク演算部90において計
算されるニューラルネットワークの出力等の値、および
教師信号入力手段95からの教師信号、およびパターン
入力手段94からの入力パターンを用いて、結合荷重調
整手段96において結合荷重が修正される。
【0004】
【発明が解決しようとする課題】しかしながら前記の学
習方法を例えば文字認識などに応用する場合、参照ベク
トルを保持したProcessing Unit)に対
応するニューロンがその保持している参照ベクトルと異
なるカテゴリーとの間の距離、あるいは類似度等の情報
を保持しないため十分な認識率を得ることができないと
いう問題があった。本発明は、この問題を解決し、ニュ
ーラルネットワークを用いたパターン認識装置の学習装
置において、誤認識を防止し、十分な認識率を得ること
ができるようにすることを目的とする。
【0005】
【課題を解決するための手段】本発明は、参照ベクトル
を用いて識別を行う層状フィードフォワード型ニューラ
ルネットワークを用いたパターン認識装置の学習装置に
おいて、参照ベクトルを保持するニューロンの発火を制
御するための閾値を、ニューラルネットワークの学習中
に与えられる学習パターンとそれに対応する教師信号に
基づいて、参照ベクトルと学習パターンとが異なるカテ
ゴリーに属するときに前記ニューロンが発火しないよう
に調整する閾値調整手段(図1の17、図3の37)を
具備したことを特徴とする。
【0006】また、本発明は、上記構成のパターン認識
装置の学習装置において、参照ベクトルが属するカテゴ
リーと同じカテゴリーの学習パターンに反応するための
閾値と参照ベクトルが属するカテゴリーと異なるカテゴ
リーの学習パターンに反応するための閾値に関する情報
を記憶する記憶手段(図3の38,39)を具備し、前
記閾値調整手段(図3の37)が、前記同じカテゴリー
の学習パターンに反応するための閾値と前記異なるカテ
ゴリーの学習パターンに反応するための閾値とを別々に
調整して学習を行うことを特徴とする。
【0007】
【作用】参照ベクトルを保持するニューロンの発火を制
御するための閾値調整手段により、ニューラルネットワ
ークの学習中に参照ベクトルを保持した処理ユニット
(Processing Unitに対応するニューロ
ンがその保持している参照ベクトルと異なるカテゴリー
に属するパターンに対して発火しないように閾値を調整
する。このように誤認識を引き起こす異なるカテゴリー
に関する情報に基づいて中間層のニューロンの閾値を調
整するので、本発明は、誤認識を防止し、十分な認識率
を得る学習が可能となる。
【0008】また、本発明の一態様における前記閾値調
整手段(図3の37)は、前記同じカテゴリーの学習パ
ターンに反応するための閾値と前記異なるカテゴリーの
学習パターンに反応するための閾値とを別々に調整して
学習を行う。その学習のために前記記憶手段により、参
照ベクトルが属するカテゴリーと同じカテゴリーの学習
パターンに反応するための閾値と参照ベクトルが属する
カテゴリーと異なるカテゴリーの学習パターンに反応す
るための閾値に関する情報を用意しておく。その情報は
たとえば参照ベクトルが属するカテゴリーと同じカテゴ
リーの学習パターンに反応するための閾値と異なるカテ
ゴリーの学習パターンに反応するための閾値との差分情
報として記憶手段により保持させておく。その学習にお
いては、ある学習パターンを入力し、そのカテゴリーと
同じカテゴリーを持つニューロンだけが出力が+1であ
った(発火した)とき(図4のステップ402でYES
のとき )には、さらにそのニューロンに対してその閾
値に前記差分情報を加えてみて再度ニューロン出力計算
を行う(図4のステップ403)。その結果+1を出力
したときには正しく認識して発火したと判定して以後の
処理を行う(図4のステップ405以降)。+1を出力
しないときには、新たに異なるカテゴリーに対応するニ
ューロンを生成し(図4のステップ406に続く図2の
ステップ208)、以後の処理において閾値が調整され
る。差分情報を用いて学習を行い、ニューロンの発火を
適当に抑制することによって、学習に用いることのでき
る学習パターンの数が少ない場合でも誤認識を減少させ
ることができる。なお、差分情報の代わりに参照ベクト
ルが属するカテゴリーと同じカテゴリーの学習パターン
に反応するための閾値と異なるカテゴリーの学習パター
ンに反応するための閾値の二つを保持するようにしても
よい。
【0009】
【実施例】
(学習対象のパターン認識装置)図5は本実施例で述べ
るニューラルネットワーク(NN)を用いたパターン認
識装置の概略の構成を示すもので、入力パターンの特徴
量を抽出する特徴量抽出手段51と、パターン判別のた
めにニューラルネットワークを用いたパターン判別手段
52と、判別結果をコード化して出力するコード出力手
段53からなっている。未知パターンがパターン認識装
置に提示されると、特徴量抽出手段51で特徴量が計算
される。そしてその特徴量を新たな入力としてパターン
判別手段52において未知パターンがどのカテゴリーに
属するかの推定が行われる。そしてコード出力手段53
により、推定されたカテゴリーに与えられたコードが出
力され、パターン認識が行われる。
【0010】図5で述べた特徴量抽出手段51を図6を
用いて説明する。図6(a)は10×10画素で表現さ
れた手書き文字「A」である。この手書き文字の4つの
画素を一つの要素にまとめ、4画素中に黒画素が4つあ
るとき+2、3つあるとき+1、2つあるとき0、1つ
あるとき−1、0個のときは−2の値を与えた様子が図
6(b)である。この値を図6(c)に示されるような
画像の左上の始点61から右下の終点62にかけて矢印
の方向に並べてベクトルの形にする。このベクトルを特
徴量抽出手段51で抽出された特徴量とし、ニューラル
ネットワークによるパターン判別手段52の入力とす
る。
【0011】次に図5のパターン判別手段52、および
コード出力手段53について説明する。図7は本実施例
で述べるニューラルネットワークの基本構成を表したも
ので、本実施例ではこのニューラルネットワークを用い
てパターン判別手段52、およびコード出力手段53を
実現する。図7のニューラルネットワークにおいて、入
力層71のi番目のニューロン74と中間層72のj番
目のニューロン75との間の結合荷重76をw1 ij、中
間層72のj番目のニューロン75と出力層73のk番
目のニューロン77との間の結合荷重78をw2 jkで表
現する。このとき入力層71のi番目ニューロン74は
その出力値y1 iを y1 i=Θ1(xi) ・・・(式1) に従って決める。ただしxiはニューラルネットワーク
への入力ベクトルXのi番目の要素とし、Θ1(Z)は
ニューロンの入出力特性を決める特性関数で Z>0のとき Θ1(Z)=1 Z≦0のとき Θ1(Z)=−1 ・・・・(式2) とする。
【0012】ここであらためてY1=(y1 1, 1 2,・・
・・・・・・・,y1 N)とおき、Y1=(Θ1(x1,
Θ1(x2)・・・・・・・・・,Θ1(xN))をベクト
ル表示で略記してY1=Θ1(X)と表記することにす
る。中間層72のj番目ニューロンはその出力値y2 j
次式に従って決める。 y2 j=Θ2(Σi1 ij1 i−lj)=Θ2(W1 jΘ1(X)
T−lj)・・・・(式3) ただしliは学習によって決まる閾値で、W1 j=(w1
1j,1 2j,・・・・・・・・・,w1 Nj)であり、Θ
2(X)はニューロンの入出力特性を決める特性関数で
次式によって表されるものであり、Tは転置を表す。 Z>0のとき Θ2(Z)=1 Z≦0のとき Θ2(Z)=0 ・・・・(式4)
【0013】ここで中間層ニューロンの出力が1のとき
中間層ニューロンは発火したと呼ぶことにする。出力層
のk番目ニューロン77はその出力値y3 kを y3 k=Θ2(Σj2 jk2 j) ・・・・(式5) に従って決める。ニューラルネットワークの最終的な出
力は、このy3 kをk番目の要素とするベクトルである。
図8(a)、および図8(b)は、上記Θ1(Z)、お
よびΘ2(Z)の特性関数を図示したものである。
【0014】(第1の実施例)図1は以上に説明したニ
ューラルネットワークを対象として学習を行うための学
習装置の一例を示すものである。前述した図9に示す従
来の参照ベクトルを用いたニューラルネットワークの学
習装置に対して図1の学習装置では、新たに閾値調整手
段17をつけ加えた構成を有する。この閾値調整手段1
7は学習の過程でニューラルネットワークの出力等の
値、および教師信号入力手段15からの教師信号、およ
びパターン入力手段14からの入力パターンを用いて、
ニューラルネットワークがより適切な出力をするように
閾値を修正する。
【0015】次に図1の構成図で説明したニューラルネ
ットワークの学習を具体的に説明する。まず入力層71
のニューロンと中間層72のニューロンとを結ぶ第1の
結合荷重76と中間層のニューロンの閾値を決定するニ
ューラルネットワークの学習を図2を用いて説明する。
まず、ステップ200で初期値を設定する。ここで設定
するNは入力ベクトルの次元、Mは学習サンプルの数、
Dは中間層のニューロンに与える閾値の適当な大きさの
初期値(ステップ505で変更されやすいように小さな
値を設定する)、Pは使用することのできる中間層のニ
ューロンの数である。またW1は、そのij成分をw1 ij
とするN×P行列で、lはi成分をliとするP次元ベ
クトルである。
【0016】ステップ201でニューラルネットワーク
に上記で説明したような入力Xiを与える。ここで添字
iはXiがM個ある学習サンプルのうちi番目のサンプ
ルであることを示す。ステップ202でニューラルネッ
トワークの中間層ニューロンが発火するかどうかの場合
分けを行う。ステップ202でニューラルネットワーク
の中間層ニューロンのうち少なくともどれか一つ発火す
る場合、ステップ203での場合分けによって以下の2
つの処理を行う。
【0017】まず第一に入力ベクトルの持つカテゴリー
と発火したニューロンの持つカテゴリーが全て等しい
時、ステップ204でFをインクリメントし、合流点2
07に進む。ステップ203で、入力ベクトルの持つカ
テゴリーと異なるカテゴリーを持つ中間層のニューロン
が発火した場合、例えばそれが中間層のk番目のニュー
ロンのときステップ205においてlk=W1 kΘ
1(XiTを代入する。Dの値が十分小さい場合ほとん
どの中間層のニューロンはステップ205における閾値
の修正が加えられる。そしてステップ206でFを0に
し、合流点507へ進む。一方、ステップ202でニュ
ーラルネットワークの中間層ニューロンが一つも発火し
なかった場合、ステップ208でW1 j=Θ1(Xi),l
i=D, j=j+1を代入する。これにより、中間
層のj番目のニューロンは参照ベクトルΘ1(Xi)をも
つProcessing Unitに対応することにな
る。このように入力ベクトルの持つカテゴリーと異なる
カテゴリーを持つ中間層のニューロンが発火した場合、
そのニューロンの閾値をW1 kΘ1(XiTに調整するこ
とにより次に同じパターンが入力された場合に誤認識は
起こらなくなる。なぜならこのときW1 jΘ1(XiT
j=0となり式(3)およびΘ2(Z)の定義によりこ
のニューロンは入力パターンXiに対して発火しなくな
るからである。
【0018】次にステップ209でj≦Pかどうかの判
定行う。ここでj≦Pの場合は合流点210へ進みステ
ップ206を経て合流点207へ進む。j≦Pでない場
合はここで処理を終了する。合流点207の次に、ステ
ップ211でi=i+1を代入する。そしてステップ2
12でi>Mかどうかの判定を行い、i>Mの場合には
i=i−Mを代入し、ステップ213に進む。ここで、
F≧Mでない場合は合流点514へ進み学習を繰り返
す。またF≧Mの場合はここで学習を終える。この中間
層ニューロンの発火により、入力パターンXはその発火
したニューロンの持つ参照ベクトルが属するカテゴリー
に判別される。このように第1の結合荷重76と中間層
ニューロン75によってパターン判別手段52が実現さ
れる。
【0019】次に中間層72のニューロンと出力層73
のニューロンとの間の第2の結合荷重78の決め方につ
いて述べる。第2の結合荷重78には中間層72のニュ
ーロンが発火したとき出力すべきコードをそのまま用い
る。例えば中間層72のi番目のニューロンが発火した
とき、このニューロンの参照ベクトルが属するカテゴリ
ーに割当てられたコードが(1,0,0,・・・・・・
・・・,0)の場合、このニューロンと出力層との間の
結合荷重を (w2 i1, 2 i2,・・・・・,w2 iD)=(1,0,
0,・・・・・,0) と定める。このように出力されるコードをその各要素に
1、あるいは0の値を持つものとし、第2の結合荷重7
8を上記のように決定すれば、中間層72のニューロン
の発火によりそのニューロンに割当てられたカテゴリー
に対応するコードが出力される。このようにして結合荷
重2と出力層ニューロンによって図5のコード出力手段
53が実現される。上記のように学習を行ったニューラ
ルネットワークにおいては、誤認識を引き起こす異なる
カテゴリーに関する情報に基づいて中間層のニューロン
の閾値を調整するため、誤認識を減少させることができ
る。
【0020】(第2の実施例)同じカテゴリーの学習パ
ターンに反応するための閾値と異なるカテゴリーの学習
パターンに反応するための閾値との差分を保持して学習
を行うことを特徴とするニューラルネットワークを用い
たパターン認識装置の学習装置について説明する。図3
に本発明の第2の実施例によるニューラルネットワーク
の学習を行う各手段間の関係を表した構成図を示す。図
9の従来の方法に比較して、図3では新たに閾値調整手
段37および差分記憶手段39および差分加減手段38
を追加する。閾値調整手段37は第1の実施例と同様に
学習の過程でニューラルネットワークの出力等の値、お
よび教師信号入力手段35からの教師信号、およびパタ
ーン入力手段34からの入力パターンを用いて、ニュー
ラルネットワークがより適切な出力をするように閾値を
修正する。また差分加減手段38はニューロン出力計算
手段31からの出力と教師信号入力手段35からの教師
信号とを比較し差分記憶手段39からの差分の値を閾値
記憶手段33の保持する閾値に加減する。この差分の加
減がどのような場合に、またどのようにして行われるか
を以下に説明する。
【0021】本実施例における学習処理は図2のステッ
プ202およびステップ203、および学習終了後に各
中間層ニューロンの閾値に同じカテゴリーの学習パター
ンに反応するための閾値と異なるカテゴリーの学習パタ
ーンに反応するための閾値との差分の値だけ修正を加え
ること以外第1の実施例と共通である。よってこれらの
変更点のみを図4を用いて説明する。
【0022】まず第1の実施例と同じようにステップ2
01で入力パターンXが与えられると、ステップ401
で全ての中間層ニューロンで図2のステップ208およ
びステップ205で決まる閾値(この値はステップ20
8で決められる初期値を除いては、多くの場合ステップ
205で異なるカテゴリーに属するパターンと参照ベク
トルとの間の相関値できめられるので、異なるカテゴリ
ーの学習パターンに反応するための閾値(以後Dother
と略す)と呼ぶことにする)を用いて式(3)の計算を
行う。このとき中間層ニューロンのうちで出力が+1の
値をとるものが存在するかどうかを調べる。このとき一
つも+1の値をとるものが存在しない場合、ステップ2
08へ進み、以後図2と同様な処理を行う。
【0023】+1の値をとる中間層ニューロンが存在す
る場合ステップ402へ進み、その中間層ニューロンが
入力パターンと同じカテゴリーを持つかどうかを調べ
る。そのニューロンが入力パターンと異なるカテゴリー
を持つ場合には、その中間層ニューロンは誤って発火し
たと判定しステップ205へ進み閾値の修正を行う。ま
た+1の値をとった中間層ニューロンが入力パターンと
同じカテゴリーを持つ場合、ステップ403でそのカテ
ゴリーに割当てられた異なるカテゴリーの学習パターン
に反応するための閾値と同じカテゴリーの学習パターン
に反応するための閾値との差分(ΔDと略す)の値をD
otherに加えて新たな閾値として改めて式(3)の計算
を行う。このとき中間層ニューロンで出力が+1の値を
とるものが存在しない場合、ステップ406で差分を加
えられた閾値はその差分を減じてもとのDotherにもど
してからステップ208へ進む。また中間層ニューロン
の出力が+1の値をとるものが存在する時、その中間層
ニューロンは入力パターンを正しく認識して発火したと
判定する。この後ステップ405で差分を加えられた閾
値はその差分を減じてもとの値にもどされ、ステップ2
04へ進み以後図2と同様な処理が行われる。
【0024】上記のように図2のステップ202および
ステップ203の処理を変更して図2の学習を行い、こ
の学習が終了したあとΔDが与えられているカテゴリー
の全ての中間層ニューロンにおいて、ΔDをその閾値に
加えて新たな閾値とする。さてこのΔDの値は中間層ニ
ューロンの発火を抑制するような働きを持ち、誤認識を
起こす頻度に従ってカテゴリーごとに設定される。誤認
識を引き起こす割合が高いカテゴリーでは大きく、あま
り誤認識を起こさないカテゴリーでは小さく設定する。
こうすることにより誤認識を引き起こす割合が高いカテ
ゴリーでは中間層ニューロンの発火が抑制される傾向に
なり、誤認識を起こす頻度が減少することになる。
【0025】このように差分ΔDを設けて学習を行うこ
とにより、中間層ニューロンの発火を適当に抑制するこ
とによって、学習に用いることのできる学習パターンの
数が少ない場合でも誤認識が減少することが期待でき
る。また本実施例のようにΔDを設けて学習を行う方法
では、学習中に一時的に閾値の差分の大きさ分だけ中間
層ニューロンがパターン空間上で覆う領域が小さくなり
頻繁にパターンが発生する領域が覆われなくなる事態が
発生したとしてもその領域に新たに中間層ニューロンが
割当てられるため、単に学習終了後に中間層ニューロン
の閾値を増加させるだけの方法におけるような誤認識率
を減少させるために著しくリジェクト率が増加する問題
をさけることができる。
【0026】また、本実施例では同じカテゴリーの学習
パターンに反応するための閾値と異なるカテゴリーの学
習パターンに反応するための閾値との差分を保持して学
習を行うことによって誤認識を減らす方法について説明
したが、参照ベクトルが属するカテゴリーと同じカテゴ
リーの学習パターンに反応するための閾値と異なるカテ
ゴリーの学習パターンに反応するための閾値の二つを保
持するための記憶手段を具備することによっても上記と
同様な効果が期待できる。
【0027】
【発明の効果】本発明は参照ベクトルを保持するニュー
ロンの発火を制御するための閾値調整手段を具備するこ
とにより、ニューラルネットワークの学習中に参照ベク
トルを保持した処理ユニット(Processing
Unit )に対応するニューロンがその保持している
参照ベクトルと異なるカテゴリーに属するパターンに対
して発火しないように閾値を調整することを可能とす
る。これにより本発明は、誤認識を防止し、十分な認識
率を得ることができる。また、同じカテゴリーの学習パ
ターンに反応するための閾値と異なるカテゴリーの学習
パターンに反応するための閾値との相関に関する情報を
用いて、ニューロンの発火を適当に抑制することによっ
て、学習に用いることのできる学習パターンの数が少な
い場合でも誤認識を減少させることができる。
【図面の簡単な説明】
【図1】 本発明の第1の実施例の構成を示す図
【図2】 ニューラルネットワークの入力層と中間層と
の間の結合荷重、およびニューロンの閾値を決める学習
のフローを示す図
【図3】 本発明の第2の実施例の構成を示す図
【図4】 第2の実施例における学習のフローの変更点
を示す図
【図5】 パターン認識装置の概略の構成を示す図
【図6】 (a),(b),(c)は入力パターンから
特徴量を抽出する説明図
【図7】 ニューラルネットワークの基本構成図
【図8】 ニューロンの特性関数を示す図
【図9】従来の学習装置の構成を示す図
【符号の説明】
10…ニューラルネットワーク演算部、11…ニューロ
ン出力計算手段、12…結合加重記憶手段、13…閾値
記憶手段、14…パターン入力手段、15…教師信号入
力手段、16…結合加重調整手段、17…閾値調整手
段、30…ニューラルネットワーク演算部、31…ニュ
ーロン出力計算手段、32…結合加重記憶手段、33…
閾値記憶手段、34…パターン入力手段、35…教師信
号入力手段、36…結合加重調整手段、37…閾値調整
手段、38…差分加減手段、39…差分記憶手段、51
… 特徴量抽出手段、52… パターン判別手段、53
…コード出力手段61…特徴量ベクトルを構成する要
素の第1番目の位置、62…特徴量ベクトルを構成する
要素の最後の位置、71…ニューラルネットワークの入
力層、72…ニューラルネットワークの中間層、73…
ニューラルネットワークの出力層、74…入力層のi番
目のニューロン、75…中間層のj番目のニューロン、
76…入力層のi番目のニューロンと中間層のj番目の
ニューロンを結ぶ結合荷重w1 ij 77…出力層のk番目のニューロン 78…中間層のj番目のニューロンと出力層のk番目の
ニューロンを結ぶ結合荷重w2 jk

Claims (2)

    【特許請求の範囲】
  1. 【請求項1】 参照ベクトルを用いて識別を行う層状フ
    ィードフォワード型ニューラルネットワークを用いたパ
    ターン認識装置の学習装置において、参照ベクトルを保
    持するニューロンの発火を制御するための閾値を、ニュ
    ーラルネットワークの学習中に与えられる学習パターン
    とそれに対応する教師信号に基づいて、参照ベクトルと
    学習パターンとが異なるカテゴリーに属するときに前記
    ニューロンが発火しないように調整する閾値調整手段を
    具備したことを特徴とするパターン認識装置の学習装
    置。
  2. 【請求項2】 参照ベクトルが属するカテゴリーと同じ
    カテゴリーの学習パターンに反応するための閾値と参照
    ベクトルが属するカテゴリーと異なるカテゴリーの学習
    パターンに反応するための閾値に関する情報を記憶する
    記憶手段を具備し、 前記閾値調整手段が、前記同じカテゴリーの学習パター
    ンに反応するための閾値と前記異なるカテゴリーの学習
    パターンに反応するための閾値とを別々に調整して学習
    を行うことを特徴とする請求項1記載のパターン認識装
    置の学習装置。
JP6030850A 1994-02-03 1994-02-03 パターン認識装置の学習装置 Pending JPH07219922A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP6030850A JPH07219922A (ja) 1994-02-03 1994-02-03 パターン認識装置の学習装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP6030850A JPH07219922A (ja) 1994-02-03 1994-02-03 パターン認識装置の学習装置

Publications (1)

Publication Number Publication Date
JPH07219922A true JPH07219922A (ja) 1995-08-18

Family

ID=12315192

Family Applications (1)

Application Number Title Priority Date Filing Date
JP6030850A Pending JPH07219922A (ja) 1994-02-03 1994-02-03 パターン認識装置の学習装置

Country Status (1)

Country Link
JP (1) JPH07219922A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010125287A (ja) * 2008-12-01 2010-06-10 Gifu Univ 指関節角度推定装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010125287A (ja) * 2008-12-01 2010-06-10 Gifu Univ 指関節角度推定装置

Similar Documents

Publication Publication Date Title
Hosang et al. Learning non-maximum suppression
Denker et al. Transforming neural-net output levels to probability distributions
JP3088171B2 (ja) 自己組織型パタ−ン分類システム及び分類方法
US7295687B2 (en) Face recognition method using artificial neural network and apparatus thereof
US20220129701A1 (en) System and method for detecting objects in a digital image, and system and method for rescoring object detections
US10872258B2 (en) Adaptive image cropping for face recognition
CN111753881A (zh) 一种基于概念敏感性量化识别对抗攻击的防御方法
Sitawarin et al. Minimum-norm adversarial examples on KNN and KNN based models
CN115186816B (zh) 一种基于决策捷径搜索的后门检测方法
CN115690541A (zh) 提高小样本、小目标识别准确率的深度学习训练方法
CN114882534A (zh) 基于反事实注意力学习的行人再识别方法、系统、介质
CN111737688B (zh) 基于用户画像的攻击防御系统
CN110378414B (zh) 基于进化策略的多模态生物特征融合的身份识别方法
JPH07219922A (ja) パターン認識装置の学習装置
CN115984946A (zh) 一种基于集成学习的人脸识别模型遗忘方法及系统
US6016384A (en) Method for speeding up the convergence of the back-propagation algorithm applied to realize the learning process in a neural network of the multilayer perceptron type
KR100621883B1 (ko) 학습에 기반을 둔 적응형 실시간 얼굴검출방법
Agrawal et al. Bmim: Generating adversarial attack on face recognition via binary mask
CN114155554A (zh) 一种基于Transformer的相机域适应行人重识别方法
Siebel et al. Learning defect classifiers for visual inspection images by neuro-evolution using weakly labelled training data
JPH0535710A (ja) ニユーラルネツトワークの学習方法および学習装置
EP0450521B1 (en) A learning method for a data processing system
JPH08263660A (ja) 信号認識方法、信号認識装置、信号認識装置の学習方法及び信号認識装置の学習装置
JPH07114641A (ja) パターン認識装置
JPH10187649A (ja) ニューラルネットワーク