JP2780454B2 - 追記学習型パターン認識装置 - Google Patents

追記学習型パターン認識装置

Info

Publication number
JP2780454B2
JP2780454B2 JP2198929A JP19892990A JP2780454B2 JP 2780454 B2 JP2780454 B2 JP 2780454B2 JP 2198929 A JP2198929 A JP 2198929A JP 19892990 A JP19892990 A JP 19892990A JP 2780454 B2 JP2780454 B2 JP 2780454B2
Authority
JP
Japan
Prior art keywords
unit
output
layer
input
calculation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2198929A
Other languages
English (en)
Other versions
JPH0484282A (ja
Inventor
敦 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2198929A priority Critical patent/JP2780454B2/ja
Publication of JPH0484282A publication Critical patent/JPH0484282A/ja
Application granted granted Critical
Publication of JP2780454B2 publication Critical patent/JP2780454B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Description

【発明の詳細な説明】 〔産業上の利用分野〕 本発明は、認識実行中に認識辞書を更新するパターン
認識装置に関するものである。
〔従来の技術〕
従来の神経回路網を用いたパターン認識装置には、一
般に3層のフィードフォワード型神経回路網が用いら
れ、認識に必要な認識辞書は学習により自己組織的に作
成され、認識時の追記学習及び内部構造の変化はない。
第14図に3層フィードフォワード型神経回路網を示
す。入力層1401に入力された入力パターンは中間層1402
及び出力層1403で演算され、認識結果を出力する。各層
に丸で示したのはユニットと呼ばれるモデル化された神
経細胞である。入力層1401の各ユニットは、一般に入力
パターンを保存するメモリの役割を果たし、入力パター
ンと同じ値を出力する。中間層1402及び出力層1403の各
ユニットは入力パターンに近い側の層の各ユニットから
入力を受け、次式に示す計算に従って出力する。
u=・−h (1) z=f(u) ここで、は重みベクトルと呼ばれ、その成分wiはシ
ナプス荷重の値を表す。は入力ベクトルと呼ばれ、そ
の成分xiは他のユニットからの入力値を表す。zはユニ
ットの出力値である。例えば、中間層1402におけるユニ
ットについて説明すると、そのユニットに結合している
入力層1401のそれぞれのユニットからの入力がxiであ
り、その重み値がwiである。hはしきい値と呼ばれ、u
は膜電位と呼ばれる。f(u)は出力関数と呼ばれ、一
般に次式で示すシグモイド関数が用いられる。
f(u)=1/(1+exp(−u)) (2) ある入力パターンについて望ましい出力になるよう
に、各層のユニットの重み値及びしきい値を調整するこ
とを学習と呼び、通常は誤差逆伝播学習法(D.E.Rumelh
art,G.E.Hinton and R.J.Williams:Learning internal
representations by error propagation,Parallel Dist
ributed Processing,Vol.1,J.L.McClelland,D.E.Rumelh
art and The PDP Research Group,MIT Press,1986.)が
用いられる。この学習法は、学習パターンを入力層1401
に入力し、(1)式で示した計算の結果得られた出力層
1403からの出力と、望ましい出力である教師信号との二
乗誤差が、与えた学習パターン全てに対して最小になる
ように重み値及びしきい値を変更する。
出力層1403の重み値及びしきい値は次式に従って変更
される。
δ(3) j=o(3) j(1−o(3) j)(yj−o(3) j) w(3) ij=w(3) ij+ηδ(3) jo(2) i h(3) j=h(3) j+ηδ(3) j ここで、o(3) j,h(3) jは出力層1403のj番目のユニッ
トの出力値及びしきい値、yjは出力層1403のj番目のユ
ニットに対する教師信号、o(2) iは中間層1402のi番目
のユニットの出力値、w(3) ijは中間層1402のi番目のユ
ニットと出力層1403のj番目のユニットの間の重み値で
ある。
中間層1402の重み値及びしきい値は次式に従って変更
される。
w(2) ij=w(2) ij+ηδ(2) jo(1) i h(2) j=h(2) j+ηδ(2) j ここで、o(2) j,h(2) jは中間層1402のj番目のユニッ
トの出力値及びしきい値、o(1) iは入力層1401のi番目
のユニットの出力値、w(2) ijは入力層1401のi番目のユ
ニットと中間層1402のj番目のユニットの間の重み値、
Nは出力層1403に含まれるユニットの数である。ηは学
習係数と呼ばれ、1より小さい値が用いられる。
一般に各ユニットの重み値及びしきい値の初期値は乱
数によって決定され、次式で示すユニットの出力値o(3)
jと教師信号yjとの二乗誤差Eが充分小さくなったとこ
ろで学習を終了する。
この誤差逆伝播学習法を用いた3層のフィードフォワ
ード型神経回路網による認識率が非常に高いことが、最
近の報告により示されている[山田,上,溝口,天満:
“ニューラルネットを用いた文字認識",信学技報,PRU88
−58,79−86(1988)]。
〔発明が解決しようとする課題〕
従来の神経回路網を利用したパターン認識装置の場
合、追記学習が困難であるという問題点を持つ。誤差逆
伝播学習法は、学習データ全てに対して出力と教師信号
の二乗誤差を最小にする方法なので、既に学習を行った
神経回路網を利用したパターン認識装置に新たなパター
ンデータを学習させようとすると、新しいデータのみに
学習辞書が適応し、過去に学習したデータに対する性能
を保持できない。学習によって作成した認識辞書を継承
できず、最初から学習に用いた全ての入力パターンデー
タを用いて神経回路網全体を再学習しなければならな
い。神経回路網の一回の学習は、学習させたい全てのパ
ターンデータを何回も入力して学習が収束するまで行う
ため、非常に長い時間がかかる。パターンデータを覚え
させる度にこの学習過程を繰り返すことは、膨大な計算
量と計算時間を必要とする。手書文字認識など個人に依
存するようなパターン認識においては、その個人専用の
認識辞書が不可欠であるが、従来の神経回路網を利用し
たパターン認識装置では、以上の理由から個人辞書を作
成することは非常に困難である。
本発明の目的は、従来の神経回路網を利用したパター
ン認識装置の欠点である追記学習が困難という問題点を
除去し、認識時に誤認識したパターンと特徴空間におけ
るそのパターンの近傍にあるパターン群を追加辞書とし
て登録し、しかもそれまで作成されている標準辞書を変
更することなく認識率を向上させるパターン認識装置を
提供することにある。
〔課題を解決するための手段〕
第1の発明は、神経回路網を用いたパターン認識装置
において、 入力層記憶部と、 前記入力層記憶部の出力を用いて計算を行う固定中間
層計算部と、 前記固定中間層計算部の出力を用いて計算を行う出力
層計算部と、 前記入力層記憶部の出力に対して興奮性ユニットおよ
び抑制性ユニットを用いて計算を行う可変中間層計算部
と、 前記出力層計算部の出力と前記可変中間層計算部の出
力を統合する統合部と、 前記統合部におけるどのユニットの出力値を変更する
かを指定する誤認識信号に従い、前記ユニットに既に接
続している前記可変中間層計算部における抑制性ユニッ
トのしきい値の修正または新たな興奮性ユニットの追加
により前記ユニットの出力値を上げる、あるいは、前記
ユニットに既に接続している前記可変中間層計算部にお
ける興奮性ユニットのしきい値の修正または新たな抑制
性ユニットの追加によって前記ユニットの出力値を下げ
る可変中間層制御部と、 を有することを特徴とする。
第2の発明は、神経回路網を用いたパターン認識装置
において、 入力層記憶部と、 前記入力層記憶部の出力を用いて計算を行う固定中間
層計算部と、 前記入力層記憶部の出力に対して興奮性ユニットおよ
び抑制性ユニットを用いて計算を行う可変中間層計算部
と、 前記固定中間層計算部の出力と前記可変中間層計算部
の出力を用いて計算を行う出力層計算部と、 前記出力計算部におけるどのユニットの出力値を変更
するかを指定する誤認識信号に従い、前記ユニットに既
に接続している前記可変中間層計算部における抑制性ユ
ニットのしきい値の修正または新たな興奮性ユニットの
追加により前記ユニットの出力値を上げる、あるいは、
前記ユニットに既に接続している前記可変中間層計算部
における興奮性ユニットのしきい値の修正または新たな
抑制性ユニットの追加によって前記ユニットの出力値を
下げる可変中間層制御部と、 を有することを特徴とする。
〔作用〕
第1の発明のパターン認識装置で用いる神経回路網の
モデルを第3図に示す。
入力層301,固定中間層302,出力層303は従来の3層の
フィードフォワード型神経回路網である。
追加中間層304と統合層305に含まれるユニットは、
(1)式で表されるユニットとは、働きが異なる。
追加中間層304のユニットは、次式で表される。
u=・/||−h (3) z=1[u] ここで、1[u]は階段関数である。したがって、z
の根はuが正の場合は1、負の場合は0になる。また、
重みベクトルは、大きさが1になるように規格化され
ている。中間層における1つのユニットは、ある超平面
の識別面を構成する。入力ベクトルの大きさを制限する
ことで、ある1つの閉空間を、ユニット1つでそのユニ
ットの出力が1となる領域とすることができる(ユニッ
トの出力が1になることを、以後「発火」という言葉を
用いて表現する)。その様子を第5図に示す。ユニット
の識別面は、法線ベクトルが重みベクトル、原点との
距離がhの、n次元空間における超平面となる。ただ
し、nは入力ベクトルの次元数である。入力ベクトル
の大きさが1に規格化されているとすると、入力ベクト
ルの終点は、n次元の単位球面上に存在する。したがっ
て、このユニットの発火する領域は、第5図の斜線で示
すような閉空間となる。ユニットの発火する領域の大き
さは、しきい値hの選び方に依存する。
統合層305の各ユニットは、出力層303の各ユニットと
1対1に対応して、結合されている。追加中間層304の
1つのユニットは、統合層305の1つのユニットと興奮
的にあるいは抑制的に結合している。統合層305のユニ
ットは、これまで述べてきたユニットとは全く異なる働
きをする。その入出力関係を、第13図を用いて説明す
る。
統合層305のユニット(ユニットAと呼ぶ)に結合し
ている追加中間層304のユニットを順番に調べて、発火
しているユニットを捜す(ステップ1301,1302)。変数
Aの初期値は1とする。発火しているユニットがあれ
ば、そのユニットが興奮性ユニットか抑制性ユニットか
を調べる(ステップ1303)。興奮性ユニットであれば、
ユニットAは1を出力して終了する(ステップ1304)。
抑制性ユニットであれば、変数Aの値を0にして(ステ
ップ1305)、次の発火しているユニットを捜す。ユニッ
トAに結合している追加ユニットN個についてこの手順
を行い(ステップ1306,1307)、Aが0であったならば
(ステップ1308)、すなわち1つでも発火している抑制
性ユニットがあったならば、ユニットAは0を出力する
(ステップ1309)。変数Aが初期値と変わらなかったな
らば、ユニットAに結合している追加ユニットのいずれ
も発火していなかったことになり、その場合はユニット
Aに結合している出力層303のユニットの出力を、ユニ
ットAの出力とする(ステップ1310)。
このような神経回路網を用いると、識別面を修正する
ことができることを示す。出力層303において、あるカ
テゴリAを表すユニットを、ユニットAと呼ぶことにす
る。入力ベクトル空間において、ユニットAが発火する
領域、すなわちカテゴリAの領域を第6図(a)に斜線
で示す。追加中間層304にユニットを追加し、ユニット
Aに興奮的に結合すると、第6図(b)のように、カテ
ゴリAの領域が追加される。追加されるカテゴリ領域の
位置,大きさは、追加されるユニットの重みベクトル,
しきい値の設定に依存する。追加中間層304にユニット
を追加し、ユニットAに抑制的に結合すると、第6図
(c)のように、カテゴリAの領域が削除される。削除
されるカテゴリ領域の位置,大きさは、追加されるユニ
ットの重みベクトル,しきい値の設定に依存する。以上
の手順により、出力層303のユニットが構成するカテゴ
リの識別面を修正することが可能である。
誤認識した入力データに対して、追記中間層304にユ
ニットを追加することによって、以後、正しく認識する
ように識別面を修正することが可能である。ある入力に
対して、出力307が望ましいものではなかった場合、統
合層305におけるユニットの各出力値を、次に示す手順
により変更することで、望ましい出力値の組を得ること
ができる。
統合層305のあるユニット(便宜上、ユニットAと呼
ぶ)の出力値を上げる手順を第7図に示す。まず、ユニ
ットAに結合している追加中間層304のユニットを順番
に調べて、発火している抑制性ユニットを捜す(ステッ
プ701,702)。もしそのようなユニットがあれば、それ
によってユニットAの出力が抑えられていると考えられ
るので、そのユニットのしきい値を上げ(ステップ70
3)、入力ベクトル空間における追加ユニットの発火領
域に入力ベクトルが含まれないようにする。例えば、し
きい値hを次式で設定すれば、入力ベクトルに対して、
この追加ユニットは発火しなくなる。
h=・((+)/|+|) (4) ただし、は追加ユニットの重みベクトルであり、
は入力ベクトルである。
ユニットAに結合している追加ユニットN個について
この手順を行っても(ステップ704,705)、ユニットA
の出力が上がらない場合は(ステップ706)、ユニット
Aに結合している出力層303のユニットの識別面が、こ
の入力をそのカテゴリに含む形に構成されていないと考
えられる。この場合は、追加中間層304にユニットを追
加し(ステップ707)、ユニットAに興奮性の結合をす
る。その際、追加ユニットの重みベクトルは大きさが1
に規格化された入力ベクトルとし、しきい値はあるh0
る値に設定する。すると、この入力に対して、あるいは
入力ベクトル空間におけるこの近傍の入力に対して、新
たに追加された興奮性ユニットは発火することになり、
したがって、ユニットAは1を出力することになる。
統合層305のユニット(ユニットAと呼ぶ)の出力値
を下げる手順を、第8図に示す。まず、ユニットAに結
合している追加中間層のユニットを順番に調べて、発火
している興奮性ユニットを捜す(ステップ801,802)。
もしそのようなユニットがあれば、それによってユニッ
トAの出力が大きくなっていると考えられるので、その
ユニットのしきい値を上げ(ステップ803)、入力ベク
トル空間における追加ユニットの発火領域に入力ベクト
ルが含まれないようにする。例えば、(4)式のように
しきい値hを設定する。
ユニットAに結合している追加ユニットN個について
この手順を行っても(ステップ804,805)、ユニットA
の出力が下がらない場合は(ステップ806)、ユニット
Aに結合している出力層303のユニットの識別面が、こ
の入力をそのカテゴリに含む形に構成されていないと考
えられる。この場合は、追加中間層304にユニットを追
加し(ステップ807)、ユニットAに抑制性の結合をす
る。その際、追加ユニットの重みベクトルは大きさが1
に規格化された入力ベクトルとし、しきい値はあるh0
る値に設定する。すると、この入力に対して、ある入力
ベクトル空間におけるこの近傍の入力に対して、新たに
追加された抑制性ユニットは発火することになり、した
がってユニットAの出力は抑えられ0になる。
以上述べた手順により、興奮性ユニットあるいは抑制
性ユニットを用い、従来の神経回路網の出力である出力
層303による識別面を修正でき、誤認識した入力を以後
正しく認識することが可能になる。
次に第2の発明の作用を、第4図を用いて説明する、
この神経回路網は第3図の神経回路網と異なり、統合層
を持たず、追加中間層404の出力は、直接出力層403に入
力される。入力層401,固定中間層402,出力層403は従来
の3層のフィードフォワード型神経回路網であり、入力
層401のユニットは入力ベクトルを保存する働きをし、
固定中間層402のユニットの入出力関係は、(1),
(2)式で表される。追加中間層404のユニットの入出
力関係は、(3)式で表される。ただし、第1の発明と
異なり、追加中間層404のユニットは、出力層403のユニ
ットと重みsのシナプス結合をしている。sが正の場合
は興奮性結合、sが負の場合は抑制性結合を意味する。
したがって、出力層403におけるユニットの入出力関係
を式で表すと、 となる。ここで、は固定中間層402からの入力ベクト
ル、は固定中間層402と出力層403の間の重みベクト
ル、hはしきい値である。Nはこのユニットに結合して
いる追加中間層404の数であり、si,yiは結合している追
加中間層404のユニットの重み値と出力値である。ただ
し、yiは(3)式におけるzのことであるから、0ある
いは1の値をとる。f(u)は(2)式で表されるシグ
モイド関数である。
追加中間層404に興奮性あるいは抑制性ユニットを追
加することによって、出力層403で構成される識別面を
修正することができる。出力層403において、あるカテ
ゴリAを表すユニットを、ユニットAと呼ぶことにす
る。入力ベクトル空間において、ユニットAが発火する
領域、すなわちカテゴリAの領域を第9図(a)に斜線
で示す。追加中間層404にユニットを追加し、ユニット
Aに興奮的に結合させると、第9図(b)のように、カ
テゴリAの領域が追加される。追加されるカテゴリ領域
の位置,大きさは、追加されるユニットの重みベクト
ル,しきい値の設定に依存する。また、追加ユニットの
発火領域内におけるカテゴリAの識別面の移動量は、興
奮性結合の強さに依存する。追加中間層404にユニット
を追加し、ユニットAに抑制的に結合させると、第9図
(c)のように、カテゴリAの領域が削除される。削除
されるカテゴリ領域の位置,大きさは、追加されるユニ
ットの重みベクトル,しきい値の設定に依存する。ま
た、追加ユニットの発火領域内におけるカテゴリAの識
別面の移動量は、抑制性結合の強さに依存する。以上の
手順により、出力層403のユニットが構成するカテゴリ
の識別面を修正することが可能である。
誤認識した入力データに対して、追加中間層404にユ
ニットを追加することによって、以後正しく認識するよ
うに識別面を修正することが可能である。ある入力に対
して、出力が望ましいものではなかった場合、出力層40
3における各ユニットの出力値を、次に示す手順により
上げ下げすることで、望ましい出力値の組を得ることが
できる。
出力層403のあるユニット(便宜上、ユニットAと呼
ぶ)の出力値を上げる手順を第10図に示す。まず、ユニ
ットAに結合している追加中間層404のユニットを順番
に調べて、発火している抑制性ユニットを捜す(ステッ
プ1001,1002)。もしそのようなユニットがあれば、そ
れによってユニットAの出力が抑えられていると考えら
れるので、そのユニットのしきい値を上げ(ステップ10
03)、入力ベクトル空間における追加ユニットの発火領
域に入力ベクトルが含まれないようにする。例えば、し
きい値hを(4)式で設定すれば、入力ベクトルに対し
て、この追加ユニットは発火しなくなる。
ユニットAに結合している追加ユニットN個について
この手順を行っても(ステップ1004,1005)、ユニット
Aの出力が十分上がらない場合は(ステップ1006)、ユ
ニットAの識別面が、この入力をそのカテゴリに含む形
に構成されていないと考えられる。この場合は、追加中
間層404にユニットを追加し(ステップ1007)、ユニッ
トAに興奮性の結合をする。その際、追加ユニットの重
みベクトルは大きさが1に規格化された入力ベクトルと
し、しきい値はあるh0なる値に設定する。興奮性結合の
重みs(>0)は、ユニットAの出力値が十分大きくな
るまで大きくする(ステップ1008,1009)。
出力層403のユニット(ユニットAと呼ぶ)の出力値
を下げる手順を、第11図に示す。まず、ユニットAに結
合している追加中間層404のユニットを順番に調べて、
発火している興奮性ユニットを捜す(ステップ1101,110
2)、もしそのようなユニットがあれば、それによって
ユニットAの出力が大きくなっていると考えられるの
で、そのユニットのしきい値を上げ(ステップ1103)、
入力ベクトル空間における追加ユニットの発火領域に入
力ベクトルが含まれないようにする。例えば、(4)式
のようにしきい値hを設定する。
ユニットAに結合している追加ユニットN個について
この手順を行っても(ステップ1104,1105)、ユニット
Aの出力が十分下がらない場合は(ステップ1106)、ユ
ニットAの識別面が、この入力をそのカテゴリに含む形
に構成されていないと考えられる。この場合は、追加中
間層404にユニットを追加し(ステップ1107)、ユニッ
トAに抑制性の結合をする。その際、追加ユニットの重
みベクトルは大きさが1に規格化された入力ベクトルと
し、しきい値はあるh0なる値に設定する。抑制性結合の
重みs(<0)は、ユニットAの出力値が十分小さくな
るまで小さくする(ステップ1108,1109)。
以上述べた手順により、興奮性ユニットあるいは抑制
性ユニットを用い、従来の神経回路網の出力である出力
層403による識別面を修正でき、誤認識した入力を以後
正しく認識することが可能となる。
ここでは、説明のために、入力層,固定中間層,出力
層からなる3層の神経回路網を用いたが、固定中間層を
複数有する神経回路網に対しても、以上述べた作用は有
効である。また、追加中間層の1つのユニットの出力1
本であったが、興奮性あるいは抑制性の結合を複数持つ
ように拡張することもできる。
〔実施例〕
以下、本発明の実施例を図面を参照して説明する。
第1図に、第1の発明のパターン認識装置の一実施例
を示す。
このパターン認識装置は、特徴抽出部101と、入力層
記憶部103と、入力層記憶部103の出力を用いて計算を行
う固定中間層計算部104と、固定中間層計算部104の出力
を用いて計算を行う出力層計算部105と、入力層記憶部1
03の出力を用いて計算を行う可変中間層計算部106と、
出力層計算部105の出力と前記可変中間層計算部106の出
力を統合する統合部107と、可変中間層計算部106への興
奮性ユニット,抑制性ユニットの追加及びしきい値の制
御を行う可変中間層制御部108とを備えている。
入力端子101に入力された入力信号は、特徴抽出部102
において特徴データとなり、入力層記憶部103に保存さ
れる。入力層記憶部103に保存された特徴データの一方
は、固定中間層計算部104に入力され、その計算結果は
出力層計算部105に入力され、その計算結果は統合部107
に入力される。入力層記憶部103に保存された特徴デー
タのもう一方は、可変中間層計算部106に入力され、そ
の計算結果は統合部107に入力される。統合部107におい
て2つの計算結果が統合され、出力端子109から認識結
果が出力される。
認識結果が誤認識であると判断された場合には、誤認
識信号が入力端子110から入力され、可変中間層制御部1
08に送られる。可変中間層制御部108は、誤認識信号に
従い、可変中間層計算部106の計算に用いられるパラメ
ータを変更し、入力層記憶部103に再認識信号を入力す
る。再認識信号を受けた入力層記憶部103は、記憶され
ている特徴データを固定中間層計算部104及び可変中間
層計算部106に送り、認識過程が繰り返される。
統合部107からの出力は可変中間層計算部108に送ら
れ、認識結果の判断が行われ、正しく認識されるまで、
可変中間層制御部108による可変中間層計算部106の制御
が行われる。
文字認識を例にとり、さらに具体的に説明する。入力
文字画像は、横m画素,縦n画素の2値画像とする。黒
画素が1、白画素が0に対応する。ここで、m,nは2値
画像の文字が判読できる程度の解像度となる自然数であ
るが、便宜上mを27、nを33とする。
特徴抽出部102において、2値の入力文字画像は、そ
の文字の特徴を表す特徴量ベクトルに変換されるが、こ
こでは説明のため濃淡特徴ベクトルに変換されるものと
する。つまり、入力文字画像は、特徴抽出部において、
横m′画素、縦n′画素の濃淡画像に変換されるものと
する。m′とn′の値は、それぞれ9,11とする。変換方
法は、横方向に3画素おきに、縦方向に3画素おきに、
第12図に示すようなデジタルフィルターを施し、濃淡値
に変換する。デジタルフィルターをaij(−2≦i≦2,
−2≦j≦2)とし、2値画像をbi′j′として変換
後の濃淡画像をgi′j′とすると、変換は次式で示さ
れる。
ただし、i′,j′は、1≦i′≦9,1≦j′≦11なる
自然数である。この変換により、入力文字画像は、9×
11=99次元の特徴量ベクトルとなる。
入力層記憶部103は、入力層301に対応している。入力
層記憶部103に含まれるユニットの数をNinとすると、こ
のユニットは特徴量ベクトルを記憶するために使われる
ため、合計Nin個のメモリが必要である。今の場合、99
個のメモリが用意されており、上で述べた99次元の特徴
量ベクトルのそれぞれの成分の値が保存される。
固定中間層計算部104は、固定中間層302に対応する。
固定中間層302に含まれるユニットの数をNfixとする
と、ユニット1つに対して、入力層301との結合の重み
値を記憶するNin個のメモリ、しきい値を記憶する1個
のメモリ、及びその計算結果を記憶する1個のメモリが
必要なので、合計Nfix×(Nin+2)個のメモリが用意
されている。固定中間層計算部104の計算は、(1)式
及び(2)式を用いて行われる。固定中間層302に含ま
れるユニットの数Nfixは便宜上40とする。
出力層計算部105は、出力層303に対応する。出力層30
3に含まれるユニットの数をNoutとすると、ユニット1
つに対して、固定中間層302との結合の重み値を記憶す
るNfix個のメモリ、しきい値を記憶する1個のメモリ、
及びその計算結果を記憶する1個のメモリが必要なの
で、合計Nout×(Nfix+2)個のメモリが用意されてい
る。出力層計算部105の計算は、(1)式及び(2)式
を用いて行われる。出力層303に含まれるユニットの数
は、識別させたいカテゴリの数によって定まる。例え
ば、0から9までの10個の印刷数字を入力文字画像とし
た場合、識別させたいカテゴリ数は10個となるので、N
outは10個となる。
可変中間層計算部106は、追加中間層304に対応する。
追加中間層304に含まれるユニット1つに対して、入力
層301との結合の重み値を記憶するNin個のメモリ、しき
い値を記憶する1個のメモリ、その計算結果を記憶する
1個のメモリ、及び統合層305のユニットとの結合の種
類を記憶する1個のメモリの合計(Nin+3)個のメモ
リが必要になる。ここで、結合の種類は例えば「+
3」,「−2」など表されるものとする。「+3」とは
統合層305の3番目のユニットへの興奮性結合を意味
し、「−2」とは統合層305の2番目のユニットへの抑
制性結合を意味する。追加中間層304のユニットは学習
により追加されるので、ユニットの数は増加する。可変
中間層計算部106のメモリは可変になっており、ユニッ
ト数がNaddの場合は、可変中間層計算部106のメモリの
合計はNadd×(Nin+3)になる。可変中間層計算部106
の計算は、(3)式を用いて行われる。
統合部107は、統合層305に対応する。統合部107は、
出力層計算部105の出力と可変中間層計算部106の出力を
用い、第13図に従った計算を行い、出力層303のユニッ
ト数と同じNout個の出力信号を出力する。
固定中間層計算部104及び出力層計算部105における重
み値及びしきい値は、誤差逆伝播学習法により既に設定
されるものとする。この学習は、可変中間層計算部106
には無関係に進められる。
誤認識が生じた場合、誤認識信号が入力端子110に入
力される。この誤認識信号は、出力端子109から出力さ
れるNout個の信号の組に対して、何番目の信号値を上げ
るか、あるいは何番目の信号値を下げるかという番号の
組である。例えば、印刷数字の認識の場合はNoutが10個
であり、1番目の出力信号は数字の「1」、2番目の出
力信号は数字の「2」、…、10番目の出力信号は数字の
「0」を表すカテゴリであるとすると、「3」のカテゴ
リに属する入力信号を正しい出力信号の組は{0,0,1,0,
0,0,0,0,0,0}である。誤認識の出力信号の組{0,1,0,
0,0,0,0,0,0,0}に対しては、{−2,+3}なる誤認識
信号を入力端子110に送ることになる。ここで、例え
ば、出力値が0.8以上の場合にそのカテゴリに含まれ
る、0.2以下の場合にそのカテゴリに含まれないと考え
る場合は、「−2」は2番目の出力信号を0.2より下げ
ることを意味し、「+3」は3番目の出力信号を0.8よ
り上げることを意味する。
誤認識信号を受けた可変中間層制御部108は、第7図
及び第8図に示した手順により、可変中間層計算部106
内に存在するしきい値の変更、あるいは、新たなユニッ
トの追加すなわちユニット分のメモリの確保、及び重み
値,しきい値,結合の種類が設定される。その際、可変
中間層制御部108から入力層記憶部102に再認識信号が送
られ、入力層記憶部108に保存されていた特徴データは
固定中間層計算部104及び可変中間層計算部106へ入力さ
れ、統合部107の出力が可変中間層制御部108に入力さ
れ、可変中間層計算部106の制御に用いられる。統合部1
07の出力が誤認識信号の要求を満たした段階で、可変中
間層制御部108は可変中間層計算部106の制御を停止す
る。
第2図に、第2の発明のパターン認識装置の一実施例
を示す。
このパターン認識装置は、特徴抽出部202と、入力層
記憶部203と、入力層記憶部203の出力を用いて計算を行
う固定中間層計算部204と、入力層記憶部203の出力を用
いて計算を行う可変中間層計算部206と、固定中間層計
算部204の出力と可変中間層計算部206の出力を用いて計
算を行う出力層計算部205と、可変中間層計算部206への
興奮性ユニット,抑制性ユニットの追加及びしきい値の
制御を行う可変中間層制御部207とを備えている。
入力端子201に入力された入力信号は、特徴抽出部202
において特徴データとなり、入力層記憶部203に保存さ
れる。入力層記憶部203に保存された特徴データの一方
は、固定中間層計算部204に入力され、もう一方は、可
変中間層計算部206に入力される。2つの計算結果は出
力層計算部205に入力され、計算が行われ、出力端子208
から認識結果が出力される。
認識結果が誤認識であると判断された場合には、誤認
識信号が入力端子209から入力され、可変中間層制御部2
07に送られる。可変中間層制御部207は、誤認識信号に
従い、可変中間層計算部206の計算に用いられるパラメ
ータを変更し、入力層記憶部203に再認識信号を入力す
る。再認識信号を受けた入力層記憶部203は、記憶され
ている特徴データを固定中間層計算部204及び可変中間
層計算部206に送り、認識過程が繰り返される。出力層
計算部205からの出力は可変中間層制御部207に送られ、
認識結果の判断が行われ、正しく認識されるまで、可変
中間層制御部207による可変中間層計算部206の制御が行
われる。
文字認識を例にとると、特徴抽出部202において、2
値の入力文字画像は、その文字の特徴を表す特徴量ベク
トルに変換される。第1図の実施例と同じく、ここでは
説明のため濃淡特徴ベクトルに変換されるものとする。
この変換により、入力文字画像は、9×11=99次元の特
徴量ベクトルとなる。
入力層記憶部203は、入力層401に対応している。入力
層記憶部203に含まれるユニットの数をNinとすると、こ
のユニットは特徴量ベクトルを記憶するために使われる
ため、合計Nin個のメモリが必要である。今の場合、99
個のメモリが用意されており、上で述べた99次元の特徴
量ベクトルのそれぞれの成分の値が保存される。
固定中間層計算部204は、固定中間層402に対応する。
固定中間層402に含まれるユニットの数をNfixとする
と、ユニット1に対して、入力層401との結合の重み値
を記憶するNin個のメモリ、しきい値を記憶する1個の
メモリ、及びその計算結果を記憶する1個のメモリが必
要なので、合計Nfix×(Nin+2)個のメモリが用意さ
れている。固定中間層計算部204の計算は、(1)式及
び(2)式を用いて行われる。固定中間層402に含まれ
るユニットの数Nfixは、通常用いられる方法によって決
定されることにする。つまり、3層のフィードフォワー
ド型の神経回路網において、未学習データに対して最も
認識率が高くなるように設定される。
出力層計算部205は、出力層403に対応する。出力層40
3に含まれるユニットの数をNoutとすると、ユニット1
つに対して、固定中間層302との結合の重み値を記憶す
るNfix個のメモリ、しきい値を記憶する1個のメモリ、
及びその計算結果を記憶する1個のメモリが必要なの
で、合計Nout×(Nfix+2)個のメモリが用意されてい
る。出力層計算部205の計算は、(5)式を用いて行わ
れる。出力層403に含まれるユニットの数は、識別させ
たいカテゴリの数によって定まる。例えば、0から9ま
での10個の印刷数字を入力文字画像とした場合、識別さ
せたいカテゴリ数は10個となるので、Noutは10となる。
可変中間層計算部206は、追加中間層404に対応する。
追加中間層404に含まれるユニット1つに対して、入力
層401との結合の重み値を記憶するNin個のメモリ、しき
い値を記憶する1個のメモリ、その計算結果を記憶する
1個のメモリ、結合する出力層403のユニットの番号を
記憶する1個のメモリ、及びその結合の重み値を記憶す
る1個のメモリの合計(Nin+4)個のメモリが必要に
なる。追加中間層404のユニットは学習により追加され
るので、ユニットの数は増加する。可変中間層計算部20
6のメモリは可変になっており、ユニット数がNaddの場
合は、可変中間層計算部206のメモリの合計はNadd×(N
in+4)になる。可変中間層計算部206の計算は、
(3)式を用いて行われる。
固定中間層計算部204及び出力層計算部205における重
み値、あるいはしきい値は、誤差逆伝播学習法により既
に設定されるものとする。この学習は、可変中間層計算
部106には無関係に進められる。
誤認識が生じた場合、誤認識信号が入力端子209に入
力される。この誤認識信号は、出力端子208から出力さ
れるNout個の信号の組に対して、何番目の信号値を上げ
るか、あるいは何番目の信号値を下げるかという番号の
組である。例えば、印刷数字の認識の場合はNoutが10個
であり、1番目の出力信号は数字の「1」,2番目の出力
信号は数字の「2」、…、10番目の出力信号は数字の
「0」を表すカテゴリであるとすると、「3」のカテゴ
リに属する入力信号を正しい出力信号の組は{0,0,1,0,
0,0,0,0,0,0}である。誤認識の出力信号の組{0,1,0,
0,0,0,0,0,0,0}に対しては、{−2,+3}なる誤認識
信号を入力端子209に送ることになる。ここで、「−
2」は2番目の出力信号をあるしきい値(第1の発明の
実施例と同じく、仮に0.2とする)より下げることを意
味し、「+3」は3番目の出力信号をあるしきい値(第
1の発明の実施例と同じく、仮に0.8とする)より上げ
ることを意味する。
誤認識信号を受けた可変中間層制御部207は、第10図
及び第11図に示した手順により、可変中間層計算部206
内に存在するしきい値の変更あるいは、新たなユニット
の追加すなわちユニット分のメモリの確保、及び重み
値、しきい値、結合する相手、及びその重み値が設定さ
れる。その際、可変中間層制御部207から入力層記憶部2
03に再認識信号が送られ、入力層記憶部203に保存され
ていた特徴データは固定中間層計算部204及び可変中間
層計算部206へ入力され、出力層計算部205の出力が可変
中間層制御部207に入力され、可変中間層計算部206の制
御に用いられる。出力層計算部205の出力が誤認識信号
の要求を満たした段階で、可変中間層制御部207は可変
中間層計算部206の制御を停止する。
以上、本発明の実施例について述べた。このように本
発明は、可変中間層計算部106,206、可変中間層制御部1
08,207、及び統合部107に関するものである。従来の神
経回路網として3層のフィードフォワード型のニューラ
ルネットを用いたが、より多段のニューラルネットを用
いたものでも、他の学習モデルを用いたものでも、本発
明による追記学習方法は有効である。また、濃淡特徴以
外の特徴量ベクトルを用いても、当然本発明は有効であ
る。
〔発明の効果〕
以上の説明から明らかなように、本発明により1種類
の文字認識部だけでは誤認識してしまう文字が正しく認
識を行うことができ、例えば個人に依存するような手書
文字認識においては、個人の癖などが追加文字認識部に
おける追加辞書に登録することができ、全体として認識
率が向上する。さらに本発明によれば、手紙文字認識の
みならず異なるフォントの印刷文字認識についても有効
で、さらに、文字認識に限らず一般のパターン認識につ
いても本発明は適用可能であり有効である。
【図面の簡単な説明】
第1図は第1の発明であるパターン認識装置のブロック
図、 第2図は第2の発明であるパターン認識装置のブロック
図、 第3図は第1の発明を神経回路網の様式で表したモデル
図、 第4図は第2の発明を神経回路網の様式で表したモデル
図、 第5図は追加中間層に追加されるユニットの作用を説明
するための図、 第6図は追加中間層に追加されるユニットの作用を説明
するための図、 第7図及び第8図は可変中間層制御部における制御手順
を説明する流れ図、 第9図は追加中間層に追加されるユニットの作用を説明
するための図、 第10図及び第11図は可変中間層制御部における制御手順
を説明する流れ図、 第12図は2値の文字画像を濃淡画像に変換するためのデ
ジタルフィルターの例を示す図、 第13図は統合層におけるユニットの出力の手順を説明す
る流れ図、 第14図は従来の3層フィードフォワード型神経回路網の
モデル図である。 101……入力端子 102……特徴抽出部 103……入力層記憶部 104……固定中間層計算部 105……出力層計算部 106……可変中間層計算部 107……統合部 108……可変中間層制御部 109……出力端子 110……入力端子 201……入力端子 202……特徴抽出部 203……入力層記憶部 204……固定中間層計算部 205……出力層計算部 206……可変中間層計算部 207……可変中間層制御部 208……出力端子 209……入力端子 301……入力層 302……固定中間層 303……出力層 304……追加中間層 305……統合層 401……入力層 402……固定中間層 403……出力層 404……追加中間層 1401……入力層 1402……中間層 1403……出力層
───────────────────────────────────────────────────── フロントページの続き (58)調査した分野(Int.Cl.6,DB名) G06F 15/18 G06K 9/66 G06T 1/40 JICSTファイル(JOIS)

Claims (2)

    (57)【特許請求の範囲】
  1. 【請求項1】神経回路網を用いたパターン認識装置にお
    いて、 入力層記憶部と、 前記入力層記憶部の出力を用いて計算を行う固定中間層
    計算部と、 前記固定中間層計算部の出力を用いて計算を行う出力層
    計算部と、 前記入力層記憶部の出力に対して興奮性ユニットおよび
    抑制性ユニットを用いて計算を行う可変中間層計算部
    と、 前記出力層計算部の出力と前記可変中間層計算部の出力
    を統合する統合部と、 前記統合部におけるどのユニットの出力値を変更するか
    を指定する誤認識信号に従い、前記ユニットに既に接続
    している前記可変中間層計算部における抑制性ユニット
    のしきい値の修正または新たな興奮性ユニットの追加に
    より前記ユニットの出力値を上げる、あるいは、前記ユ
    ニットに既に接続している前記可変中間層計算部におけ
    る興奮性ユニットのしきい値の修正または新たな抑制性
    ユニットの追加によって前記ユニットの出力値を下げる
    可変中間層制御部と、 を有することを特徴とするパターン認識装置。
  2. 【請求項2】神経回路網を用いたパターン認識装置にお
    いて、 入力層記憶部と、 前記入力層記憶部の出力を用いて計算を行う固定中間層
    計算部と、 前記入力層記憶部の出力に対して興奮性ユニットおよび
    抑制性ユニットを用いて計算を行う可変中間層計算部
    と、 前記固定中間層計算部の出力と前記可変中間層計算部の
    出力を用いて計算を行う出力層計算部と、 前記出力計算部におけるどのユニットの出力値を変更す
    るかを指定する誤認識信号に従い、前記ユニットに既に
    接続している前記可変中間層計算部における抑制性ユニ
    ットのしきい値の修正または新たな興奮性ユニットの追
    加により前記ユニットの出力値を上げる、あるいは、前
    記ユニットに既に接続している前記可変中間層計算部に
    おける興奮性ユニットのしきい値の修正または新たな抑
    制性ユニットの追加によって前記ユニットの出力値を下
    げる可変中間層制御部と、 を有することを特徴とするパターン認識装置。
JP2198929A 1990-07-26 1990-07-26 追記学習型パターン認識装置 Expired - Fee Related JP2780454B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2198929A JP2780454B2 (ja) 1990-07-26 1990-07-26 追記学習型パターン認識装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2198929A JP2780454B2 (ja) 1990-07-26 1990-07-26 追記学習型パターン認識装置

Publications (2)

Publication Number Publication Date
JPH0484282A JPH0484282A (ja) 1992-03-17
JP2780454B2 true JP2780454B2 (ja) 1998-07-30

Family

ID=16399318

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2198929A Expired - Fee Related JP2780454B2 (ja) 1990-07-26 1990-07-26 追記学習型パターン認識装置

Country Status (1)

Country Link
JP (1) JP2780454B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7676441B2 (en) 2004-06-11 2010-03-09 Canon Kabushiki Kaisha Information processing apparatus, information processing method, pattern recognition apparatus, and pattern recognition method

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7075057B2 (ja) * 2018-12-27 2022-05-25 オムロン株式会社 画像判定装置、画像判定方法及び画像判定プログラム
JP7241009B2 (ja) * 2019-12-23 2023-03-16 Kddi株式会社 学習装置、学習方法及びプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
羽渕,青山,近藤,「追加学習の一方法」,情報処理学会 第39回 (平成元年後期) 全国大会講演論文集(▲I▼),P.387 (1989)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7676441B2 (en) 2004-06-11 2010-03-09 Canon Kabushiki Kaisha Information processing apparatus, information processing method, pattern recognition apparatus, and pattern recognition method

Also Published As

Publication number Publication date
JPH0484282A (ja) 1992-03-17

Similar Documents

Publication Publication Date Title
CN108805270B (zh) 一种基于存储器的卷积神经网络系统
CN108764195B (zh) 手写模型训练方法、手写字识别方法、装置、设备及介质
Kavukcuoglu et al. Learning invariant features through topographic filter maps
Ney On the probabilistic interpretation of neural network classifiers and discriminative training criteria
CN109086653B (zh) 手写模型训练方法、手写字识别方法、装置、设备及介质
US5588091A (en) Dynamically stable associative learning neural network system
CN112990097A (zh) 一种基于对抗消除的人脸表情识别方法
JP2673871B2 (ja) ニューラル・ネットワークによるパターン認識方法及び装置
Chumuang et al. Intelligent handwriting Thai Signature Recognition System based on artificial neuron network
Bouchain Character recognition using convolutional neural networks
CN111079790A (zh) 一种构建类别中心的图像分类方法
CN115272774A (zh) 基于改进自适应差分进化算法的对抗样本攻击方法及系统
JP2780454B2 (ja) 追記学習型パターン認識装置
CN108846349A (zh) 一种基于动态Spiking神经网络的人脸识别方法
Vo Incremental learning using the time delay neural network
Goltsev et al. Some properties of the assembly neural networks
JP3027874B2 (ja) 神経回路網及びそのパターン認識装置
Kwan et al. Supervised fuzzy inference network for invariant pattern recognition
JP3303253B2 (ja) パターンマッチング方法および装置
Rathod Script to speech conversion for Hindi language by using artificial neural network
JPH11265197A (ja) 可変入力神経網を利用した音声認識方法
Lee Neural Network Applications In Hand-Written Symbol Understanding
JP2682203B2 (ja) 文字認識方法
JP2000298661A (ja) ニューラルネットワーク装置
JPH06139410A (ja) ニューラル・ネットワークによるテンプレート・マッチング型文字認識方式

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees