JPH0484282A - 追記学習型パターン認識装置 - Google Patents

追記学習型パターン認識装置

Info

Publication number
JPH0484282A
JPH0484282A JP2198929A JP19892990A JPH0484282A JP H0484282 A JPH0484282 A JP H0484282A JP 2198929 A JP2198929 A JP 2198929A JP 19892990 A JP19892990 A JP 19892990A JP H0484282 A JPH0484282 A JP H0484282A
Authority
JP
Japan
Prior art keywords
unit
output
layer
input
intermediate layer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2198929A
Other languages
English (en)
Other versions
JP2780454B2 (ja
Inventor
Atsushi Sato
敦 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2198929A priority Critical patent/JP2780454B2/ja
Publication of JPH0484282A publication Critical patent/JPH0484282A/ja
Application granted granted Critical
Publication of JP2780454B2 publication Critical patent/JP2780454B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。

Description

【発明の詳細な説明】 〔産業上の利用分野〕 本発明は、認識実行中に認識辞書を更新するパターン認
識装置に関するものである。
〔従来の技術〕
従来の神経回路網を用いたパターン認識装置には、一般
に3層のフィードフォワード型神経回路網が用いられ、
認識に必要な認識辞書は学習により自己組織的に作成さ
れ、認識時の追記学習及び内部構造の変化はない。
第14図に3Nフイ一ドフオワード型神経回路網を示す
。入力N1401に入力された入カバターンは中間層1
402及び出力層1403で演算され、認識結果を出力
する。各層に丸で示したのはユニットと呼ばれるモデル
化された神経細胞である。入力層1401の各ユニット
は、一般に入カバターンを保存するメモリの役割を果た
し、入カバターンと同じ値を出力する。中間層1402
及び出力層1403の各ユニットは入カバターンに近い
側の層の各ユニットから入力を受け、次式に示す計算に
従って出力する。
u−W−マ〜h(1) z=f  (u) ここで、Wは重みベクトルと呼ばれ、その成分Wλはシ
ナプス荷重の値を表す。マは入力ベクトルと呼ばれ、そ
の成分X+ は他のユニットからの入力値を表す。2は
ユニットの出力値である。例えば、中間層1402にお
けるユニットについて説明すると、そのユニットに結合
している入力Ji1401のそれぞれのユニットからの
入力がX、であり、その重み値がW□である。hはしき
い値と呼ばれ、Uは膜電位と呼ばれる。f (u)は出
力関数と呼ばれ、一般に次式で示すシグモイド関数が用
いられる。
f  (u) =1/ (1+exp (u) )  
   (2)ある入カバターンについて望ましい出力に
なるように、各層のユニットの重み値及びしきい値を調
整することを学習と呼び、通常は誤差逆伝播学習法(D
、E、Rumelhart、 G、E、Hinton 
and R,J、Williams: Learnin
g 1nternal repr、esentatio
ns byerror propagation、 P
arallel Distributed Pr。
cessing、 Vol、l、 J、L、McCle
lland、 D、E、Rumelhartand T
he PDP Re5earch Group、 MI
T Press+ 1986.)が用いられる。この学
習法は、学習パターンを入力層1401に入力し、(1
)式で示した計算の結果得られた出力層1403からの
出力と、望ましい出力である教師信号との二乗誤差が、
与えた学習パターン全てに対して最小になるように重み
値及びしきい値を変更する。
出力層1403の重み値及びしきい値は次式に従って変
更される。
δ(+1 、 = 0(31、(1、(H,)(yj−
0°)、)W ” 1j−W ” ij+ηδ(31j
O(2)h(3)j= h(ff+、十ηδ33)、こ
こで、o(Hj+ h (3)、は出力層1403のj
番目のユニットの出力値及びしきい値、yJは出力層1
403のj番目のユニットに対する教師信号□、0(2
)。
は中間1i 1402のi番目のユニットの出力値、w
 (3) 、 jは中間層1402のi番目のユニット
と出力11403のj番目のユニットの間の重み値であ
る。
中間層1402の重み値及びしきい値は次式に従って変
更される。
δ H)  、   =  O(り、   (1−0(
り、)    Σ  W”’ji  δ 0) 。
W ” 、== W ” ij+77δ+x> JO(
1)h(H、= h(1) j十η5 (2)、ここで
、O(り j+ h (tゝ、は中間層1402のj番
目のユニットの出力値及びしきい値、O(+1.は入力
層1401のi番目のユニットの出力値、W”ijは入
力111401のi番目のユニットと中間層1402の
j番目のユニットの間の重み値、Nは出力層1403に
含まれるユニットの数である。ηは学習係数と呼ばれ、
lより小さい値が用いられる。
一般に各ユニットの重み値及びしきい値の初期値は乱数
によって決定され、次式で示すユニットの出力値o(1
1,と教師信号yjとの二乗誤差Eが充分小さくなった
ところで学習を終了する。
この誤差逆伝播学習法を用いた3層のフィードフォワー
ド型神経回路網による認識率が非常に高いことが、最近
の報告により示されている[山田。
上、溝目、天満: “ニューラルネットを用いた文字認
識°′、信学技報、 PR088−58,79−86(
19BB) ]。
〔発明が解決しようとする課題〕
従来の神経回路網を利用したパターン認識装置の場合、
追記学習が困難であるという問題点を持つ。誤差逆伝播
学習法は、学習データ全てに対して出力と教師信号の二
乗誤差を最小にする方法なので、既に学習を行った神経
回路網を利用したパターン認識装置に新たなパターンデ
ータを学習させようとすると、新しいデータのみに学習
辞書が適応し、過去に学習したデータに対する性能を保
持できない。学習によって作成した認識辞書を継承でき
ず、最初から学習に用いた全ての入カバターンデータを
用いて神経回路網全体を再学習しなければならない。神
経回路網の一回の学習は、学習させたい全てのパターン
データを何回も入力して学習が収束するまで行うため、
非常に長い時間がかかる。パターンデータを覚えさせる
度にこの学習過程を繰り返すことは、膨大な計算量と計
算時間を必要とする。手書文字認識など個人に依存する
ようなパターン認識においては、その個人専用の認識辞
書が不可欠であるが、従来の神経回路網を利用したパタ
ーン認識装置では、以上の理由から個人辞書を作成する
ことは非常に困難である。
本発明の目的は、従来の神経回路網を利用したパターン
認識装置の欠点である追記学習が困難という問題点を除
去し、認識時に誤認識したパターンと特徴空間における
そのパターンの近傍に゛あ゛るパターン群を追加辞書と
して登録し、しかもそれまで作成されている標準辞書を
変更することなく認識率を向上させるパターン認識装置
を提供することにある。
[課題を解決するための手段〕 第1の発明は、神経回路網を用いたパターン認識装置に
おいて、 入力層記憶部と、 前記入力層記憶部の出力を用いて計算を行う固定中間層
計算部と、 前記固定中間層計算部の出力を用いて計算を行う出力層
計算部と、 前記入力層記憶部の出力を用いて計算を行う可変中間層
計算部と、 前記出力層計算部の出力と前記可変中間層計算部の出力
を統合する統合部と、 前記可変中間層計算部への興奮性ユニット、抑制性ユニ
ットの追加及びしきい値の制御を行う可変中間層制御部
と、 を有することを特徴とする。
第2の発明は、神経回路網を用いたパターン認識装置に
おいて、 入力層記憶部と、 前記入力層記憶部の出力を用いて計算を行う固定中間層
計算部と、 前記入力層記憶部の出力を用いて計算を行う可変中間層
計算部と、 前記固定中間層計算部の出力と前記可変中間層計算部の
出力を用いて計算を行う出力層計算部と、前記可変中間
層計算部への興奮性ユニット、抑制性ユニットの追加及
びしきい値の制御を行う可変中間層制御部と、 を有することを特徴とする。
〔作用〕
第1の発明のパターン認識装置で用いる神経回路網のモ
デルを第3図に示す。
入力層301.固定中間層302.出力層303は従来
の3層のフィードフォワード型神経回路網である。
追加中間層304と統合層305に含まれるユニットは
、(1)式で表されるユニットとは、働きが異なる。
追加中間層304のユニットは、次式で表される。
u=W−マ/171− h          (3)
z=1 [ul ここで、1[ulは階段関数である。したがって、2の
値はUが正の場合は1、負の場合は0になる。
また、重みベクトルiは、大きさが1になるように規格
化されている。中間層における1つのユニットは、ある
超平面の識別面を構成する。入力ベクトルの大きさを制
限することで、ある1つの閉空間を、ユニット1つでそ
のユニットの出力が1となる頭載とすることができる(
ユニットの出力が1になることを、以後「発火」という
言葉を用いて表現する)。その様子を第5図に示す。ユ
ニットの識別面は、法線ベクトルが重みベクトルマ、原
点との距離がhの、n次元空間における超平面となる。
ただし、nは入力ベクトルの次元数である。入力ベクト
ルマの大きさが1に規格化されているとすると、入力ベ
クトルの終点は、n次元の単位球面上に存在する。した
がって、このユニットの発火する領域は、第5図の斜線
で示すような閉空間となる。ユニットの発火する領域の
大きさは、しきい値りの選び方に依存する。
統合層305の各ユニットは、出力層303の各ユニッ
トと1対1に対応して、結合されている。追加中間層3
04の1つのユニットは、統合層305の1つのユニッ
トと興奮的にあるいは抑制的に結合している。統合層3
05のユニットは、これまで述べてきたユニットとは全
く異なる働きをする。その入出力関係を、第13図を用
いて説明する。
統合層305のユニット(ユニソl−Aと呼ぶ)に結合
している追加中間層304のユニットを順番に調べて、
発火しているユニットを捜す(ステップ1301、13
02)。変数Aの初期値は1とする。発火しているユニ
ットがあれば、そのユニットが興奮性ユニットか抑制性
ユニットかを調べる(ステップ1303)。興奮性ユニ
ットであれば、ユニットAは1を出力して終了する(ス
テップ1304)。抑制性ユニットであれば、変数Aの
値を0にして(ステップ1305) 、次の発火してい
るユニットを捜す。
ユニットAに結合している追加ユニットN個についてこ
の手順を行い(ステップ1306.1307) 、Aが
0であったならば(ステップ1308) 、すなわち1
つでも発火している抑制性ユニットがあったならば、ユ
ニットAは0を出力する(ステップ1309)。
変数Aが初期値と変わらなかったならば、ユニットAに
結合している追加ユニットのいずれも発火していなかっ
たことになり、その場合はユニットAに結合している出
力層303のユニットの出力を、ユニットAの出力とす
る(ステップ1310)。
このような神経回路網を用いると、識別面を修正するこ
とができることを示す。出力層303において、あるカ
テゴリAを表すユニットを、ユニットAと呼ぶことにす
る。入力ベクトル空間において、ユニットAが発火する
領域、すなわちカテゴリAの領域を第6図(a)に斜線
で示す。追加中間層304にユニットを追加し、ユニッ
トAに興奮的に結合すると、第6図(b)のように、カ
テゴリAの領域が追加される。追加されるカテゴリ領域
の位置。
大きさは、追加されるユニットの重みベクトル。
しきい値の設定に依存する。追加中間層304にユニッ
トを追加し、ユニットAに抑制的に結合すると、第6図
(C)のように、カテゴリAの領域が削除される。削除
されるカテゴリ領域の位置、大きさは、追加されるユニ
ットの重みベクトル、しきい値の設定に依存する。以上
の手順により、出力層303のユニットが構成するカテ
ゴリの識別面を修正することが可能である。
誤認識した入力データに対して、追加中間N304にユ
ニットを追加することによって、以後、正しく認識する
ように識別面を修正することが可能である。ある入力に
対して、出力307が望ましいものではなかった場合、
統合層305におけるユニットの各出力値を、次に示す
手順により変更することで、望ましい出力値の組を得る
ことができる。
統合層305のあるユニット(便宜上、ユニットAと呼
ぶ)の出力値を上げる手順を第7図に示す。
まず、ユニットAに結合している追加中間N304のユ
ニットを順番に調べて、発火している抑制性ユニットを
捜す(ステップ701.702)。もしそのようなユニ
ットがあれば、それによってユニットAの出力が抑えら
れていると考えられるので、そのユニットのしきい値を
上げ(ステップ703)、入力ベクトル空間における追
加ユニットの発火領域に入力ベクトルが含まれないよう
にする。例えば、しきい値りを次式で設定すれば、入力
ベクトルに対して、この追加ユニットは発火しなくなる
h=W・ ((W+マ)ZIW+マl)    (4)
ただし、Wは追加ユニットの重みベクトルであり、マは
入力ベクトルである。
ユニットAに結合している追加ユニットN個についてこ
の手順を行っても(ステップ704.705)、ユニッ
トAの出力が上がらない場合は(ステップ706)、ユ
ニットAに結合している出力層303のユニットの識別
面が、この入力をそのカテゴリに含む形に構成されてい
ないと考えられる。この場合は、追加中間N304にユ
ニットを追加しくステップ707)、ユニットAに興奮
性の結合をする。その際、追加ユニットの重みベクトル
は大きさが1に規格化された入力ベクトルとし、しきい
値はあるhoなる値に設定する。すると、この入力に対
して、あるいは入力ベクトル空間におけるこの近傍の入
力に対して、新たに追加された興奮性ユニットは発火す
ることになり、したがって、ユニットAは1を出力する
ことになる。
統合層305のユニット(ユニットAと呼ぶ)の出力値
を下げる手順を、第8図に示す。まず、ユニットAに結
合している追加中間層のユニットを順番に調べて、発火
している興奮性ユニットを捜す(ステップ801.80
2)。もしそのようなユニットがあれば、それによって
ユニットAの出力が大きくなっていると考えられるので
、そのユニ・ントのしきい値を上げ(ステップ803)
、入力ベクトル空間における追加ユニットの発火領域に
入力ベクトルが含まれないようにする。例えば、(4)
式のようにしきい値りを設定する。
ユニットAに結合している追加ユニットN個についてこ
の手順を行っても(ステップ804.805)、ユニッ
トAの出力が下がらない場合は(ステップ806)、ユ
ニットAに結合している出力層303のユニットの識別
面が、この入力をそのカテゴリに含む形に構成されてい
ないと考えられる。この場合は、追加中間層304にユ
ニットを追加しくステップ807)、ユニッl−Aに抑
制性の結合をする。その際、追加ユニットの重みベクト
ルは大きさが1に規格化された入力ベクトルとし、しき
い値はあるhoなる値に設定する。すると、この入力に
対して、ある入力ベクトル空間におけるこの近傍の入力
に対して、新たに追加された抑制性ユニットは発火する
ことになり、したがってユニットAの出力は抑えられO
になる。
以上述べた手順により、興奮性ユニットあるいは抑制性
ユニットを用い、従来の神経回路網の出力である出力層
303による識別面を修正でき、誤認識した入力を以後
正しく認識することが可能になる。
次に第2の発明の作用を、第4図を用いて説明する。こ
の神経回路網は第3図の神経回路網と異なり、統合層を
持たず、追加中間層404の出力は、直接出力層403
に入力される。入力層401.固定中間層402.出力
N403は従来の3層のフィードフォワード型神経回路
網であり、入力層401のユニットは入力ベクトルを保
存する働きをし、固定中間層402のユニットの入出力
関係は、(1)、 (2)式で表される。追加中間層4
04のユニットの入出力関係は、(3)式で表される。
ただし、第1の発明と異なり、追加中間層404のユニ
ットは、出力層403のユニットと重みSのシナプス結
合をしている。
Sが正の場合は興奮性結合、Sが負の場合は抑制性結合
を意味する。したがって、出力層403におけるユニッ
トの人出力関係を式で表すと、z=f  (u) となる。ここで、マは固定中間層402からの入力ベク
トル、Wは固定中間層402と出力層4030間の重み
ベクトル、hはしきい値である。Nはこのユニットに結
合している追加中間層404の数であり、Si+  y
iは結合している追加中間N404のユニットの重み値
と出力値である。ただし、y。
は(3)弐における2のことであるから、Oあるいは1
の値をとる。f  (u)は(2)式で表されるシグモ
イド関数である。
追加中間N404に興奮性あるいは抑制性ユニットを追
加することによって、出力層403で構成される識別面
を修正することができる。出力層403において、ある
カテゴリAを表すユニットを、ユニットAと呼ぶことに
する。入力ベクトル空間において、ユニットAが発火す
る領域、すなわちカテゴリAの領域を第9図(a)に斜
線で示す。追加中間N404にユニットを追加し、ユニ
ットAに興奮的に結合させると、第9図(ロ)のように
、カテゴリAの領域が追加される。追加されるカテゴリ
領域の位置、大きさは、追加されるユニットの重みベク
トル、しきい値の設定に依存する。また、追加ユニット
の発火領域内におけるカテゴリAの識別面の移動量は、
興奮性結合の強さに依存する。追加中間層404にユニ
ットを追加し、ユニットAに・抑制的に結合させると、
第9図(C)のように、カテゴリAの領域が削除される
。削除されるカテゴリ領域の位置、大きさは、追加され
るユニットの重みベクトル、しきい値の設定に依存する
。また、追加ユニットの発火領域内におけるカテゴリA
の識別面の移動量は、抑制性結合の強さに依存する。
以上の手順により、出力層403のユニットが構成する
カテゴリの識別面を修正することが可能である。
誤認識した入力データに対して、追加中間層404にユ
ニットを追加することによって、以後正しく認識するよ
うに識別面を修正することが可能である。ある入力に対
して、出力が望ましいものではなかった場合、出力層4
03における各ユニットの出力値を、次に示す手順によ
り上げ下げすることで、望ましい出力値の組を得ること
ができる。
出力層403のあるユニット(便宜上、ユニットAと呼
ぶ)の出力値を上げる手順を第10図に示す。
まず、ユニッ)Aに結合している追加中間層404のユ
ニットを順番に調べて、発火している抑制性ユニットを
捜す(ステップ100L 1002)。もしそのような
ユニットがあれば、それによってユニットAの出力が抑
えられていると考えられるので、そのユニットのしきい
値を上げ(ステップ1003)、入力ベクトル空間にお
ける追加ユニットの発火領域に入力ベクトルが含まれな
いようにする。例えば、しきい値りを(4)式で設定す
れば、入力ベクトルに対して、この追加ユニットは発火
しなくなる。
ユニットAに結合している追加ユニット8個についてこ
の手順を行っても(ステップ1004.1005)ユニ
ットAの出力が十分上がらない場合は(ステップ100
6) 、ユニッ)Aの識別面が、この入力をそのカテゴ
リに含む形に構成されていないと考えられる。この場合
は、追加中間層404にユニットを追加しくステップ1
007) 、ユニットAに興奮性の結合をする。その際
、追加ユニットの重みベクトルは大きさが1に規格化さ
れた入力ベクトルとし、しきい値はあるhoなる値に設
定する。興奮性結合の重みs (>O)は、ユニットへ
の出力値が十分大きくなるまで大きくする(ステップ1
008゜1009)  。
出力層403のユニット(ユニットAと呼ぶ)の出力値
を下げる手順を、第11図に示す。まず、ユニットAに
結合している追加中間層404のユニットを順番に調べ
て、発火している興奮性ユニットを捜す(ステップLI
O1,1102)。もしそのようなユニットがあれば、
それによってユニットAの出力が大きくなっていると考
えられるので、そのユニットのしきい値を上げ(ステッ
プ1103) 、入力ベクトル空間における追加ユニッ
トの発火領域に入力ベクトルが含まれないようにする。
例えば、(4)式のようにしきい値りを設定する。
ユニットAに結合している追加ユニット8個についてこ
の手順を行っても(ステップ1104.1105)、ユ
ニットAの出力が十分下がらない場合は(ステップ11
06) 、ユニットAの識別面が、この入力をそのカテ
ゴリに含む形に構成されていないと考えられる。この場
合は、追加中間層404にユニットを追加しくステップ
1107) 、ユニットAに抑制性の結合をする。その
際、追加ユニットの重みベクトルは大きさが1に規格化
された入力ベクトルとし、しきい値はあるhoなる値に
設定する。抑制性結合の重みs (<O)は、ユニッ)
Aの出力値が十分小さくなるまで小さくする(ステップ
1108゜1109)。
以上述べた手順により、興奮性ユニットあるいは抑制性
ユニットを用い、従来の神経回路網の出力である出力層
403による識別面を修正でき、誤認識した入力を以後
正しく認識することが可能となる。
ここでは、説明のために、入力層、固定中間層。
出力層からなる3層の神経回路網を用いたが、固定中間
層を複数有する神経回路網に対しても、以上述べた作用
は有効である。また、追加中間層の1つのユニットの出
力1本であったが、興奮性あるいは抑制性の結合を複数
持つように拡張することもできる。
〔実施例〕
以下、本発明の実施例を図面を参照して説明する。
第1図に、第1の発明のパターン認識装置の一実施例を
示す。
このパターン認識装置は、特徴抽出部101 と、入力
層記憶部103と、入力層記憶部103の出力を用いて
計算を行う固定中間層計算部104と、固定中間層計算
部104の出力を用いて計算を行う出力層計算部105
と、入力層記憶部103の出力を用いて計算を行う可変
中間層計算部106と、出力層計算部105の出力と前
記可変中間層計算部106の出力を統合する統合部10
7と、可変中間層計算部106への興奮性ユニット、抑
制性ユニットの追加及びしきい値の制御を行う可変中間
層制御部108とを備えている。
入力端子101に入力された入力信号は、特徴抽出部1
02において特徴データとなり、入力層記憶部103に
保存される。入力層記憶部103に保存された特徴デー
タの一方は、固定中間層計算部104に入力され、その
計算結果は出力層計算部105に入力され、その計算結
果は統合部107に入力される。入力層記憶部103に
保存された特徴データのもう一方は、可変中間層計算部
106に入力され、その計算結果は統合部107に入力
される。統合部107において2つの計算結果が統合さ
れ、出力端子109から認識結果が出力される。
認識結果が誤認識であると判断された場合には、誤認識
信号が入力端子110から入力され、可変中間層制御部
108に送られる。可変中間層制御部10Bは、誤認識
信号に従い、可変中間層計算部106の計算に用いられ
るパラメータを変更し、入力層記憶部103に再認識信
号を入力する。再認識信号を受けた入力層記憶部103
は、記憶されている特徴データを固定中間層計算部10
4及び可変中間層計算部106に送り、認識過程が繰り
返される。
統合部107からの出力は可変中間層計算部10Bに送
られ、認識結果の判断が行われ、正しく認識されるまで
、可変中間層制御部108による可変中間層計算部10
6の制御が行われる。
文字認識を例にとり、さらに具体的に説明する。
入力文字画像は、横m画素、縦れ画素の2値画像とする
。黒画素が1、白画素が0に対応する。ここで、m、n
は2値画像の文字が判読できる程度の解像度となる自然
数であるが、便宜上mを27、nを特徴とする 特徴抽出部102において、2値の入力文字画像は、そ
の文字の特徴を表す特徴量ベクトルに変換されるが、こ
こでは説明のため濃淡特徴ベクトルに変換されるものと
する。つまり、入力文字画像は、特徴抽出部において、
横m′画素、縦n′画素の濃淡画像に変換されるものと
する。m′ とn′の値は、それぞれ9.11とする。
変換方法は、横方向に3画素おきに、縦方向に3画素お
きに、第12図に示すようなデジタルフィルターを施し
、濃淡値に変換する。デジタルフィルターをaaa(−
2≦i≦2.−2≦j≦2)とし、2値画像をす、・、
・とじて変換後の濃淡画像をg i’ j・とすると、
変換は次式で示される。
g i’ j’。Σ Σ a iJX b :+i’ 
−141+  3J−1*j(6)ただし、il、  
jlは、1≦i′≦9,1≦j′≦11なる自然数であ
る。この変換により、入力文字画像は、9X11=99
次元の特徴量ベクトルとなる。
入力層記憶部103は、入力層301に対応している。
入力層記憶部103に含まれるユニットの数をN i 
nとすると、このユニットは特徴量ベクトルを記憶する
ために使われるため、合計N i n個のメモリが必要
である。今の場合、99個のメモリが用意されており、
上で述べた99次元の特徴量ベクトルのそれぞれの成分
の値が保存される。
固定中間層計算部104は、固定中間N302に対応す
る。固定中間N302に含まれるユニットの数をN f
 i Xとすると、ユニット1つに対して、入力層30
1との結合の重み値を記憶するN4個のメモリ、しきい
値を記憶する1個のメモリ、及びその計算結果を記憶す
る1個のメモリが必要なので、合計NfixX (Ni
n+2)個のメモリが用意されている。固定中間層計算
部104の計算は、(1)式及び(2)式を用いて行わ
れる。固定中間層302に含まれるユニットの数N f
 i Xは便宜上40とする。
出力層計算部105は、出力層303に対応する。
出力層303に含まれるユニットの数をN。U、とする
と、ユニット1つに対して、固定中間層302との結合
の重み値を記憶するN f i x個のメモリ、しきい
値を記憶する1個のメモリ、及びその計算結果を記憶す
る1個のメモリが必要なので、合計N out X (
N t+、x + 2 )個のメモリが用意されている
。出力層計算部105の計算は、(1)式及び(2)式
を用いて行われる。出力層303に含まれるユニットの
数は、識別させたいカテゴリの数によって定まる。例え
ば、0から9までの10個の印刷数字を入力文字画像と
した場合、識別させたいカテゴリ数は10個となるので
、N o u t は10個となる。
可変中間層計算部106は、追加中間層304に対応す
る。追加中間層304に含まれるユニット1つに対して
、入力層301 との結合の重み値を記憶するN1個の
メモリ、しきい値を記憶する1個のメモリ、その計算結
果を記憶する1個のメモリ、及び統合層305のユニッ
トとの結合の種類を記憶する1個のメモリの合計(N、
、、+ 3 )個のメモリが必要になる。ここで、結合
の種類は例えば「+3」「−2」などと表されるものと
する。「+3」とは統合層305の3番目のユニットへ
の興奮性結合を意味し、「−2」とは統合層305の2
番目のユニットへの抑制性結合を意味する。追加中間層
304のユニットは学習により追加されるので、ユニッ
トの数は増加する。可変中間層計算部106のメモリは
可変になっており、ユニット数がN、64の場合は、可
変中間層計算部106のメモリの合計はNmaaX (
N、、+ 3 )になる。可変中間層計算部106の計
算は、(3)式を用いて行われる。
統合部107は、統合層305に対応する。統合部10
7は、出力層計算部105の出力と可変中間層計算部1
06の出力を用い、第13図に従った計算を行い、出力
層303のユニット数と同じN Q u を個の出力信
号を出力する。
固定中間層計算部104及び出力層計算部105におけ
る重み値及びしきい値は、誤差逆伝播学習法により既に
設定されるものとする。この学習は、可変中間層計算部
106には無関係に進められる。
誤認識が生じた場合、誤認識信号が入力端子110に入
力される。この誤認識信号は、出力端子109から出力
されるN。ut個の信号の組に対して、何番目の信号値
を上げるか、あるいは何番目の信号値を下げるかという
番号の組である。例えば、印刷数字の認識の場合はN。
utが10個であり、1番目の出力信号は数字の「1」
、2番目の出力信号は数字の「2」、・・・、10番目
の出力信号は数字の「0」を表すカテゴリであるとする
と、「3」のカテゴリに属する入力信号を正しい出力信
号の組は(0,0,1,0,0,O,O,O,0,01
である。誤認識の出力信号の組(0,1,0,00、O
,O,O,O,O)に対しては、(−2゜+3)なる誤
認識信号を入力端子110に送ることになる。ここで、
例えば、出力値が0.8以上の場合にそのカテゴリに含
まれる、0.2以下の場合にそのカテゴリに含まれない
と考える場合は、「−2」は2番目の出力信号を0.2
より下げることを意味し、「+3」は3番目の出力信号
を068より上げることを意味する。
誤認識信号を受けた可変中間層制御部108は、第7図
及び第8図に示した手順により、可変中間層計算部10
6内に存在するしきい値の変更、あるいは、新たなユニ
ットの追加すなわちユニット分のメモリの確保、及び重
み値、しきい値、結合の種類が設定される。その際、可
変中間層制御部108から入力層記憶部102に再認識
信号が送られ、入力層記憶部108に保存されていた特
徴データは固定中間層計算部104及び可変中間層計算
部106へ入力され、統合部107の出力が可変中間層
制御部108に入力され、可変中間層計算部106の制
御に用いられる。統合部107の出力が誤認識信号の要
求を満たした段階で、可変中間層制御部108は・可変
中間層計算部106の制御を停止する。
第2図に、第2の発明のパターン認識装置の一実施例を
示す。
このパターン認識装置は、特徴抽出部202と、入力層
記憶部203と、入力層記憶部203の出力を用いて計
算を行う固定中間層計算部204と、入力層記憶部20
3の出力を用いて計算を行う可変中間層計算部206と
、固定中間層計算部204の出力と可変中間層計算部2
06の出力を用いて計算を行う出力層計算部205と、
可変中間層計算部206への興奮性ユニット、抑制性ユ
ニットの追加及びしきい値の制御を行う可変中間層制御
部207とを備えている。
入力端子201に入力された入力信号は、特徴抽出部2
02において特徴データとなり、入力層記憶部203に
保存される。入力層記憶部203に保存された特徴デー
タの一方は、固定中間層計算部204に入力され、もう
一方は、可変中間層計算部206に入力される。2つの
計算結果は出力層計算部205に入力され、計算が行わ
れ、出力端子208から認識結果が出力される。
認識結果が誤認識であると判断された場合には、誤認識
信号が入力端子209から入力され、可変中間層制御部
207に送られる。可変中間層制御部207は、誤認識
信号に従い、可変中間層計算部206の計算に用いられ
るパラメータを変更し、入力層記憶部203に再認識信
号を入力する。再認識信号を受けた入力層記憶部203
は、記憶されている特徴データを固定中間層計算部20
4及び可変中間層計算部206に送り、認識過程が繰り
返される。出力層計算部205からの出力は可変中間層
制御部207に送られ、認識結果の判断が行われ、正し
く認識されるまで、可変中間層制御部207による可変
中間層計算部206の制御が行われる。
文字認識を例にとると、特徴抽出部202において、2
値の入力文字画像は、その文字の特徴を表す特徴量ベク
トルに変換される。第1図の実施例と同じく、ここでは
説明のため濃淡特徴ベクトルに変換されるものとする。
この変換により、入力文字画像は、9X11=99次元
の特徴量ベクトルとなる。
入力層記憶部203は、入力層401に対応している。
入力層記憶部203に含まれるユニットの数をN i 
nとすると、このユニットは特徴量ベクトルを記憶する
ために使われるため、合計N1.、個のメモリが必要で
ある。今の場合、99個のメモリが用意されており、上
で述べた99次元の特徴量ベクトルのそれぞれの成分の
値が保存される。
固定中間層計算部204は、固定中間層402に対応す
る。固定中間層402に含まれるユニットの数をN f
 i Xとすると、ユニット1に対して、入力層401
 との結合の重み値を記憶するN i n個のメモリ、
しきい値を記憶する1個のメモリ、及びその計算結果を
記憶する1個のメモリが必要なので、合計N、、x (
N、、+2)個のメモリが用意されている。固定中間層
計算部204の計算は、(1)式及び(2)式を用いて
行われる。固定中間層402に含まれるユニットの数N
 f i Xは、通常用いられる方法によって決定され
ることにする。つまり、3層のフィードフォワード型の
神経回路網において、未学習データに対して最も認識率
が高くなるように設定される。
出力層計算部205は、出力層403に対応する。
出力層403に含まれるユニットの数をN。utとする
と、ユニット1つに対して、固定中間層302との結合
の重み値を記憶するN f i X個のメモリ、しきい
値を記憶する1個のメモリ、及びその計算結果を記憶す
る1個のメモリが必要なので、合計N、、tX (Nf
ix+2 )個のメモリが用意されている。出力層計算
部205の計算は、(5)式を用いて行われる。出力層
403に含まれるユニットの数は、識別させたいカテゴ
リの数によって定まる。例えば、0から9までの10個
の印刷数字を入力文字画像とした場合、識別させたいカ
テゴリ数は10個となるので、N 6 Ll tは10
となる。
可変中間層計算部206は、追加中間層404に対応す
る。追加中間層404に含まれるユニット1つに対して
、入力層401との結合の重み値を記憶するN i n
個のメモリ、しきい値を記憶する1個のメモリ、その計
算結果を記憶する1個のメモリ、結合する出力層403
のユニットの番号を記憶する1個のメモリ、及びその結
合の重み値を記憶する1個のメモリの合計(N、。+4
)個のメモリが必要になる。追加中間層404のユニッ
トは学習により追加されるので、ユニットの数は増加す
る。可変中間層計算部206のメモリは可変になってお
り、ユニット数がN addの場合は、可変中間層計算
部206のメモリの合計はN、ddX (Nin+4)
になる。可変中間層計算部206の計算は、(3)式を
用いて行われる。
固定中間層計算部204及び出力層計算部205におけ
る重み値、あるいはしきい値は、誤差逆伝播学習法によ
り既に設定されるものとする。この学習は、可変中間層
計算部106には無関係に進められる。
誤認識が生じた場合、誤認識信号が入力端子209に入
力される。この誤認識信号は、出力端子208から出力
されるN。ut個の信号の組に対して、何番目の信号値
を上げるか、あるいは何番目の信号値を下げるかという
番号の組である。例えば、印刷数字の認識の場合はN。
U、が10個であり、1番目の出力信号は数字のrlJ
、2番目の出力信号は数字の「2」、・・・、10番目
の出力信号は数字の「0」を表すカテゴリであるとする
と、「3」のカテゴリに属する入力信号を正しい出力信
号の組は(0,0,1,0,0,O,O,O,0,0)
である。誤認識の出力信号の組(0,1,0,0゜0.
0.0.O,0,0)に対しては、(−2゜+3)なる
誤認識、信号を入力端子209に送ることになる。ここ
で、「−2」は2番目の出力信号をあるしきい値(第1
の発明の実施例と同じく、仮に0.2とする)より下げ
ることを意味し、「+3」は3番目の出力信号をあるし
きい値(第1の発明の実施例と同じく、仮に0.8とす
る)より上げることを意味する。
誤認識信号を受けた可変中間層制御部207は、第10
図及び第11図に示した手順により、可変中間層計算部
206内に存在するしきい値の変更あるいは、新たなユ
ニットの追加すなわちユニット分のメモリの確保、及び
重み値、しきい値、結合する相手、及びその重み値が設
定される。その際、可変中間層制御部207から入力層
記憶部203に再認識信号が送られ、入力層記憶部20
3に保存されていた特徴データは固定中間層計算部20
4及び可変中間層計算部206へ入力され、出力層計算
部205の出力が可変中間層制御部207に入力され、
可変中間層計算部206の制御に用いられる。出力層計
算部205の出力が誤認識信号の要求を満たした段階で
、可変中間層計算部、部207は可変中間層計算部20
6の制御を停止する。
以上、本発明の実施例について述べた。このように本発
明は、可変中間層計算部106.206、可変中間層制
御部108.207、及び統合部107に関するもので
ある。従来の神経回路網として3層のフィードフォワー
ド型のニューラルネットを用いたが、より多段のニュー
ラルネットを用いたものでも、他の学習モデルを用いた
ものでも、本発明による追記学習方法は有効である。ま
た、濃淡特徴以外の特徴量ベクトルを用いても、当然本
発明は有効である。
〔発明の効果〕
以上の説明から明らかなように、本発明により1種類の
文字認識部だけでは誤認識してしまう文字が正しく認識
を行うことができ、例えば個人に依存するような手書文
字認識においては、個人の癖などが追加文字認識部にお
ける追加辞書に登録することができ、全体として認識率
が向上する。
さらに本発明によれば、手書文字認識のみならず異なる
フォントの印刷文字認識についても有効で、さらに、文
字認識に限らず一般のパターン認識についても本発明は
適用可能であり有効である。
【図面の簡単な説明】
第1図は第1の発明であるパターン認識装置のブロック
図、 第2図は第2の発明であるパターン認識装置のブロック
図、 第3図は第1の発明を神経回路網の様式で表したモデル
図、 第4図は第2の発明を神経回路網の様式で表したモデル
図、 第5図は追加中間層に追加されるユニットの作用を説明
するための図、 第6図は追加中間層に追加されるユニットの作用を説明
するための図、 第7図及び第8図は可変中間層制御部における制御手順
を説明する流れ図、 第9図は追加中間層に追加されるユニットの作用を説明
するための図、 第10図及び第11図は可変中間層制御部における制御
手順を説明する流れ図、 第12図は2値の文字画像を濃淡画像に変換するための
デジタルフィルターの例を示す図、第13図は統合層に
おけるユニットの出力の手順を説明する流れ図、 第14図は従来の3層フィードフォワード型神経回路網
のモデル図である。 101  ・・・・・入力端子 102 ・・・・・特徴抽出部 103  ・・・・・入力層記憶部 104  ・・・・・固定中間層計算部105  ・・
・・・出力層計算部 106  ・・・・・可変中間層計算部107  ・・
・・・統合部 108  ・・・・・可変中間層制御部109  ・・
・・・出力端子 110  ・・・・・入力端子 201  ・・・・・入力端子 202  ・・・・・特徴抽出部 203  ・・・・・入力層記憶部 204 ・ ・ ・ ・ 205 ・ ・ ・ ・ 206 ・ ・ ・ ・ 207 ・ ・ ・ ・ 208 ・ ・ ・ ・ 209 ・ ・ ・ ・ 301 ・ ・ ・ ・ 302 ・ ・ ・ ・ 303 ・ ・ ・ ・ 304 ・ ・ ・ ・ 305 ・ ・ ・ ・ 401 ・ ・ ・ ・ 402 ・ ・ ・ ・ 403 ・ ・ ・ ・ 404 ・ ・ ・ ・ 1401・ ・ ・ ・ 1402・ ・ ・ ・ 1403・ ・ ・ ・ ・固定中間層計算部 ・出力層計算部 ・可変中間層計算部 ・可変中間層制御部 ・出力端子 ・入力端子 ・入力層 ・固定中間層 ・出力層 ・追加中間層 ・統合層 ・入力層 ・固定中間層 ・出力層 ・追加中間層 ・入力層 ・中間層 ・出力層

Claims (2)

    【特許請求の範囲】
  1. (1)神経回路網を用いたパターン認識装置において、 入力層記憶部と、 前記入力層記憶部の出力を用いて計算を行う固定中間層
    計算部と、 前記固定中間層計算部の出力を用いて計算を行う出力層
    計算部と、 前記入力層記憶部の出力を用いて計算を行う可変中間層
    計算部と、 前記出力層計算部の出力と前記可変中間層計算部の出力
    を統合する統合部と、 前記可変中間層計算部への興奮性ユニット、抑制性ユニ
    ットの追加及びしきい値の制御を行う可変中間層制御部
    と、 を有することを特徴とするパターン認識装置。
  2. (2)神経回路網を用いたパターン認識装置において、 入力層記憶部と、 前記入力層記憶部の出力を用いて計算を行う固定中間層
    計算部と、 前記入力層記憶部の出力を用いて計算を行う可変中間層
    計算部と、 前記固定中間層計算部の出力と前記可変中間層計算部の
    出力を用いて計算を行う出力層計算部と、前記可変中間
    層計算部への興奮性ユニット、抑制性ユニットの追加及
    びしきい値の制御を行う可変中間層制御部と、 を有することを特徴とするパターン認識装置。
JP2198929A 1990-07-26 1990-07-26 追記学習型パターン認識装置 Expired - Fee Related JP2780454B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2198929A JP2780454B2 (ja) 1990-07-26 1990-07-26 追記学習型パターン認識装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2198929A JP2780454B2 (ja) 1990-07-26 1990-07-26 追記学習型パターン認識装置

Publications (2)

Publication Number Publication Date
JPH0484282A true JPH0484282A (ja) 1992-03-17
JP2780454B2 JP2780454B2 (ja) 1998-07-30

Family

ID=16399318

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2198929A Expired - Fee Related JP2780454B2 (ja) 1990-07-26 1990-07-26 追記学習型パターン認識装置

Country Status (1)

Country Link
JP (1) JP2780454B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020137228A1 (ja) * 2018-12-27 2020-07-02 オムロン株式会社 画像判定装置、画像判定方法及び画像判定プログラム
JP2021099677A (ja) * 2019-12-23 2021-07-01 Kddi株式会社 学習装置、学習方法及びプログラム

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005352900A (ja) 2004-06-11 2005-12-22 Canon Inc 情報処理装置、情報処理方法、パターン認識装置、及びパターン認識方法

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020137228A1 (ja) * 2018-12-27 2020-07-02 オムロン株式会社 画像判定装置、画像判定方法及び画像判定プログラム
JP2020107104A (ja) * 2018-12-27 2020-07-09 オムロン株式会社 画像判定装置、画像判定方法及び画像判定プログラム
CN112534472A (zh) * 2018-12-27 2021-03-19 欧姆龙株式会社 图像判定装置、图像判定方法及图像判定程序
US11922680B2 (en) 2018-12-27 2024-03-05 Omron Corporation Image determination device, image determination method, and non-transitory computer readable medium storing program
CN112534472B (zh) * 2018-12-27 2024-04-30 欧姆龙株式会社 图像判定装置、图像判定方法及其程序的记录介质
JP2021099677A (ja) * 2019-12-23 2021-07-01 Kddi株式会社 学習装置、学習方法及びプログラム

Also Published As

Publication number Publication date
JP2780454B2 (ja) 1998-07-30

Similar Documents

Publication Publication Date Title
CN110991299B (zh) 一种物理域上针对人脸识别系统的对抗样本生成方法
Hossen et al. Bengali sign language recognition using deep convolutional neural network
Tavanaei et al. Multi-layer unsupervised learning in a spiking convolutional neural network
CN108764195B (zh) 手写模型训练方法、手写字识别方法、装置、设备及介质
CN108665005B (zh) 一种利用dcgan提高基于cnn图像识别性能的方法
CN111783748B (zh) 人脸识别方法、装置、电子设备及存储介质
CN109086653B (zh) 手写模型训练方法、手写字识别方法、装置、设备及介质
CN108304912B (zh) 一种运用抑制信号实现脉冲神经网络监督学习的系统和方法
Erkmen et al. Conic section function neural network circuitry for offline signature recognition
JP2673871B2 (ja) ニューラル・ネットワークによるパターン認識方法及び装置
Chumuang et al. Intelligent handwriting Thai Signature Recognition System based on artificial neuron network
CN108985442B (zh) 手写模型训练方法、手写字识别方法、装置、设备及介质
Bouchain Character recognition using convolutional neural networks
CN114638408A (zh) 一种基于时空信息的行人轨迹预测方法
CN115272774A (zh) 基于改进自适应差分进化算法的对抗样本攻击方法及系统
JPH0484282A (ja) 追記学習型パターン認識装置
JP3035106B2 (ja) 大規模情報認識回路
JP3027874B2 (ja) 神経回路網及びそのパターン認識装置
Zhang et al. Extraction and Classification of Mouth Shape Features in Oral English Teaching Based on Image Processing.
US20220156590A1 (en) Artificial intelligence system and artificial neural network learning method thereof
Rathod Script to speech conversion for Hindi language by using artificial neural network
Dumbre et al. Classification of indian sign language characters utilizing convolutional neural networks and transfer learning models with different image processing techniques
Shalakhmetov et al. Optical character recognition with neural networks
Qumsieh A Supervised Modified Hebbian Learning Method On Feed-forward Neural Networks
CN113723594A (zh) 一种脉冲神经网络目标识别方法

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees