JPH0557633B2 - - Google Patents
Info
- Publication number
- JPH0557633B2 JPH0557633B2 JP58232584A JP23258483A JPH0557633B2 JP H0557633 B2 JPH0557633 B2 JP H0557633B2 JP 58232584 A JP58232584 A JP 58232584A JP 23258483 A JP23258483 A JP 23258483A JP H0557633 B2 JPH0557633 B2 JP H0557633B2
- Authority
- JP
- Japan
- Prior art keywords
- features
- pattern
- layer
- standard
- matching
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
- 238000003909 pattern recognition Methods 0.000 claims description 10
- 238000000034 method Methods 0.000 description 30
- 238000012545 processing Methods 0.000 description 10
- 238000010586 diagram Methods 0.000 description 8
- 238000000605 extraction Methods 0.000 description 8
- 239000013598 vector Substances 0.000 description 7
- 238000007781 pre-processing Methods 0.000 description 6
- 238000006243 chemical reaction Methods 0.000 description 4
- 230000015654 memory Effects 0.000 description 4
- 238000010606 normalization Methods 0.000 description 3
- 230000002093 peripheral effect Effects 0.000 description 3
- 238000012805 post-processing Methods 0.000 description 3
- 235000016496 Panda oleosa Nutrition 0.000 description 2
- 240000000220 Panda oleosa Species 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000012567 pattern recognition method Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 230000002250 progressing effect Effects 0.000 description 1
Landscapes
- Character Discrimination (AREA)
Description
【発明の詳細な説明】
〔発明の利用分野〕
本発明は、パタン認識方式に関し、特に対象と
するカテゴリ数の多い漢字等の認識装置における
高速整合方式に関するものである。
するカテゴリ数の多い漢字等の認識装置における
高速整合方式に関するものである。
従来より漢字認識の研究が進められており、印
刷漢字、オンライン手書き漢字等においても、実
用化、商品化が近づいている。
刷漢字、オンライン手書き漢字等においても、実
用化、商品化が近づいている。
認識の手順は、一般的に、第1図に示すよう
に、最初、用紙を光学的に走査して文字パタンを
帳票より入力する。このとき、光学系と光センサ
により8〜10点/mmに標本化し、さらに適当な閾
値により“0”か“1”(白か黒)の2値パタン
に変換する。光電変換2の後、前処理部3では、
用紙の汚れや光学系、センサ等による雑音を除去
するための平滑化(一種の低域通過フイルタリン
グ)や、文字寸法を一定に揃える正規化を行う。
に、最初、用紙を光学的に走査して文字パタンを
帳票より入力する。このとき、光学系と光センサ
により8〜10点/mmに標本化し、さらに適当な閾
値により“0”か“1”(白か黒)の2値パタン
に変換する。光電変換2の後、前処理部3では、
用紙の汚れや光学系、センサ等による雑音を除去
するための平滑化(一種の低域通過フイルタリン
グ)や、文字寸法を一定に揃える正規化を行う。
次の特徴抽出部5では、文字パタンから文字の
特徴を取り出す。すなわち、文字のストロークの
長さや角度、位置、ストロークの分布、背景部の
状態を特徴として用いる。認識の基準となる文字
についても、あらかじめ同じような処理を行つて
特徴を取り出して、その特徴を辞書に記憶してお
く。整合部12,13は2段階で行われ、第1段
と第2段とでは別種の特徴が用いられる。数字10
と英数カナ100と数字1000〜2000が対象字種(カ
テゴリ数)となる。入力文字パタンの特徴と、大
分類辞書14、認識辞書15中の標準パタンの特
徴とを比較し、入力パタンがどの標準パタンに最
も近いかを見つける、いわゆる整合処理が行われ
る。数字、英数カナまでは、1段目で一致を見つ
けることができるが、漢字の場合には字種が多
く、時間がかかるため、最初に粗いマツチングで
候補を10〜100字種に絞り、次に精密なマツチン
グで1字種に絞つて、これを判定結果とする。
特徴を取り出す。すなわち、文字のストロークの
長さや角度、位置、ストロークの分布、背景部の
状態を特徴として用いる。認識の基準となる文字
についても、あらかじめ同じような処理を行つて
特徴を取り出して、その特徴を辞書に記憶してお
く。整合部12,13は2段階で行われ、第1段
と第2段とでは別種の特徴が用いられる。数字10
と英数カナ100と数字1000〜2000が対象字種(カ
テゴリ数)となる。入力文字パタンの特徴と、大
分類辞書14、認識辞書15中の標準パタンの特
徴とを比較し、入力パタンがどの標準パタンに最
も近いかを見つける、いわゆる整合処理が行われ
る。数字、英数カナまでは、1段目で一致を見つ
けることができるが、漢字の場合には字種が多
く、時間がかかるため、最初に粗いマツチングで
候補を10〜100字種に絞り、次に精密なマツチン
グで1字種に絞つて、これを判定結果とする。
このように、漢字認識装置においては、階層的
認識を行い、入力未知パタンとあらかじめ用意さ
れた標準パタン群とを比較して、最もマツチング
のとれた標準パタンの属するカテゴリにより入力
パタンの決定を行うが、処理の高速化のために
は、次のような方法が用いられている。その第1
の方法は、複数の特徴を用いるパタン認識装置に
おいて、各々の特徴のm1×n1絵素からなる入力
パタンと標準パタンの間で比較を行うこにより、
候補カテゴリの限定を行い、その後、複数の特徴
のm2×n2(ここで、m1<m2、n1<n2)絵素から
なる入力パタンと上記m1×n1における処理によ
つて限定された候補に対する複数の特徴の標準パ
タン群との比較を行い、未知パタンの識別を行う
ものである(電々公社「実用化報告」第32巻第2
号参照)。すなわち、先ず最初寸法の小さいパタ
ン相互を比較して高速に処理し、2000字程度から
1/4〜1/5に絞つてしまい、次に、絞られたものの
中から寸法の大きいパタン相互を比較して1つの
カテゴリを選択する。一般に、小さいパタンで比
較すると、高速処理が可能であるが、比較対象が
ぼけてしまうため不正確となる。そこで、次に大
きいパタンで正確に比較するのである。また、第
2の方法は、単一の特徴を用いるパタン認識装置
において、分類処理をm1×n1絵素の1段階のみ
に止めず、m1×n1、m2×n2、m(l−1)×n(l
−1)……(mk<mk+1、nk<nk+1、k=1、2、
……(l−1))と多層用意しておくものである
(特公昭53−17020号公報参照)。これは、小さい
寸法から順次、大きい寸法のものを相互に比較し
ていくことにより、最初は高速であるが、ぼける
ので不正確であり、後方になるほど低速である
が、確に比較して、全体としての分類効率の向上
を図るのである。
認識を行い、入力未知パタンとあらかじめ用意さ
れた標準パタン群とを比較して、最もマツチング
のとれた標準パタンの属するカテゴリにより入力
パタンの決定を行うが、処理の高速化のために
は、次のような方法が用いられている。その第1
の方法は、複数の特徴を用いるパタン認識装置に
おいて、各々の特徴のm1×n1絵素からなる入力
パタンと標準パタンの間で比較を行うこにより、
候補カテゴリの限定を行い、その後、複数の特徴
のm2×n2(ここで、m1<m2、n1<n2)絵素から
なる入力パタンと上記m1×n1における処理によ
つて限定された候補に対する複数の特徴の標準パ
タン群との比較を行い、未知パタンの識別を行う
ものである(電々公社「実用化報告」第32巻第2
号参照)。すなわち、先ず最初寸法の小さいパタ
ン相互を比較して高速に処理し、2000字程度から
1/4〜1/5に絞つてしまい、次に、絞られたものの
中から寸法の大きいパタン相互を比較して1つの
カテゴリを選択する。一般に、小さいパタンで比
較すると、高速処理が可能であるが、比較対象が
ぼけてしまうため不正確となる。そこで、次に大
きいパタンで正確に比較するのである。また、第
2の方法は、単一の特徴を用いるパタン認識装置
において、分類処理をm1×n1絵素の1段階のみ
に止めず、m1×n1、m2×n2、m(l−1)×n(l
−1)……(mk<mk+1、nk<nk+1、k=1、2、
……(l−1))と多層用意しておくものである
(特公昭53−17020号公報参照)。これは、小さい
寸法から順次、大きい寸法のものを相互に比較し
ていくことにより、最初は高速であるが、ぼける
ので不正確であり、後方になるほど低速である
が、確に比較して、全体としての分類効率の向上
を図るのである。
しかし、上記第1、第2の方法では、いずれも
識別に用いる特徴と同一の特徴を情報圧縮して分
類に用いているため、必ずしも最適な分類効率の
向上がなされていないという問題点がある。
識別に用いる特徴と同一の特徴を情報圧縮して分
類に用いているため、必ずしも最適な分類効率の
向上がなされていないという問題点がある。
本発明の目的は、このような従来の問題点を改
善し、漢字パタンのように多数個のカテゴリ群
を、認識精度を落とすことなく、高速度で整合処
理することができるパタン認識システムを提供す
ることにある。
善し、漢字パタンのように多数個のカテゴリ群
を、認識精度を落とすことなく、高速度で整合処
理することができるパタン認識システムを提供す
ることにある。
本発明の上記目的は、入力されたパタンから複
数の特徴を抽出する手段と、前記入力パタンの特
徴と比較すべき各標準パタンの複数の特徴を記憶
する手段、および、前記標準パタンの複数の特徴
と同じ数だけ直列に接続された階層整合手段を有
するパタン認識システムにおいて、前記特徴記憶
手段を、前記標準パタンの特徴と予め前記各標準
パタン毎に定めた分類能力順位から構成するとと
もに、パタンが入力されると前記特徴記憶手段中
の標準パタンに対応して定められている順位に応
じた特徴を読み出して、第1層の整合手段で当該
入力パタンの特徴との整合をとり、第2層の整合
手段では、第1層の整合結果で絞られた候補と、
次順位の分類能力を有する特徴とを比較照合し、
以下、順次、分類能力の下位の特徴を用いて整合
をとる制御手段を設けたことを特徴とするパタン
認識システムによつて達成される。
数の特徴を抽出する手段と、前記入力パタンの特
徴と比較すべき各標準パタンの複数の特徴を記憶
する手段、および、前記標準パタンの複数の特徴
と同じ数だけ直列に接続された階層整合手段を有
するパタン認識システムにおいて、前記特徴記憶
手段を、前記標準パタンの特徴と予め前記各標準
パタン毎に定めた分類能力順位から構成するとと
もに、パタンが入力されると前記特徴記憶手段中
の標準パタンに対応して定められている順位に応
じた特徴を読み出して、第1層の整合手段で当該
入力パタンの特徴との整合をとり、第2層の整合
手段では、第1層の整合結果で絞られた候補と、
次順位の分類能力を有する特徴とを比較照合し、
以下、順次、分類能力の下位の特徴を用いて整合
をとる制御手段を設けたことを特徴とするパタン
認識システムによつて達成される。
以下、本発明の実施例を、図面により説明す
る。
る。
第2図a〜eは、本発明の階層整合方法を示す
説明図である。
説明図である。
本発明では、入力パタンから複数の特徴を抽出
する特徴抽出部を設け、そこで、後述する如く、
各種の特徴を抽出して、各標準パタンごとに、特
徴の分類能力順位を決定して記憶部に格納する。
例えば、各種の特徴抽出方法のうち、第2図a,
b,cの3種類の方法で特徴を取り出すものとす
る。第2図aには、全体の構造、例えば国構え、
門構え、勹(ツツミ)構え、にんべん、さんず
い、うかんむり、わかんむり、しんにゆう等で分
類する方法を示し、第2図bには文字パタン周囲
の白の面積のヒストグラムを求めた分類方法(ペ
リフエラルによる方法)を示し、第2図cには上
下方向あるいは左右方向のストロークの交叉する
回数を求めた分類方法(ストローク密度による方
法)を示す。この場合、文字パタンによつて上記
分類方法は能力が異なり、ある文字に対してはペ
リフエラルによる方法が最も分類能力が高く、別
の文字に対してはストローク密度による方法が最
も分類能力が高い。そこで、各標準パタンごと
に、特徴の分類能力順位を決定して記憶してお
く。そして、入力パタンに対して、その分類能力
順位を用い、分類能力の高い特徴から順に整合処
理を行うのである(階層整合)。
する特徴抽出部を設け、そこで、後述する如く、
各種の特徴を抽出して、各標準パタンごとに、特
徴の分類能力順位を決定して記憶部に格納する。
例えば、各種の特徴抽出方法のうち、第2図a,
b,cの3種類の方法で特徴を取り出すものとす
る。第2図aには、全体の構造、例えば国構え、
門構え、勹(ツツミ)構え、にんべん、さんず
い、うかんむり、わかんむり、しんにゆう等で分
類する方法を示し、第2図bには文字パタン周囲
の白の面積のヒストグラムを求めた分類方法(ペ
リフエラルによる方法)を示し、第2図cには上
下方向あるいは左右方向のストロークの交叉する
回数を求めた分類方法(ストローク密度による方
法)を示す。この場合、文字パタンによつて上記
分類方法は能力が異なり、ある文字に対してはペ
リフエラルによる方法が最も分類能力が高く、別
の文字に対してはストローク密度による方法が最
も分類能力が高い。そこで、各標準パタンごと
に、特徴の分類能力順位を決定して記憶してお
く。そして、入力パタンに対して、その分類能力
順位を用い、分類能力の高い特徴から順に整合処
理を行うのである(階層整合)。
階層整合とは、異なる特徴を分類能力の高い特
徴から順に配列し、順次、正解候補を絞つていく
方法である。すなわち、第1層目は対象カテゴリ
のすべての辞書との間で整合処理を行わなければ
ならないが、第2層目以後は絞られた候補を対象
として整合処理を実施する。したがつて、辞書の
一部との整合処理を実施することになり、異なる
特徴を同時に用いる方法や、同一特徴を階層的に
用いる方法と比較して、大幅に整合時間を短縮す
ることができる。さらに、分類能力の高い特徴か
ら順に配列することにより、候補の数を大幅に絞
ることができる。このようにして、本発明では、
認識精度を落さずに、整合時間を大幅に短縮でき
る。
徴から順に配列し、順次、正解候補を絞つていく
方法である。すなわち、第1層目は対象カテゴリ
のすべての辞書との間で整合処理を行わなければ
ならないが、第2層目以後は絞られた候補を対象
として整合処理を実施する。したがつて、辞書の
一部との整合処理を実施することになり、異なる
特徴を同時に用いる方法や、同一特徴を階層的に
用いる方法と比較して、大幅に整合時間を短縮す
ることができる。さらに、分類能力の高い特徴か
ら順に配列することにより、候補の数を大幅に絞
ることができる。このようにして、本発明では、
認識精度を落さずに、整合時間を大幅に短縮でき
る。
なお、第2図d,eは、分類方法の他の1つで
あつて、方向寄与度によるものである。これは、
漢字パタンの平面を分割し(第2図dでは4分
割)、分割されたメツシユ中の、それぞれのメツ
シユにおけるストロークの方向を求めるものであ
る。なお、ストロークとは、第2図dの斜線を施
した部分の筆画を指している。第2図eは、スト
ロークの方向を説明するための図であり、細長い
輪郭線でストロークの例を示している。ストロー
クの方向の度合い(これを「方向寄与度」と呼ん
でいる)を求めるため、ここでは、4つの方向、
すなわち、水平および垂直方向、斜め(右45゜の
方向、左45゜の方向)の方向に対して、ベクトル
を伸ばし、輪郭線、すなわち、ストローク境界に
至るまでのベクトルの長さを求める。第2図eに
示したストロークでは、左上から右下の方向への
ベクトルの長さが最長であり、水平、垂直方向の
ベクトルの長さはいずれもこれより短い。従つ
て、当該ストロークでは、左上から右下の方向へ
の斜めの方向の度合いが大きく、他の方向の度合
いが小さい。この方向寄与度を特徴として、分類
を行うことができる。
あつて、方向寄与度によるものである。これは、
漢字パタンの平面を分割し(第2図dでは4分
割)、分割されたメツシユ中の、それぞれのメツ
シユにおけるストロークの方向を求めるものであ
る。なお、ストロークとは、第2図dの斜線を施
した部分の筆画を指している。第2図eは、スト
ロークの方向を説明するための図であり、細長い
輪郭線でストロークの例を示している。ストロー
クの方向の度合い(これを「方向寄与度」と呼ん
でいる)を求めるため、ここでは、4つの方向、
すなわち、水平および垂直方向、斜め(右45゜の
方向、左45゜の方向)の方向に対して、ベクトル
を伸ばし、輪郭線、すなわち、ストローク境界に
至るまでのベクトルの長さを求める。第2図eに
示したストロークでは、左上から右下の方向への
ベクトルの長さが最長であり、水平、垂直方向の
ベクトルの長さはいずれもこれより短い。従つ
て、当該ストロークでは、左上から右下の方向へ
の斜めの方向の度合いが大きく、他の方向の度合
いが小さい。この方向寄与度を特徴として、分類
を行うことができる。
第3図は、本発明の一実施例を示すパタン認識
装置のブロツク図であり、第4図は第3図におけ
る分類能力順位記憶部の概念図である。
装置のブロツク図であり、第4図は第3図におけ
る分類能力順位記憶部の概念図である。
第3図において、入力帳票1に記載された文字
パタンを含む領域は、光電変換部2により電気信
号に変換される。光電変換器としては、ビデイコ
ン、飛点走査機あるいはCCD(Charge Coupled
Device)等の通常用いられるものでよい。
パタンを含む領域は、光電変換部2により電気信
号に変換される。光電変換器としては、ビデイコ
ン、飛点走査機あるいはCCD(Charge Coupled
Device)等の通常用いられるものでよい。
光電変換部2により電気信号に変換された文字
パタンは、多値のパタンとして前処理部3に供給
される。前処理部3は、多値パタンとして表示さ
れた帳票イメージを2値化し、1文字を切り出
す。この際に、大きさ、傾きの正規化、ノイズの
除去等の正規化処理が行われる。前処理部3によ
り必要な前処理が施された文字パタンは、バツフ
ア・メモリ4に蓄えられ、特徴抽出部5−1〜5
−3の処理の開始を待つ。第3図の実施例では、
説明の便宜上、特徴の種類を3種類とし、また階
層数を3層とする。特徴の種類および階層の数
は、上記以外の任意の値を取ることができる。
パタンは、多値のパタンとして前処理部3に供給
される。前処理部3は、多値パタンとして表示さ
れた帳票イメージを2値化し、1文字を切り出
す。この際に、大きさ、傾きの正規化、ノイズの
除去等の正規化処理が行われる。前処理部3によ
り必要な前処理が施された文字パタンは、バツフ
ア・メモリ4に蓄えられ、特徴抽出部5−1〜5
−3の処理の開始を待つ。第3図の実施例では、
説明の便宜上、特徴の種類を3種類とし、また階
層数を3層とする。特徴の種類および階層の数
は、上記以外の任意の値を取ることができる。
バツフア・メモリ4に蓄積された文字パタン
は、特徴抽出部5−1〜5−3に送られ、文字の
特徴を表わす特徴1〜3が抽出される。抽出する
特徴1〜3は、例えば第2図a〜dの全体の構
え、ペリフエラル、ストローク密度関数および方
向寄与度は勿論、その他の方法を含む特徴の中か
ら3つが選択される。
は、特徴抽出部5−1〜5−3に送られ、文字の
特徴を表わす特徴1〜3が抽出される。抽出する
特徴1〜3は、例えば第2図a〜dの全体の構
え、ペリフエラル、ストローク密度関数および方
向寄与度は勿論、その他の方法を含む特徴の中か
ら3つが選択される。
特徴抽出部5−1〜5−3により抽出された特
徴は、バツフア・メモリ6−1〜6−3に記憶さ
れ、次の階層整合に備える。
徴は、バツフア・メモリ6−1〜6−3に記憶さ
れ、次の階層整合に備える。
一方、あらかじめ定めた標準パタンPi(iは1、
2、3、……k)に対して、複数の特徴群Pi(j)
(jは1、2、3)と閾値群THij(iは1、2、
3、……k、jは1、2、3)を求めておき、標
準パタン記憶部8に格納しておく。この閾値群と
は、標準パタンから抽出された複数の特徴量(す
なわち、特徴ベクトル)が張る特徴空間上におい
て、入力パタンから抽出された特徴ベクトルが特
定のカテゴリに入る特徴空間上の領域を定めてい
るもので、分類能力が大きいものほど閾値は小さ
くてもよいことになる。すなわち、入力パタンに
対して距離を計算する際に、Aの範囲しかないカ
テゴリでは、A以上の計算は不要であり、Aの範
囲に余裕値αを加えた値が閾値となる。
2、3、……k)に対して、複数の特徴群Pi(j)
(jは1、2、3)と閾値群THij(iは1、2、
3、……k、jは1、2、3)を求めておき、標
準パタン記憶部8に格納しておく。この閾値群と
は、標準パタンから抽出された複数の特徴量(す
なわち、特徴ベクトル)が張る特徴空間上におい
て、入力パタンから抽出された特徴ベクトルが特
定のカテゴリに入る特徴空間上の領域を定めてい
るもので、分類能力が大きいものほど閾値は小さ
くてもよいことになる。すなわち、入力パタンに
対して距離を計算する際に、Aの範囲しかないカ
テゴリでは、A以上の計算は不要であり、Aの範
囲に余裕値αを加えた値が閾値となる。
一方、各標準パタンにおける各特徴の分類能力
順位、つまり閾値を求めておき、分類能力記憶部
7に、閾値の小さい順に並べて格納しておく。
順位、つまり閾値を求めておき、分類能力記憶部
7に、閾値の小さい順に並べて格納しておく。
分類能力記憶部7の一例としては、第4図に示
すように、行にカテゴリ名(文字コード)を配置
し、列に層順を配置して、各マトリクスには各カ
テゴリの該当する層において使用される特徴名を
登録したテーブルが格納されている。第4図によ
れば、コード名「A4A2」のカテゴリにおける各
特徴は、B、C、Aの順に分類能力が高いので、
階層整合ではこの順序で使用されることを示して
いる。このようにすれば、第1層で大略分類でき
ることになり、少なくとも第2層までですべて分
類される。第3層は、分類能力が低いので、役に
立たないようであるが、文字パタンの特徴の空間
はいずれも異つており、どれが1番分類能力が高
く、どれが2番目でどれが3番目かを決定するた
めには、同じ空間に合成し直さないと比較できな
いため、これが設置される。
すように、行にカテゴリ名(文字コード)を配置
し、列に層順を配置して、各マトリクスには各カ
テゴリの該当する層において使用される特徴名を
登録したテーブルが格納されている。第4図によ
れば、コード名「A4A2」のカテゴリにおける各
特徴は、B、C、Aの順に分類能力が高いので、
階層整合ではこの順序で使用されることを示して
いる。このようにすれば、第1層で大略分類でき
ることになり、少なくとも第2層までですべて分
類される。第3層は、分類能力が低いので、役に
立たないようであるが、文字パタンの特徴の空間
はいずれも異つており、どれが1番分類能力が高
く、どれが2番目でどれが3番目かを決定するた
めには、同じ空間に合成し直さないと比較できな
いため、これが設置される。
階層整合を行うには、先ず分類能力記憶部7に
記憶された内容を読み出し、各標準パタンの第1
層から第3層までにおいて使用されるべき特徴名
を得る。これらの情報にしたがつて、階層整合を
実施する。
記憶された内容を読み出し、各標準パタンの第1
層から第3層までにおいて使用されるべき特徴名
を得る。これらの情報にしたがつて、階層整合を
実施する。
第5図は、第3図の階層整合の動作フローチヤ
ートである。
ートである。
第5図において、jは層順を示し、iはカテゴ
リを示す。また、AFiはアクセプト・フラグを表
わし、入力パタンに対して閾値内に入つている場
合は“1”を立てて候補とする。
リを示す。また、AFiはアクセプト・フラグを表
わし、入力パタンに対して閾値内に入つている場
合は“1”を立てて候補とする。
第1層処理においては、入力パタンのいずれか
の特徴と、すべての標準パタンの第1層目で処理
されるべき特徴との間で照合をとり、類似度Sを
得る。得られた類似度Sと閾値THijとを比較し、
閾値以下の標準パタンのみを第2層に候補として
送る。すなわち、j=1を立てて第1層目とした
後、インクリメントされた結果がj≦3であれ
ば、照合処理を続行し、i=1でカテゴリの最初
から開始する(ステツプ21〜23)。アクセプト・
フラグAFiを“1”として、i≦k、つまりカテ
ゴリの最後まで到達していないならば、入力パタ
ンと標準パタンの特徴間の類似度Sを求める(ス
テツプ24〜27)。
の特徴と、すべての標準パタンの第1層目で処理
されるべき特徴との間で照合をとり、類似度Sを
得る。得られた類似度Sと閾値THijとを比較し、
閾値以下の標準パタンのみを第2層に候補として
送る。すなわち、j=1を立てて第1層目とした
後、インクリメントされた結果がj≦3であれ
ば、照合処理を続行し、i=1でカテゴリの最初
から開始する(ステツプ21〜23)。アクセプト・
フラグAFiを“1”として、i≦k、つまりカテ
ゴリの最後まで到達していないならば、入力パタ
ンと標準パタンの特徴間の類似度Sを求める(ス
テツプ24〜27)。
なお、ステツプ26では、前の層でアクセプトフ
ラグAFi=1のものだけを抽出して、ステツプ27
で、入力パタンと標準パタンの特徴間の類似度S
を算出する。従つて、前の層でアクセプトフラグ
AFi=0のものについては、類似度算出(ステツ
プ27)を行わず、ステツプ30で、次カテゴリに移
る。
ラグAFi=1のものだけを抽出して、ステツプ27
で、入力パタンと標準パタンの特徴間の類似度S
を算出する。従つて、前の層でアクセプトフラグ
AFi=0のものについては、類似度算出(ステツ
プ27)を行わず、ステツプ30で、次カテゴリに移
る。
次に、類似度Sと閾値THijとを比較してS>
THijであればフラグAFi=0とし、S≦THijで
あればi=i+1、つまり次の標準パタンの特徴
との比較に移る(ステツプ28〜30)。このように、
最初にフラグAFi=“1”を立てておき、マツチ
ングしてリジエクトされたときにフラグAFi=
“0”とし、次の層では、ステツプ26に示すよう
に、AFi=1のものだけを抽出して、比較の対象
とする。
THijであればフラグAFi=0とし、S≦THijで
あればi=i+1、つまり次の標準パタンの特徴
との比較に移る(ステツプ28〜30)。このように、
最初にフラグAFi=“1”を立てておき、マツチ
ングしてリジエクトされたときにフラグAFi=
“0”とし、次の層では、ステツプ26に示すよう
に、AFi=1のものだけを抽出して、比較の対象
とする。
第2層においては、第1層目において候補とな
つた標準パタンを抽出し、これと第2層目の特徴
との間で整合をとり、第1層と同じように候補数
を絞る。以下、順次同じ処理を繰り返して候補を
限定する。
つた標準パタンを抽出し、これと第2層目の特徴
との間で整合をとり、第1層と同じように候補数
を絞る。以下、順次同じ処理を繰り返して候補を
限定する。
階層照合部9において候補となつたカテゴリ
は、類似度Sとともに判定部10に送られ、各層
の類似度Sを加算し、最終判定が下される。この
とき、単に類似度Sを加算するのも1つの方法で
あるが、各特徴の認別能力の逆数を重みとして用
いる方が一層有効である。
は、類似度Sとともに判定部10に送られ、各層
の類似度Sを加算し、最終判定が下される。この
とき、単に類似度Sを加算するのも1つの方法で
あるが、各特徴の認別能力の逆数を重みとして用
いる方が一層有効である。
判定部10の出力は後処理部11に送られ、棄
却した文字の挿入等を行う。特徴文字が漢字等を
含む場合には、後処理部11は日本語ワードプロ
セツサ等の日本語編集機能を有することが望まし
い。
却した文字の挿入等を行う。特徴文字が漢字等を
含む場合には、後処理部11は日本語ワードプロ
セツサ等の日本語編集機能を有することが望まし
い。
以上の動作に必要な制御信号は、制御部20か
ら供給される。制御部20は通常のマイクロ・プ
ロセツサを用いればよい。
ら供給される。制御部20は通常のマイクロ・プ
ロセツサを用いればよい。
なお、実施例では、対象を文字に限定したが、
対象が音声や画像であつても、同じ扱いが可能で
あることは勿論である。
対象が音声や画像であつても、同じ扱いが可能で
あることは勿論である。
第3図の実施例では、莫大なカテゴリを有する
漢字等の認識を効率的に実行することができる。
漢字等の認識を効率的に実行することができる。
以上説明したように、本発明によれば、高速に
整合処理を実施できるので、認識精度を落すこと
なく、パタン認識速度を向上することが可能であ
る。また、各標準パタンにおける各特徴の分類能
力順位、つまり閾値は、分類能力情報としてテー
ブルに保持されており、分類能力が大きいほど、
当該テーブルの閾値は小さくなつている。このた
め、分類能力の大きいカテゴリが定めている特徴
空間上の領域は小さくなり、従つて、認識の妨害
要因となる他のカテゴリの特徴ベクトルが当該領
域に入り込むことを排除でき、その結果、認識精
度が向上する。
整合処理を実施できるので、認識精度を落すこと
なく、パタン認識速度を向上することが可能であ
る。また、各標準パタンにおける各特徴の分類能
力順位、つまり閾値は、分類能力情報としてテー
ブルに保持されており、分類能力が大きいほど、
当該テーブルの閾値は小さくなつている。このた
め、分類能力の大きいカテゴリが定めている特徴
空間上の領域は小さくなり、従つて、認識の妨害
要因となる他のカテゴリの特徴ベクトルが当該領
域に入り込むことを排除でき、その結果、認識精
度が向上する。
第1図は従来の漢字認識方式の機能ブロツク
図、第2図は本発明に用いる各種の特徴抽出方法
の説明図、第3図は本発明の一実施例を示すパタ
ン認識方式の機能ブロツク図、第4図は第3図の
分類能力順位記憶部の概念図、第5図は第3図の
階層整合部の動作フローチヤートである。 1:入力帳票、2:光電変換部、3:前処理
部、4,6:バツフア・メモリ、5:特徴抽出
部、7:分類能力記憶部、8:標準パタン記憶
部、9:階層整合部、10:判定部、11:後処
理部、20:制御部。
図、第2図は本発明に用いる各種の特徴抽出方法
の説明図、第3図は本発明の一実施例を示すパタ
ン認識方式の機能ブロツク図、第4図は第3図の
分類能力順位記憶部の概念図、第5図は第3図の
階層整合部の動作フローチヤートである。 1:入力帳票、2:光電変換部、3:前処理
部、4,6:バツフア・メモリ、5:特徴抽出
部、7:分類能力記憶部、8:標準パタン記憶
部、9:階層整合部、10:判定部、11:後処
理部、20:制御部。
Claims (1)
- 【特許請求の範囲】 1 入力されたパタンから複数の特徴を抽出する
手段と、前記入力パタンの特徴と比較すべき各標
準パタンの複数の特徴を記憶する手段、および、
前記標準パタンの複数の特徴と同じ数だけ直列に
接続された階層整合手段を有するパタン認識シス
テムにおいて、前記特徴記憶手段を、前記標準パ
タンの特徴と予め前記各標準パタン毎に定めた分
類能力順位から構成するとともに、パタンが入力
されると、前記特徴記憶手段中の標準パタンに対
応して定められている順位に応じた特徴を読み出
して、第1層の整合手段で当該入力パタンの特徴
との整合をとり、第2層の整合手段では、第1層
の整合結果で絞られた候補と、次順位の分類能力
を有する特徴とを比較照合し、以下、順次、分類
能力の下位の特徴を用いて整合をとることを特徴
とするパタン認識システム。 2 前記階層整合手段の各層では、入力パタンの
いずれかの特徴とすべての標準パタンの特徴との
間で照合をとり、類似度を得て、該類似度と、標
準パタン毎に設定される閾値とを比較して、閾値
以下の標準パタンのみを、次の層に候補として送
ることを特徴とする特許請求の範囲第1項記載の
パタン認識システム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP58232584A JPS60124789A (ja) | 1983-12-09 | 1983-12-09 | パタン認識システム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP58232584A JPS60124789A (ja) | 1983-12-09 | 1983-12-09 | パタン認識システム |
Publications (2)
Publication Number | Publication Date |
---|---|
JPS60124789A JPS60124789A (ja) | 1985-07-03 |
JPH0557633B2 true JPH0557633B2 (ja) | 1993-08-24 |
Family
ID=16941641
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP58232584A Granted JPS60124789A (ja) | 1983-12-09 | 1983-12-09 | パタン認識システム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPS60124789A (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006288532A (ja) * | 2005-04-07 | 2006-10-26 | Nintendo Co Ltd | ゲームプログラム |
-
1983
- 1983-12-09 JP JP58232584A patent/JPS60124789A/ja active Granted
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006288532A (ja) * | 2005-04-07 | 2006-10-26 | Nintendo Co Ltd | ゲームプログラム |
Also Published As
Publication number | Publication date |
---|---|
JPS60124789A (ja) | 1985-07-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US5287275A (en) | Image recognition apparatus and method for recognizing a pattern within an image | |
CN1163841C (zh) | 在线手写中文字识别装置 | |
US6917708B2 (en) | Handwriting recognition by word separation into silhouette bar codes and other feature extraction | |
CN110180186A (zh) | 一种地形图转换方法及系统 | |
JPH05342408A (ja) | 文書画像ファイリング装置 | |
KR0186025B1 (ko) | 후보 문자 분류 방법 | |
JPH0557633B2 (ja) | ||
JP2853168B2 (ja) | パターン認識装置 | |
JP2766205B2 (ja) | 文字認識装置 | |
JP3083609B2 (ja) | 情報処理装置及びそれを用いた文字認識装置 | |
JPH11120291A (ja) | パタン認識システム | |
JP3104355B2 (ja) | 特徴抽出装置 | |
JP2902097B2 (ja) | 情報処理装置及び文字認識装置 | |
Leng et al. | Firefly Detection Based on Improved YOLOv4 under a Small Number of Samples | |
JPH03126188A (ja) | 文字認識装置 | |
JP4215385B2 (ja) | パターン認識装置、パターン認識方法およびその方法をコンピュータに実行させるプログラムを記録したコンピュータ読み取り可能な記録媒体 | |
KR950011065B1 (ko) | 문자 인식방법 | |
Huang et al. | Research Article Isolated Handwritten Pashto Character Recognition Using aK-NN Classification Tool based on Zoning and HOG Feature Extraction Techniques | |
JP2851865B2 (ja) | 文字認識装置 | |
JPH0769940B2 (ja) | 連想整合認識方式 | |
JPH0567239A (ja) | 活字文字認識装置 | |
JPH051514B2 (ja) | ||
JP2000200323A (ja) | オンライン手書き漢字認識装置 | |
JPH0769936B2 (ja) | パターン認識方式 | |
JPS63779A (ja) | パターン認識方法 |