JPS63282890A - Pattern identification device - Google Patents
Pattern identification deviceInfo
- Publication number
- JPS63282890A JPS63282890A JP11849887A JP11849887A JPS63282890A JP S63282890 A JPS63282890 A JP S63282890A JP 11849887 A JP11849887 A JP 11849887A JP 11849887 A JP11849887 A JP 11849887A JP S63282890 A JPS63282890 A JP S63282890A
- Authority
- JP
- Japan
- Prior art keywords
- feature
- input pattern
- pattern
- dictionary
- recognized
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000007246 mechanism Effects 0.000 claims abstract description 22
- 239000013598 vector Substances 0.000 claims abstract description 15
- 238000000605 extraction Methods 0.000 claims description 7
- 238000013500 data storage Methods 0.000 claims 2
- 238000000034 method Methods 0.000 description 18
- 238000000926 separation method Methods 0.000 description 11
- 238000010586 diagram Methods 0.000 description 7
- 238000004364 calculation method Methods 0.000 description 5
- 238000012015 optical character recognition Methods 0.000 description 5
- FFBHFFJDDLITSX-UHFFFAOYSA-N benzyl N-[2-hydroxy-4-(3-oxomorpholin-4-yl)phenyl]carbamate Chemical compound OC1=C(NC(=O)OCC2=CC=CC=C2)C=CC(=C1)N1CCOCC1=O FFBHFFJDDLITSX-UHFFFAOYSA-N 0.000 description 4
- 230000000694 effects Effects 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 238000012512 characterization method Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012567 pattern recognition method Methods 0.000 description 1
Abstract
Description
【発明の詳細な説明】
〔概 要〕
本発明は、各種パターンを含む未知の入力パターンのカ
テゴリ毎の特徴量ベクトルから特徴ごと全カテゴリにわ
たる和集合特徴量ベクトルを作シ、これを元に辞書と照
合し、抽出すべき特徴を分離し対応するパターンを識別
するようにしたパターン識別装置である。これにより、
認識対象以外のパターンの除外が可能となる。[Detailed Description of the Invention] [Summary] The present invention creates a union feature vector over all categories for each feature from feature vectors for each category of unknown input patterns including various patterns, and creates a dictionary based on this. This is a pattern identification device that separates the features to be extracted and identifies the corresponding pattern. This results in
It becomes possible to exclude patterns other than those to be recognized.
本発明は、対象カテゴリ以外が混在する入力パターンか
ら対象カテゴリを分離して識別できるパターン識別装置
の改善に関するものである。The present invention relates to an improvement in a pattern identification device that can separate and identify a target category from an input pattern containing a mixture of categories other than the target category.
従来、文書や図面等のパターン情報を自動的に認識して
正確に情報処理装置に入力するためには、0CR(光学
文字読取装置)では考えられないようないくつかの大き
な問題が存在する。Conventionally, in order to automatically recognize pattern information such as documents and drawings and input it into an information processing device accurately, there are several major problems that cannot be considered with an OCR (optical character reader).
すなわち、(1)文書9図面では認識対象の位置や大き
さに制限がない、(2)認識対象以外のパターンも文書
9図面内に混在している。That is, (1) there is no restriction on the position or size of the recognition target in the document 9 drawing, and (2) patterns other than the recognition target also coexist in the document 9 drawing.
等の点である。etc.
第4図は、従来例の構成の概略説明図である。FIG. 4 is a schematic explanatory diagram of the configuration of a conventional example.
従来のOCR機構において認識対象パターンXから抽出
した大きさ、長さ1面積等の特徴量ハ、f2.・・・。In the conventional OCR mechanism, feature quantities such as size, length, area, etc. extracted from recognition target pattern X, f2. ....
fkを辞書内の対応する特徴と比較して文字、記号等の
認識カテゴリを決定する過程を示している。It shows the process of determining the recognition category of characters, symbols, etc. by comparing fk with corresponding features in the dictionary.
この場合、入力パターンのカテゴリは辞書の特徴で限定
され、たとえばカタカナ認識OCRにはカタカナ以外を
入力してはいけない。In this case, the category of the input pattern is limited by the characteristics of the dictionary, and for example, characters other than katakana must not be input to katakana recognition OCR.
上記従来のパターン識別方式では、対象カテゴリの文字
、記号に対し、それ以外カテゴリの線や画像等が混在し
た場合、第4図の機構をそのまま適用したのでは認識対
象以外のものまで認識することになる。このことは認識
時間の増大や認識誤りの増大を招くだけでなく、認識対
象と対象以外のパターンとを区別するなんらかの特徴量
を新たに計算する必要が生じてくる。In the conventional pattern recognition method described above, when characters and symbols of the target category are mixed with lines and images of other categories, it is difficult to recognize objects other than the recognition target if the mechanism shown in Figure 4 is applied as is. become. This not only causes an increase in recognition time and recognition errors, but also creates the need to newly calculate some feature quantity that distinguishes the recognition target from patterns other than the target.
本発明の目的は、対象カテゴリ以外が混在する入力パタ
ーンから対象カテゴリな分離する手段をとくに含んだパ
ターン識別装置を提供することにある。SUMMARY OF THE INVENTION An object of the present invention is to provide a pattern identification device that specifically includes means for separating a target category from an input pattern in which categories other than the target category are mixed.
前記目的を達成するため、本発明においては、第1図の
原理説明図に示すような分離手順を設ける。In order to achieve the above object, the present invention provides a separation procedure as shown in the principle explanatory diagram of FIG.
いま文書9図面等から光電変換装置によって機械的に得
られたパターンデータ、たとえばラスタ。Document 9 Pattern data, for example raster, mechanically obtained from a drawing or the like using a photoelectric conversion device.
ベクトル、輪郭データ等の集合を1x<1とする。Let the set of vectors, contour data, etc. be 1x<1.
従来のOCRと異なり、この集合には文字以外のパター
ンも含まれている。各Xiはn次元データとフラグ領域
から構成されている。Unlike conventional OCR, this set also includes patterns other than characters. Each Xi is composed of n-dimensional data and a flag area.
認識対象とするカテゴリをSl、S2.・・・、S惧と
し、@微量をFl、F2.・・・、Fkとする。The categories to be recognized are Sl, S2. ..., S, and @trace to Fl, F2. ..., Fk.
従来は、1つ1つの入力パターンXiについて特Q F
l、 F2.・・・、 Fkを抽出し、その特徴量ベク
トルが辞書内のどのカテゴリのものと一致するか、で認
識な行なっていた。Conventionally, for each input pattern Xi, the special Q F
l, F2. ..., Fk was extracted and recognition was performed based on which category in the dictionary the feature vector matched with.
これに対して、本発明では第1図に示す手順で認識を行
ない、とくに分離処理が本願の特徴となる。On the other hand, in the present invention, recognition is performed according to the procedure shown in FIG. 1, and the separation process is particularly a feature of the present application.
学習処理1は従来技術で用いられてきた特徴の選択、特
徴の学習と同じである。Learning process 1 is the same as feature selection and feature learning that have been used in the prior art.
学習処理2は学習処理1で得られた各カテゴリごとの特
徴ベクトルについて、特徴ごとの全カテゴリにわたる和
集合ALutを求める処理である。いずれかのカテゴリ
に属するパターンはこの和集合特徴を必ず満たす。Learning process 2 is a process of calculating a union ALut over all categories for each feature with respect to the feature vectors for each category obtained in learning process 1. Patterns belonging to either category always satisfy this union feature.
分離処理は、学習処理2で作成した和集合特徴を順に入
力パターン集合に適用して、いずれかのカテゴリに属す
る可能件のある入力パターンだけを分離する処理である
。すなわち、和集合特徴のいずれか一つでも満足しない
入力パターンは認識対象ではない、と判断する。この処
理を施すことにより早い時期に入力パターンの大きな集
合から認識すべき対象パターンを選択して対象以外のパ
ターンに対する無駄な演算を削減することができる。The separation process is a process of sequentially applying the union features created in the learning process 2 to the input pattern set to separate only input patterns that have a possibility of belonging to any category. That is, it is determined that an input pattern that does not satisfy any one of the union features is not a recognition target. By performing this processing, it is possible to select a target pattern to be recognized from a large set of input patterns at an early stage and reduce unnecessary calculations for patterns other than the target patterns.
認識処理は分離処理によって選択された侯補パターン(
認識対象以外のパターンも若干含む)に対して、辞書内
の特徴量ベクトルを用いて認識を行なう処理である。こ
の処理は従来性なわれてきたものと同じである。The recognition process uses the candidate pattern (
This process performs recognition using feature vectors in the dictionary (including some patterns other than those to be recognized). This process is the same as what has been done conventionally.
第1図のg、埋説明図および発明の要部である第2図(
α)の辞書、同図(6) 、 (C)の特徴を用いて作
用を詳細説明する。g in Fig. 1, the embedded explanatory drawing, and Fig. 2 (which is the main part of the invention)
The operation will be explained in detail using the dictionary α) and the features shown in (6) and (C) in the same figure.
ステップ1 (学習処理1)
認識すべきカテゴリ英、数、漢字、線9画像等5j(j
=1〜M)および抽出すべき特徴大きさ、長さ9面積等
FkCk=1〜K)を設定し、各カテゴリごとの特徴f
fk fjkを求める。ここでfjkは第2図(b)の
ように実数の値域で表現する。SjとFkは第2図(α
)のような表にまとめて辞書に格納する。Step 1 (Learning process 1) Categories to be recognized: English, numbers, kanji, line 9 images, etc. 5j (j
= 1 to M) and the feature size, length, area, etc. FkCk = 1 to K) to be extracted, and set the feature f for each category.
Find fk fjk. Here, fjk is expressed in the range of real numbers as shown in FIG. 2(b). Sj and Fk are shown in Figure 2 (α
) and store them in a dictionary.
fjk=〔ajk、 bjk〕、 ajk≦bjkこの
表現によってfjkが実数値をとる場合はもちろん、論
理値(0,1)や実数範囲(・・・以上、・・・以下な
どの表現)の設定も可能となる。fjk = [ajk, bjk], ajk≦bjk This expression allows fjk to take a real value, as well as setting logical values (0, 1) and real number ranges (expressions such as greater than or equal to, less than or equal to...) is also possible.
なおこのステップの処理は従来技術で用いられてきたも
のと同じである。Note that the processing in this step is the same as that used in the prior art.
Δニヱヱユ (学習処理2)
特徴量fjkを特徴Fkごとに和集合化する。すなわち
特徴Fkについて和集合の特徴Qkを以下の式で求める
。(i2図(C)参照)
gk=(MIN(alに、 a2に、 −・・、 aM
k)。ΔNEW (Learning process 2) The feature quantities fjk are unionized for each feature Fk. That is, the feature Qk of the union of the features Fk is determined using the following formula. (See Figure i2 (C)) gk=(MIN(to al, to a2, -..., aM
k).
MAX(blに、 b2に、・・・、6Mk))この
特徴σkをすべてのkについて求め、辞書の表に記録す
る。MAX(bl, b2, . . . , 6Mk)) Find this feature σk for all k and record it in the dictionary table.
ステップ3 (分離処理1)
入力パターンの集合(Xi)内のすべてのパターンXi
について特徴F1を求める。もしFlの値が和集合特徴
g1に含まれなければパターンXiのフラグ領域に0を
設定する。もしglに含まれていればフラグ領域に1を
設定する。Step 3 (Separation process 1) All patterns Xi in the input pattern set (Xi)
Find the feature F1 for. If the value of Fl is not included in the union feature g1, 0 is set in the flag area of the pattern Xi. If it is included in gl, 1 is set in the flag area.
ステップ4 (分離処理k) 特徴F2についてステップ3と同様の処理をおこなう。Step 4 (separation process k) Processing similar to step 3 is performed for feature F2.
ただし特徴計算の対象とするパターンXiはステップう
で7ラグ1が付いたものに限定する。However, the patterns Xi targeted for feature calculation are limited to those with step arms and 7 lags.
この処理をすべての特徴Fk(、、に=2〜k)につい
て繰シ返す。This process is repeated for all features Fk (, , = 2 to k).
ステップ5 (認識処理)
ステップ4が終了した時点で入力パターン集合(Xi)
の中でフラグ=1となっているものが認識対象とすべき
パターンである。この対象のみについて、従来と同様、
特徴量ベクトルとのマツチングをおこなってカテゴリを
判定する。以上で処理終了する。Step 5 (Recognition processing) When step 4 is completed, input pattern set (Xi)
Among them, the pattern with flag=1 is the pattern to be recognized. For this target only, as before,
The category is determined by matching with the feature vector. This completes the process.
第3図は本発明の実施例の構成を示す説明図である。 FIG. 3 is an explanatory diagram showing the configuration of an embodiment of the present invention.
この機構は認識すべき入力パターンのデータを格納した
入力パターンデータベース1.処理回数をカウントする
カウンタ2.入力パターンデータベースからパターンを
読み出丁リーダ6、カウンタからの指示によって抽出す
べき特徴を選択する特徴選択器4.特徴選択器の指示に
よって起動される各特徴抽出機構7.辞書内の特徴量5
,6.入力されたパターンの特徴と辞書にある特徴とを
比較してカテゴリを判定するマツチング機構8.および
短期的に特a量ベクトルを記録する特徴量メモリ9.認
識結果を認識結果データベース11に記録するライタ1
0から構成される。This mechanism consists of an input pattern database 1. which stores input pattern data to be recognized. Counter that counts the number of times of processing 2. A book reader 6 reads out patterns from the input pattern database, and a feature selector 4 selects features to be extracted according to instructions from a counter. Each feature extraction mechanism activated by the instruction of the feature selector7. Features in the dictionary 5
,6. Matching mechanism that compares the features of the input pattern with features in the dictionary to determine the category 8. and a feature amount memory for short-term recording of special a amount vectors9. Writer 1 that records recognition results in recognition result database 11
Consists of 0.
この機構の動作は以下の通シである。The operation of this mechanism is as follows.
初期設定
入力パターンデータベース1に格納されるノくターンに
はそれぞれフラグ=1が初期設定される。A flag=1 is initially set for each turn stored in the initial setting input pattern database 1.
また学習はすでに終了して辞書にはカテゴリごとの特徴
量fjkおよび和集合の特徴Qkが記録されているもの
とする。Further, it is assumed that learning has already been completed and the feature amount fjk for each category and the feature Qk of the union are recorded in the dictionary.
分離処理
まず初期トリガをカウンタ2にセットすることで動作が
開始する。カウンタはトリガによってフェイズカウント
を1だけインクリメントする。カウンタ2はこのフェイ
ズカウントを入カッくターンの読み出しが一巡するまで
同じ値を保持している。Separation Process First, the operation starts by setting an initial trigger in the counter 2. The counter increments the phase count by 1 upon a trigger. Counter 2 holds the same value until the phase count is read out for each turn.
カウンタ2はリーダ6にパターンの読み出しを指示する
。リーダ6は入力パターンデータベース1の中からフラ
グ=1のものだけを順次読み出す機能を持つ。一つのパ
ターンデータを読み出した後、リーダ6は%徴選択器4
に信号を送る。The counter 2 instructs the reader 6 to read the pattern. The reader 6 has a function of sequentially reading out only those with flag=1 from the input pattern database 1. After reading one pattern data, the reader 6 selects the percentage selector 4.
send a signal to.
特徴選択器4はカウンタ2からのフェイズカウント信号
によって抽出すべき特徴を決定した後、リーダ6からの
信号によって選択した特徴抽出機構7を起動する。The feature selector 4 determines the feature to be extracted based on the phase count signal from the counter 2, and then activates the selected feature extraction mechanism 7 based on the signal from the reader 6.
特徴抽出機構7はり−ダ3から入力パターンのデータを
受は取シ、特徴を計算する。計算終了後、マツチング機
構8へ特徴データを転送する。Feature extraction mechanism 7 receives input pattern data from reader 3 and calculates features. After the calculation is completed, the feature data is transferred to the matching mechanism 8.
マツチング機構8はカウンタ2のフェイズカウント信号
によってマツチングすべき特徴付を知り、特徴抽出機構
7からの特徴付と辞書から転送された特徴gkを比較す
る。入力パターンの特徴付はフラグとともにライタ10
へ転送される。フラグはマツチした場合には1を、マツ
チしなかった場合には口がセットされる。The matching mechanism 8 learns the features to be matched from the phase count signal of the counter 2, and compares the features from the feature extraction mechanism 7 with the features gk transferred from the dictionary. The input pattern is characterized by the writer 10 along with the flag.
will be forwarded to. The flag is set to 1 if it matches, and is set to 1 if it does not match.
ライタ10は入力パターンデータベースの元の位6に得
られた特di、Aおよびフラグを書き込む。The writer 10 writes the obtained special di, A, and flag into the original 6th place of the input pattern database.
カウンタ2はデータベース内の最後のデータ獄なリーダ
3が読み出し、マツチング処理が一通シ終了した後、7
エイズカウントをインクリメントする。カウンタ2はフ
ェイズカウントが1〜にの間は分離処理とみなして、辞
書内の和集合特徴gkをマツチング機構8へ転送する他
、特徴選択器7およびライタ1うへ信号を送9、データ
の流れを制御する。フェイズカウントがKを越えた時点
で分離処理が完了し、次にg識処理に移る。Counter 2 is read by reader 3, which is the last data in the database, and after the matching process is completed, 7
Increment aids count. The counter 2 considers the phase count to be between 1 and 1 to be a separation process, and in addition to transferring the union feature gk in the dictionary to the matching mechanism 8, it also sends a signal to the feature selector 7 and the writer 1 (9) and outputs the data. Control the flow. The separation process is completed when the phase count exceeds K, and then the process moves to the g-identification process.
認識処理
このときカウンタ2は辞書内からカテゴリごとの特徴光
fjkをマツチング機11り8へ転送する他、マツチン
グ機構8を直接起動する。認識処理では必要な特徴付は
すべて入力パターンデータベースに記録されているので
、もはや特徴抽出をおこなう必要はない。Recognition processing At this time, the counter 2 not only transfers the characteristic light fjk for each category from within the dictionary to the matching device 11 but also directly activates the matching mechanism 8. In the recognition process, all necessary features are recorded in the input pattern database, so there is no longer a need to extract features.
マツチング機構8はリーダ6から転送された入賞カバタ
ーンの特徴付ベクトルを特徴付メモリ9に短期的に記録
する。マツチング機構8はすべてのカテゴリについて特
徴光fjkと特徴量メモリ?内の特atベクトルとを比
較し、識別をおこなう。The matching mechanism 8 records the winning cover pattern characteristic vector transferred from the reader 6 in a characteristic memory 9 for a short period of time. Matching mechanism 8 uses feature light fjk and feature amount memory for all categories? Identification is performed by comparing the special at vectors within.
識別したカテゴリ名と入力パターンの番号はライター0
によって認識結果データベース11へ書きこまれる。い
ずれのカテゴリともマツチしなかった入力パターンはり
ジエクトとする。The identified category name and input pattern number are writer 0.
The recognition results are written into the recognition result database 11. The input pattern that does not match any category is assumed to be the input pattern.
リーダ6が該轟する入力パターンをすべて読み出して認
識がおこなわれた後、カウンタ2はインクリメントした
7エイズカウントが(K+1)を越えたことをチェック
し、機構を停止する。After the reader 6 has read out and recognized all the resonating input patterns, the counter 2 checks that the incremented 7 aids count has exceeded (K+1) and stops the mechanism.
本発明によって次のような効果が生じろ。 The present invention brings about the following effects.
(1)認識対象以外のパターンの除外が可能となる。(1) Patterns other than those to be recognized can be excluded.
しかもこのために特別な識別論理は必要ではなく、認識
対象カテゴリの各特徴付から簡単に求められる特徴を用
いるので学習が容易である。Moreover, no special discrimination logic is required for this purpose, and learning is easy because features that can be easily obtained from each characterization of the recognition target category are used.
(2)認識対象以外のパターンの除外を処理の早期にお
こなうので処理時間に無駄が生じない。一般に入力パタ
ーン数をN (0) 、認t・1カテゴリ数をM、特徴
数を特とする特徴計算の回数はKN(0)回、特徴付の
マツチング回数はKMN(0)回である。しかもこの中
には認識する必要のないパターンも含まれている。これ
に対して本発明では最初の特徴に対する分離処理によっ
てデータ数がN(1)に減少し、次の特徴に対する分離
処理はとのN(1)について実行される。したがって全
体の特徴計算回数は、
N(0)十N(1)+ N(2)+・・・・・・+NK
≦KN(0)(N(D)≧N(1)≧・・・・・・≧N
(K))となる、また特徴マツチング回数も、
N(0) + N(1) + N(2)+・・・・・・
十N (K) + KIliiN囚り一一一分離処理−
−−−1L認識処理」とな9、大幅に減少する見通しが
ある。(2) Patterns other than those to be recognized are excluded early in the process, so processing time is not wasted. Generally, the number of input patterns is N (0), the number of recognized t·1 categories is M, the number of feature calculations is KN(0) times, and the number of matchings with features is KMN(0) times. Moreover, this includes patterns that do not need to be recognized. In contrast, in the present invention, the number of data is reduced to N(1) by the separation process for the first feature, and the separation process for the next feature is performed for N(1). Therefore, the total number of feature calculations is N(0) ten N(1) + N(2)+...+NK
≦KN(0)(N(D)≧N(1)≧・・・・・・≧N
(K)), and the number of feature matching is also N(0) + N(1) + N(2)+...
10N (K) + KIliiN prisoner 111 separation process-
---1L recognition processing9 is expected to decrease significantly.
第1図は本発明の原理説明図、第2図は本発明の要部の
詳細説明図、第6図は本発明の実施例の構成説明図、第
4図は従来例の説明図であり、図中、1は入力パターン
データメモリ、2はカウンタ、5はリーダ、4は特徴選
択器、5,6は特徴光、7は特徴抽出機構、8はマツチ
ング機構、9は特徴付メモリ、10はライタ、11は認
識結果データメモリを示す。FIG. 1 is an explanatory diagram of the principle of the present invention, FIG. 2 is a detailed explanatory diagram of the main parts of the present invention, FIG. 6 is an explanatory diagram of the configuration of an embodiment of the present invention, and FIG. 4 is an explanatory diagram of a conventional example. In the figure, 1 is an input pattern data memory, 2 is a counter, 5 is a reader, 4 is a feature selector, 5 and 6 are feature lights, 7 is a feature extraction mechanism, 8 is a matching mechanism, 9 is a memory with features, 10 11 indicates a writer, and 11 indicates a recognition result data memory.
Claims (1)
テゴリにわたる和集合特徴量とを求める学習処理部と、 前記各特徴量ベクトルと和集合特徴量とを格納する辞書
と、 入力パターンの原データ、特徴量ベクトルおよび抽出す
べき特徴を示すフラグを記録する入力パターンデータ記
憶部と、 特徴の識別手順を特徴の分離と認識の両段階に分け各段
階における入力パターンデータを指定する手段と、 該入力パターン指定手段により抽出すべき特徴を選択す
る特徴選択器と、 該特徴選択器の指示によって起動され、前記入力パター
ンデータ記憶部から入力パターンを読出し各特徴量を計
算する特徴抽出機構部と、 該特徴抽出機構部からの特徴と前記辞書内のカテゴリ毎
の特徴量や和集合特徴量とを比較し、その一致により抽
出すべき特徴を出力するとともに、前記入力パターンデ
ータ記憶部のフラグを書替えるマッチング処理部と、 該抽出すべき特徴に対応するパターンを記録する認識結
果データメモリとを具えたことを特徴とするパターン識
別装置。[Scope of Claims] A learning processing unit that calculates a feature vector for each category of figures and a union feature over the categories of each feature; a dictionary that stores each of the feature vectors and the union feature; , an input pattern data storage unit that records the original data of the input pattern, feature vectors, and flags indicating the features to be extracted; a feature selector that selects a feature to be extracted by the input pattern designation means; and a feature selector that is activated by an instruction from the feature selector to read an input pattern from the input pattern data storage unit and calculate each feature amount. a feature extraction mechanism section, which compares the features from the feature extraction mechanism section with feature amounts for each category and union feature amounts in the dictionary, outputs a feature to be extracted based on the match, and outputs a feature to be extracted based on the match; A pattern identification device comprising: a matching processing section that rewrites a flag in a storage section; and a recognition result data memory that records a pattern corresponding to the feature to be extracted.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP62118498A JPH0786928B2 (en) | 1987-05-15 | 1987-05-15 | Pattern identification device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP62118498A JPH0786928B2 (en) | 1987-05-15 | 1987-05-15 | Pattern identification device |
Publications (2)
Publication Number | Publication Date |
---|---|
JPS63282890A true JPS63282890A (en) | 1988-11-18 |
JPH0786928B2 JPH0786928B2 (en) | 1995-09-20 |
Family
ID=14738158
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP62118498A Expired - Lifetime JPH0786928B2 (en) | 1987-05-15 | 1987-05-15 | Pattern identification device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH0786928B2 (en) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS5922179A (en) * | 1982-07-29 | 1984-02-04 | Nec Corp | Character recognizing method |
JPS61148585A (en) * | 1984-12-21 | 1986-07-07 | Comput Basic Mach Technol Res Assoc | Character recognizing device |
-
1987
- 1987-05-15 JP JP62118498A patent/JPH0786928B2/en not_active Expired - Lifetime
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS5922179A (en) * | 1982-07-29 | 1984-02-04 | Nec Corp | Character recognizing method |
JPS61148585A (en) * | 1984-12-21 | 1986-07-07 | Comput Basic Mach Technol Res Assoc | Character recognizing device |
Also Published As
Publication number | Publication date |
---|---|
JPH0786928B2 (en) | 1995-09-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3105967B2 (en) | Character recognition method and device | |
JPH07121712A (en) | Fingerprint matching device | |
JP6014120B2 (en) | Memory having set operation function and set operation processing method using the same | |
JPS63282890A (en) | Pattern identification device | |
JPH0729003A (en) | Fingerprint collation device | |
JPH06215184A (en) | Labeling device for extracted area | |
JPS5842904B2 (en) | Handwritten kana/kanji character recognition device | |
JPH0766423B2 (en) | Character recognition device | |
JP2002183667A (en) | Character-recognizing device and recording medium | |
JP2515732B2 (en) | Pattern matching device | |
JP2746345B2 (en) | Post-processing method for character recognition | |
JP2001118073A (en) | Device and method for recognizing pattern | |
JP2689741B2 (en) | A character recognition device and a post-processing data creation method for determining a recognized character. | |
JPS6037084A (en) | Character recognizing device | |
JP2839515B2 (en) | Character reading system | |
JPH0355874B2 (en) | ||
JPS592952B2 (en) | Mojinin Shikiboshiki | |
JPS5999586A (en) | Optical character reader | |
JPS6059487A (en) | Recognizer of handwritten character | |
JPH02193281A (en) | Character recognizing device | |
JPS61148585A (en) | Character recognizing device | |
JPS6336487A (en) | Character reading system | |
Sukor et al. | A comparative study of tree-based structure methods for handwriting identification | |
JPH0944606A (en) | Character recognizing processing method | |
JPH02212990A (en) | Character reader |