JP3266441B2 - Character recognition method - Google Patents

Character recognition method

Info

Publication number
JP3266441B2
JP3266441B2 JP00633695A JP633695A JP3266441B2 JP 3266441 B2 JP3266441 B2 JP 3266441B2 JP 00633695 A JP00633695 A JP 00633695A JP 633695 A JP633695 A JP 633695A JP 3266441 B2 JP3266441 B2 JP 3266441B2
Authority
JP
Japan
Prior art keywords
model
model set
candidate
similar
character
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP00633695A
Other languages
Japanese (ja)
Other versions
JPH08194778A (en
Inventor
俊博 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP00633695A priority Critical patent/JP3266441B2/en
Publication of JPH08194778A publication Critical patent/JPH08194778A/en
Application granted granted Critical
Publication of JP3266441B2 publication Critical patent/JP3266441B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【産業上の利用分野】本発明は文字認識に係り、特に、
未知文字画像の特徴と辞書との整合処理によって得られ
た候補の詳細識別に関する。なお、本発明は文字認識装
置をはじめ、図面認識装置や文書処理装置に適用し得る
ものであり、原理的には音声認識や画像認識を含むパタ
ーン認識全般に応用可能である。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to character recognition.
The present invention relates to detailed identification of candidates obtained by matching a feature of an unknown character image with a dictionary. The present invention can be applied to a character recognition device, a drawing recognition device, and a document processing device, and can be applied in principle to general pattern recognition including voice recognition and image recognition.

【0002】[0002]

【従来の技術】読み取り対象文字種のそれぞれの文字に
対して一つ以上のモデルを予め辞書に定めておき、これ
らモデルとの整合をとることによって未知文字画像の文
字認識を行なう方法において、大分類で同時に整合し得
るモデル組毎に専用の詳細識別処理を定め、大分類によ
り得られた候補モデル組について詳細識別処理が定めら
れているときは、その詳細識別処理によって最終的な認
識結果を決定する方法が、本出願人によって既に提案さ
れている(特願平5−335104号)。この方法は、
認識性能の向上と読取対象文字種の拡張性との両立が可
能になる等の利点を持っている。
2. Description of the Related Art In a method of preliminarily defining one or more models for each character of a character type to be read in a dictionary and performing character recognition of an unknown character image by matching these models, a large classification is used. When a detailed classification process dedicated to each model set that can be matched at the same time is defined, and the detailed classification process is defined for the candidate model set obtained by the major classification, the final recognition result is determined by the detailed classification process. Has already been proposed by the present applicant (Japanese Patent Application No. 5-335104). This method
It has advantages such as improvement of recognition performance and expansion of character types to be read.

【0003】また、文字認識におけるリジェクト処理に
関し、特開平2−129780号公報に開示されたリジ
ェクト方法が知られている。この方法では、第1位字種
コードとそのしきいち値及び少なくとも一つの第2位字
種コードとそれぞれのしきい値をテーブルに予め記憶し
ておき、実際に未知文字を認識した結果の第1位字種コ
ードから前記テーブルの内容を検索し、該検索された各
しきい値にリジェクト強度を考慮してリジェクトしきい
値を求め、認識結果の第2位の文字種が前記テーブルに
記憶された第2位字種のいずれに該当するかに応じて前
記求められた所定のリジェクトしきい値を選択し、該選
択されたしきい値を未知文字の認識結果として得られる
第2位文字種対応の類似度と比較してリジェクトの可否
を決定する。
As for reject processing in character recognition, a reject method disclosed in Japanese Patent Application Laid-Open No. 2-129780 is known. In this method, the first character type code, its threshold value, and at least one second character type code and their respective thresholds are stored in a table in advance, and the first character code as a result of actually recognizing the unknown character is stored. The contents of the table are searched from the first character type code, and a reject threshold value is determined in consideration of the reject strength for each of the searched threshold values. The second character type of the recognition result is stored in the table. The determined predetermined rejection threshold value is selected according to which of the second-order character types corresponds to the second-order character type, and the selected threshold value is set as a second-order character type obtained as a recognition result of the unknown character. Is determined by comparing the similarity of the rejection.

【0004】このリジェクト方法にあっては、未知文字
の認識結果の上位候補のうち、第1位と第2位とを明確
に区別した方法であることは、同公報の記載内容(テー
ブルの検索のキーは第1位字種コードと明記されてい
る)から明らかである。したがって、例えば、第1位、
第2位の候補が「惟」、「唯」の場合と、第1位、第2
位の候補が「唯」、「惟」の場合とが、それぞれ異なっ
たケースとして独立にテーブルに記憶されることにな
る。つまり、同じ候補の組であっても、各候補の順位が
異なれば、それぞれ別々のテーブル要素として記憶さ
れ、また参照されることになる。
In this reject method, the method of clearly distinguishing the first place and the second place from the top candidates of the recognition result of the unknown character is described in the contents of the publication (table search). Key is specified as the first character type code). So, for example,
The case where the second candidate is “Think” or “Yui”
The cases where the position candidates are “Yui” and “Thinking” are stored in the table independently as different cases. In other words, even for the same set of candidates, if the order of each candidate is different, they are stored and referenced as separate table elements.

【0005】[0005]

【発明が解決しようとする課題】本発明は、前記特願平
5−335104号の明細書及び添付図面に述べられて
いる文字認識方法の延長線上にあるもので、その目的
は、認識率の向上、並びに詳細識別に係わる処理の高速
化及び必要メモリ量の削減を達成するための具体的手段
を提供することにある。
SUMMARY OF THE INVENTION The present invention is an extension of the character recognition method described in the specification of Japanese Patent Application No. 5-335104 and the accompanying drawings. It is an object of the present invention to provide specific means for achieving improvement, speeding up processing relating to detailed identification, and reducing the required memory amount.

【0006】[0006]

【課題を解決するための手段】上記目的を達成するた
め、本発明では、読取対象文字種のそれぞれの文字に対
して一つ以上のモデルが定められた辞書と、予め定めら
れた類似モデル組とそれに関する情報が記憶された類似
モデル組記憶手段とを有し、未知文字画像より抽出した
特徴と該辞書との整合処理によって該未知文字画像との
相違度の小さい候補モデル組を求め、次に詳細識別処理
を行ない、該詳細識別処理において、該候補モデル組を
キーとして該類似モデル組記憶手段を調べ、該候補モデ
ル組とモデルの組合せが合致する類似モデル組が該類似
モデル組記憶手段に記憶されていない場合には該候補モ
デル組中で相違度が最小の候補モデルを最終的な認識結
果とし、該候補モデル組とモデルの組合せが合致する類
似モデル組が該類似モデル組記憶手段に記憶されている
場合には、該類似モデル組記憶手段に記憶されている、
該候補モデル組とモデルの組合せが合致する類似モデル
組に関する情報を利用して、該候補モデル組中より最終
的な認識結果としての一つの候補モデルを選択すること
を基本とする
In order to achieve the above object, according to the present invention, there is provided a dictionary in which one or more models are defined for each character of a character type to be read, and a predetermined similar model set. A similar model set storage means in which information relating thereto is stored, and a candidate model set having a small degree of difference from the unknown character image is obtained by matching processing between the feature extracted from the unknown character image and the dictionary; A detailed identification process is performed, and in the detailed identification process, the similar model set storage means is examined using the candidate model set as a key, and a similar model set in which the combination of the candidate model set and the model matches is stored in the similar model set storage means. If it is not stored, the candidate model having the smallest difference in the candidate model set is used as the final recognition result, and the similar model set in which the combination of the candidate model set and the model matches the similar model set When stored in the Dell pair storing means it is stored in said similar model pair storing means,
Selecting one candidate model as the final recognition result from the candidate model set by using information on the similar model set in which the candidate model set and the model combination match;
Based on

【0007】具体的には、請求項1記載の発明の特徴
は、該類似モデル組記憶手段に記憶されている類似モデ
ル組に関する情報には相違度再評価のための係数が含ま
れ、該詳細識別処理において、該候補モデル組とモデル
の組合せが合致する類似モデル組が該類似モデル組記憶
手段に記憶されている場合に、該候補モデル組中の各候
補モデルの該未知文字画像との相違度を、該類似モデル
組記憶手段に記憶されている、該候補モデル組とモデル
の組合せが合致する類似モデル組に関する情報に含まれ
る相違度再評価のための係数と掛け合わせることによっ
て、再評価し、該再評価後の相違度が最小の候補モデル
を最終的な認識結果とすることである。
Specifically, the features of the invention described in claim 1
The information on the similar model set stored in the similar model set storage means includes a coefficient for re-evaluation of the degree of difference. When the model set is stored in the similar model set storage means, the degree of difference between each candidate model in the candidate model set and the unknown character image is stored in the similar model set storage means. Re-evaluation is performed by multiplying by a coefficient for re-evaluation included in the information on the similar model set that matches the candidate model set and the model combination, and the candidate model having the minimum difference after re-evaluation is finalized. The result is a typical recognition result.

【0008】また、請求項2記載の発明の特徴は、該類
似モデル組記憶手段に記憶されている類似モデル組に関
する情報には該類似モデル組中に最終的な認識結果が含
まれていないことを表示するためのリジェクトフラグが
含まれ、該詳細識別処理において、該候補モデル組とモ
デルの組合せが合致する類似モデル組が該類似モデル組
記憶手段に記憶されている場合に、該類似モデル組記憶
手段に記憶されている、該候補モデル組とモデルの組合
せが合致する類似モデル組に関する情報中のリジェクト
フラグが有効であるときには、リジェクトを最終的な認
識結果とすることである。
A feature of the present invention is that the information on the similar model set stored in the similar model set storage means does not include the final recognition result in the similar model set. Are included in the similar model set storage means when the similar model set matching the combination of the candidate model set and the model is stored in the similar model set storage means. When the reject flag in the information on the similar model set that matches the candidate model set and the model combination stored in the storage means is valid, the reject is to be the final recognition result.

【0009】また、請求項3記載の発明の特徴は、該類
似モデル組記憶手段に記憶されている類似モデル組に関
する情報には最終的な認識結果を該類似モデル組以外の
文字カテゴリにすべきことを表示するための置き換えフ
ラグ及び置き換え文字コード部を含み、該詳細識別処理
において、該候補モデル組とモデルの組合せが合致する
類似モデル組が該類似モデル組記憶手段に記憶されてい
る場合に、該類似モデル組記憶手段に記憶されている、
該候補モデル組とモデルの組合せが合致する類似モデル
組に関する情報中の置き換えフラグが有効であるときに
は、対応した該置き換え文字コード部により指定される
文字カテゴリを最終的な認識結果とすることである。
A feature of the invention according to claim 3 is that, in the information on the similar model set stored in the similar model set storage means, the final recognition result should be a character category other than the similar model set. In the detailed identification process, a similar model set that matches the combination of the candidate model set and the model is stored in the similar model set storage means. Stored in the similar model set storage means.
When the replacement flag in the information on the similar model set that matches the candidate model set and the model combination is valid, the character category specified by the corresponding replacement character code part is to be the final recognition result. .

【0010】さらに、請求項4記載の発明の特徴は、
辞書における各モデルは、それを含む類似モデル組が該
類似モデル組記憶手段に記憶されていることを表示する
ためのフラグを持ち、該整合処理によって得られた候補
モデル組中の全ての候補モデルの該フラグが有効であれ
ば該詳細識別処理を行なって最終的な認識結果を決定
し、該候補モデル組中の一つの候補モデルでも、その該
フラグが無効であれば、該詳細識別処理を行なわずに該
候補モデル組中の該未知文字画像との相違度が最小の候
補モデルを最終的な認識結果とすることである。
Further, a feature of the invention according to claim 4 is that each model in the dictionary has a flag for indicating that a similar model set including the model is stored in the similar model set storage means, If the flags of all candidate models in the candidate model set obtained by the matching process are valid, the detailed recognition process is performed to determine the final recognition result, and one candidate model in the candidate model set is determined. However, if the flag is invalid, the candidate model having the smallest difference from the unknown character image in the candidate model set is not used as the detailed identification process, and is set as the final recognition result.

【0011】[0011]

【作用】ある文字認識アルゴリズムによって3000種
類程度の手書き漢字の認識実験を行なったところ、辞書
との整合処理で理論上起こり得る上位候補モデルの組合
せの可能性は、 30002 と非常に大きな数であるが、
実際に起こった上位候補モデルの組合せは、その1.5
%程度であり、さらに、誤読の起こり得る上位候補モデ
ルの組合せは、その0.5%程度であった。
Was subjected to a recognition experiment 3000 type about handwritten Kanji by [action] is character recognition algorithm, the possibility of a combination of upper candidate models that can occur theoretically in match processing with the dictionary, a very large number and 3000 C 2 In Although,
The combination of the top candidate models that actually occurred is 1.5
%, And the combination of the top candidate models in which misreading can occur is about 0.5% thereof.

【0012】したがって、本発明によれば、類似モデル
組記憶手段に、実際に誤読の起こる可能性のあるモデル
組に関する情報を記憶しておくだけで、辞書との整合処
理のみでは誤認が起きやすい文字の誤認が減り、認識率
が向上する。そして、類似モデル組記憶手段には限られ
た数のモデル組に関する情報を記憶するだけでよいの
で、そのためのメモリ量は少なくて済む。さらに、候補
となったモデル組を、その各モデルの候補順位を区別し
ないで扱うため、前記特開平2−129780号公報の
方法のように候補順位を区別した場合にくらべ、類似モ
デル組記憶手段のメモリ量が半減する。
Therefore, according to the present invention , misrecognition is likely to occur only by matching information with a dictionary by merely storing information on a model set that may actually be misread in the similar model set storage means. False recognition of characters is reduced, and the recognition rate is improved. Then, since only the information on a limited number of model sets needs to be stored in the similar model set storage means, the amount of memory for this is small. Further, since the candidate model sets are handled without distinguishing the candidate rank of each model, the similar model set storage means is compared with the case where the candidate ranks are distinguished as in the method of Japanese Patent Laid-Open No. 2-129780. Memory is halved.

【0013】さらに、請求項1記載の発明によれば、類
似モデル組と同じモデルの組合せからなる候補モデル組
についての詳細識別処理は、その各モデルの相違度を係
数と掛け合わせて再評価するという簡単な処理を行なう
だけであるので、詳細識別のための処理量の増加が抑え
られる。
Further, according to the first aspect of the present invention, in the detailed identification processing of the candidate model set including the same model combination as the similar model set, the degree of difference of each model is multiplied by a coefficient to reevaluate. , The increase in the amount of processing for detailed identification can be suppressed.

【0014】請求項2記載の発明によれば、類似モデル
組のいずれのモデルにも正解がなく、かつ正解となるべ
き文字カテゴリが一つでないような場合に正しくリジェ
クトすることができる。
According to the second aspect of the present invention, when there is no correct answer in any of the models in the similar model set and there is not one character category that should be the correct answer, it can be correctly rejected.

【0015】請求項3記載の発明によれば、類似モデル
組のいずれのモデルにも正解がないが、正解となるべき
文字カテゴリは一つであるような場合にも、正しい認識
結果が得られる。すなわち、文字画像が潰れやかすれ等
で著しく品質が悪いと、高品質のときには有り得ないよ
うな別のモデルにマッチするがあり得るが、請求項3
載の発明によれば、こうした場合の誤認が減る。
According to the third aspect of the present invention, a correct recognition result can be obtained even when there is no correct answer in any of the similar model sets, but there is only one character category that should be the correct answer. . In other words, if the quality of the character image is extremely poor due to crushing or blurring, it may match another model that is impossible when the quality is high, but according to the invention of claim 3 , misunderstandings in such a case can be avoided. decrease.

【0016】請求項4記載の発明によれば、辞書の各モ
デルに1ビットのフラグを追加するだけで、類似モデル
組記憶手段の不要な検索処理が減り処理速度が向上す
る。
According to the fourth aspect of the present invention, by merely adding a 1-bit flag to each model in the dictionary, unnecessary search processing of the similar model set storage means is reduced and the processing speed is improved.

【0017】[0017]

【実施例】以下、本発明のいくつかの実施例を説明する
が、まず、図1のブロック図において各実施例に係る文
字認識装置のハードウエア構成の一例について説明す
る。図1において、1は、イメージスキャナやタブレッ
ト等の入力機器より文書や文字の画像データを入力する
ための入力インターフェイス(I/F)である。2は、
プログラムに従って各種の処理や装置各部の制御を行な
うCPUである。3はROMであり、ここにはCPU1
で実行される文字認識等のためのプログラム群3a、辞
書3b及び類似モデル組テーブル3c等の固定情報が格
納されている。辞書3bには認識対象文字種の各文字ご
とに一つ以上のモデル(または標準パターン)が登録さ
れている。類似モデル組テーブル3cは、辞書との整合
処理だけでは誤認が起こる可能性の高い予め定められた
類似モデル組とそれに関する情報を記憶するための類似
モデル組記憶手段であるが、その具体的内容については
後述する。
DESCRIPTION OF THE PREFERRED EMBODIMENTS Some embodiments of the present invention will be described below. First, an example of a hardware configuration of a character recognition device according to each embodiment will be described with reference to the block diagram of FIG. In FIG. 1, reference numeral 1 denotes an input interface (I / F) for inputting image data of a document or a character from an input device such as an image scanner or a tablet. 2 is
A CPU that performs various processes and controls each unit of the apparatus according to a program. Reference numeral 3 denotes a ROM, in which a CPU 1
And fixed information such as a program group 3a for performing character recognition, a dictionary 3b, and a similar model set table 3c. One or more models (or standard patterns) are registered in the dictionary 3b for each character of the character type to be recognized. The similar model set table 3c is a similar model set storage unit for storing a predetermined similar model set which is likely to cause misidentification only by matching with a dictionary and information related thereto. Will be described later.

【0018】4はRAMであり、これは入力インターフ
ェイス1より入力された画像データの記憶エリアとして
利用されるほか、各種プログラムのためのワークエリア
としてCPU2により利用される。5は、ホストコンピ
ュータ等の外部機器へ認識結果データ等を出力するため
の出力インターフェイス(I/F)である。
Reference numeral 4 denotes a RAM which is used as a storage area for image data input from the input interface 1 and used by the CPU 2 as a work area for various programs. Reference numeral 5 denotes an output interface (I / F) for outputting recognition result data and the like to an external device such as a host computer.

【0019】以下、各実施例毎に、処理の内容と類似モ
デル組テーブル3cの構成について説明する。
The contents of the processing and the structure of the similar model set table 3c will be described below for each embodiment.

【0020】<実施例1> 本実施例における処理の流れは図2のフローチャートに
示すとおりである。このフローチャートに示す処理は、
プログラム群3aに従ってCPU2により遂行されるも
のである。以下、処理の各ステップを順に説明する。
<Embodiment 1> The flow of processing in this embodiment is as shown in the flowchart of FIG. The processing shown in this flowchart is
This is executed by the CPU 2 according to the program group 3a. Hereinafter, each step of the processing will be described in order.

【0021】まず、入力インターフェイス1を介して画
像データが入力され、RAM4の特定のエリアに格納さ
れる(ステップS10)。この入力された画像より1文
字単位に文字領域が切り出される(ステップS11)。
以下の処理は、切り出された各文字領域の画像(文字画
像)を対象として行なわれる。ただし、1文字分だけ切
り出して以下の処理を行ない、それを終わると次の1文
字分を切り出す、というように、文字切り出しと認識処
理を1文字ずつ逐次行なうことも可能である。さて、選
んだ一つの文字領域の画像データより特徴を抽出し(ス
テップS12)、抽出された特徴と辞書3bに登録され
ている各文字との整合をとる(ステップS13)。この
整合処理の結果として、候補モデルと相違度の組が最大
n個まで得られる。通常、n=2として問題はない。つ
まり、第2位候補モデルまで求めれば、一般に実用上問
題はない。
First, image data is input via the input interface 1 and stored in a specific area of the RAM 4 (step S10). A character area is cut out from the input image in units of one character (step S11).
The following processing is performed on the image (character image) of each extracted character area. However, it is also possible to sequentially perform character extraction and recognition processing one character at a time, such as extracting one character and performing the following processing, and after that, extracting the next one character. A feature is extracted from the image data of one selected character area (step S12), and the extracted feature is matched with each character registered in the dictionary 3b (step S13). As a result of this matching process, up to n pairs of candidate models and dissimilarities are obtained. Usually, there is no problem if n = 2. In other words, there is generally no practical problem if the second candidate model is obtained.

【0022】なお、相違度とは文字画像の特徴と辞書の
モデルとの相違の程度を表わす値であり、相違度が小さ
いほどモデルとよく合致していることを意味する。した
がって、相違度が最も小さいモデルが第1位候補モデル
となり、次に相違度が小さいモデルが第2位候補モデル
となる。ステップS12とステップS13の処理は既存
の方法によって行なってよい。
The degree of difference is a value representing the degree of difference between the characteristics of the character image and the dictionary model, and the smaller the degree of difference, the better the match with the model. Therefore, the model with the smallest difference is the first candidate model, and the model with the next smallest difference is the second candidate model. The processing of steps S12 and S13 may be performed by an existing method.

【0023】つぎに、得られた候補モデル組(本実施例
では第1位と第2位の候補モデルの組)をキーとして、
類似モデル組テーブル3cを検索し(ステップS1
4)、この候補モデル組とモデルの組合せが合致する類
似モデル組が類似モデル組テーブル3cに登録されてい
るか否かを調べる(ステップS15)。
Next, the obtained candidate model set (in this embodiment, a set of the first and second candidate models) is used as a key.
The similar model set table 3c is searched (step S1).
4) It is checked whether or not a similar model set matching the candidate model set and the model combination is registered in the similar model set table 3c (step S15).

【0024】この検索において、候補モデルは、その順
位(第1位、第2位)を区別せずに扱われる。つまり、
第1位が「惟」、第2位が「唯」のケースと、第1位が
「唯」、第2位が「惟」のケースのいずれにおいても、
同じテーブル要素が参照されるように類似モデル組テー
ブル3cが構成される。このように構成することによっ
て、モデル組中の各モデルの候補順位を区別した構成と
した場合に比べ、類似モデル組テーブル3cのサイズが
半減する。
In this search, the candidate models are handled without distinguishing their ranking (first and second). That is,
Regardless of the case where the first place is "I think" and the second place is "Yui", and the case where the first place is "Yui" and the second place is "Yui",
The similar model set table 3c is configured to refer to the same table element. With such a configuration, the size of the similar model set table 3c is reduced by half as compared with the case where the candidate rank of each model in the model set is distinguished.

【0025】候補モデル組が類似モデル組テーブル3c
に登録されていないときには、第1位候補モデルを選択
し、その文字カテゴリを求め(ステップS17)、それ
を最終的な認識結果として出力する(ステップS1
8)。候補モデル組が登録されてているときには、後述
の識別処理を行なって最終的な認識結果を選択し(ステ
ップS16)、それを出力する(ステップS18)。
The candidate model set is a similar model set table 3c
If not, the first candidate model is selected, its character category is determined (step S17), and it is output as the final recognition result (step S1).
8). If the candidate model set is registered, the final recognition result is selected by performing the identification process described later (step S16), and is output (step S18).

【0026】このようなステップS12からステップS
18までの処理を最後の文字領域まで1文字単位で繰り
返して実行し、最後の文字領域まで処理が終わったと判
断すると(ステップS19)、処理を完了する。
From step S12 to step S
The processing up to 18 is repeatedly executed in units of one character up to the last character area. When it is determined that the processing has been completed up to the last character area (step S19), the processing is completed.

【0027】さて、ステップS14以降の処理の説明か
ら推察されるように、ステップS13の整合処理によっ
て得られた各候補モデルの文字画像との相違度を単に比
較するだけでは(つまり、相違度が最小の第1位候補モ
デルを直ちに最終結果とするのでは)、認識を誤る虞が
ある。本実施例では、このような虞のあるような二つの
モデルの組と、それに関する最終的な認識結果を決定す
るための情報とが類似モデル組テーブル3cに登録され
ている。次に、この類似モデル組テーブル3cの3つの
具体例を、ステップS16の識別処理と関連付けて説明
する。なお、ここでは、第2位候補モデルまでを求める
ことを前提とし、類似モデル組のモデル数を2としてい
る。
Now, as can be inferred from the description of the processing after step S14, simply comparing the degree of difference with the character image of each candidate model obtained by the matching processing in step S13 (that is, the degree of difference If the smallest first-place candidate model is used as the final result immediately), there is a risk of erroneous recognition.
is there. In the present embodiment, a set of two models having such a possibility and information for determining a final recognition result relating to the two models are registered in the similar model set table 3c. Next, three specific examples of the similar model set table 3c will be described in relation to the identification processing in step S16. Here, the number of models in the similar model set is assumed to be 2 on the premise that the second candidate model is obtained.

【0028】例1: 図4は、類似モデル組テーブル3cの第1の例を示す。
Aiはi番目の類似モデル組のテーブル要素であり、こ
れはMi1,Mi2,ki1,ki2からなる。ここで、Mi1と
Mi2は、この類似モデル組を構成する二つのモデルの名
前である。ki1,ki2は、モデルMi1,Mi2に関する相
違度の再評価のための係数である。ステップS13の整
合処理によって得られた二つの候補モデルがMi1,Mi2
であった場合(Mi1,Mi2のいずれが第1位、第2位で
あるかを問わない)、テーブル要素Aiが参照されるこ
とになる。そして、ステップS16において、認識処理
対象の文字画像と各候補モデル(ここではMi1,Mi2)
との相違度Di1,Di2を、対応した再評価係数ki1,k
i2を乗じて再評価し、ki1×Di1≦ki2×Di2 のとき
は、モデルMi1の文字カテゴリを最終結果とし、ki1×
Di1>ki2×Di2 のときは、モデルMi2の文字カテゴ
リを最終結果とする。
Example 1: FIG. 4 shows a first example of the similar model set table 3c.
Ai is a table element of the i-th similar model set, which is composed of Mi1, Mi2, ki1, and ki2. Here, Mi1 and Mi2 are the names of the two models that constitute this similar model set. ki1 and ki2 are coefficients for re-evaluating the degree of difference regarding the models Mi1 and Mi2. The two candidate models obtained by the matching process in step S13 are Mi1, Mi2
(Regardless of which of Mi1 and Mi2 is the first and second place), the table element Ai is referred to. Then, in step S16, the character image to be recognized and each candidate model (here, Mi1, Mi2)
And the corresponding re-evaluation coefficients ki 1 and k 2
Multiplied by i2 and re-evaluated. If ki1 × Di1 ≦ ki2 × Di2, the character category of model Mi1 is used as the final result, and ki1 ×
If Di1> ki2 × Di2, the final category is the character category of model Mi2.

【0029】例2: 図5は、類似モデル組テーブル3cの第2の例を示す。
Aiはi番目の類似モデル組のテーブル要素であり、こ
れはMi1,Mi2と相違度再評価係数ki1,ki2及びリジ
ェクトフラグFREJiからなる。ここで、Mi1,Mi2
とki1,ki2は、図4に示した例と同様に、この類似モ
デル組を構成する二つのモデルの名前と、各モデルMi
1,Mi2に関する相違度の再評価のための係数である。リ
ジェクトフラグFREJiは、当該類似モデル組中に最
終的な認識結果としての文字カテゴリのモデルが含まれ
ていないときに”有効”にセットされるフラグである。
Example 2: FIG. 5 shows a second example of the similar model set table 3c.
Ai is a table element of the i-th similar model set, which is composed of Mi1, Mi2, a difference re-evaluation coefficient ki1, ki2, and a reject flag FREJi. Here, Mi1, Mi2
, Ki1 and ki2 are the names of the two models constituting the similar model set and the respective models Mi as in the example shown in FIG.
This is a coefficient for re-evaluating the degree of difference regarding 1, Mi2. The reject flag FREJi is a flag that is set to “valid” when a model of a character category as a final recognition result is not included in the similar model set.

【0030】ステップS13の整合処理によって得られ
た二つの候補モデルがMi1,Mi2であった場合(Mi1,
Mi2のいずれが第1位、第2位であるかを問わない)、
テーブル要素Aiが参照されることになる。そして、ス
テップS16において、リジェクトフラグFREJiを
調べ、これが”無効”である場合には、前記例1のとき
と同様に、認識処理対象の文字画像と各候補モデル(こ
こではMi1,Mi2)との相違度Di1,Di2を、対応した
再評価係数ki1,ki2を乗じて再評価し、ki1×Di1≦
ki2×Di2 のときは、モデルMi1の文字カテゴリを最
終結果とし、ki1×Di1>ki2×Di2 のときは、モデ
ルMi2の文字カテゴリを最終結果とする。しかし、リジ
ェクトフラグFREJiが”有効”であるときには、最
終結果をリジェクトとし、リジェクトコードを出力す
る。
When two candidate models obtained by the matching process in step S13 are Mi1, Mi2 (Mi1, Mi2
Mi2 is the first or second place),
The table element Ai will be referred to. In step S16, the reject flag FREJi is checked. If the flag is "invalid", the character image to be recognized and each of the candidate models (here, Mi1 and Mi2) are recognized in the same manner as in the first example. The differences Di1, Di2 are re-evaluated by multiplying them by the corresponding re-evaluation coefficients ki1, ki2, and ki1 × Di1 ≦
If ki2 × Di2, the final category is the character category of model Mi1, and if ki1 × Di1> ki2 × Di2, the final category is the character category of model Mi2. However, when the reject flag FREJi is "valid", the final result is rejected and a reject code is output.

【0031】例3: 図6は、類似モデル組テーブル3cの第3の例を示す。
Aiはi番目の類似モデル組のテーブル要素であり、こ
れはMi1,Mi2と相違度再評価係数ki1,ki2並びに置
き換えフラグFCNGi及び置き換え文字コードCOD
Ei部からなる。ここで、Mi1,Mi2とki1,ki2は、
図4に示した例と同様に、この類似モデル組を構成する
二つのモデルの名前と、各モデルMi1,Mi2に関する相
違度の再評価のための係数である。置き換えフラグFC
NGiは、最終的な認識結果を当該類似モデル組以外の
文字カテゴリにすべきときに”有効”にセットされるフ
ラグであり、これが”有効”のときに置き換え文字コー
ド部CODEiの内容が最終的な認識結果としての文字
コードを提供する。
Example 3: FIG. 6 shows a third example of the similar model set table 3c.
Ai is the table element of the i-th similar model set, which is Mi1, Mi2, the difference re-evaluation coefficients ki1, ki2, the replacement flag FCNGi, and the replacement character code COD.
It consists of Ei part. Here, Mi1, Mi2 and ki1, ki2 are:
As in the example shown in FIG. 4, the names of the two models constituting the similar model set and the coefficients for re-evaluating the degree of difference regarding each of the models Mi1 and Mi2. Replacement flag FC
NGi is a flag that is set to “valid” when the final recognition result should be a character category other than the similar model set. When this flag is “valid”, the content of the replacement character code part CODEi is finally set. To provide a character code as a recognition result.

【0032】ステップS13の整合処理によって得られ
た二つの候補モデルがMi1,Mi2であった場合(Mi1,
Mi2のいずれが第1位、第2位であるかを問わない)、
テーブル要素Aiが参照されることになる。そして、ス
テップS16において、置き換えフラグFCNGiを調
べ、これがリセットされている(無効である)場合に
は、前記例1のときと同様に、認識処理対象の文字画像
と各候補モデル(ここではMi1,Mi2)との相違度Di
1,Di2を、対応した再評価係数ki1,ki2を乗じて再
評価し、ki1×Di1≦ki2×Di2 のときは、モデルM
i1の文字カテゴリを最終結果とし、ki1×Di1>ki2×
Di2 のときは、モデルMi2の文字カテゴリを最終結果
とする。しかし、置き換えフラグFCNGiがセットさ
れている(有効である)ときには、置き換え文字コード
CODEi部の内容(文字コード)を最終結果として出
力する。
When the two candidate models obtained by the matching process in step S13 are Mi1, Mi2 (Mi1, Mi2
Mi2 is the first or second place),
The table element Ai will be referred to. In step S16, the replacement flag FCNGi is checked. If the replacement flag FCNGi is reset (invalid), the character image to be recognized and each candidate model (here, Mi1, Di2 from Mi2)
1, Di2 are multiplied by the corresponding re-evaluation coefficients ki1 and ki2, and re-evaluated. When ki1 × Di1 ≦ ki2 × Di2, the model M
Let the character category of i1 be the final result, ki1 × Di1> ki2 ×
In the case of Di2, the final category is the character category of the model Mi2. However, when the replacement flag FCNGi is set (valid), the content (character code) of the replacement character code CODEi is output as the final result.

【0033】<実施例2> 本実施例における処理の流れは図3のフローチャートに
示すとおりである。このフローチャートに示す処理は、
プログラム群3aに従ってCPU2により遂行されるも
のである。
<Embodiment 2> The flow of processing in this embodiment is as shown in the flowchart of FIG. The processing shown in this flowchart is
This is executed by the CPU 2 according to the program group 3a.

【0034】ここで、本実施例と前記実施例1との相違
点について説明する。前記実施例1においては、辞書と
の整合処理によって候補として得られたモデル組につい
て、常に、類似モデル組テーブル3cを検索するが、そ
のモデル組が類似モデル組テーブル3cに登録されてい
ないことが少なくない。このような登録されていないモ
デル組の無駄な検索のための時間消費を減らすため、本
実施例にあっては、辞書の各モデルに1ビットの検索フ
ラグを持たせ、当該モデルを含む類似モデル組が類似モ
デル組テーブル3cに登録されているならば、この検索
フラグを”有効”に設定しておき、登録されていないな
らば検索フラグを”無効”に設定しておく。そして、辞
書整合処理によって候補として得られたモデルについ
て、その検索フラグを調べることによって類似テーブル
組テーブル3cの検索を行なうべきか否かを判断する。
Here, differences between the present embodiment and the first embodiment will be described. In the first embodiment, the similar model set table 3c is always searched for the model set obtained as a candidate by the matching process with the dictionary. However, the model set may not be registered in the similar model set table 3c. Not a few. In order to reduce the time consumption for the useless search of the unregistered model set, in the present embodiment, each model in the dictionary is provided with a 1-bit search flag, and a similar model including the model is provided. If the set is registered in the similar model set table 3c, this search flag is set to "valid", and if not, the search flag is set to "invalid". Then, for the model obtained as a candidate by the dictionary matching process, it is determined whether or not to search the similar table set table 3c by checking the search flag.

【0035】以下、図3のフローチャートに沿って、各
処理ステップを説明する。画像データを入力するステッ
プS20、文字領域を切り出すステップS21、文字領
域の画像の特徴を抽出するステップS22、抽出された
特徴と辞書3bの各モデルとの整合処理のステップS2
3は、前記実施例1のステップS10,S11,S1
2,S13と同様である。また、類似モデル組テーブル
3cは、前記実施例1と同様に、図4、図5または図6
に示した構成のものである。
Hereinafter, each processing step will be described with reference to the flowchart of FIG. Step S20 of inputting image data, Step S21 of cutting out a character region, Step S22 of extracting a feature of an image of a character region, Step S2 of a matching process between the extracted feature and each model of the dictionary 3b.
3 corresponds to steps S10, S11, S1 of the first embodiment.
2, S13. Further, similar to the first embodiment, the similar model set table 3c is stored in FIG. 4, FIG.
The configuration shown in FIG.

【0036】ステップS23の整合処理に続き、候補と
して得られた各モデルの検索フラグをチェックし、第1
位候補モデルの検索フラグ及び第2位候補モデルの検索
フラグが両方とも”有効”であるか判定する(ステップ
S24,S25)。いずれか一方の候補モデルの検索フ
ラグでも”無効”であれば、第1位候補モデルの文字カ
テゴリーを最終結果に選択し(ステップS29)、それ
を出力する(ステップS30)。つまり、類似モデル組
テーブル3cを利用した詳細識別処理を行なわない。
Following the matching process in step S23, the search flag of each model obtained as a candidate is checked, and the first
It is determined whether both the search flag for the candidate model and the search flag for the second candidate model are “valid” (steps S24 and S25). If the search flag of any one of the candidate models is “invalid”, the character category of the first candidate model is selected as the final result (step S29), and is output (step S30). That is, the detailed identification process using the similar model set table 3c is not performed.

【0037】第1位候補モデル及び第2位候補モデルの
検索フラグが両方とも”有効”の場合には、候補モデル
組と同じモデルの組合せからなる類似モデル組が類似モ
デル組テーブル3cに登録されている可能性があるの
で、候補モデル組をキーとして類似モデル組テーブル3
cの検索を行ない、登録されているか否かを判定する
(ステップS26,S27)。この検索において、候補
モデルは、その順位(第1位、第2位)を区別せずに扱
われることは前記実施例1の場合と同じである。
When the search flags of the first and second candidate models are both "valid", a similar model set composed of the same model combination as the candidate model set is registered in the similar model set table 3c. There is a possibility that the similar model set table 3
The search for c is performed, and it is determined whether or not it has been registered (steps S26 and S27). In this search, the candidate models are handled without distinguishing their ranking (first and second), as in the case of the first embodiment.

【0038】そして、候補モデル組と同じモデルの組合
せからなる類似モデル組が類似モデル組テーブル3cに
登録されていないときには第1位候補モデルの文字カテ
ゴリを最終結果として選択し(ステップS29)、それ
を出力する(ステップS30)。候補モデル組と同じモ
デルの組合せからなる類似モデル組が登録されてている
ときには、類似モデル組テーブル3cの該当テーブル要
素の内容に関連した識別処理を行なって最終的な認識結
果を選択し(ステップS28)、それを出力する(ステ
ップS30)。ステップS28の処理内容は類似モデル
組テーブル3cの構成に依存するが、前記実施例1のス
テップS16と同様であるので、その説明を援用してこ
こでは説明を繰り返さない。
When a similar model set including the same model combination as the candidate model set is not registered in the similar model set table 3c, the character category of the first candidate model is selected as the final result (step S29). Is output (step S30). When a similar model set composed of the same model combination as the candidate model set is registered, an identification process related to the contents of the corresponding table element of the similar model set table 3c is performed to select the final recognition result (step S28), and outputs it (step S30). Although the processing content of step S28 depends on the configuration of the similar model set table 3c, it is the same as that of step S16 of the first embodiment, and thus the description thereof will not be repeated here.

【0039】このようなステップS22からステップS
30までの処理を最後の文字領域まで1文字単位で繰り
返して実行し、最後の文字領域まで処理が終わったと判
断すると(ステップS31)、処理を完了する。
From step S22 to step S22
The processing up to 30 is repeatedly executed in units of one character up to the last character area, and when it is determined that the processing has been completed up to the last character area (step S31), the processing is completed.

【0040】[0040]

【発明の効果】本発明によれば、類似モデル組記憶手段
に、実際に誤読の起こる可能性のあるモデル組に関する
情報を記憶しておくだけで、辞書との整合処理のみでは
誤認が起きやすい文字の誤認を防止し、認識率を向上す
ることができる。類似モデル組記憶手段には限られた数
のモデル組に関する情報を記憶するだけでよいので、そ
のためのメモリ量は少なくて済む。さらに、候補となっ
たモデル組を、その各モデルの候補順位を区別しないで
扱うため、候補順位を区別した場合にくらべ、類似モデ
ル組記憶手段のメモリ量を半減できる。
According to the present invention, misrecognition is likely to occur only in the matching process with the dictionary, by merely storing the information on the model set in which misreading may actually occur in the similar model set storage means. It is possible to prevent erroneous recognition of characters and improve the recognition rate. Since it is only necessary to store information on a limited number of model sets in the similar model set storage means, the amount of memory for this is small. Further, since the candidate model sets are handled without distinguishing the candidate rank of each model, the memory capacity of the similar model set storage means can be reduced by half as compared with the case where the candidate ranks are distinguished.

【0041】請求項1記載の発明によれば、類似モデル
組と同じモデルの組合せからなる候補モデル組について
の詳細識別処理は、その各モデルの相違度を係数と掛け
合わせて再評価するという簡単な処理を行なうだけであ
るので、詳細識別のための処理量の増加を抑えることが
できる。
According to the first aspect of the present invention, the detailed identification process for the candidate model set including the same model combination as the similar model set is performed simply by multiplying the difference of each model by a coefficient and re-evaluating. Since only simple processing is performed, it is possible to suppress an increase in the processing amount for detailed identification.

【0042】請求項2記載の発明によれば、類似モデル
組のいずれのモデルにも正解がなく、かつ正解となるべ
き文字カテゴリが一つでないような場合に正しくリジェ
クトすることができる。
According to the second aspect of the present invention, when there is no correct answer in any of the models in the similar model set and there is not one character category to be the correct answer, the rejection can be correctly performed.

【0043】請求項3記載の発明によれば、類似モデル
組のいずれのモデルにも正解がないが、正解となるべき
文字カテゴリは一つであるような場合、例えば、文字画
像が潰れやかすれ等で著しく品質が悪いため、高品質の
ときには有り得ないような別のモデルにマッチしたよう
な場合に、正しい認識結果を得ることができる。
According to the third aspect of the present invention, when there is no correct answer in any of the models in the similar model set, but there is only one character category to be the correct answer, for example, the character image is crushed or blurred. And the like, the quality is remarkably poor, so that a correct recognition result can be obtained in a case where the model matches another model which is impossible when the quality is high.

【0044】請求項4記載の発明によれば、辞書の各モ
デルに1ビットのフラグを追加するだけで、類似モデル
組記憶手段の不要な検索処理を減らし、処理速度を向上
することができる。
According to the fourth aspect of the present invention, unnecessary search processing of the similar model set storage means can be reduced by simply adding a 1-bit flag to each model in the dictionary, and the processing speed can be improved.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の各実施例のハードウエア構成の一例を
示すブロック図である。
FIG. 1 is a block diagram illustrating an example of a hardware configuration of each embodiment of the present invention.

【図2】本発明の実施例1の処理の流れを示すフローチ
ャートである。
FIG. 2 is a flowchart illustrating a flow of processing according to the first exemplary embodiment of the present invention.

【図3】本発明の実施例2の処理の流れを示すフローチ
ャートである。
FIG. 3 is a flowchart illustrating a flow of a process according to a second exemplary embodiment of the present invention.

【図4】類似モデル組テーブルの第1の例を示す図であ
る。
FIG. 4 is a diagram showing a first example of a similar model set table.

【図5】類似モデル組テーブルの第2の例を示す図であ
る。
FIG. 5 is a diagram showing a second example of a similar model set table.

【図6】類似モデル組テーブルの第3の例を示す図であ
る。
FIG. 6 is a diagram illustrating a third example of a similar model set table.

【符号の説明】[Explanation of symbols]

1 入力インターフェイス 2 CPU 3 ROM 3a プログラム群 3b 辞書 3c 類似モデル組テーブル 1 input interface 2 CPU 3 ROM 3a program group 3b dictionary 3c similar model set table

Claims (4)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 読取対象文字種のそれぞれの文字に対し
て一つ以上のモデルが定められた辞書と、予め定められ
た類似モデル組と該類似モデル組に関する相違度の再評
価のための係数が記憶された類似モデル組記憶手段とを
有し、 未知文字画像より抽出した特徴と該辞書との整合処理に
よって該未知文字画像との相違度の小さい候補モデル組
を求め、次に詳細識別処理を行ない、 該詳細識別処理において、該候補モデル組をキーとして
該類似モデル組記憶手段を調べ、該候補モデル組とモデ
ルの組合せが合致する類似モデル組が該類似モデル組記
憶手段に記憶されていない場合には該候補モデル組中で
相違度が最小の候補モデルを最終的な認識結果とし、該
候補モデル組とモデルの組合せが合致する類似モデル組
が該類似モデル組記憶手段に記憶されている場合には、
該候補モデル組中の各候補モデルの該未知文字画像との
相違度を、該類似モデル組記憶手段に記憶されている、
該候補モデル組とモデルの組合せが合致する類似モデル
組中の相違度再評価のための係数と掛け合わせることに
よって再評価し、該再評価後の相違度が最小の候補モデ
ルを最終的な認識結果とすることを特徴とする文字認識
方法。
1. A dictionary in which one or more models are defined for each character of a character type to be read, and a predetermined similar model set and a coefficient for re-evaluating a difference degree regarding the similar model set are defined as: Means for storing candidate model sets having a small degree of difference from the unknown character image by matching processing between the feature extracted from the unknown character image and the dictionary, and then performing detailed identification processing. In the detailed identification process, the similar model set storage unit is checked using the candidate model set as a key, and a similar model set that matches the combination of the candidate model set and the model is not stored in the similar model set storage unit. In this case, the candidate model with the smallest difference in the candidate model set is used as the final recognition result, and a similar model set that matches the combination of the candidate model set and the model is stored in the similar model set storage means. If it is 憶 is,
The degree of difference between each candidate model in the candidate model set and the unknown character image is stored in the similar model set storage means.
The candidate model set and the model combination are re-evaluated by multiplying by a coefficient for re-evaluation in the similar model set in which the model combination matches, and the candidate model having the minimum difference after the re-evaluation is finally recognized. A character recognition method characterized by being a result.
【請求項2】 請求項1記載の文字認識方法において、
類似モデル組記憶手段に該類似モデル組中に最終的な認
識結果が含まれていないことを表示するためのリジェク
トフラグを記憶し、 詳細識別処理において、候補モデル組とモデルの組合せ
が合致する類似モデル組が該類似モデル組記憶手段に記
憶されている場合、該類似モデル組記憶手段に記憶され
ている、該候補モデル組とモデルの組合せが合致する類
似モデル組中のリジェクトフラグが有効であるときに
は、リジェクトを最終的な認識結果とし、該リジェクト
フラグが無効であるときに、該候補モデル組中の各候補
モデルの該未知文字画像との相違度を、該類似モデル組
記憶手段に記憶されている、該候補モデル組とモデルの
組合せが合致する類似モデル組中の相違度再評価のため
の係数と掛け合わせることによって再評価し、該再評価
後の相違度が最小の候補モデルを最終的な認識結果とす
ることを特徴とする文字認識方法。
2. The character recognition method according to claim 1, wherein
The final recognition in the similar model set is stored in the similar model set storage means.
Reject to indicate that no knowledge result is included
The candidate model set and the model combination in the detailed identification process.
Is stored in the similar model set storage means.
If it is remembered, it is stored in the similar model set storage means.
That the candidate model set and the model combination match
When the reject flag in the similar model group is valid
Makes the reject the final recognition result,
When the flag is invalid, each candidate in the candidate model set
The degree of difference between the model and the unknown character image is calculated using the similar model set.
The candidate model set and the model stored in the storage means.
For re-evaluation of the degree of dissimilarity in similar model sets with matching combinations
Re-evaluated by multiplying by the coefficient of
The candidate model with the smallest difference later is used as the final recognition result.
A character recognition method characterized by:
【請求項3】 請求項1記載の文字認識方法において、
類似モデル組記憶手 段に、最終的な認識結果を該類似モ
デル組以外の文字カテゴリにすべきことを表示するため
の置き換えフラグ及び置き換えコード部を記憶し、 詳細識別処理において、候補モデル組とモデルの組合せ
が合致する類似モデル組が該類似モデル組記憶手段に記
憶されている場合、該類似モデル組記憶手段に記憶され
ている、該候補モデル組とモデルの組合せが合致する類
似モデル組中の置き換えフラグが有効であるときには、
対応した該置き換え文字コード部により指定される文字
カテゴリを最終的な認識結果とし、該置き換えフラグが
無効であるときに、該候補モデル組中の各候補モデルの
該未知文字画像との相違度を、該類似モデル組記憶手段
に記憶されている、該候補モデル組とモデルの組合せが
合致する類似モデル組中の相違度再評価のための係数と
掛け合わせることによって再評価し、該再評価後の相違
度が最小の候補モデルを最終的な認識結果とすることを
特徴とする文字認識方法。
3. The character recognition method according to claim 1, wherein
A similar model pair storing hand stage, the similar mode the final recognition result
To indicate what should be a character category other than Dell
Of the candidate model set and the model in the detailed identification process.
Is stored in the similar model set storage means.
If it is remembered, it is stored in the similar model set storage means.
That the candidate model set and the model combination match
When the replacement flag in the similar model set is valid,
Character specified by the corresponding replacement character code part
The category is the final recognition result, and the replacement flag is
When invalid, each candidate model in the candidate model set is
The similarity model set storage unit stores the degree of difference from the unknown character image.
The combination of the candidate model set and the model stored in
Coefficients for re-evaluating dissimilarity in matching similar model sets
Re-evaluated by multiplication and the difference after the re-evaluation
Make the candidate model with the lowest degree the final recognition result
Character recognition method to be characterized.
【請求項4】 請求項1,2または3記載の文字認識方
法において、該辞書における各モデルは、それを含む類
似モデル組が該類似モデル組記憶手段に記憶されている
ことを表示するためのフラグを持ち、該整合処理によっ
て得られた候補モデル組中の全ての候補モデルの該フラ
グが有効であれば該詳細識別処理を行なって最終的な認
識結果を決定し、該候補モデル組中の一つの候補モデル
でも、その該フラグが無効であれば、該詳細識別処理を
行なわずに該候補モデル組中の該未知文字画像との相違
度が最小の候補モデルを最終的な認識結果とすることを
特徴とする文字認識方法。
4. The character recognition method according to claim 1, wherein each model in said dictionary is for indicating that a similar model set including the model is stored in said similar model set storage means. A flag, and if the flags of all the candidate models in the candidate model set obtained by the matching process are valid, perform the detailed identification process to determine a final recognition result; Even for one candidate model, if the flag is invalid, the candidate model having the smallest difference from the unknown character image in the candidate model set without performing the detailed identification processing is used as the final recognition result. A character recognition method characterized in that:
JP00633695A 1995-01-19 1995-01-19 Character recognition method Expired - Fee Related JP3266441B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP00633695A JP3266441B2 (en) 1995-01-19 1995-01-19 Character recognition method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP00633695A JP3266441B2 (en) 1995-01-19 1995-01-19 Character recognition method

Publications (2)

Publication Number Publication Date
JPH08194778A JPH08194778A (en) 1996-07-30
JP3266441B2 true JP3266441B2 (en) 2002-03-18

Family

ID=11635532

Family Applications (1)

Application Number Title Priority Date Filing Date
JP00633695A Expired - Fee Related JP3266441B2 (en) 1995-01-19 1995-01-19 Character recognition method

Country Status (1)

Country Link
JP (1) JP3266441B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4878057B2 (en) * 2000-11-01 2012-02-15 富士通株式会社 Character recognition method, program, and recording medium

Also Published As

Publication number Publication date
JPH08194778A (en) 1996-07-30

Similar Documents

Publication Publication Date Title
CN110096570B (en) Intention identification method and device applied to intelligent customer service robot
US4989258A (en) Character recognition apparatus
JP3950535B2 (en) Data processing method and apparatus
US9875254B2 (en) Method for searching for, recognizing and locating a term in ink, and a corresponding device, program and language
US6978044B2 (en) Pattern string matching apparatus and pattern string matching method
KR19990010210A (en) Mass Pattern Matching Device and Method
JP3266441B2 (en) Character recognition method
CN115565179A (en) Method, system and device for correcting errors after character recognition
JP3128251B2 (en) Voice recognition device
JP3071745B2 (en) Post-processing method of character recognition result
KR930012140B1 (en) Recogntion method of on-line writing down character using stroke automata
JP3121401B2 (en) Recognition dictionary and character recognition device
KR20220097844A (en) Apparatus for processing unstructured document capable of extracting units and unit value and method thereof
JPH03154985A (en) Maximum likelihood word recognizing system
JPS62281082A (en) Character recognizing device
JPH07114622A (en) Postprocessing method of character recognition device
JPS60138689A (en) Character recognizing method
JPS62257583A (en) Character recognizing system
JPH0256085A (en) Method for postprocessing for character recognition
JP4666875B2 (en) Word matching method and character recognition device
JPS6059487A (en) Recognizer of handwritten character
JPH03198180A (en) Post-processing method for character recognition
JPS6232499A (en) Word preselection system for voice recognition
JPH02166584A (en) Character read system
JPH0457182A (en) Recognizing method

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080111

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090111

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100111

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110111

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120111

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130111

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140111

Year of fee payment: 12

LAPS Cancellation because of no payment of annual fees